Mentionsy

Escola AI
Escola AI
26.11.2025 17:26

AI u PM : prawda, hype i praktyka Tomek Tomaszewski - EAI #199

Jeśli jedyne, co AI zmieniło w twojej pracy, to liczba śmiesznych promptów na Slacku…to znaczy, że rewolucja wciąż cię omija szerokim łukiem.

A w tym czasie inni PM-owie przebudowują workflowy tak, że zostawiają konkurencję rok w tyle. Nie tylko dzięki AI, a głównie z powodu zmiany sposobu myślenia.

W Escola AI gościmy dziś Tomka Tomaszewskiego — product managera, który zaczynał od NLP, budował boty w SentiOne, szkoli PM-ów w Product Academy i nie bawi się w AI na slajdach.

Tomek dokładnie widzi, gdzie AI naprawdę daje przewagę, a gdzie jest tylko kolejną prezentacją z gradientem i głośnym hasłem „AI-first”.

Porozmawiamy o tym, dlaczego większość firm nadal źle używa AI, dlaczego dane są więcej warte niż sam model, i dlaczego największą barierą nie jest technologia, tylko to, że trzeba… oduczyć się połowy tego, co PM-owie robią od lat.

Te kwadrat dziś rozkłada na czynniki pierwsze, jak wygląda prawdziwa praca z AI, i dlaczego najlepsze produkty powstają tam, gdzie PM nie boi się zaczynać od pustej kartki.


– Intro

– Kim jest Tomek i Product Academy

– AI w pracy PM-a

– Przykłady z SentiOne

– Dlaczego projekty AI nie dowożą

– AI-first, AI-augmented, human-first

– Fosa danych i metryki

– Oduczanie się i nowe workflowy

– Sceptycyzm i ciemne strony AI

– „AI dla AI” i prawdziwi praktycy

– Jak wybierać, czego się uczyć

– Książki i społeczność PM-ów

– Kontakt z Tomkiem

– Outro


Muzyka: Kevin MacLeod Werq Kevin MacLeod (incompetech.com)

Licensed under Creative Commons: By Attribution 4.0 License/mix by Jedrzej Paulus https://creativecommons.org/licenses/by/4.0/

Oceń nasz podcast na Apple Podcasts: https://bit.ly/EscolaMobileIT


Szukaj w treści odcinka

Znaleziono 7 wyników dla "LLM"

i słusznie na LLM-y, natomiast wtedy bardziej deep learning, machine learning to się w taki sposób nazywało i budowało się różnego rodzaju modele, bardziej do konkretnych zastosowań.

Z drugiej strony mamy możliwości, które dają modele AI-owe, na przykład rozpoznawanie obrazu, na przykład, nie wiem, LLM, który coś robi, na przykład tworzenie w ogóle obrazów czy wideo, to dają modele.

roku bym nie wydał godziny, bo ja sobie szybko to sprawdzę jakimś LLM-em, nie opłaca mi się ta automatyzacja.

I my w Senti też mieliśmy taką sytuację oczywiście, że mimo, że byliśmy bardzo mocno jajałą firmą, no to zaczęły wchodzić LLM-y.

My LLM-ów wtedy jeszcze nie wykorzystaliśmy.

Skoro jesteśmy jaja i wręcz first, to musimy jako pierwsi zacząć wykorzystywać LLM-y.

Okej, ale znaleźliśmy jakiś problem albo zróbmy to w jakimś problemie użytkownika, który jest realny, a nie po prostu zacznijmy robić sobie po prostu AI dla AI i tam finalnie zaczęliśmy robić podsumowania wielu wzmianek, że jak mamy tysiąc wypowiedzi w internecie, no to rzeczywiście LLM może przygotować podsumowanie, co tam jest.