Mentionsy

Escola AI
26.11.2025 17:26

AI u PM : prawda, hype i praktyka Tomek Tomaszewski - EAI #199

Jeśli jedyne, co AI zmieniło w twojej pracy, to liczba śmiesznych promptów na Slacku…to znaczy, że rewolucja wciąż cię omija szerokim łukiem.

A w tym czasie inni PM-owie przebudowują workflowy tak, że zostawiają konkurencję rok w tyle. Nie tylko dzięki AI, a głównie z powodu zmiany sposobu myślenia.

W Escola AI gościmy dziś Tomka Tomaszewskiego — product managera, który zaczynał od NLP, budował boty w SentiOne, szkoli PM-ów w Product Academy i nie bawi się w AI na slajdach.

Tomek dokładnie widzi, gdzie AI naprawdę daje przewagę, a gdzie jest tylko kolejną prezentacją z gradientem i głośnym hasłem „AI-first”.

Porozmawiamy o tym, dlaczego większość firm nadal źle używa AI, dlaczego dane są więcej warte niż sam model, i dlaczego największą barierą nie jest technologia, tylko to, że trzeba… oduczyć się połowy tego, co PM-owie robią od lat.

Te kwadrat dziś rozkłada na czynniki pierwsze, jak wygląda prawdziwa praca z AI, i dlaczego najlepsze produkty powstają tam, gdzie PM nie boi się zaczynać od pustej kartki.


00:00 – Intro

01:05 – Kim jest Tomek i Product Academy

04:30 – AI w pracy PM-a

10:30 – Przykłady z SentiOne

15:09 – Dlaczego projekty AI nie dowożą

21:43 – AI-first, AI-augmented, human-first

27:38 – Fosa danych i metryki

35:23 – Oduczanie się i nowe workflowy

40:37 – Sceptycyzm i ciemne strony AI

46:56 – „AI dla AI” i prawdziwi praktycy

50:03 – Jak wybierać, czego się uczyć

54:12 – Książki i społeczność PM-ów

57:43 – Kontakt z Tomkiem

58:14 – Outro


Muzyka: Kevin MacLeod Werq Kevin MacLeod (incompetech.com)

Licensed under Creative Commons: By Attribution 4.0 License/mix by Jedrzej Paulus https://creativecommons.org/licenses/by/4.0/

Oceń nasz podcast na Apple Podcasts: https://bit.ly/EscolaMobileIT


Szukaj w treści odcinka

Znaleziono 7 wyników dla "LLM"

i słusznie na LLM-y, natomiast wtedy bardziej deep learning, machine learning to się w taki sposób nazywało i budowało się różnego rodzaju modele, bardziej do konkretnych zastosowań.

Z drugiej strony mamy możliwości, które dają modele AI-owe, na przykład rozpoznawanie obrazu, na przykład, nie wiem, LLM, który coś robi, na przykład tworzenie w ogóle obrazów czy wideo, to dają modele.

roku bym nie wydał godziny, bo ja sobie szybko to sprawdzę jakimś LLM-em, nie opłaca mi się ta automatyzacja.

I my w Senti też mieliśmy taką sytuację oczywiście, że mimo, że byliśmy bardzo mocno jajałą firmą, no to zaczęły wchodzić LLM-y.

My LLM-ów wtedy jeszcze nie wykorzystaliśmy.

Skoro jesteśmy jaja i wręcz first, to musimy jako pierwsi zacząć wykorzystywać LLM-y.

Okej, ale znaleźliśmy jakiś problem albo zróbmy to w jakimś problemie użytkownika, który jest realny, a nie po prostu zacznijmy robić sobie po prostu AI dla AI i tam finalnie zaczęliśmy robić podsumowania wielu wzmianek, że jak mamy tysiąc wypowiedzi w internecie, no to rzeczywiście LLM może przygotować podsumowanie, co tam jest.