Mentionsy

DevTalk
08.09.2025 15:54

DevTalk #124 – O Nauce z Pomocą LLM-ów z Tomaszem Ducinem

Jeśli zastanawiasz się jak AI i LLM-y zmieniają pracę programistów, ten odcinek jest właśnie dla Ciebie. Czy sztuczna inteligencja faktycznie odbiera szanse juniorom, a może wręcz przeciwnie otwiera im nowe ścieżki rozwoju? Jak korzystać z czatów i agentów, żeby faktycznie się uczyć zamiast ulec złudzeniu, że już „wiemy wszystko”? O tym wszystkim opowie Tomasz Ducin […]

The post DevTalk #124 – O Nauce z Pomocą LLM-ów z Tomaszem Ducinem appeared first on DevTalk.

Szukaj w treści odcinka

Znaleziono 41 wyników dla "LLM"

Spotkaliśmy się dzisiaj tutaj, aby porozmawiać o AI-ach, o LLM-ach w drugiej połowie 25 roku.

W różnych publikacjach pokazujesz w jaki sposób właśnie temat naszej dzisiejszej głównej rozmowy, czyli AI i LLM.

W sumie jak uwolnisz, preferujesz nomenklaturę LLM czy AI?

Raczej stosuję sam LLM-y z uwagi na to, że w sztucznej inteligencji ona jest dużo bardziej sztuczna niż inteligencja.

Natomiast to, z czym my pracujemy, czy to pod kątem, nie wiem, kodu, czy innych rzeczy, no to są LLM-y.

Wiem, że bardzo intensywnie korzystasz z LLM-ów na co dzień i w sumie ja też i w sumie dlatego o tym właśnie z Tobą dzisiaj rozmawiamy i też w naszym wspólnym projekcie Developer Jutra również dużo bardzo na ten temat się pojawia.

Z drugiej strony LLM-y są w stanie, i to jest w zasadzie ich główny selling point, jeżeli chodzi o naukę.

I to naprawdę LLM-y są w stanie przedstawić całkiem spoko, jeżeli się umie promptować, nie mówiąc jak należy do tego podejść, bo to już może być wiedza wysoce ekspercka i jeżeli chodzi o tematy jakieś mocno zaawansowane, to nie polecam nauki z LLM-ów.

I dostaniesz takie odpowiedzi, no bo LLM będzie się nimi karmił.

Czy LLM mu pomoże?

Jest duże prawdopodobieństwo, że nie tylko LLM mu to wyjaśni, ale że w ogóle wrzuci do jakiegoś asystenta kodowania, coding assistant,

ale LLM-y w pewnym sensie nas, może nie, że zastępują, ale odbierają nam ten prosty kawałek właśnie związany z toolingiem, czy takim powiedzmy entry level, co jest moim zdaniem kolejnym krokiem w ewolucji.

Więc jeżeli chodzi o naukę, to głównie ten LLM będzie miał wystarczająco dużo dobrych materiałów, żeby się nimi karmić.

Takie mówię, chciałbym, żeby ta rozmowa nie była taka jak każda inna dostępna w internecie i w sumie fajnie, bo zaczęliśmy od dość nieoczywistego tematu, czyli nie skoczyliśmy od razu do generowania kodu za pomocą LLM-ów, tylko zaczęliśmy od tego, jak swoje kompetencje poszerzać i jak się uczyć za pomocą LLM-ów.

Natomiast jeżeli chodzi o same prompty, w LLM-ach jest tak zwany mechanizm uwagi, attention.

Zasadniczo w epoce LLM-ów generowanie tekstu jest bardzo tanie.

Tu nie chodzi o to, żeby LLM wygenerował Ci potężną ścianę tekstu, który będzie, nie wiem, lepszej czy gorszej jakości, nawet załóżmy, że dobrej jakości, ale co Ci po tym, jeżeli Ty tego nie przetworzysz, nie przeanalizujesz, nie?

Ja ucząc się z LLM-ów wychodzę z takiego punktu, że

Dodatkowo LLM-y... One mają taki plan, żeby na siebie kiedyś wreszcie zarabiały, prawda?

Jak robisz na przykład, ogólnie, LLM-y działają tak, że, znaczy może właśnie, LLM to jest jedno, agent to jest drugie, czyli narzędzie, którego używamy, to nie jest LLM, albo przynajmniej nie jest bezpośrednio LLM, tylko na początku mamy, powiedzmy, takie man in the middle, takie proxy, czyli właśnie agenta, czyli aplikację, która będzie rozbijała nasz problem na mniejsze, planowała potencjalnie, w jaki sposób się tego...

Takie coś będzie w dużym uproszczeniu robił agent i będzie wielokrokowo odpytywał LLM-a.

Mam z tyłu głowy, że to, co LLM robi, to jest pattern matching, to jest po prostu kojarzenie rzeczy.

LLM-y są świetne, żeby jak najszybciej wyjść z poziomu unknown unknowns, żeby mieć mniej więcej jakiś taki landscape, krajobraz problematyki.

LLM-y są robione tak, żeby na pierwszy rzut robiły dobre wrażenie, więc one są strasznie verbose, tak wodolejstwo trochę robią.

Ewidentnie widać, że w tej chwili z ofertami dla juniorów jest krucho, natomiast świat to jest system naczyń połączonych i nie przypisywałbym tego zjawiska, przynajmniej nie przypisywałbym go w sierpniu 2025, kiedy nagrywamy ten odcinek, tylko i wyłącznie temu zjawisku, bo moim zdaniem kwestia LLM-ów i ich wpływu na rynek pracy

Co nie wiem, wydarzyło się bardzo dużo rzeczy przed tą rewolucją LLM-ową i w sumie...

To jest wypadkowa bardzo wielu różnych czynników, więc na tym etapie ja bym był ostrożny z przypisywaniem tego konkretnie LLM-om.

A teraz LLM-y.

Natomiast druga sprawa jest taka, że jeżeli różni asystenci kodowania, różne klody, kursory, kopajloty i tam pierdyliart LLM-ów, które pod spodem można wykorzystać, jeżeli one są w stanie automatyzować, znaczy one są w dużym uproszczeniu najbardziej efektywne przy...

Z mojej perspektywy, no wiadomo, z mojej perspektywy LLM-y tutaj nic nie zmieniają, mianowicie dla mnie, wiesz, wykopać sobie ciepły kurwidołek, to jest...

Co zmieniły LLM-y?

LLM-y mogą zmienić ewentualnie w jakim kierunku się rozwijasz, w jaki sposób się rozwijasz.

LLM-y na pewno zmienią i to jeszcze zależy, czy piszesz front-endy, czy back-endy, bo tutaj jest dosyć duża różnica, czy jakieś inne rzeczy zmienią na przykład efektywność samego dowożenia kodu, nawet nie rozwiązań, ale kodu jako takiego.

Natomiast moim zdaniem pojawienie się LLM-ów, czy ich rozwój ogólnego kierunku nie zmienia mu.

i przy użyciu LLM-a wygenerować go po prostu od zera, bo to będzie po prostu szybciej.

Oczywiście tutaj kwestia wchodzi tego, na ile LLM-y, na ile dzisiejsze ceny LLM-ów, czy tam tych wszystkich narzędzi na nich budowanych są, że tak powiem, wiarygodne i jak długo one potrwają, ale pricing to jest też zupełnie inny temat, który też skądinąd poruszamy w deweloperze jutra.

dostosowywać, w sensie to jest taki naturalny krok ewolucji, będziemy dostosowywać architekturę tak, żeby w miarę możliwości, na tyle, na ile się będzie dało, LLM-y wykorzystywać do efektywniejszej pracy.

LLM nie powinien być traktowany jako nauczyciel, czy jako implementator, tylko bardziej jako sparing partner, od którego właśnie można odbić myśli, czy którego na przykład implementacja, którą wygenerował, jest punktem wyjścia dopiero do dalszej analizy.

w społecznościach temat tego, żeby na przykład zaprząc LLM-y do review kodu.

Jeżeli implementację pisze LLM, czy tam jakiś agent i review robi również LLM i agent, to kto zreviewuje review?

Wychodzimy już poza ten kontekst trochę nauki z LLM-ami i wchodzimy w aspekt implementacji, więc tutaj utniemy naszą rozmowę na dzień dzisiejszy, ale zostawiłbym taką refleksję na koniec, że wykorzystanie LLM-ów nie powinno nas jako ludzi zwalniać z odpowiedzialności, bo nawet jak to LLM coś zrobi, my to odpowiedzialni nadal jesteśmy my.