
Mentionsy

Limity AI: #12 Dlaczego LLMy nie mogą przestać kłamać?
Tzw. halucynacje (zwane też konfabulacjami) to ryzyko, którego nie da się wyeliminować. Niby to wiemy od początku istnienia LLM-ów, ponieważ sam sposób ich trenowania i "rozproszonego" przechowywania przez nie informacji oraz ich przetwarzania przy pomocy tzw. embeddingów (funkcji wektorowych) powoduje, że każda treść generowana przez nie w interakcji z nami (każda odpowiedź na prompta) nie jest zwykłym przywoływaniem dostępnych danych, ale ich statystycznym uogólnieniem. Niektórzy łudzili się jednak, że to tylko przejściowy, tymczasowy problem – że uda się w końcu wypracować rozwiązanie, które wyeliminuje treści nieprawdziwe, zachowując zalety generatywności. Dziś już wiemy, że to niemożliwe – że nie jest to problem techniczny, który by można rozwiązać lepszą inżynierią, ale cecha matematyczna systemów jakimi są LLMy. Co to oznacza w praktyce? Nie masz żadnej gwarancji (i nie możesz mieć nigdy!), że informacja podana przez LLMa nie jest nieprawdziwa. Tam więc, gdzie ryzyko fałszywej informacji jest biznesowo nieakceptowalne, nie możesz polegać wyłącznie na LLMie – musisz wprowadzić do decyzyjnej pętli ludzkiego eksperta (tzw. "man in the loop"). A zatem: czym są halucynacje? Jakie ich typy najczęściej występują? Z czego wynikają? Dlaczego tzw. RAGi (Retrieval Augmented Generation) czy browsing, choć ograniczają ich ryzyko, nie mogą tego ryzyka wyeliminować? I co na ten temat myślą twórcy LLMów? Special Guest: prof. Michał Karpowicz.
Witaj w podcaście MIT Sloan Management Review Polska. Inspirujemy liderów przyszłości. Witamy w dwunastym odcinku cyklu Limity AI, w którym z naszymi gośćmi, badaczami nowych technologii, naukowcami, inżynierami AI i praktykami biznesu krytycznie badamy dyskusję wokół AI i próbujemy zrozumieć o co w tej dyskusji właściwie chodzi. Co jest w niej rzetelnym, popartym naukowo faktem, a co clickbaitowym, marketingowym spinem, futurystyczną spekulacją czy wręcz dezinformacją służącą grze kapitału....
Search in Episode Content
Recent Episodes
-
Mentoring dla Liderów C-Level: Rozwój, Samotnoś...
17.10.2025 14:00
-
Jak dzięki AI zwiększyć sprzedaż i poprawić obs...
16.10.2025 16:00
-
Bądź dobrym szefem i... spróbuj nie zwariować
10.10.2025 11:30
-
Limity AI: #12 Dlaczego LLMy nie mogą przestać ...
09.10.2025 15:00
-
Gotowi na Gen Z: #1 Roszczeniowi czy świadomi? ...
06.10.2025 14:00
-
Limity AI: #11 AI w e-commerce – jak się za to ...
18.09.2025 12:00
-
Podcast MIT SMRP. Prawdziwa rewolucja: sztuczne...
11.09.2025 13:00
-
Zdrowie Lidera: #3 Motywacja w świecie wypaleni...
09.09.2025 16:00
-
Jak budować zaangażowanie, jak rozwijać zespoły...
18.08.2025 15:00
-
Limity AI: #10 Wojny kognitywne i suwerenność p...
07.08.2025 15:00