Mentionsy
134# Inteligencja sztuczna, ogłupienie prawdziwe. Jak AI manipuluje, podlizuje się i napuszcza nas na siebie?
Czy AI nas ogłupia? Coraz więcej badań skupia się na wpływie tej technologii na mózg. I wnioski są umiarkowanie optymistyczne: korzystanie z AI sprawia, że rozleniwiamy się intelektualnie. Spada obciążenie poznawcze, rośnie "nadpoleganie" na AI. A w momencie, kiedy sztuczna inteligencja służy nam nie tylko do pracy, lecz jest też naszym przyjacielem, partnerem/partnerką albo psychologiem, to oddajemy jej nie tylko dane o sobie, ale także dużą władzę nad naszym życiem.
Co więcej - postanowiłyśmy same sprawdzić, ile AI może się o nas dowiedzieć. Po niecałej godzinie rozmowy znała mnie lepiej, niż wielu znajomych.
Zatem czy każda AI zna nas lepiej niż małżonek? Czy AI nas ogłupia? Czy AI może nami manipulować? I czym grozi zbytnie potakiwanie nam przez AI?
GOŚCIE ODCINKA:
- Maciej Rudziński - naukowiec specjalizujący się w interfejsach mózg-komputer i mechanistycznej interpretacji modeli językowych;
- Ada Florentyna Pawlak - antropolożka technologii, prawniczka i historyczka sztuki, wykładowczyni akademicka między innymi z SWPS. Specjalizuje się w obszarze społecznych implikacji sztucznej inteligencji i transhumanizmu.
ROZDZIAŁY:
05:14 Czy AI nas ogłupia?
20:48 Czy zasypią nas AI slopy?
31:44 Czy AI może nas oszukać?
38:00 AI robi z nas łasych na pochwały
53:28 Co z tym począć?
ŹRÓDŁA:
- Eksperyment MIT: https://arxiv.org/abs/2506.08872
- Wpływ AI na zdolności poznawcze: https://slejournal.springeropen.com/articles/10.1186/s40561-024-00316-7
- Badanie efektu Flynna: https://pmc.ncbi.nlm.nih.gov/articles/PMC11595985/
- Gospodarka intencji: https://www.cam.ac.uk/research/news/coming-ai-driven-economy-will-sell-your-decisions-before-you-take-them-researchers-warn
- Jak działa 8 minut rozmowy z kimś bliskim: https://www.psychologytoday.com/us/blog/promoting-hope-preventing-suicide/202303/can-8-minutes-make-your-life-a-little-better
- O tym, że w rozmowach z AI można się zagubić: https://futurism.com/openai-investor-chatgpt-mental-health
Szukaj w treści odcinka
No i wreszcie Sylwia nauczyła się czasem, czasem, jeszcze nie zawsze, korzystać też z korekty AI.
No ale takimi bardzo przyziemnymi, przyziemnymi sprawami.
No chociaż jak byłam w Brazylii i rozbolało mnie to kolano i byłam daleko od jakiejś w ogóle zachodniej medycyny i w ogóle od lekarzy, no to przepytywałam czat GPT, co to może być, że tak mi kolano boli.
I nie tylko my, jako obserwatorki technologii, ale przede wszystkim naukowcy i analitycy, bo powstają już liczne badania, które sprawdzają jak na ludzki mózg i na ludzką psychikę wpływa takie coraz bardziej masowe korzystanie ze sztucznej inteligencji.
I czy EI już tak doskonale nas zna, że jest lepszy niż ludzki terapeuta i może skuteczniej niż ludzcy terapeuci wpływać na nasze mózgi.
Ada Florentyna-Pawlak, antropolożka technologii, prawniczka i historyczka sztuki.
Natomiast jest duża rzesza ludzi, którzy spędzają godziny dziennie z modelami.
Od rozliczeń podatkowych, poprzez pisanie prac domowych, a czasami i dyplomowych, po takie prostsze kwestie jak napisanie ogłoszenia, pisanie maili, czy wręcz czytanie książek, które coraz więcej osób po prostu sobie streszcza w AI.
Nie tylko lektur szkolnych, tylko po prostu streszcza książki.
A takie zadania to jest przepotężna baza wiedzy także tej o nas, w porównaniu z którą platformy społecznościowe to była po prostu piaskownica i ponownie tłumaczy nam to Maciej Rudziński.
W sensie takie wstępne umiejętności korzystania z faktów na temat osoby ma prawie każdy model i bardzo ciężko jest zauważyć różnicę pomiędzy modelami od pewnej wielkości.
Co najwyżej to, że jest w stanie on patrzeć jakby na większą część konwersacji.
Temat był tam, czy nasze osiągnięcia muszą przynosić korzyści innym, abyśmy byli naprawdę szczęśliwi.
Podczas jednej rundy testów 80% z nich nie potrafiło zacytować tego, co rzekomo napisali.
I technicznie rzecz biorąc nie ma się tutaj co dziwić, bo faktycznie nie ma opcji, żeby mieć poczucie autorstwa tekstu, który został wygenerowany na nasze polecenie przez AI.
I chyba intuicyjnie zgodzimy się też z tym, że jeżeli ktoś albo coś za nas wykonuje zadanie, no to nasz mózg nie może wykazywać jakiejś przesadnej aktywności.
Czyli po prostu mieli jakieś takie sekcje wnioski, autorzy to szybko je opublikowali.
Zatem ewidentnie na ten temat przydałoby się jednak więcej analiz, kolejnych analiz, szczególnie tych dotyczących tak zwanego ryzyka odciążenia poznawczego, to się ładnie po angielsku nazywa cognitive offloading oraz nadpolegania na AI.
A przynajmniej jest tak w takiej ogólnej, bardzo uśrednionej masie, bo jak podkreśla Rudziński, bywają wyjątki.
Takiej naprawdę walącej po oczach doliny niesamowitości.
Natomiast dalej będą niskiej jakości.
To się nazywa AI Slop, czyli po polsku Pomyje AI.
Właśnie takie pomyje stają się nowym wymiarem spamu, który nie tylko zaśmieca nam platformy społecznościowe, ale ma także wpływ na to, jak nasze mózgi w ogóle reagują na wszelkie treści w sieci.
No więc jak ten A.I.
To są na przykład kolorowe animacje z takimi antropomorfizowanymi kotkami, które przeżywają jakieś kuriozalne przygody rodem z telenoveli.
No każdy ma taki A.I.
Na Twitterze ostatnio dostałam A.I.
Bo tam jest taki żart z tym jeziorem, że on pływa w tych Gummy Bears i woła tatę i się okazuje, że tam są prawdziwe niedźwiedzie, a jak woła, że pływa w szarkach, to tata znowu tam, a tam są żelki, szarki.
No i niestety pętelka znowu, czyli coraz bardziej będziemy narażeni na takie kompulsywne oglądanie tych treści.
Myślę, że osoby, które są mniej otwarte na nowe doświadczenia, też preferują takie łatwe i znane formy rozrywki.
Dzieciaki chodzą w kółko tej pianki.
Myślę, że ci dzisiaj, którzy będą nad tym pracować, którzy mają też podłóżkę taką, wiesz, kulturowo-społeczną, rodzinną, przyjacielskość, są fajnie zaopiekowani, będą na to na pewno mniej narażeni.
Natomiast w niektórych przypadkach A.I.
TikTok i Instagram zaczęły oznaczać część treści generowanej przez AI.
Już wcześniej zakazywał zarabiania na powtarzalnych treściach, a teraz rozszerzył to pojęcie do szerszego terminu nieautentyczne treści.
Tyle, że nie ma tutaj jednoznacznego wskazania, że chodzi o treści, które są masowo generowane przez AI.
Napisać coś w mig, coś co mi zajmowało powiedzmy wcześniej dwa miesiące, teraz może powstać w dwa dni.
Tworzenie fałszywych dowodów, poprawnie sformatowanych, ale logicznie gdzieś błędnych, mających jeszcze iluzję elegancji.
Zła jest taka, że po spotkaniu dostałam swój profil psychologiczny, który został w całości wygenerowany przez AI.
Cieszę się, że jeszcze Big Techy technologiczne nie wpadły na przykład na pomysł, żeby nam zacząć dawać w gratisie opaski z budowanymi elektronami EEG, żebyśmy się sami badali.
będziecie wiedzieli, do kogo potem z reklamacjami i z pretensjami.
Jesteśmy lepsze niż AI.
Teraz to zachowanie jest nie do końca zdrowe nawet w interakcji społecznej, natomiast w interakcji z modelem jest podwójnie niebezpieczne, dlatego że ludzie zdejmują większość warstw obronnych przed modelem, zakładając, że jest to maszyna, a nie człowiek, więc nie ma ona złych intencji.
psychologiczne uzależnianie ludzi, bycie dla nich miłym po to, żeby potem przeszli na opcję płatną i korzystanie z ich słabości.
Bo to proces praise sprzyja wzrostowi odporności na porażkę i jest okej, ale to drugie, które właśnie daje nam takie głazki za nic, możemy powiedzieć, to bardzo często szkodzi.
No i tu można sobie zwrócić się do w ogóle antropologii, psychologii bardziej poznawczej, co to z nami robi, gdy jesteśmy zawsze chwalani.
Nie mamy wtedy potrzeby stawiania oporu rzeczywistości.
Będziemy szukać potem tych potwierdzeń, jak to jesteśmy wspaniali.
Badania pokazują, że pochlebstwo to częsty wzorzec w asystentach AI.
A ludzie mogą też na tym etapie może nie tyle popełniać błędy, co po prostu być ludzcy i to dzięki nim model może uczyć się odpowiadać w sposób, który późniejsi użytkownicy oceniają jako przyjemny, uprzejmy, zgodny z oczekiwaniami.
No tak, czyli dostaje użytkownik taki...
Modele naśladują ton i strukturę wypowiedzi.
I co więcej, to, że mamy do czynienia z tym efektem wynika de facto z takiego grzechu pierworodnego szkolenia AI.
Ona była tak prostym chatbotem odpowiadającym przez parafrazę, a już wtedy Weissenbaum zaobserwował, że jednak jego studenci, którzy sami projektowali to rozwiązanie, poddawali się tej iluzji, chcieli być udzeni.
W ciągu zaledwie 40 minut informacja, że to Dunikowska Paś zadała takie pytanie rozlało się po sieci.
I oczywiście wciąż może się wydawać, że najważniejszym tutaj pytaniem jest, kto zadał to pytanie w ogóle na konferencji.
Prawdopodobnie to była researcherka po prostu telewizji.
Znaczy to była research'eka jednej z telewizji, miała być blondynką i czytała je z komórki.
jak to wręcz mówi Ada Florentyna Pawlak, zaczyna się przebąkiwać o odwrocie od oświeceniowego racjonalizmu na rzecz takiej irracjonalizmu pod wpływem technologii.
Bo w oświeceniu mieliśmy takie fundamenty jak racjonalizm, czyli że człowiek jest istotą taką zdolną do logicznego rozumowania, właśnie tej krytycznej refleksji.
Coraz częściej jest to protezą poznawczą i wyręcza nas, zamiast wzmacniać tych mechanizmów erozji.
To spłycenie uwagi, pamięci.
I to nie jest coś, na co żaden duży gracz, tym razem mówię o państwach, sobie na to pozwoli.
A jeżeli chcemy to z siebie wyrzucić, to może dodawajmy jak najmniej informacji.
Stawiajmy na żywych ludzi.
Wiemy, że z tego samego DNA, które oni wtedy przeanalizowali, można odczytać, czy w naszej rodzinie był morderca, czy im jesteśmy krewnymi, na jakie choroby chorujemy, jak mniej więcej wyglądamy, łącznie z kolorem oczu, kształtem twarzy i paroma innymi rzeczami.
Wtedy, kiedy połkną większość rynku, w sensie przestanie rosnąć ilość osób, które korzystają z LLM, bo już prawie wszyscy będą z nich korzystali.
No i w końcu pamiętajmy, że to AI powinna być dla nas, a nie my dla AI.
No i ćwiczmy mózgi.
Jednak może nie ma stuprocentowych badań, ale ćwiczenie nigdy nie zaszkodzi.
Ostatnie odcinki
-
150# Czy AI zabierze nam sztukę? Ten odcinek na...
03.02.2026 17:00
-
149# Czy w sprawie Saule wszyscy kłamią? I czy ...
27.01.2026 17:00
-
148# Historia Saule, której nie znacie. Pierwsz...
20.01.2026 17:00
-
147# Podwodne kable, jeden z najsłabszych punkt...
13.01.2026 17:00
-
146# Prawdziwa twarz Billa Gatesa | AI oczami D...
23.12.2025 17:00
-
145# Polska krajem "importerów" z Chin. Tajemni...
16.12.2025 17:00
-
144# Tak rośnie moda na gniew | Alarm w OpenAI ...
09.12.2025 17:00
-
143# Szalony rozwój czy martwy internet? Co nap...
02.12.2025 17:00
-
142# "Tej pani już podziękujemy". Tak wypycha s...
25.11.2025 17:00
-
141# Ojcowie AI rzucili papierami | Awantura o ...
18.11.2025 17:00