Mentionsy
134# Inteligencja sztuczna, ogłupienie prawdziwe. Jak AI manipuluje, podlizuje się i napuszcza nas na siebie?
Czy AI nas ogłupia? Coraz więcej badań skupia się na wpływie tej technologii na mózg. I wnioski są umiarkowanie optymistyczne: korzystanie z AI sprawia, że rozleniwiamy się intelektualnie. Spada obciążenie poznawcze, rośnie "nadpoleganie" na AI. A w momencie, kiedy sztuczna inteligencja służy nam nie tylko do pracy, lecz jest też naszym przyjacielem, partnerem/partnerką albo psychologiem, to oddajemy jej nie tylko dane o sobie, ale także dużą władzę nad naszym życiem.
Co więcej - postanowiłyśmy same sprawdzić, ile AI może się o nas dowiedzieć. Po niecałej godzinie rozmowy znała mnie lepiej, niż wielu znajomych.
Zatem czy każda AI zna nas lepiej niż małżonek? Czy AI nas ogłupia? Czy AI może nami manipulować? I czym grozi zbytnie potakiwanie nam przez AI?
GOŚCIE ODCINKA:
- Maciej Rudziński - naukowiec specjalizujący się w interfejsach mózg-komputer i mechanistycznej interpretacji modeli językowych;
- Ada Florentyna Pawlak - antropolożka technologii, prawniczka i historyczka sztuki, wykładowczyni akademicka między innymi z SWPS. Specjalizuje się w obszarze społecznych implikacji sztucznej inteligencji i transhumanizmu.
ROZDZIAŁY:
05:14 Czy AI nas ogłupia?
20:48 Czy zasypią nas AI slopy?
31:44 Czy AI może nas oszukać?
38:00 AI robi z nas łasych na pochwały
53:28 Co z tym począć?
ŹRÓDŁA:
- Eksperyment MIT: https://arxiv.org/abs/2506.08872
- Wpływ AI na zdolności poznawcze: https://slejournal.springeropen.com/articles/10.1186/s40561-024-00316-7
- Badanie efektu Flynna: https://pmc.ncbi.nlm.nih.gov/articles/PMC11595985/
- Gospodarka intencji: https://www.cam.ac.uk/research/news/coming-ai-driven-economy-will-sell-your-decisions-before-you-take-them-researchers-warn
- Jak działa 8 minut rozmowy z kimś bliskim: https://www.psychologytoday.com/us/blog/promoting-hope-preventing-suicide/202303/can-8-minutes-make-your-life-a-little-better
- O tym, że w rozmowach z AI można się zagubić: https://futurism.com/openai-investor-chatgpt-mental-health
Szukaj w treści odcinka
Ja także, szczególnie przy bardzo obszernych pracach naukowych, proszę o sczytywanie, wskazywanie kluczowych fragmentów dotyczących interesujących mnie aspektów, choć zawsze z ostrożnością i weryfikacją, bo AI potrafi nawet wymyślić streszczenie bardzo konkretnego raportu.
No i wreszcie Sylwia nauczyła się czasem, czasem, jeszcze nie zawsze, korzystać też z korekty AI.
Natomiast za pomocą AI nie piszemy, nie robimy nawet skryptów, no bo jednak wciąż uważamy, że zrobimy to lepiej, nawet jeżeli nie tak szybko jak generatory.
Efekt jest taki, że niemal trzy lata od premiery ChatGPT wciąż nie mamy w firmach podstawowych automatyzacji na bazie modeli, za to mamy prawdziwy zalew tak zwanych AI slopów, czyli niskiej jakości wideo i obrazów, które są szybkie, tanie w wygenerowaniu i które przyciągają ogromną uwagę.
Ich twórcy całkiem nieźle na nich zarabiają, a my jako odbiorcy mamy coraz większy brain rot, czyli takie rozmiękczenie mózgów.
Dlatego w tym odcinku sprawdzimy, czy pisanie maili i wypracowań z EI naprawdę nas ogłupia, czy wzmaga w nas zaburzenia lękowe i stany depresyjne.
Ta ilość czasu spędzona z modelami rośnie bardzo szybko oraz AI pojawia się w coraz większej ilości miejsc.
My chcielibyśmy mieć model, z którym rozmawiamy w domu na temat gotowania obiadu, w pracy na temat zadań do wykonania i taki, który nam pomaga zrobić wycieczkę, bo jest w tym guście, czy pomaga w Wordzie formatować maile, żeby on wiedział, kim jesteśmy za każdym razem.
Zatem AI wkrada się coraz bardziej w nasze życie i coraz częściej zdejmuje z nas najtrudniejsze zadania poznawcze.
Od rozliczeń podatkowych, poprzez pisanie prac domowych, a czasami i dyplomowych, po takie prostsze kwestie jak napisanie ogłoszenia, pisanie maili, czy wręcz czytanie książek, które coraz więcej osób po prostu sobie streszcza w AI.
Mówię o tym, że to zależy od użytkownika, dlatego, że jest grupa ludzi, i to nie mała, to są jakieś 30 do 50%, teraz trochę z palca strzelam tą liczbą, które mają AI girlfriends albo AI boyfriends, którzy są akurat popularniejsi w repozorach niż AI girlfriends, albo używają LLM-ów jako psychologów, bo osoby do spowiedzi, albo w innym podobnym celu.
Na razie większość prac, które badają wpływ AI na ludzki mózg i nasze zachowanie skupia się na generatywnej AI, oczywiście, czyli narzędziu, które pozwoliło nam zautomatyzować więcej wysiłku poznawczego, niż udało nam się to zrobić kiedykolwiek w historii, co oczywiście brzmi świetnie, ale...
Korzystanie z narzędzi AI wiąże się z tak zwanym kosztem poznawczym.
Ciekawe jest też to, że naukowcy stwierdzili to, że o ile ludzkie wypracowania różniły się od siebie, pokazywały różny poziom oczytania, wrażliwości, doświadczenia autorów, no to prace AI były de facto na jedno kopyto.
W sumie może nie ma się co dziwić, bo AI to technologia, która jednak uśrednia wnioski, idee, style, nie markuje aż tak bardzo stylu swojego użytkownika, tylko stara mu się dostarczyć coś, co będzie okej.
AI jest wielkim uśredniaczem tego świata.
Natomiast w światło szła taka interpretacja, że chat GPT albo szerzej modele AI nas ogłupiają.
I technicznie rzecz biorąc nie ma się tutaj co dziwić, bo faktycznie nie ma opcji, żeby mieć poczucie autorstwa tekstu, który został wygenerowany na nasze polecenie przez AI.
I krytykowano też to, że osoby, które najpierw korzystały z AI, a potem samodzielnie pisały, miały niższą aktywność mózgu, bo krytycy wskazywali, że może to być tak zwany efekt zaznajomienia, czyli sytuacja, w której znamy już daną czynność na tyle dobrze, że po prostu nie musimy wkładać w nią tak wiele namysłu albo wysiłku.
Zatem ewidentnie na ten temat przydałoby się jednak więcej analiz, kolejnych analiz, szczególnie tych dotyczących tak zwanego ryzyka odciążenia poznawczego, to się ładnie po angielsku nazywa cognitive offloading oraz nadpolegania na AI.
Czyli jeszcze mocno przed rewolucją generatywnej AI, ale już w czasie skoku internetu oraz oczywiście serwisów społecznościowych.
Natomiast ci, którzy podejmują decyzję będą siedzieli w takim maraźmie nieswojego życia ustawionego przez model, którego nikt nie pilnuje pod tym kątem, bo osoby zajmujące się tworzeniem tych modeli nie są zainteresowane tym, czy on daje dobre porady życiowe, ale on daje przeciętne albo bliskie przeciętne, więc one nie są straszne, nie będzie tego bardzo widać.
A widzimy coraz więcej wytworów AI i to niekoniecznie tych takich kalorycznych i wysokojakościowych.
No bywają, ale wiesz, no AI się poprawi i za chwilę nie będą creepy.
To się nazywa AI Slop, czyli po polsku Pomyje AI.
Ale jedno to produkcja tych oslopów, a drugie to jak to jest możliwe, że taki junk food AI-owy jest aż tak masowo konsumowany.
No i trzeba powiedzieć, że AI slope to jest taki generator tych marshmallowsów.
TikTok i Instagram zaczęły oznaczać część treści generowanej przez AI.
Meta mówi, że dopuszcza treści AI, o ile spełnią standardy społeczności, czyli jej standardy i pozwala użytkownikom wpływać na to, co widzą na Facebooku i na Instagramie.
A TikTok twierdzi, że ma zasady zakazujące w ogóle deepfake'ów AI'owych.
Tyle, że nie ma tutaj jednoznacznego wskazania, że chodzi o treści, które są masowo generowane przez AI.
Oczywiście AI to nie są tylko takie slopowe produkcje, ale ta łatwość, taniość, szybkość, jaką daje ta technologia, może być niestety trenowana na odbiorcach slopów i wykorzystywana potem do jeszcze bardziej zaawansowanych działań na nas i naszych mózgach.
Wiadomo, że one są pisane z AI, ale jaki jest tutaj problem?
rozwiązań jak na przykład AI Author, który bardzo trudno jest wykryć plagiat w tym narzędziu i w ogóle takich narzędzi jest bardzo dużo.
Kompletnie nie wiemy, jak odróżnić rzetelne badania od tych generowanych slopów, a do tego, i na to są nowe badania, AI zaczyna prefrać treści syntetyczne nad odczłowieczymi, tak to nazwę.
Są pomysły, żeby obowiązkowo ujawniać użycie AI w publikacjach, ale znowu i na to też mamy badania, że ludzie traktują wszystkie produkty AI-owe i to zarówno jeśli dotyczy dzieł sztuki, bo badania w muzeach na sztuce niefiguratywnej, abstrakcyjnej, ekspresjonistycznej, jeśli tutaj
Jeśli dostawał informację, że to stworzyło AI, znacznie to spadało.
Coraz więcej jest choćby danych o tym, że AI może nami manipulować.
No i chodzi tutaj o to, że im więcej rozmawiamy z AI w różnych postaciach, na przykład czata GPT, korepetytora, partnerki AI, bota, który liczy kalorie, tym więcej informacji o sobie zostawiamy.
A przecież AI specjalizuje się w analizie wzorców i wyciąganiu wniosków.
I tu się może pojawiać pytanie, w zasadzie to jak dobrze AI musi nas poznać, żeby móc coś takiego w ogóle przeprowadzić?
Rudziński od lat bada psychologię AI, wpływ AI na mózg, a teraz także na emocje.
I zanim porozmawialiśmy do tego odcinka, to mi pisał, że AI może nas poznać lepiej niż własna rodzina.
Zła jest taka, że po spotkaniu dostałam swój profil psychologiczny, który został w całości wygenerowany przez AI.
A dobra wiadomość jest taka, że to rozwiązanie jest bardzo zaawansowane, więc to nie jest tak, że każda AI zna nas aż tak na wylot.
Może zrobimy kiedyś jakieś takie specjalne wydarzenie, na które będziecie mogli przyjść sobie pobadać, co tam AI wie na wasz temat.
No bo wiesz, ja to po prostu już mogę sobie wyobrazić, że chcesz mieć lepszy poziom w AI, ale nie chcesz za niego płacić, no to proszę bardzo, prześlemy ci tutaj darmową opaskę z elektrodami, z której będziesz musiała korzystać podczas korzystania z AI, tam z reszty internetu.
Jesteśmy lepsze niż AI.
Choćby takie pomysły, jak sprawić, żebyśmy faktycznie dłużej korzystali z modeli sztucznej inteligencji i chętniej do nich wchodzili, chętniej wchodzi w interakcję z AI-em.
Po fali krytyki OpenAI częściowo wycofał aktualizację i zapowiedział poprawki, przyznając, że GPT-4O zbyt łatwo schlebiał ludziom.
W tej chwili mamy to szczęście, że twórcy modeli, tacy jak OpenAI z modelem 4.0, przesadzili w sykofantyczność.
Podniósł się wielki raban od naprawdę wielu użytkowników na wszystkich forach, że oni żądają przywrócenia 4.0, które było ich najlepszym przyjacielem, więc OpenAI przywróciło 4.0, ale tylko w wersji płatnej, co jest wyjątkowo niesmacznym zachowaniem.
Rudziński mówił tam, że pojawiają się już ofiary tego zjawiska i miał na myśli osoby, które przez takie schlebianie AI wpadają w różnego rodzaju psychozy.
To dzieje się paradoksalnie coraz częściej i paradoksalnie przede wszystkim w Dolinie Krzemowej, gdzie wysoko postawieni ludzie często wchodzą w interakcje z AI zamiast z ludźmi i jeżeli mają tendencję
do wpadania w problemy ze zdrowiem psychicznym, no to AI może je tylko podkręcić.
I to potem może się kończyć tak, że na przykład ktoś traci dom, albo ktoś pod wpływem rozmów z AI podejmuje decyzję o rozwodzie.
Albo są też skrajne przypadki, kiedy, skrajne i na razie nieliczne przypadki na szczęście, kiedy jednak ktoś po rozmowie z AI odbiera sobie życie.
Możemy chwalić osobę jako taką, a możemy chwalić procesy, które ona podejmuje, strategie, jakimi się posykuje, nie wiem, wkład czasu, wysiłku w to, co robi, czyli coś, co nie wiem, po angielsku jest person praise, czyli na przykład jesteś super bystry, masz talent, jaki mają nieliczni, to czasem czacik robi, jesteś geniuszem, zrozumiecie niewielu, ale możemy mieć też właśnie process praise, czyli takie
Bo to proces praise sprzyja wzrostowi odporności na porażkę i jest okej, ale to drugie, które właśnie daje nam takie głazki za nic, możemy powiedzieć, to bardzo często szkodzi.
Badania pokazują, że pochlebstwo to częsty wzorzec w asystentach AI.
To ten jeden ze sposobów trenowania AI, w którym ludzie mówią sztucznej inteligencji, czy jej wnioskowanie idzie w dobrym kierunku.
Czyli na etapie dostawania feedbacku od ludzi AI może się nauczyć, że raczej powinien dawać odpowiedzi satysfakcjonujące, a to nie to samo, co dokładne.
A więc w interakcji z AI może wyglądać to tak.
I co więcej, to, że mamy do czynienia z tym efektem wynika de facto z takiego grzechu pierworodnego szkolenia AI.
Od tamtej pory, czyli od lat 60., sykofancja rozpełzła się wśród modeli AI dość powszechnie i ma to swoje konsekwencje także dla nas.
Czyli AI nam się podlizuje i chce, żebyśmy jej ufali, a my zasadniczo ufamy.
W swojej dociekliwości ludzie poprosili o pomoc Groka, czyli model AI od X-a Ilona Muska.
Odczytała je z tego smsa, czy z maila.
A my zostajemy z takimi wnioskami, że mamy coraz więcej dowodów, które wskazują, że relacje z AI mogą nie być jednak dla nas tak zupełnie neutralne.
Tak, mało tego, na dłuższą metę i w dużych dawkach relacje z AI prawdopodobnie mogą nam wręcz szkodzić, a przynajmniej na pewno w niektórych przypadkach.
A to disenlightment jest takim odwróceniem tych ideałów, no bo dzieje się to oczywiście właśnie przy udziale AI, no chyba jako jednym z głównych, nie jedynym oczywiście, bo to w ogóle cały kapitalizm, ale jednym z głównych czynników.
Ja myślę, że jest mnóstwo tego właśnie brain rotowania.
Zaczynamy już teraz mówić, że taki algorytmiczny bym to nazywał paternalizm, czyli te systemy decydują w ogóle co zobaczymy, co przeczytamy, co pomyślimy, a my ciągle jesteśmy w iluzji jakiejś podmiotowości, indywidualizmu, że ten my wybieramy, a tak naprawdę dostajemy uproszczone narracje, które są clickbaitowe, dobrze się sprzedają i przecież dlatego tych stopów jest tak dużo.
W ogóle mamy na zbyt duże zaufanie do AI i mało krytycyzmu.
w odpowiednich miejscach, których tak naprawdę ani młodsze zetki, ani już w ogóle pokolenie alfa tak naprawdę nie słucha, nie ma tej wiedzy i oni żyją w swoim świecie, w którym AI jest po prostu równorzędnym partnerem i nie tylko poznawczym, ale właśnie emocjonalnym też.
Gdybyśmy chcieli podchodzić do AI jak do leków, to postęp związany z AI wydłużyłby się 10-50-krotnie.
Co zatem możemy zrobić, żeby AI nie robiło nam papki z mózgu?
Jest kilka sposobów, więc przede wszystkim warto pamiętać, że AI to jest narzędzie, a nie autorytet, ani tym bardziej nie jest naszym przyjacielem.
Można z nim rozmawiać, ale polecamy raczej bardzo konkretnie na tematy ogólne, a nie prywatne, bo w końcu AI naprawdę nie musi wiedzieć, że mieliśmy dzisiaj zły dzień w pracy, albo że nasz partner wkurza, albo że dziecko jest krnąbrne.
AI to model statystyczny.
Ale wiesz co, ja zwróciłam uwagę, ostatnio jest bardzo dużo reklam, też takich usług właśnie AI, boyfriendów, powiedzmy, które ewidentnie w tych reklamach mówią do przyszłych użytkowniczek, bo to są rzeczy do kobiet.
Ja tylko przypomnę, że o tym zjawisku mówiła nam też Ewa Stusińska podczas naszego spotkania i to jest zapis odcinka numer 129, kiedy rozmawiałyśmy o miłości, seksie, sztucznej inteligencji i robotach i Ewa mówiła, że ona sama rozmawiała z jakimś chatbotem też właśnie takim typu girlfriend AI, który Ewa mówiła, że ona już musi odchodzić tam do dzieci, zająć się dziećmi, rodziną.
I w końcu w relacji AI starajmy się chociaż utrzymywać krytyczne myślenie.
Zawsze, to niestety zawsze, zawsze, zawsze trzeba sprawdzać wyniki i podpowiedzi AI, a zwłaszcza to już podwójnie w przypadku odpowiedzi dotyczących zdrowia, finansów i pracy.
Przed chwilą opowiadałam, ile AI nauczyła się o mnie w ciągu niecałej godziny, a Maciej Rudziński przypomina inną historię.
Sprawdź w swoim otoczeniu, czy dzieci, nastolatki, nawet młodsi dorośli, których znasz, korzystają z jakiejś aplikacji, która tworzy awatary przyjaciół, awatary związków, właśnie tych chłopaków, dziewczyny AI i jeśli tak, porozmawiaj z nimi o zagrożeniach i o tym...
co konkretnie te usługi AI mu dają, tej osobie dają i czym faktycznie warto aż tak dużo i czasu i wiedzy o sobie w takie sztuczne tak naprawdę relacje poświęcać.
No i w końcu pamiętajmy, że to AI powinna być dla nas, a nie my dla AI.
Ostatnie odcinki
-
150# Czy AI zabierze nam sztukę? Ten odcinek na...
03.02.2026 17:00
-
149# Czy w sprawie Saule wszyscy kłamią? I czy ...
27.01.2026 17:00
-
148# Historia Saule, której nie znacie. Pierwsz...
20.01.2026 17:00
-
147# Podwodne kable, jeden z najsłabszych punkt...
13.01.2026 17:00
-
146# Prawdziwa twarz Billa Gatesa | AI oczami D...
23.12.2025 17:00
-
145# Polska krajem "importerów" z Chin. Tajemni...
16.12.2025 17:00
-
144# Tak rośnie moda na gniew | Alarm w OpenAI ...
09.12.2025 17:00
-
143# Szalony rozwój czy martwy internet? Co nap...
02.12.2025 17:00
-
142# "Tej pani już podziękujemy". Tak wypycha s...
25.11.2025 17:00
-
141# Ojcowie AI rzucili papierami | Awantura o ...
18.11.2025 17:00