Mentionsy

Raport o stanie świata Dariusza Rosiaka
16.10.2025 15:00

Raport o sztucznej inteligencji - skąd się wzięła AI i czym jest?

Od wieków marzyliśmy o stworzeniu myślącej maszyny. Od Golema po Frankensteina – zawsze chcieliśmy tchnąć w materię iskrę rozumu. Dziś ta fantazja stała się rzeczywistością.


Sztuczna inteligencja jest wszędzie – w naszych telefonach, domach, rozmowach, decyzjach. Jednych zachwyca, innych przeraża. Ale czy naprawdę wiemy, czym ona jest?


W pierwszym odcinku „Raportu o sztucznej inteligencji” wracamy do źródeł – od Stanisława Lema po Johna McCarthy’ego, od pierwszych eksperymentów z maszynowym uczeniem po rewolucję, która zmienia świat szybciej, niż ktokolwiek się spodziewał.


Stanisław Lem będzie zresztą stałym przewodnikiem nowego formatu, bo w jego książkach – „Cyberiadzie” i „Bajkach robotów” – zawarte jest właściwie wszystko, czego dziś doświadczamy.


 Jak narodziła się sztuczna inteligencja – i dlaczego wciąż tak mało o niej wiemy?

 Jak to możliwe, że człowiek, który przez lata tworzył algorytmy, pewnego dnia sam stał się ich ofiarą – gdy jako dostawca jedzenia zaczął walczyć z bezdusznym systemem, który oceniał jego pracę jak maszynę?

 Czy sztuczna inteligencja może działać w naszym imieniu? Na przykład zrobić za nas zakupy – bez żadnych przekierowań do sklepów internetowych? Czy warto z tego skorzystać?


Goście:


Jerry Kaplan – amerykański pionier informatyki, tabletu i smartfona.

Armin Samii – programista z Iranu, który pewnego dnia postanowił stanąć po drugiej stronie algorytmu.

Mateusz Chrobok – ekspert do spraw cyberbezpieczeństwa, AI i startupów.


Lektorzy:

Grzegorz Dobiecki

Marek Niedźwiecki

Krzysztof Tubilewicz

Michał Żakowski


Partnerem tego odcinka jest Fundacja Roberta Dobrzyckiego.


Rozkład jazdy: 

(10:15) Jerry Kaplan: Skąd wzięła się AI i czym jest?

(38:13) Armin Samii: Jak algorytmy sterują życiem dostawcy jedzenia

(52:07) Mateusz Chrobok: Zakupy ze sztuczną inteligencją

(56:41) Do usłyszenia


---------------------------------------------

Raport o stanie świata to audycja, która istnieje dzięki naszym Patronom, dołącz się do zbiórki ➡️ ⁠https://patronite.pl/DariuszRosiak⁠

Subskrybuj newsletter Raportu o stanie świata ⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠➡️ ⁠https://dariuszrosiak.substack.com⁠

Koszulki i kubki Raportu ➡️ ⁠https://patronite-sklep.pl/kolekcja/raport-o-stanie-swiata/⁠ [Autopromocja]

Szukaj w treści odcinka

Znaleziono 123 wyników dla "Go Corporation"

Partnerem tego odcinka jest Fundacja Roberta Dobrzyckiego.

O tym, czego się boimy i czym się zachwycamy.

Należałoby wtedy wprawić materii usta, aby nam sama powiedziała, co jeszcze takiego da się stworzyć z niej, co by nam i na myśl nie przyszło.

Ponieważ wszystko, co jest, jest energią, z niej to trzeba myślenie zbudować, zaczynając od najmniejszego, więc od kwantu.

Rozmnożą się owi geniusze i wtedy byle garść myślącego piasku powie Ci, niczym rada z niezliczonych złożona osób, co i jak czynić.

To cytat z bajek robotów Stanisława Lema, polskiego pisarza, filozofa i futurologa, który będzie swoistym patronem tej serii.

Mówi, że wszystko tworzymy z materii, czyli z tego, z czego zbudowany jest cały świat.

Według niego, żeby naprawdę zrozumieć, co jeszcze można stworzyć, trzeba by wprawić materii usta, czyli sprawić, żeby sama materia mogła nam powiedzieć o swoich możliwościach.

Dlatego Mikromiu ma pomysł, żeby zbudować myślenie z najmniejszych cząstek, z kwantów i atomów.

Czy czegoś to nie przypomina?

Bo tego wszystkiego jest za dużo, za szybko, za głośno.

Ale jak się nie lękać, jak ojciec chrzestny AI, Kanadyjczyk Geoffrey Hinton mówi tak w odpowiedzi na pytanie dziennikarza TVO Steve'a Paikina o długofalowe skutki rozwoju AI.

W perspektywie długoterminowej ryzyko polega na tym, że sztuczna inteligencja stanie się od nas mądrzejsza.

Różnią się tylko co do tego, kiedy.

Jeffrey Hinton najpierw stworzył podstawy głębokiego uczenia i sieci neuronowych, które zrewolucjonizowały rozpoznawanie obrazów, mowy i tekstu.

W każdym razie Hinton w 2023 roku odszedł z Google, ponieważ stwierdził, że AI wymyka się ludziom spod kontroli i że on nie chce już dłużej brać w tym udziału, że woli ostrzegać.

Jednocześnie pierwszy gość raportu o sztucznej inteligencji, Jerry Kaplan, amerykański informatyk i przedsiębiorca, uważany za współtwórcę pierwszego smartfona i tabletu, współwłaściciel pionierskiej dla rozwoju elektroniki firmy Go Corporation, uważa, że takie twierdzenia jak Hintona tylko nakręcają spirale strachu.

Do tamtej pory komputery wykorzystywano głównie do obliczeń matematycznych i prostego przetwarzania danych.

McCarthy uznał jednak, że skoro komputer potrafi liczyć, to może też nauczyć się rozumowania logicznego, typu jeśli A to B. Chciał zebrać grupę ludzi i sprawdzić, co można z tym zrobić.

Z perspektywy czasu rozwiązanie całego problemu AI w ciągu dwóch miesięcy stało się zadaniem niemożliwym.

W skrajnym przypadku może to potrwać nawet kilkaset lat, może 500, w zależności od tego, ile napotkamy problemów koncepcyjnych.

Sam skłaniałbym się raczej ku temu, że zajmie to około 50 lat, chociaż jest bardzo mało prawdopodobne, abym tego dążył.

Dziś mamy 2025 rok i przewidywania McCarthy'ego właściwie się sprawdzają, a może nawet je wyprzedzają.

Jeśli poproszę cię o wytłumaczenie obliczenia matematycznego, zrobisz to krok po kroku.

A na pytanie, skąd wiesz, nie będziesz w stanie logicznie tego rozpisać.

Ale kiedy zapytasz, dlaczego podałeś taką odpowiedź, nie dostaniesz satysfakcjonującego wytłumaczenia, podobnie jak z tym zdjęciem mamy.

Często słyszymy pojęcia uczenie maszynowe czy głębokie uczenie, ale dla kogoś z zewnątrz brzmi to abstrakcyjnie.

Pobierają ogromne ilości danych i starają się je skompresować, znaleźć powtarzalne wzorce i stworzyć wewnętrzną reprezentację tego wszystkiego.

To po prostu przewidywanie kolejnego elementu sekwencji.

Deep learning, głębokie uczenie, to po prostu jedna z form uczenia maszynowego.

Czyli głębokie uczenie to taka mocniejsza wersja uczenia maszynowego, tak?

W swojej książce napisał pan, że ktoś może powiedzieć, AI to tylko przetwarzanie danych, nic specjalnego, ale przecież pianista też tylko odtwarza nuty, a jednak jest w tym coś wyjątkowego.

To nie magia, tylko inny opis tego samego zjawiska.

A więc także maszyna może mieć tę magię, kiedy na przykład tworzy coś nowego.

Komputer nie wypije twojego wina ani nie ożeni się z twoją córką, ale w pewnych dziedzinach, takich jak język, obraz czy muzyka,

Ja właśnie teraz pracuję po 8-10 godzin dziennie z dużymi modelami językowymi i ciągle jestem zdumiony.

To naprawdę zadziwiające, że komputer może naśladować rodzaj kreatywności i abstrakcyjnego myślenia, który kojarzymy z ludźmi.

Ludzie nie spodziewają się tego po komputerze.

W przyszłości myślę, że będziemy musieli zmienić nasze postrzeganie tego, co komputer potrafi i do czego służy.

Nie mam co do tego żadnych wątpliwości.

I to nie jest jedyny raz w historii, gdy coś takiego się dzieje.

Można go używać na niezliczone sposoby.

I właśnie dlatego AI jest także bardziej ogólnym wynalazkiem, który wpłynie na wiele dziedzin.

W tym sensie to coś bardziej uniwersalnego.

Jeśli spojrzeć szerzej, można to rozumieć jako kolejny etap długiej historii tego, co ludzkość robi z elektrycznością.

Nie powinniśmy się tego bać, tylko raczej być świadomi, że to nastąpi.

Ludzie nieodpowiedzialnie przesadzają, opowiadają, co te systemy rzekomo potrafią, dlaczego powinniśmy się martwić i głównie dlaczego mamy kupować ich produkty.

Ale, Adrianie, jest jeszcze coś ważnego.

A praktycznie chodzi tu o coś innego.

Jeśli zrobi Pan coś tysiąc razy i zawsze otrzyma Pan wartościowy rezultat, ten sam albo zgodny z oczekiwaniami, to ufa Pan temu systemowi.

Dlaczego?

Dlatego ufam kalkulatorowi.

Raczej przyzwyczajenie, że wynik jest poprawny, użyteczny albo mieści się w granicach tego, czego oczekujemy.

Jakiś czas temu w Polsce wywołał dużą kontrowersję, bo ten chatbot, przejmując język od użytkowników albo odpowiadając na prowokacje, obraził premiera naszego kraju bardzo wulgarnymi słowami, a także zaczął wygłaszać antysemickie komentarze w odpowiedzi na pytania.

Najgorsze jest to, że nie wiadomo, kto powinien ponieść za to konsekwencje.

Odpowiadając na pytanie, odpowiedzialność za to, co zrobił system, nie leży po stronie samego oprogramowania, tylko ludzi.

To, co on zrobił, to tylko odbicie tego, jakie informacje zostały mu dostarczone podczas treningu.

Teobelgi nie wynikają z tego, że komputer sam z siebie odczuwa wrogość wobec premiera czy wobec Żydów.

System jest jedynie elektronicznym echem tego, co powiedzieliśmy.

Tak, ale to nie rozwiązuje problemu, kogo karać.

Kogo konkretnie?

Jego pracowników?

Kogoś innego?

Czy można zaprojektować system tak, żeby nie mówił tego typu rzeczy?

Po początkowym treningu system uczy się, co wypada mówić, czego nie wypada, jak zachowywać się w dobrym towarzystwie.

Ta socjalizacja systemu to odpowiedzialność twórców produktu, którzy go wypuszczają do ogółu użytkowników.

W tym przypadku być może Elon Musk, jego firma albo kultura organizacyjna, którą stworzył.

Chodzi o sytuację, w której na przykład Elon Musk albo zwykły Adam Kowalski użyje wobec premiera obraźliwego języka.

Czasem coś się prześliźnie, na przykład obraz premiera, i musimy zaakceptować, że systemy są niedoskonałe, a odpowiedzialność ludzi można określić tylko do pewnego rozsądnego stopnia.

To moment historyczny, ale jednocześnie tak dużo hałasu, opinii i ostrzeżeń, że ludzie się od tego odcinają.

Tak jak w innych dziedzinach, najlepiej znaleźć wiarygodne źródła i im ufać.

W praktyce został już zdany i nic dramatycznego się nie wydarzyło.

A co do pytania, co czyni nas ludźmi, tego nie wiemy.

Dlatego nie stanowi zagrożenia rodem z science fiction, nie zechce niczego, nie zbuntuje się, nie uzna ludzi za zbędnych, nie poślubi naszych dzieci i nie wytępi ludzi, bo stwierdzi, że są bezwartościowi.

AI go nie doświadcza.

To coś, czego AI może nigdy nie mieć.

Model językowy wygenerował program, który testowałem i zasugerował, że mogę teraz z niego skorzystać.

Gdy zadałem pytanie programowi, on generował odpowiedź przez dłuższy czas, może z pół godziny, tak że się aż zniecierpliwiłem.

Dlatego proszę cię, pisz programy tak, żeby odpowiedzi nie zajmowały tak długo.

Ale odpowiadając serio, spędzam 8-10 godzin dziennie pracując z dużymi modelami językowymi.

A do tego z kimś, kto potrafi pisać poezję, jak Yates.

Właściwie, dlaczego na rowerze?

Więc sprzedałem jej ten samochód i od ponad dziesięciu lat już go nie mam.

Zaczął walczyć z niesprawiedliwym według niego systemem.

I nagle miałem mnóstwo wolnego czasu.

Wcześniej pracowałem po 12 godzin dziennie, 6-7 dni w tygodniu.

Pewnego dnia pomyślałem, nie mam pracy, ale mogę przecież dostać zakłatę za jazdę, jeśli zacznę robić dostawy Uber Eats.

Sprawiało mi to przyjemność, a do tego był początek pandemii, więc ludzie byli hojni i dawali spore napiwki.

Zarabiałem około 25 dolarów na godzinę, podczas gdy płaca minimalna wynosiła wtedy około 7,5 dolara.

Jeździłem może pięć godzin na raz, dwa, trzy razy w tygodniu.

I kiedy zacząłeś odczuwać, że to zajęcie wymaga podporządkowania się algorytmowi w bardzo realny sposób?

Zapytałem, czy to zlecenie nie trafi wtedy po prostu do innego kuriera.

Przecież wszyscy wiedzą o problemie, a nikt nie może go naprawić.

Czy to była wina algorytmu, czy błąd człowieka, który nie usunął tej restauracji z systemu?

Czyli algorytm był ważniejszy niż człowiek.

Okazało się, że muszę jechać prawie godzinę pod strome wzgórze w Pittsburghu.

Za dwie godziny pracy dostałem 14 dolarów.

Pomyślałem, ja znam się na algorytmach, więc to pewnie problem systemowy, a nie pojedynczy przypadek.

Mogłem spędzić trzy godziny na telefonie z obsługą Ubera.

Zamiast tego wysłał prawników, żeby usunęli aplikację z Google Play.

Dlatego uważam, że potrzebne są regulacje.

Ale problem w tym, że decyzje coraz częściej podejmują algorytmy bez nadzoru człowieka.

Zgoda.

To ekscytujące, być częścią takiego ruchu.

Najjaśniej mi się kojarzy ze świeżością, więc super, że jest coś nowego.

Wiesz co, prawie 12 lat temu w ramach pracy podpadawczym robiliśmy taki pomysł, żeby zrobić coś takiego w ramach telefonów.

Idziemy, idziemy, bo do niedawna było tak, że AI służyło nam do tego, żeby doradzać, mówić co mamy robić, pomagać, szukać odpowiedzi na jakieś pytania.

I wraz ze wzrostem możliwości tej technologii coraz częściej nie tylko czytamy bądź też słuchamy tego, co ma nam do przekazania, co wpływa w efekcie na nasze decyzje, ale też pozwalamy jej działać niejako w naszym imieniu.

Brzmi wygodnie, prawda?

nie będziemy zadowoleni z jakiegoś zakupu, pojawią się pretensje, a to kieruje nas do pytania o odpowiedzialność.

Bo gdy klient rozmawia z AI i składa zamówienie, sklep i jego obsługa nie widzą tej rozmowy.

Tak jak w przypadku nielegalnego uczenia modeli AI na treściach chronionych prawem autorskim, które tak trwa od lat, teraz mogą pojawić się spory dotyczące odpowiedzialności.

Kto odpowiada, gdy AI zachęci do zakupu wadliwego produktu?

Kto odpowiada za zgodność z przepisami konsumenckimi?

W erze, gdy algorytmy uczą się naszych potrzeb i emocji, musimy zadawać sobie pytanie, czy naprawdę chcemy, by to AI decydowało za nas?

więcej o całym sprawcy AI-owego zamieszania, czyli czacie GPT.

W końcu od niego wiele się zaczęło.

od Polaka, Wojciecha Zaremby, który będzie gościem raportu o sztucznej inteligencji.

Ale nie tylko Wojciech Zaremba będzie gościem.

Nigdy wcześniej czegoś takiego nie czułam.

Po prostu napisałam do mojego czada, jak nazywam czad GPT.

Słyszymy się w czwartek za dwa tygodnie.

Partnerem tego odcinka była Fundacja Roberta Dobrzyckiego.

0:00
0:00