Mentionsy

Ameryka i ja - Lidia Krawczuk w RMF Classic
07.10.2025 07:00

310. Sztuczna inteligencja w medycynie i życiu codziennym — rozmowa z prof. Januszem Wojtusiakiem

Prof. Janusz Wojtusiak kieruje laboratorium uczenia maszynowego na George Mason University i od dwóch dekad bada, jak mądre algorytmy pomagają ludziom — zwłaszcza w zdrowiu i medycynie. W rozmowie wracamy do początków sztucznej inteligencji, ale skupiamy się na praktyce: gdzie AI już realnie przyspiesza diagnozy, co potrafią systemy analizujące zdjęcia medyczne i dlaczego w szpitalach bardziej chodzi o priorytetyzację pracy radiologa niż „zastąpienie człowieka”. Prof. Wojtusiak opowiada też między innymi o projekcie, który wykrywa siniaki niewidoczne gołym okiem — kluczowe w sprawach przemocy.

Szukaj w treści odcinka

Znaleziono 751 wyników dla "Laboratorium Uczenia Maszynowego i Rozumowania"

Kiedy ostatnio słyszeliście o AI, pewnie chodziło o czat, który napisze tekst lub kod.

Ale co z AI, która skraca kolejki do badań medycznych albo pomaga wykrywać przemoc?

W dzisiejszym odcinku wspólnie z profesorem Januszem Wojtusiakiem z George Mason University bierzemy na warsztat sztuczną inteligencję.

Profesor Wojtusiak jest szefem Laboratorium Uczenia Maszynowego i Rozumowania.

Zajmuje się sztuczną inteligencją w zdrowiu.

Zamienia skomplikowane dane medyczne w przejrzyste i wiarygodne modele, które pomagają lekarzom podejmować decyzje.

Autor ponad 100 publikacji i praktyk od rozwiązań, które naprawdę działają.

Hej, tu Lidia Krawczuk.

Los rzucił mnie do Waszyngtonu kilkanaście lat temu i to właśnie tutaj, w stolicy USA, powstaje podcast Ameryka i ja.

Tu opowiadam o Ameryce, o życiu w Stanach i podróżowaniu po USA.

Ameryka mnie fascynuje.

Jeśli Ciebie, tak jak mnie, ciekawią Stany i chcesz wiedzieć o nich więcej, to jesteś we właściwym miejscu.

Przyjechałem w lecie 2002 roku, czyli to już prawie pół mojego życia.

Jesteś z wykształcenia informatykiem i pochodzisz z Krakowa.

No to powiedz, zanim zaczniemy rozmawiać o sztucznej inteligencji, jaka była ta twoja droga z Krakowa tutaj do Stanów?

Tak, pochodzę z Krakowa, wychowałem się w samiutkim centrum Krakowa.

To miałem, nie wiem, może 5-7 minut piechotą na rynek krakowski.

czyli bardzo blisko i dzieciństwo i później studia spędziłem tak naprawdę w centrum Krakowa.

Studiowałem w Krakowie, skończyłem informatykę na Uniwersytecie Jagiellońskim.

I później tak naprawdę z jednej strony zacząłem pracować w jakiejś firmie, pisać oprogramowanie, coś robić jako informatyk, z drugiej strony zawsze chciałem pracować naukowo.

I w pewnym momencie stwierdziłem, że żeby tak naprawdę zająć się nauką, nie da się pracować, zarabiać pieniądze gdzieś komercyjnie i w tym samym czasie robić doktorat i coś innego robić.

I ten wyjazd za granicę na dokładnie studia doktoranckie to było najlepsze rozwiązanie.

I tam poprzez różne perypetie znajomości poznałem swojego przyszłego promotora, który był jednym z lepszych ekspertów w sztucznej inteligencji.

Czy to było takie celowe działanie, że chciałeś, że jak doktorat, no to może lepiej było to zrobić w Stanach?

To znaczy, wiadomo było, że ta nauka, zwłaszcza w informatyce i sztucznej inteligencji, zawsze była najlepsza w Stanach.

I te Stany gdzieś tam chodziły po głowie, żeby studia edukatorańskie w Stanach robić i tą nauką się zajmować.

Natomiast nie byłem tak naprawdę do końca pewny.

To mogły być Stany, ale to również mógł być Oxford, albo to mógł być jakaś uczelnia w Anglii, czy inna w Europie.

W związku z czym...

W pewnym sensie przypadek.

To przylatujesz tutaj do Waszyngtonu, pracujesz w George Mason University, tak?

Przylatujesz tutaj, żeby robić doktorat i no powiedz, co cię wtedy zaskoczyło?

Mówisz, że to było dwadzieścia kilka lat temu, to rozumiem, że to już było po dwutysięcznym roku, tak?

No to Polska już jest innym krajem niż w latach dziewięćdziesiątych czy osiemdziesiątych, ale to oczywiście nie jest też taki kraj jak obecnie.

Czy to był dla ciebie taki szok, powiedzmy, kulturowy i to, co tutaj zobaczyłeś i w Stanach i na uczelni, czy już tak niekoniecznie?

No w tej chwili dwadzieścia parę lat później tego tak do końca nie widać i te różnice są dużo mniejsze.

Ale to było takie śmieszne i straszne, że Ameryka wygląda tak jak na amerykańskich filmach.

A czego ludzie sobie myślą, że to tylko tak na filmach wygląda, ale to tak jest.

Wszystko jest większe, drogi są większe, samochody są większe, ludzi są więksi, wszystko jest większe, inne.

A czy lepsze, czy nie lepsze, to można na to dyskutować bardzo długo.

Natomiast Ameryka naprawdę wygląda tak jak na filmach amerykańskich.

A na samej uczelni.

Na samej uczelni jest bardzo inne podejście do studenta i jako wykładowca i profesor w tej chwili wiem, że mam takie podejście jak tutaj, a nie takie jak kiedyś profesorowie mieli w Polsce.

Nie ma czegoś takiego, że student czeka przez pięć godzin na profesora na egzamin.

Nie ma czegoś takiego, że ten profesor rządzi, a studenci tam są petentami, którzy przychodzą i może zostaną przyjęci, czy też nie.

I to podejście na uczelni i do studentów, i do nauki jest takie, że student jest klientem, który dużo płaci za studia i traktuje się go jako klienta.

I wiadomo, że musimy utrzymać poziom nauki, wiadomo, że jeżeli ktoś oblewa egzaminy, to je oblewa i tak samo się wyrzuca ze studiów i tak samo się robi różne inne rzeczy jak w Polsce.

Natomiast to jest to klient, którego trzeba po prostu dobrze traktować, bo za to płaci.

Janusz, ty zajmujesz się sztuczną inteligencją i zajmujesz się nią od ponad 20 lat.

Ale tak zwany krzary zjadacz chleba, no to o sztucznej inteligencji słyszy w ostatnich latach, no kilku latach zaledwie, kiedy świat zaczął korzystać tak powszechnie z czata GPT.

To jak to się stało, że ty zacząłeś tak dawno temu, ponad dwie dekady temu, zajmować się sztuczną inteligencją?

W momencie, gdy pracowałem nad swoją pracą magisterską, czy też zastanawiałem się nad tematem pracy magisterskiej, patrzyłem, co tak naprawdę w tej informatyce można robić.

I można się udać w taki typowy software engineering, czy też inżynier oprogramowania po polsku, można się udać w jakieś systemy marketingowe, można się udać w sieci komputerowe, można różne inne rzeczy robić.

A ta sztuczna inteligencja zawsze była taka najbardziej atrakcyjna dla mnie.

I zacząłem się zastanawiać, co tam jest.

Trochę przedmiotów, wykładów brałem jeszcze na UJ-cie związanych ze sztuczną inteligencją.

Zacząłem się w tym specjalizować.

No i później pisałem swoją pracę magisterską z zastosowań metod sztucznej inteligencji.

W jakiej dziedzinie?

To było zastosowanie w biologii lub w ekologii.

Ja tak naprawdę napisałem taki duży system symulujący jakieś tam teoretyczne organizmy, które coś robiły i zachowywały się we w miarę inteligentny sposób i później analizowałem dane.

Oczywiście dwadzieścia parę lat później to wydaje się być bardzo proste, prymitywne i takie, w tej chwili nie nazwalibyśmy tego nawet sztuczną inteligencją.

Natomiast te metody bardzo się zmieniają w czasie i to, co wtedy było uznawane za sztuczną inteligencją, wtedy w tej chwili już niekoniecznie jest.

Teraz zajmujesz się sztuczną inteligencją w medycynie.

Zgadza się.

Właściwie to troszeczkę szerzej niż w medycynie.

Ogólnie rzecz biorąc w zdrowiu.

Bo to mogą być dane medyczne, czysto medyczne, to mogą być dane, czy też analiza danych, czy też budowanie systemów wspomagających decyzje czysto medyczne, ale to może być też zdrowie publiczne, to może być fitness, to może być coś, co po angielsku nazywa się consumer health.

Czyli tak naprawdę to są wszystko, co jest związane z szeroko pojętym zdrowiem człowieka lub z funkcjonowaniem systemu opieki zdrowotnej.

Czy robisz to w ramach jakiegoś projektu, czy robisz to na zamówienie konkretnych klientów, czyli na przykład, nie wiem, firmy ubezpieczeniowe, tak?

To jest, myślę, jakieś szpitale.

To znaczy, dużo rzeczy, których robimy, to są podstawowe badania.

Tak naprawdę rezultatem na koniec jest publikacja albo jakiś prototyp systemu, który później gdzieś można wdrożyć.

A w medycynie to trwa bardzo, bardzo długo.

Czy we wszystkich zastosowaniach zdrowotnych to jest kilka, a często nawet kilkanaście lat pomiędzy podstawowymi badaniami, kiedy coś zostanie zrobione, aż do momentu, kiedy tak naprawdę jest wdrożone i jest używane w zastosowaniach czysto medycznych.

troszeczkę lepiej jest w takiej administracyjnej części opieki zdrowotnej i w takich rzeczach, które ludzie używają, typu wszystko w zegarkach czy jakichś innych trakerach, którzy ludzie noszą, które nie są czysto medyczne.

I to tak naprawdę można wdrożyć, ludzie to lubią albo nie, tak jak po prostu na komercyjnym rynku.

A w takich systemach administracyjnych, które analizują płatności za usługi, które umawiają pacjentów, które tego typu rzeczy robią, to też jest w miarę dosyć prostsze, bo to nie jest bardzo silnie uregulowane wymaganiami urządzeń medycznych, czy też analizy danych medycznych.

Natomiast takiej czystej medycynie systemy rozpoznawania obrazów i rozpoznawania, czy coś na zdjęciach jest poprawne, czy nie, systemy, które analizują dane i wykonują automatycznie diagnozę i tego typu rzeczy, one dosyć długo zajmują, bo to jest bardzo ważne.

W momencie, kiedy taki system się pomyli, to pacjent może po prostu nie być lecony tak jak trzeba.

Ale chcesz powiedzieć, że to już w tej chwili się dzieje, że na przykład jeżeli idziemy do lekarza i lekarz daje nam skierowanie, że mamy zrobić prześwietlenie.

No i ktoś musi potem to zdjęcie zobaczyć i ocenić, czy mamy do czynienia z jakąś chorobą, z jakąś zmianą, czy nie.

Czy to w tej chwili robią dalej ludzie, czy to już robi AI?

Jedno i drugie.

To znaczy taki fajny przykład.

Mój syn, który ma prawie sześć lat, a w momencie, kiedy z żoną poszliśmy na USG, kiedy była w ciąży, ja byłem zachwycony, bo ja się nie patrzyłem na to USG, tylko patrzyłem się na tą maszynkę.

Co ona tak naprawdę robi?

Dlatego, że to jest system, który automatycznie wykrywał części ciała dziecka, płodu, który automatycznie policzył szybkość bicia serca, tętno, wszystko inne.

On to automatycznie robił.

Ale to już było oparte na sztucznej inteligencji.

To jest oparte na sztucznej inteligencji.

Tego się nie nazywa, że to jest sztuczna inteligencja, ale to wszystko są metody sztucznej inteligencji.

No właśnie, bo my to, wiesz, tak przynajmniej ja, no to my kojarzymy, tak myślę, że większość ludzi kojarzy tą sztuczną inteligencję.

Jestem wtedy, kiedy świat tego czata GPT zobaczył, mówią, o, to sztuczna inteligencja i to dopiero teraz będzie wchodzić.

A tak naprawdę to już tam weszło wiele lat temu.

Bardzo wiele lat temu.

Historycznie rzecz biorąc, za początek sztucznej inteligencji uważa się takie warsztaty w Dartmouth College i to był 1956 rok, kiedy parę osób, które zajmowały się sztuczną inteligencją...

Dokładnie.

I to jest w czasie, kiedy już sporo osób się tym zajmowało, którzy zebrali się razem i stwierdzili, trzeba coś zrobić i nazwać tą dziedzinę, którą się zajmujemy i zaczęli się nazywać, że zajmują się sztuczną inteligencją.

Takie metody, na których oparte jest, w jaki sposób algorytmy się uczą, w jaki sposób czat się uczy, w jaki sposób inny.

Sieci neuronowe to są wczesne lata 50.

taki perceptron, czy inne metody, które są sieciami neuronowymi, to są też lata 50.

One strasznie mocno się rozwinęły w ostatnich latach, ale to bardzo istniało.

A mój promotor pracy doktorskiej tak naprawdę od wczesnych lat 70. zajmował się uczeniem maszynowym, zajmował się tymi metodami.

I to były wczesne lata 70.

I on też nie był pierwszy.

W związku z czym te rzeczy istnieją od bardzo, bardzo dawna.

Tylko stały się bardzo, bardzo popularne ostatnio z różnych powodów.

Natomiast istnieją od dawna.

Chciałabym właśnie wrócić do tego pytania, od którego to wszystko się zaczęło.

Czyli tak jak powiedziałeś, że i to, i to, czyli takie zdjęcie, które jest analizowane po prześwietleniu.

Powiedziałeś, że i przez lekarza, i przez AI.

I czy wszędzie, czy to mówimy o Stanach przede wszystkim?

Nie zawsze i nie wszędzie.

To znaczy, taką ciekawą prezentację widziałem dotyczącą optymalizacji tego, co zrobić, żeby pacjenci jak najszybciej mogli być przyjęci, ci, którzy natychmiast muszą być przyjęci.

Radiolodzy są bardzo zajęci i muszą przeglądać setki, tysiące zdjęć, w związku z czym te zdjęcia czekają w kolejce.

Są dwa rodzaje rozwiązań.

Albo robi się po prostu outsourcing i siedzi sobie ktoś gdzieś w Azji i te zdjęcia przegląda w nocy i to jest radiolog, ale on nie jest w Stanach.

Albo po prostu można wykorzystać jakieś metody sztucznej inteligencji.

I taką fajną prezentację widziałem, w której komercyjny system, który działa, został wdrożony w jednym z dużych szpitali.

I on działa w ten sposób, że on po prostu ustala priorytety dla radiologów, co oglądać.

Cały czas na samym końcu jest radiolog, jest lekarz, który ogląda to zdjęcie i wykonuje ostatecznej analizy.

Natomiast to, co ma ogląd zobaczyć w pierwszej kolejności, bo jest podejrzenie, że to jest coś bardzo ważnego, że to jest coś, co może zagrazać życiu pacjenta, co trzeba zrobić natychmiast.

System sztucznej inteligencji, który automatycznie te zdjęcia przygląda, ustawia priorytety, wykrywa co wykrywa i później radiolog tylko ogląda takie zdjęcie już z naniesionymi informacjami, z zaznaczonymi informacjami i tylko zatwierdza albo nie.

Czy za jakiś czas człowiek, radiolog będzie do tego potrzebny?

Są dziedziny, w których już nie są.

Czyli pierwszy taki zatwierdzony przez FDA, czyli Federal Drug Administration tutaj w Stanach system, to już było dobrych kilka lat temu, który jest uznany za system, który automatycznie może oficjalnie wykonywać diagnozy.

I to są diagnozy ze zdjęć oczu.

Czyli po prostu system robi zdjęcie oka i to, co wychodzi w wydruk z komputera jest już oficjalną diagnozą, na podstawie której można przeprowadzać leczenie i inne rzeczy.

Czyli są takie bardzo specyficzne zastosowania, w których te systemy już są właściwie tak dobre albo nawet lepsze niż lekarze.

Ale myślisz, że to wyeliminuje jakąś grupę lekarzy, jakąś grupę, nie wiem, specjalistów?

Będzie ich potrzebnych mniej?

Specjalistów potrzeba coraz więcej.

Problem, który rozwiązujemy jest taki, że nie tylko tu w Stanach, ale właściwie wszędzie na świecie brakuje specjalistów, brakuje lekarzy.

I jeżeli lekarz może się zajmować ciężkimi przypadkami, takimi, do których człowiek jest potrzebny, bo coś jest nie tak, jak powinno być, jest to specyficzny przypadek, coś nie wygląda tak, jak powinno wyglądać, dlatego są potrzebni ludzie.

Prawdopodobnie 90% przypadków można automatycznie zdiagnozować, można przyspieszyć to, co robi ten lekarz i po prostu zastąpić część lekarzy, którzy mogą się zajmować czymś znacznie ciekawszym i tymi ciekawymi przypadkami, zamiast po prostu w kółko oglądać zdjęcia, które wszystkie wyglądają tak samo.

A jeżeli system się pomyli?

Systemy się mylą, ale ludzie też się mylą.

Część mojej takiej bardziej teoretycznej pracy sprowadza się do tego, że chcemy się dowiedzieć, co znaczy, że te systemy sztucznej inteligencji działają.

I tak klasycznie można policzyć, jak dobry jest system, można policzyć statystykę, myli się 7% w 7% przypadków albo w 10% i są te typy błędu pierwszego, błędu drugiego.

Tak jak to się ocenia w statystyce, to wszystko jest, ale to tak naprawdę niewiele nam mówi.

Jest duża część tego, czym ja się zajmuję, to jest określenie, co tak naprawdę analizowanie, co tak naprawdę ten system robi.

Czy jeżeli się pomyli, to częściej się myli w jedną stronę, czy w drugą stronę?

Czy częściej się myli dla pacjentów specjalnego rodzaju?

Czy częściej się myli, jeżeli te zdjęcia są, w przypadku zdjęć, jeżeli zdjęcia są krzywe lub proste?

No i jakie są wnioski?

Że musimy dużo, dużo więcej testować te systemy, bo dlatego, że dużo systemów, które są już w użyciu, tak naprawdę nie wiemy, co one do końca robią.

W jednym z projektów pracujemy nad też taki system, w którym tak naprawdę fotografujemy i analizujemy śniaki, ale nie tylko.

To są dla ofiar przemocy głównie, żeby dobrze napisać dokumentację i stworzyć dokumentację obrażeń, które mają na ciele.

Trzeba zrobić bardzo dużo zdjęć.

I z tych zdjęć później trzeba powiedzieć, czy to jest siniak, czy to nie jest siniak, czy to jest jakiegoś innego rodzaju blizna, mniej więcej kiedy ona powstała i tak dalej, i tak dalej.

I wszystko jest fajnie dla kogoś, kto ma dosyć jasną skórę.

Natomiast dla osób z ciemną skórą tych siniaków po prostu nie widać.

Co jest ciekawe...

systemy, które my tworzymy, które oprócz takiego zwykłego białego światła wykorzystują jakieś tam niebieskie światło i coś jeszcze, te siniaki nagle zaczynają widzii robią to lepiej niż ludzie w pewnych przypadkach.

No ja widziałam parę miesięcy temu taki materiał w telewizji amerykańskiej, gdzie ty występowałeś właśnie w sprawie siniaków i no to był taki ciekawy wątek, muszę powiedzieć, bo rozumiem, że to jest w ramach testów takie urządzenie, które ma na przykład mieć policja

Wtedy, kiedy będzie chciała sprawdzić, czy jakaś osoba była ofiarą przemocy, a siniaka nie widać.

A to działa na jakieś, na światło, czy nie wiem, na co to działa, że po prostu po przyłożeniu tego urządzenia ten siniak tak jakby wychodzi.

Dokładnie tak.

To znaczy w tej chwili chcemy zbudować, żeby to, przede wszystkim, żeby to było tanie.

Bo jest jakiś prototyp, tak?

To są prototypy i to działa na normalnym tablecie na Androidzie.

I w tej chwili ten prototyp, który mamy, jeszcze nie wykorzystuje tego niebieskiego światła i jeszcze pracujemy na zwykłym świetle.

Chociaż ta część grupy, która zajmuje się uczeniem i wizją komputerową, już analizuje te zdjęcia w innych rodzajach światła.

Ale to wygląda w ten sposób, że tak naprawdę można wycelować taki tablet i kamerę w tablecie albo w telefonie na pacjenta.

I tak jak jest śledzenie twarzy normalnie, jeżeli robi się zdjęcie telefonem, to on zaczyna, wykrywa, w którym miejscu są siniaki na ciele i zaczyna je w czasie rzeczywistym śledzić.

Ale mówimy o osobach, które mają ciemną skórę.

I ciemną skórę, i jasną skórę.

Właśnie staramy się mieć tak dużą ilość danych i testować, testować, testować i przerabiać te prototypy, żeby to działało i dla jasnej skóry, i dla ciemnej skóry, i dla kogoś, kto ma tatuaże, i dla kogoś, kto ma jakiinne rzeczy na skórze.

Przecież na jasnej skórze widać śniaki.

Widać siniaki, ale dużo o tych siniakach nie da się powiedzieć.

Tak naprawdę chodzi o to, żeby taka dokumentacja, która później może być wykorzystana w sądzie albo może być wykorzystana przy leczeniu pacjenta.

Na jasnej skórze widać, ale nie każdy policjant, jeżeli to jest wykorzystywane przez policję, nawet wie, na co patrzeć.

Nie każdy nawet lekarz czy pielęgniarka, którzy obserwują pacjenta, wiedzą dokładnie, czego szukać i są miejsca... Ale co masz na myśli, czego szukać?

Tak naprawdę trzeba się popatrzeć na dwie rzeczy.

Są ośrodki medyczne, w których jest bardzo dużo pacjentów, którzy są ofiarami przemocy, czy też mają jakieś obrażenia po wypadkach, czy czymś innym.

I ci lekarze, którzy widzą tych przypadków bardzo dużo, dokładnie wiedzą, co robić.

I jeżeli zobaczą jakieś obrażenia na skórze pacjenta, natychmiast wiedzą, co to jest, a przy tym mają bardzo dobry sprzęt fotograficzny, mają bardzo dobry sprzęt do diagnozowania i wszystko działa i wszystko jest dobrze.

A teraz wyobraźmy sobie, że jesteśmy w jakimś miejscu w zachodniej Virginia, albo w Kentucky, albo gdziindziej, gdzie tych pacjentów jest bardzo, bardzo mało i taki lekarz może być dobrze wykształconym lekarzem, ale widzi trzy przypadki rocznie.

I tak naprawdę taki system może mu pomóc.

Może mu pomóc w tych przypadkach, którzy po prostu nie wiadomo, o co chodzi.

Albo policjant, który tak naprawdę nie wie, czego szuka.

I dla policjanta to może wyglądać jako siniak albo nie.

I czy zrobić tego zdjęcie, czy nie.

Czy wezwać karetkę, czy nie wezwać karetki.

Czy prace nad tym projektem to wzięły się z jakiejś realnej potrzeby?

Czy to po prostu zrodził się taki pomysł?

To wzięło się z bardzo realnej potrzeby.

A cały projekt zaczął się tak naprawdę od doktoratu mojej koleżanki, która jest profesorem na tej samej uczelni, która przez wiele lat pracowała właśnie w szpitalu i pracowała z pacjentami będącymi ofiarami przemocy i później zabrała się za pracę naukową i ona zauważyła...

nie jako pierwsza, ale napisała z tego doktorat, zauważyła, że na ciemnej skórze tych siniaków, nawet jeżeli obserwuje się przez człowieka, to dużo lepiej je widać, jeżeli poświeci się na to niebieskim światłem, a później przepuści przez żółty filtr, natychmiast te siniaki widać.

Których i znacznie lepiej niż w normalnym takim białym świetle.

I jakieś 6-7 lat temu zebraliśmy się razem, właśnie ta koleżanka, kolega, który zajmuje się typowo wizją komputerową i ja,

I zaczęliśmy rozmawiać, czy to da się zautomatyzować, czy coś da się zrobić, żeby stworzyć takie narzędzie, które albo będzie pracowało na komputerze, albo gdzieś na jakimś tablecie, albo kompletnie całkiem inne urządzenie.

Da się zrobić, żeby pomóc tak naprawdę osobom w szpitalach, coś lepiej pracować z tymi pacjentami, te siniaki wykrywać, a widzieć, co tak naprawdę widać i coś na temat tych siniaków powiedzieć.

W związku z czym, no już dobrych parę lat temu zaczęliśmy na ten temat rozmawii tak powoli, powoli ten projekt nabierał mocy, że tak powiem.

I w tej chwili mamy dosyć dużą grupę, około 30 osób pracujących nad projektem, które bardzo ostro pracują nad tym, żeby tak naprawdę stworzyć coś praktycznego, co będzie mogło być używane.

Czyli to będzie, rozumiem, takie narzędzie dla policji, dla lekarzy.

To będzie w formie aplikacji?

Bo powiedziałaś, że to, nie wiem, iPadem, telefonem można zrobić zdjęcie.

Na jakiej zasadzie to ma działać?

To jest aplikacja, która w tej chwili działa na Androidzie, na iPhone'y, iPad'y.

W drugiej kolejności będziemy pracować.

Z bardzo technicznego punktu widzenia.

Na Androidzie jest troszeczkę łatwiej takie eksperymenty prowadzić.

Ale w pierwszej kolejności chcemy, żeby to byli lekarze, osoby w szpitalach, to byli lekarze, głównie, którzy będą mieli dostęp do sprzętu w momencie, kiedy nie wiedzą dokładnie, co widzą, będą mogli tę dokumentację obrażeń zrobić.

A w następnej kolejności to może być policja, to może być opieka społeczna, to mogą być pielęgniarki w szkołach, to mogą być sami pacjenci.

W tej chwili to jest aplikacja, którą można sobie zainstalować na tablecie albo na telefonie i ona po prostu działa.

Już w tej chwili można, to znaczy nie jest dostępna, to jest taki prototyp, który ja mam zresztą na swoim tablecie i on działa, a to nie jest jeszcze gotowe dla ludzi.

Czyli my nie możemy sobie na razie ściągnąć i sobie z niej skorzystać.

Nie można sobie ściągnąć, natomiast jest to zainstalowane na moim tablecie, na swoim tablecie mam zainstalowane i nad tym pracujemy i ona działa, więc...

Innym problemem jest rozwiązanie tego problemu źródła światła, że jednak dużo lepiej te śliniaki widać, jeżeli poświeci się niebieskim światłem.

Natomiast ta nasza grupa inżynierów pracuje nad rozwiązaniem tego problemu też.

I być może będziemy potrzebowali kompletnie osobne źródło światła, które może być jakimś takim malutkim dodatkiem, lataryczką małą, która przychodzi z tym tabletem.

a być może wystarczy po prostu włączyć flash w tym tablecie i w odpowiedni sposób przefiltrować odbite światło od śniaka i też będzie go widać.

Także to są rzeczy, nad którymi pracujemy.

Czy to będzie działało tak czy inaczej, to się okaże w przyszłości, ale...

jesteśmy dosyć blisko.

Chciałbym, żebyśmy wrócili do tego wątku, bo powiedziałeś na wstępie, mówiąc o sztucznej inteligencji, że to właśnie też wykorzystujemy w zegarkach.

I powiedz na ile to jest rzeczywiście te dane, które otrzymujemy, ja na przykład na swoim zegarku, jak spałam, jeżeli ćwiczę, ile spaliłam kalorii, moje tętno, czy te dane są rzeczywiście...

No, wiarygodne.

To zależy od punktu widzenia.

A co masz na myśli?

Można się na to patrzeć z różnego punktu widzenia, do czego te dane są tak naprawdę potrzebne.

Kilka lat temu rozmawiałem ze znajomym kardiologiem, który stwierdził, że potrzebował tak naprawdę dobrze przebadać serce swojej żony przez dłuższy okres czasu i po prostu kupił jej Apple Watch.

I potem sobie oglądał te dane z Apple Watch i twierdził, że to całkowicie wystarcza do tego, co potrzebował zobaczyć.

A nie była to oficjalna diagnoza medyczna, eksperymentował na swojej żonie, ale po prostu kupił je ten Apple Watch i to działało.

Z drugiej strony tak naprawdę trzeba się zastanowić, po co te urządzenia są stworzone, do czego one są i jak są testowane.

Jako naukowiec bardzo lubię eksperymentować i kiedyś zrobiłem taki eksperyment, jeszcze kiedyś były takie, zanim się pojawił Apple Watch, było Nike Fitness Band i było jeszcze kilka innych.

Miałem taki zegarek, który się Basis nazywał.

Jest ich bardzo dużo.

To jest kwestia ceny.

Jest to kwestia ceny i też jest kwestia zmieniającej się technologii.

To już było 7-8 lat temu, czyli dosyć dawno, ale ja stwierdziłem, że na tej samej ręce przez miesiąc nosiłem trzy urządzenia i porównywałem ze sobą wyniki.

I te wyniki tak nie do końca się zgadzały.

To znaczy, wiadomo, że one mierzą coś całkowicie innego.

Jeżeli chodzi o jakiś fitness, to taki Apple Watch mierzy tylko i wyłącznie, specyficznie jest nastawiony na mierzenie tego, jak ktoś się rusza po to, żeby ćwiczyć.

Jeżeli to jest jakieś... Przepraszam, że ci wejdę w słowo, ale nie wiem, czy wiesz, że właśnie w Apple Watch to jak chcesz kroki zrobić, te magiczne 10 tysięcy, już jest godzina wieczór, się zbliża i ty wiesz, że kurczę, nie mam tych kroków, tam brakuje mi 300 czy 1000.

I będziesz machał ręką, tak, tam nie wiadomo jak długo, to on ci zrobi te kroki.

A chociaż są coraz lepsze w tym.

Już są coraz lepsze w wykrywaniu, że ktoś macha ręką, a nie tak naprawdę chodzi.

I te algorytmy są coraz lepsze.

A ja taki pierwszy tracker, który miałem, jak mi się znudziło noszenie, założyłem do naszego psa, który spokojnie robi 10 tysięcy kroków.

codziennie, w związku z czym jeszcze wtedy, jak był szczeniaczkiem, to robił dużo więcej i spokojnie nabijał tych 10 tysięcy kroków i wszystko działało.

Gdyby taki współczesny zegarek podłączyć, to on od razu by stwierdził, że coś tam jest nie tak, że to pies chyba chodzi, a nie człowiek i tych kroków by nie nabijał.

Czyli te algorytmy są coraz, coraz lepsze.

Nie są też takie strasznie dobre, znaczy są coraz lepsze.

Kiedyś nie były bardzo dobre w wykrywaniu jakiego rodzaju ćwiczenia się wykonuje, a w tej chwili robią to dobrze.

Na przykład odkryłem, że znowu jak mój syn był mały i chodziłem dosyć dużo pchając wózek, on twierdził, że ja chodzę po jakimś trademillu, a nie tak naprawdę spaceruję z wózkiem.

Wtedy miałeś te trzy zegarki?

Nie, to był Apple Watch.

Wtedy tylko Apple Watch miałem i ten Apple Watch cały czas twierdził, czy zapisać to, że ja chodzę po maszynie gdzieś na jakimś gymie.

Dlatego, że to miało sens.

Dlatego, że ręce trzymałem w tej samej pozycji, pchając wózek.

Nogi pracowały.

To stwierdziło, że po prostu chodzę gdzieś na jakiejś siłowni, chodzę po jakiejś maszynie.

A teraz by już tak nie zasugerował?

W tej chwili już tak nie sugeruję.

I w tej chwili oczywiście poprawili te algorytmy.

I to są takie bardzo proste rodzaje napraw.

Dlatego, że on ma GPS i powinien automatycznie stwierdzić, że ja z tym treadmillem nie ciągnę go po osiedlu, po ulicy.

tylko prawdopodobnie muszę iść, bo zmieniam swoją pozycję.

I takie proste skorzystanie z więcej niż jednego sensora w takim zegarku rozwiązuje problem.

I one są coraz lepsze.

W tej chwili już bym tak nie powiedział.

Tu jeszcze taki wątek się wybija, bo powiedziałeś, że to zależy, ale ja myślę sobie, że to jest też taki duży aspekt psychologiczny.

powiem z mojego własnego doświadczenia i z mojej perspektywy.

Jeżeli ja sobie tam mierzę na tym zegarku i tam widzę, że te kółeczka mi się zamykają, to mnie to na przykład mobilizuje.

No, trzeba dzisiaj tam coś zrobić, żeby te kółeczka mi się tam zaświeciły w tych trzech kolorach różowy, zielony i żółty.

No i każdy tam symbolizuje pewną aktywność, więc no, to ma jakiś tam wpływ na mnie, żeby mnie mobilizowało do działania, do ćwiczenia, tylko właśnie

Pytanie moje było takie, czy to rzeczywiście jest mierzalne, ale mówisz, że jest mierzalne i realne.

To jest mierzalne i realne.

I to wszystko tak naprawdę zastanowi, trzeba się zastanowić, po co to jest i do czego to służy.

Jeżeli ostatecznym wynikiem jest stymulowanie kogoś po to, żeby ćwiczył, to dobrze, tak?

I tak naprawdę, czy ważne jest to, że on bardzo dokładnie to zmierzy i pomyli się o 10 kroków, czy nie?

Prawda nie ma znaczenia.

Ważne, żeby pacjenta czy osobę, która nosi ten zegarek, stymulował do wykonywania ćwiczeń, stymulował do czegoś i tak naprawdę o co chodzi.

A czy robi to bardzo dokładnie, czy nie bardzo dokładnie, nie ma znaczenia.

Jeżeli to jest zastosowanie czysto medyczne i tych 10 kroków w jedną stronę albo w drugą stronę, albo zmierzenie tętna w taki sposób, albo inny sposób może zmienić, w jaki sposób pacjent jest zdiagnozowany, wtedy to już ma znaczenie.

Czyli wszystko tak naprawdę chodzi o to, do czego te dane są później wykorzystywane, jak i dlaczego.

W pewnym momencie jeszcze naszej rozmowy będę chciał wrócić do tego, co to tak naprawdę jest sztuczna inteligencja.

Dlatego, że rozmawiamy o zegarkach, rozmawiamy o jakichś trakerach, rozmawiamy o innych rzeczach.

I trzeba się dobrze zastanowić, czy to jest w ogóle sztuczna inteligencja, prawda?

No, a jest, a nie ma?

Tak naprawdę to jest taka śmieszna odpowiedź, to zależy, i jak ja prowadzę wykłady i studenci zadają mi pytania, to zawsze im odpowiadam, to zależy.

Nawet kupili mi kubek, na którym jest napisane it depends, bo to jest zawsze moja odpowiedź.

I tak naprawdę to zależy.

No to masz już taką ksywę wśród studentów, it depends.

Dokładnie.

Tak naprawdę to się sprowadza do tego, czym jest sztuczna inteligencja.

I można się na to patrzeć z różnych punktów widzenia.

Sztuczna inteligencja to może być dziedzina nauki, tak jak fizyka, matematyka, biologia.

Sztuczna inteligencja jest dziedziną nauki.

Z innego punktu widzenia sztuczna inteligencja to jest to coś, co budujemy.

I to jest takie science fiction, jak w Star Trek'u rozmawia się z komputerem, który coś robi.

To jest to fizyczne coś, co jesteśmy w stanie zbudować.

Albo fizyczne, albo oprogramowanie, co jesteśmy w stanie zbudować.

I to jest ta sztuczna inteligencja, ten czat GPT, ten zegarek.

To coś, z czym rozmawiamy, z czym w jakiś sposób mamy jakiinterakcje.

To jest sztuczna inteligencja.

Inny punkt widzenia jest taki, że to są metody sztucznej inteligencji.

I to jest tak, jak ja najbardziej lubię się patrzeć na sztuczną inteligencję.

Czy my tak naprawdę zbudowaliśmy sztuczną inteligencję taką jak w filmach czy książkach science fiction?

Nie.

Czy tworzymy metody, które zmierzają w tym celu i tych metod jest coraz więcej i one są coraz lepsze?

Absolutnie tak.

I tak naprawdę coś, co było uznawane za sztuczną inteligencję 20-30 lat temu, w tej chwili może być wbudowane w pralkę, która wie, tak naprawdę porusza sobie praniem w środku, ma dużo sensorów i wykorzystuje jakoś tam rozmytą logikę, żeby stwierdzić, jak to pranie wyprać, co zrobić, co było tak naprawdę uznawane za metody sztucznej inteligencji w latach 80.

A teraz już tak nie mówimy, że to jest sztuczna inteligencja, bo nam się kojarzy z zupełnie czymś innym, prawda?

Kojarzy się z zupełnie czymś innym i to jest prace.

I to jest po prostu normalne.

I jest normalne, że tak naprawdę dziedzina się posuwa bardzo do przodu i to, co uznajemy za inteligentny system, czy to, co uznajemy za sztuczną inteligencję,

To jest po prostu jakiś tam system komputerowy, czy jakiś tam system współpracujący automatycznie z człowiekiem, albo robiący coś w ogóle całkowicie automatycznie, który to robi w jakiś taki lepszy sposób niż normalny system komputerowy.

Ale to, co robi normalny system komputerowy, też się zmienia.

I bardzo dużo rzeczy, które jest wbudowane w obecnie telefon, my nie myślimy o tym, że to jest sztuczna inteligencja, to jest iPhone, który coś robi.

A te metody były tak naprawdę publikowane w czasopismach i książkach dotyczących sztucznej inteligencji kilka, kilkanaście lat temu.

No przeciiPhone to jest początek lat dwutysięcznych, kiedy się pojawił, tak?

I to już też było na bazie sztucznej inteligencji.

Wszystko jest na bazie sztucznej inteligencji.

Ale wtedy o tym nie mówiliśmy w takim aspekcie.

Tak naprawdę trzeba się na to popatrzeć.

Wszystko się zmieniło od czatu GPT.

Dokładnie.

I tak naprawdę przez długi okres czasu...

Te metody istniały, ten cały model GPT stworzony przez OpenAI istniał dobrych kilka lat zanim powstał ChatGPT.

I w pewnym sensie ChatGPT to był taki chwyt marketingowy OpenAI, który tak naprawdę otworzył to dla ludzi.

Natomiast ten model taki, to się nazywa duży model językowy...

On tak naprawdę istniał dużo, dużo wcześniej.

Oni bardzo go ulepszyli od tego czasu, zrobili tam dużo rzeczy dookoła.

Natomiast ten model istnii wiedziało o nim tylko parę osób, które tak naprawdę zajmujące się bardzo ścisłą dziedziną analizy języka naturalnego.

Ale te modele były znane i to nie było wielkie coś.

Dopóki OpenAI nie zbudowało czatu GPT opierającego się tak naprawdę na tym modelu i wszystko się od tego zaczęło.

No właśnie, bo tutaj doszły takie kolejne elementy, bo czat GPT jednak zaczął zastępować człowieka w wielu dziedzinach.

Przecież...

No cały czas mówi się i czyta się różne rzeczy dotyczące, nie wiem, redukcji pewnych zawodów, redukcji miejsc pracy, bo szóstna inteligencja przejmuje tę rolę, która no po prostu jest o wiele tańsza.

Jak najbardziej.

To znaczy, dużo osób się może ze mną nie zgodzić, ale to samo było 100 plus lat temu, w momencie, kiedy ktoś wymyślił maszynę parową, prawda?

Czy zaczęły powstawać fabryki.

A ta siła ludzka, czy też siła konia, zwierzęcia, czy czegoś innego została przekazana do maszyny parowej i dużo ludzi straciło pracę, ale później znaleźli lepsze pracę i zaczęli się zajmować innymi, lepszymi rzeczami.

I tak samo jest nie tylko ze sztuczną inteligencją, ale w ogóle z komputerami.

Jest taka teoria, która mówi, że komputer i sztuczna inteligencja to jest tak naprawdę to samo dla ludzkiego mózgu, co maszyna parowa zrobiła dla ludzkich mięśni wiele lat wcześniej.

I wiadomo, że pewne powtarzalne prace już od dawna są zastępowane przez komputer.

W tej chwili bardziej i bardziej skomplikowane prace mogą być zastąpione przez komputer.

Ale ten człowiek po prostu przekwalifikuje się i będzie zajmował się tym, do czego jest potrzebny, a nie tym, co można zautomatyzować.

No to do czego będzie potrzebny?

Do kreatywności.

Do kreatywności, do robienia czegoś w inny sposób.

A mam taką doktorantkę, która przez jakiś czas strasznie mnie denerwowała, dlatego że wszystko, co jej powiedziałem, ona natychmiast spisywała do czatu GPT i stwierdziła, co ten czat powie.

I na początku mnie to strasznie denerwowało, czy ona sprawdza, co ja do niej mówię, co ona robi.

A później strasznie mi się ten pomysł podobał, bo zacząłem widzieć te odpowiedzi z czatu.

I jeżeli zadawałem jej jakiś problem i chat GPT, czy jakiś inny, czy cloud, czy jakiś inny system, który ona używała, odpowiedział sensownie, to znaczy, że ten problem jest rozwiązany, nie ma żadnego sensu prowadzić badań naukowych na ten temat.

To wiadomo.

Ale skąd wiadomo, że odpowiedź z czata GPT, czy z innego programu, wspomniałeś tutaj o Klot, jest Grok, są jeszcze inne.

Czy on sobie tam nie wymyśla?

Bo jeżeli ty na przykład jesteś ekspertem w jakiejś dziedzinie, no to rzucisz okiem i wiesz.

Ale jak nie jesteś?

W jej przypadku ja się patrzyłem na to jako ekspert.

Dlatego, że ja zadając temat swojej doktorantce jako profesor, spodziewałem się mniej więcej, co można zobaczyć, jakiego typu rezultat można zobaczyć.

Jeżeli taki czat podał rozwiązanie, które jest kompletną bzdurą, to kompletnie nie może działać, to wiadomo, że to jest fajny temat, czat nie wie, jak go rozwiązać, czyli tak naprawdę możemy się tym zacząć zajmować i coś nowego w tym można zrobić.

Natomiast jeżeli ten czat, czy jakikolwiek inny system podał rozwiązanie, które było jak najbardziej sensowne, to ci ludzie nie są potrzebni.

Jak to robić z punktu widzenia ludzi, którzy nie znają się na tym temacie?

To już jest dużo bardziej skomplikowane.

No bo wiesz, że teraz ludzie po prostu wrzucają, a mówię zwłaszcza o młodych ludziach, którzy na razie jeszcze nie są ekspertami w żadnej dziedzinie, dla których czat jest taką naturalną koleją rzeczy.

Dla nas kiedyś to był Google, tak?

Wpisywało się do Google'a i wyskakiwało ci ileś tam tych stron i no i też to musiałeś polegać trochę na swojej intuicji, którą uznajesz za wiarygodną, a którą nie.

Ale teraz możesz zapytać czata o wszystko, ale czat może ci nawymyślać.

I bardzo często wymyśla.

No właśnie, jeżeli ty nie masz pojęcia nic na ten temat i tak ślepo zrobisz kopiuj i wklej, no to leżysz.

To jest bardzo długa dyskusja, na której my dyskutujemy jako nauczyciele akademicki, jako profesorowie na uczelni, ale o tym samym dyskutują nauczyciele w szkołach.

czego tak naprawdę trzeba uczyć studentów, uczniów i co powinni wiedzieć.

I cały czas utrzymujemy, że tą wiedzę podstawową muszą mieć.

Na przykład programiści komputerowi.

W tej chwili chat, czy Copilot, czy jakiś inny system jest w stanie napisać cały kod.

No tak, ale często to jest, często on jest świetny i kapitalnie działa, a często kompletnie to nie działa.

No bo to jest tak jak na przykład ja bym, nie mam pojęcia o programowaniu, to nie jest w ogóle moja dziedzina, ale mówię, no to każdy może.

Wrzucasz sobie YouTube, instruktaż i YouTube ci powie, jak chcesz sobie napisać tam kod jakiś, to zrób to tak.

No to ja tam mogę usiąść, nigdy tego nie robiłam, ale hipotetycznie siadam, no dobra, mam tutaj instrukcję, YouTube mi mówi, weź tam w czacie zrób to.

No i on mi pisze kod, mówię, kurczę, no informatyk ze mnie, napisałem kod.

No właśnie, tylko to może działać, a to może nie działać.

I ktoś, kto sam programował, kto pisał to samemu, od razu, natychmiast jest w stanie to zobaczyć i w ciągu 10 minut kod, który można by pisać cały dzień, może powstać w parę sekund i później przez 10 minut, przez pół godziny można sprawdzić, czy on działa tak, jak trzeba.

I z całego dnia pracy robi się godzinka, dwie godzinki i jest super.

Ale najpierw się uczyłeś tego przez ileś lat.

Ale najpierw się uczyłem, dokładnie.

I cały czas trzeba się tego uczyć.

Napisaliśmy taką pracę opublikowaną z moją koleżanką, w której wzięliśmy wszystkie prace domowe ze wszystkich wykładów, ze wszystkich przedmiotów, które prowadzimy i wrzuciliśmy do Copilot.

I Copilot prawidłowo rozwiązał wszystkie testy, zrobił wszystkie zadania, które były czysto programistyczne.

I popełniał strasznie głupie błędy, jeżeli to było programowanie plus do tego potrzebna wiedza na temat danych medycznych.

I rozwiązał je kompletnie źle.

Bo po prostu napisał bardzo ładny kod, bardzo ładny, czysty program, który to analizował, ale nie wiedział, że są pewne zależności w danych, nie wiedział, że pewne rzeczy w danych istnieją i to po prostu trzeba wiedzieć.

I w momencie, kiedy do tego Copilot później napisaliśmy, że nie, tak nie jest i dlatego, że dane mają w sobie taką zależność, zrobił to poprawnie.

Ale to pierwsze rozwiązanie było absolutnie niepoprawne i to były takie bardzo krytyczne błędy.

Program, który działa, który bierze dane, zwraca wyniki, które wyglądają poprawnie, ale są bardzo, bardzo niepoprawne.

Czyli od razu nasuwa mi się taki wniosek, coś o czym ja już od dawna myślę, ale wydaje mi się, że to potwierdzi, że każdy program oparty na sztucznej inteligencji, GPT, grog, jakikolwiek inny, on może być pomocny dla specjalistów w jakiejś dziedzinie, każdej osoby, która się na czymś zna.

Czyli może przyspieszyć pracę, działanie, ale ty i tak musisz się znać na tej swojej dziedzinie, żeby ten czat ci pomógł.

Tak i nie.

Z jednej strony tak i bardzo pomaga programistom, bardzo pomaga różnymi rzeczami, ale trzeba się na to patrzeć krytycznie.

Ja jako naukowiec jednej rzeczy się nauczyłem, to jest krytycznego patrzenia się na wszystko, co czytam, wszystko, co widzę i wszystkiego innego.

I to dotyczy zarówno tego, co się znajduje, czy znajdowało kiedyś na Google, to dotyczy tego, co jest opublikowane w pracach naukowych, dlatego, że ludzie przecież też się mylą i może być wiele publikacji na ten sam temat, które mają ze sobą sprzeczne wyniki i to też trzeba w jakiś krytyczny sposób czytać.

I tak samo w krytyczny sposób trzeba się patrzeć na to, co taki czat produkuje.

No właśnie o tym mówię, że ty musisz się na tym znać, żeby ocenić, czy on ci pomaga, czy ci kurczę... Albo w jakiś sposób sprawdzić.

Wszystko zależy tak naprawdę o co chodzi.

Jeżeli to jest coś bardzo ważnego, to ja w życiu nie wykorzystałbym wyników czegoś takiego do podjęcia ważnej decyzji dotyczącej czegoś bez sprawdzenia, bez dojścia do źródeł, bez zrobienia czegoś innego.

Jeżeli to jest coś nieważnego i chcę się dowiedzieć czegoś, czytam sobie książkę i nie mam pojęcia czegoś na temat fizyki kwantowej, jakiegoś zagadnienia, bo o tym czytam książkę i autor książki napisał to w tak zagmatwany sposób, że czat mi to znacznie lepiej wytłumaczy.

Jako fizyk na tej fizyce kwantowej w ogóle się nie znam, tylko co przeczytałem w kilku książkach.

I ten czad może to wytłumaczyć w bardzo fajny sposób.

Jeżeli zrobi to źle, to jedyne, co się może stać, to ja będę w swojej ignorancji tkwił być może do końca życia i myślał, że tak jest.

I to nie ma za sobą żadnych tak naprawdę ważnych konsekwencji.

Natomiast jeżeli to jest lekarz, który wykorzysta taki czad, żeby podjąć diagnozę i zacznie leczyć pacjenta na tej podstawie...

Czy to jest inwestor, który zacznie inwestować w cudze pieniądze i je straci, dlatego że jakiś system mu tak powiedział, albo to jest jakiś system wojskowy, który podejmie błędną decyzję.

To wszystko tak naprawdę zależy od tego, do czego się to stosuje, czy trzeba to sprawdzać, czy nie.

I trzeba umieć krytycznie patrzeć na wszystko, co jakakolwiek technologia produkuje, ale też co ludzie produkują.

No to wróćmy do tego wątku dotyczącego wykorzystywania sztucznej inteligencji w medycynie.

Daliśmy taki przykład analizowania zdjęć.

No to skąd lekarz ma wiedzieć, jak ma ufać temu systemowi, skoro on się może mylić?

Lekarze też się mogą mylić.

No to kto powinien mieć rację?

Bo skoro i lekarz, i system oparty na sztucznej inteligencji mogą się mylić, to kto myli się mniej?

Jest to moja ulubiona odpowiedź, ale tak naprawdę to zależy.

Taki profesor u mnie na wydziale, zresztą współpracowaliśmy nad tym projektem, napisał system do wybierania leków antydepresyjnych dla pacjentów i on na podstawie dużej ilości danych pacjentów był w stanie przepisać lek, który ma największą szansę działać.

Tam z 16 najpopularniejszych leków, które są wybierane.

I ten system...

działa znacznie lepiej niż lekarze pierwszego kontaktu.

Tutaj w Stanach większość tych leków przeciwdepresyjnych jest przepisywanych przez lekarzy pierwszego kontaktu i to zazwyczaj działa w ten sposób, że lekarz coś przepisuje, bo to jest najpopularniejsze, to działa albo nie, tam za parę miesięcy zmienia i tak dalej, i tak dalej.

I ten nasz system był znacznie lepszy niż lekarze pierwszego kontaktu.

W Polsce to w ogóle chyba leków antydepresyjnych nie przepisują lekarze pierwszego kontaktu, wydaje mi się.

Natomiast ten system na pewno nie jest lepszy niż psychiatra.

I bo psychiatrzy są po prostu świetnymi specjalistami.

I tak naprawdę chodzi o to, kto z tego będzie korzystał i jak.

Nie ma systemu, nie ma osoby, która jest nieomylna.

Tak samo ludzie się mylą, jak i mylą się komputery.

Jest tylko stwierdzenie, w jaki sposób, jakie są konsekwencje tego błędu, jaki jest błąd, na który możemy sobie pozwolić i czy zdajemy sobie sprawę z tego błędu.

Gdybyśmy napisali system, być może kiedyś takie powstanie, chociaż z definicji nie da się takiego stworzyć, całkowicie nieomylny system.

wtedy na temat tego systemu nie trzeba wiedzieć nic.

Wprowadza się dane, które są na pewno prawdziwe, dostaje się odpowiedź, która jest na pewno prawdziwa i ja na temat tego systemu nie muszę wiedzieć absolutnie nic, bo on zawsze mi podaje dobrą odpowiedź i wszystko działa.

I w jakichś tam prostych zastosowaniach być może tak da się zrobić.

W momencie, jeżeli to jest system bardzo skomplikowany i takie systemy medyczne potrafią wziąć tysiące zmiennych opisujących pacjenta, przetworzyć je i powiedzieć, jak pacjenta leczyć, postawić diagnozę, powiedzieć, co z pacjentem się będzie działo za pół roku, za rok, za dwa lata itd.,

Te systemy nie są nieomylne.

I wtedy tak naprawdę sprowadza się do tego, jak ten system prowadzi dialog z lekarzem, czy jest w stanie przedstawić dowody, czy wytłumaczyć, dlaczego tak uważa i nie uważa.

To się nazywa taki transparent AI, czyli po angielsku.

Czyli tak naprawdę chodzi o to, żeby system nie tylko powiedział, co chce zrobić, ale wytłumaczył, dlaczego.

I jeżeli lekarz się z tym zgodzi, to wykorzysta ten wynik i będzie tak leczył pacjenta, ale zdarza się tak, że lekarz może się kompletnie nie zgodzić z tym, ponieważ widzi w wyjaśnieniu przez system, dlaczego on chce podjąć pewną decyzję, coś, co jest kompletnie sprzeczne z wiedzą medyczną i po prostu tego nie zrobi.

I tak naprawdę do pewnego stopnia można się na to patrzeć tak jak na dialog systemu z lekarzem czy z użytkownikiem.

Tak jak można rozmawiać z chat GPT i który na początku coś zrobi źle, ale można mu wytłumaczyć i po kilku razach tak naprawdę dochodzi się do rozwiązania, które trzeba.

Trzeba mu też powiedzieć, zapamiętaj to.

Dokładnie.

Ale tak samo taki system może po prostu usiłować przekonać lekarza, dlaczego twierdzi, że podjął taką decyzję, a nie inną.

Lekarz może się tym nie zgadzać i do końca może się nie zgadzać, a być może po trzech, po czterech razach system przekona lekarza i stwierdzi, że jednak tak jest.

I tak naprawdę tendencja jest taka, żeby budować takie otwarte systemy.

Wiadomo, że nikt nie jest w stanie zrozumieć, nawet specjaliści sztucznej inteligencji, jak działa sieć neuronowa, co ona w środku robi.

Znamy całą teorię, znamy matematykę, znamy architekturę sieci, to wszystko wiemy, ale co taka sieć neuronowa naprawdę robi, nikt nie ma absolutnie pojęcia.

I to, co można jedynie zrobić, to jest można spróbować, żeby taki system, taka sieć wyjaśniła, dlaczego chce podjąć odpowiednią decyzję i dzięki temu możemy albo uznać, że ona jest prawdziwa, albo nie.

Janusz, żeby te wszystkie systemy dobrze działały, to trzeba w nie wrzucić masę danych.

Cały czas wrzucać, no bo ta sztuczna inteligencja musi się uczyć na podstawie jakichś danych, żeby być coraz lepsza.

Dokładnie tak.

No to powiedz, jeżeli mówimy o danych medycznych, najpierw zatrzymajmy się przy danych medycznych, to na ile te nasze dane są bezpieczne?

Znów to zależy jak zdefiniować bezpieczeństwo.

Prawnie uregulowania i tutaj w Stanach, w Stanach to jest HIPA, a w Europie to są różne inne prawne uregulowania dotyczące ochrony danych osobowych.

One tak naprawdę opierają się na tym, jakiego rodzaju dane wolno współdzielić, wykorzystywać, a jakich nie.

I wiadomo, że taki system nie potrzebuje znać imion, nazwisk, nie potrzebuje znać dat urodzenia, nie potrzebuje znać innych rzeczy, żeby się nauczyć, ale potrzebuje znać różne inne dane.

Natomiast tak naprawdę chodzi o to, dlaczego to jest później wykorzystywane.

Dane wszędzie są i zwłaszcza młodzi ludzie kompletnie nie mają problemów ze współdzieleniem swoich danych.

Wystawiają swoje dane na media socjalne, których absolutnie nigdy nie wolno by nam wykorzystywać do badań naukowych i które normalnie powinny być prawnie chronione, ale...

Wiadomo, wystawiają swoje dane w internecie.

O jakich danych mówisz?

Daj przykład jakiś.

Swoje diagnozy medyczne, swoje dane osobiste, daty urodzenia, wszystkie to są dane chronione.

I takich danych normalnie nie można przetwarzać, nie można się nimi dzielić.

Natomiast ludzie najnormalniej świeci te chronione dane.

a wystawiają w internecie i nie mają z tym żadnego problemu.

Czyli masz na przykład na myśli tam na Facebooku są takie zwyczaje, że jak ktoś ma urodziny, to wszyscy mu składają życzenia, no bo ta data została udostępniona na Facebookowi, prawda?

Dokładnie, ale również to dotyczy chorób, to dotyczy danych medycznych.

Są portale, na których pacjenci opisują swoje przypadki, opisują swoje diagnozy, współdzielą całkowicie otwarcie swoje dane medyczne i po to, żeby inne osoby mogły komentować i coś na ten temat napisać.

No ale tam chyba piszą anonimowo, nie piszą pod imieniem i nazwiskiem.

Nie.

Dużo z tych miejsc normalnie ludzie nie mają żadnego problemu, żeby pisać te wszystkie rzeczy normalnie pod swoim imieniem i nazwiskiem.

Także to się troszeczkę zmienia.

I z jednej strony te dane powinny być chronione, bo wiadomo, że pewnego rodzaju danych po prostu są niepotrzebne, a z drugiego punktu widzenia chodzi o to, do czego wykorzystywane są te systemy, do czego te dane są wykorzystywane, a nie, że konkretnie takiej jednej diagnozy wolno podawać, a takiej nie wolno.

według mnie jest mniej ważne.

Bardziej ważne jest do tego, kto chce to wykorzystać.

Czy ktoś to chce wykorzystać, żeby nam się włamać na konto, albo czy chce to wykorzystać firma ubezpieczeniowa, żeby odmówić nam ubezpieczenia?

czy chce to wykorzystać uniwersytet, który chce zbudować system po to, żeby diagnozować lepiej jakąś chorobę.

Gdzie ty widzisz ryzyko?

Bardzo dużo jest innych rzeczy.

To są miliardy dolarów, które są tracone przez firmy ubezpieczeniowe, przez rząd amerykański, przez różne instytucje, dlatego, że na przykład wysyła się fałszywe rachunki pacjentów.

Można sobie założyć, można fałszywie... Ale kto je wysyła?

To są grupy przestępcze, które mogą zakupić w internecie olbrzymią ilość ukradzionych danych medycznych, a następnie założyć tak naprawdę fałszywą klinikę pod nazwiskiem lekarza, który też jest ukradziony.

I zacząć wysyłać rachunki do Medicare tutaj w Stanach albo do firm ubezpieczeniowych, normalnie być za to płacone.

I to się dzieje?

I to się dzieje.

To są miliardy dolarów, to są udokumentowane miliardy dolarów, które są corocznie płacone, dlatego, że po prostu zorganizowane grupy przestępcze kradną dane pacjentów po to, żeby po prostu na tym zarabiać.

to też nie tylko rząd na tym traci pieniądze, ale też to może mieć bardzo złe konsekwencje dla pacjentów, dlatego że ktoś się może zorientować, że taki pacjent zaczyna wysyłać rachunki dla innego pacjenta i pacjent też może mieć problemy, może mieć odmówione inne świadczenia, dlatego że na przykład przekroczył maksymalną ilość, kwotę, którą może wykorzystać w danym roku.

a wszystko były to fałszywe rachunki.

Czyli to wszystko się dzieje i to się dzieje podobno na gigantyczną skalę.

To nie jest dokładnie dziedzina, którą ja się zajmuję, tylko wiem to na temat jakichś tam artykułów, które czytałem, ale to się dzieje i dzieje się na bardzo dużą skalę.

To jak rozmawiamy tak o kosztach i o finansach, to czy twoim zdaniem właśnie wykorzystywanie sztucznej inteligencji w medycynie, w systemach medycznych może obniżyć koszty?

No bo zwłaszcza tutaj w Stanach koszty medyczne są gigantyczne.

To wynika też z tego systemu firm ubezpieczeniowych, które po prostu niestety są pośrednikami, można powiedzieć, między szpitalami czy placówkami, które zajmują się leczeniem, a pacjentem.

Czy to może wpłynąć na to, że te koszty będą niższe?

Może i powinno, ale niekoniecznie tak się dzieje.

Metody sztucznej inteligencji, te wszystkie systemy tak naprawdę mogą zrobić dwie rzeczy.

Takie, które są bardzo ważne.

Obniżyć koszt i tak naprawdę pomóc pacjentom, którzy inaczej nie mieliby możliwości dostępu do najlepszego specjalisty.

Jeżeli ktoś mieszka w dużym mieście, ma dobre ubezpieczenie, ma dostęp do najlepszego szpitala,

to tak naprawdę te systemy, czy one coś pomogą, czy nie, temu pacjentowi?

Prawdopodobnie nie, dlatego że ten najlepszy specjalista tak naprawdę wie, co robi.

Jeżeli ktoś mieszka gdzieś daleko, jest jakiś jeden mały szpital, do którego musi jechać godzinami, a to jest szpital gdzieś w polach, gdzie tak naprawdę nie ma najlepszych specjalistów, bo nikt nie chce tam być...

Wtedy taki system może naprawdę pomóc pacjentowi i postawić diagnozę na poziomie tego dobrego specjalisty w momencie, kiedy tego specjalisty nie ma.

Czyli to jest jedna strona.

Druga strona to jest może obniżyć koszt.

Czyli automatyzacja tak naprawdę jest po to, żeby obniżyć koszt, żeby...

A radiolog przeglądający zdjęcia nie musiał spędzać 7 minut, tylko mógł to zrobić 5 minut na każdy obraz, przez to może ich przetworzyć więcej i w ten sposób można obniżyć koszt.

To jest automatyczne umawianie pacjentów, to jest automatyczna diagnoza, można przez to bardzo obniżyć koszt.

Problem jest taki, że chyba w tej chwili tak się nie dzieje.

No bo ktoś musi podjąć decyzję o obniżaniu tych kosztów, a tym możemy zarabiać jeszcze więcej, nie?

Możemy zarabiać jeszcze więcej, o to chodzi.

Te metody w tej chwili są potwornie drogie.

Mały szpital, mała klinika, przychodnia, nie stać ich na to, żeby tak naprawdę zakupić wiele z tych systemów, dlatego że może używają jakiegoś zwykłego czatu GPT, który kosztuje za 25 dolarów.

Ale to nie jest system medyczny i tak naprawdę nie wiadomo, czy powinni z niego korzystać, czy nie.

Natomiast te takie specjalizowane medyczne systemy, które potrafią bardzo dużo zrobić, są potwornie drogie.

I najlepsze szpitale, najlepsze uczelnie medyczne korzystają z tych systemów, pomimo, że tak naprawdę nie muszą, a tam, gdzie te systemy mogą być wykorzystywane, czy nawet taka aplikacja, którą my piszemy do wykrywania śniaków, czy jakichś obrażeń na skórze,

ona może świetnie działać właśnie tam, gdzie nie ma specjalisty, który może to zrobić, ale to znaczy, że musi być tania.

To znaczy, że to musi być darmowe albo bardzo tanie i po prostu dostępne.

I wtedy może obniżyć koszt i może też po prostu pomóc ludziom, którymi inaczej nie mogłaby pomagać.

A czy widzisz taką realną szansę, że właśnie te systemy...

Mogą w jakiś sposób spowodować, że kolejki będą mniejsze do lekarzy, do specjalistów.

Może tutaj w tym regionie, gdzie my mieszkamy, to nie ma aż tak bardzo tego problemu, ale to wspomniałeś gdzieś o mniejszych miastach.

Też mówię tutaj w kontekście Polski, gdzie kolejki do specjalistów są naprawdę bardzo duże i często czeka się miesiącami albo nawet tam jest termin na następny rok.

Jak najbardziej.

Jest dużo rzeczy, które może absolutnie robić komputer i zupełnie są do tego ludzie niepotrzebni.

Jeżeli ja potrzebuję nowe, odnowione szczepienie na COVID albo na grypę, albo na coś, to po prostu wchodzę sobie na stronę swojej przychodni.

Tam klikam cztery razy i to automatycznie daje mi skierowanie i tylko muszę się pojawić, dostaję zastrzyk i po sprawie.

A kilka lat temu trzeba było albo napisać do tego lekarza pierwszego kontaktu, albo się z nim spotkać, dostać skierowanie i dopiero można było iść na ten zastrzyk.

Czyli te rzeczy bardzo, bardzo pomagają, one istnieją i jest dużo rzeczy, które kompletnie można zautomatyzować, bo ludzie są do tego niepotrzebni.

I od razu tutaj mi się kojarzy to, co powiedziałeś wcześniej, że specjalistów będzie potrzeba jeszcze więcej, bo ktoś musi ten zastrzyk zrobić.

Jak najbardziej.

No chyba, że te roboty będą już, wiesz.

Mogą być roboty, ale to nie muszą być dobrze wykwalifikowani specjaliści.

Wiadomo, że rzeczy dotyczące takiej fizycznej interakcji z pacjentem robią ludzie i muszą robić ludzie.

Nawet w takich dziedzinach jak robotyka, w której wykonuje się operacje poprzez robota, to są kapitalne rzeczy, tam zawsze jest chirurg, który zdalnie operuje tego robota.

On może siedzieć na drugim końcu świata, ale zdalnie człowiek operuje tym robotem, to nie jest robione automatycznie i ten specjalista jest potrzebny.

Natomiast...

A są rzeczy, do których ci spytam.

I do takiej interakcji z pacjentem zawsze jest ten człowiek potrzebny, ale on nie musi być świetnie wykwalifikowany.

To nie musi być lekarz po wielu latach studiów po to, żeby zrobić zaszczyk.

A to nawet nie musi być dobrze wykwalifikowana pielęgniarka, żeby zrobić ten zaszczyk.

To jest po prostu jakiś tam technik, który to po prostu robi i tyle.

I do tego są ludzie cały czas potrzebni, ale...

przy tym takim lepszym wykwalifikowaniu, czy typu podejmowaniu diagnozy, robieniu innych rzeczy na podstawie danych, też dużo rzeczy może robić maszyna w tej chwili.

No właśnie, bo chciałabym tutaj jeszcze taki jeden wątek poruszyć, wątek robotów i to teraz mi przyszło na myśl, tak jak sobie rozmawiamy.

gdzieś czytałam, nie wiem, czy to był raport, czy jakiś artykuł, ale on dotyczył tego, że jednym z takich największych problemów, z jakim społeczeństwa będą się mierzyć, jest to, już się z tym mierzą, że społeczeństwa się starzeją, ludzie żyją dłużej i brakuje osób, wykwalifikowanych osób, które będą się opiekować seniorami.

Seniorami, którzy wymagają takiej stałej opieki, uwagi, ale brakuje takich ludzi do tego typu zajęć i tutaj wejdą roboty.

No jak ty podchodzisz do tego zagadnienia?

To jest taka dziedzina, której Japończycy bardzo przodują.

To znaczy Japończycy zawsze z jakiegoś powodu lubili te hematoidalne roboty i one od wielu, wielu lat, tam jakieś różne inne wersje i komercyjne i w naukowych ośrodkach powstawały.

Ale to jak najbardziej ma sens.

I wiadomo, że ludzie lubią kontakt z ludźmi, ale jest dużo rzeczy, do których ludzie są niepotrzebni.

Jest dużo rzeczy, przy których nawet lepiej jest być z robotem, niż być z innym człowiekiem.

Jeżeli to jest starsza osoba, która ma problem z pójściem do toalety, ona może się niespecjalnie dobrze czuć, jeżeli ktoś jej pomaga w tej toalecie.

Natomiast jeżeli jest to maszyna, to jest po prostu maszyna i robi to, co ma robić i w związku z czym nie ma problemu.

W związku z czym na pewno są takie dziedziny, w których maszyny nawet są lepiej widziane, czy mogłyby być lepiej widziane niż ludzie.

A jak najbardziej.

Ja nie miałbym żadnego problemu, żeby taki robot za mną chodził i coś dla mnie robił.

I wiele osób tak uważa.

Czyli myślisz, że to trzeba by było tak połączyć, żeby do takich zajęć, które są też na przykład trudne, fizycznie trudne, wymagające podnoszenia tego typu pacjenta, towarzyszenia mu właśnie w takich czynnościach fizjologicznych, jak wspomniane pójście do toalety.

że to miałyby robić roboty, a ludzie mieliby być bardziej do towarzystwa, do takiego psychicznego wspierania takich osób?

Jak najbardziej.

To znaczy, to też się zmienia.

To znaczy, zazwyczaj taki pacjent z kimś, kto go podnosi, przynosi, pomaga, też lubi sobie pogadać.

I ciężko jest oddzielić te dwie strefy, dlatego że to jest zazwyczaj kilka rzeczy, które jest tak naprawdę równocześnie.

Ale to też się zmienia.

Jest coraz więcej ludzi, którzy po prostu lubi sobie pogadać z czatem.

I to głównie są młodzi ludzie, ale ludzie po prostu lubią sobie pogadać z czatem, zwierzyć się, poczekać na jakąś odpowiedź, na jakąś poradę, na coś innego.

też się zmienia.

I wiadomo, że ja uważam, że ten ludzki kontakt jest bardzo, bardzo potrzebny.

No właśnie, bo to wiesz, jak brzmi pogadać z czatem.

To już jest taka trochę, no kurczę, powinniśmy rozmawiać z innymi ludźmi, a nie gadać z czatem, tak?

Ale ta rozmowa może być tak dobra, że ktoś się może nawet nie zorientować, że to nie jest człowiek.

A to tak głupio brzmi, ale czasami jak się rozmawia z takim inteligentnym systemem, to naprawdę się jest ciężko rozorientować, czy to jest człowiek z drugiej strony, czy nie.

A to ja wiem i wiesz, ten czad potrafi się do ciebie dostosować, nawet sam żarcikiem ci rzuci, on się uczy i suchary potrafi i cię rozbawi i cię pocieszy.

Zgadza się, tylko że, no czy to zmierza w dobrym kierunku?

A to już jest całkowicie inna sprawa.

To mi przypomniało o takim klasycznym teście na sztuczną inteligencję, czyli teście Turinga.

I test Turinga generalnie, on jest tam formalnie opisany dosyć dokładnie, ale to generalnie chodzi o to, że jeżeli człowiek nie jest w stanie się zorientować, czy rozmawia z maszyną, czy z człowiekiem, to już jesteśmy na poziomie sztucznej inteligencji.

I gdyby wykorzystać tak naprawdę jako kryterium test Turinga, to już jakiś czas temu sztuczną inteligencję osiągnęliśmy.

I oczywiście tak nie jest, prawda?

Bo tego ludzkiego poziomu inteligencji jeszcze nie osiągnęliśmy i jeszcze dużo brakuje.

Chociaż w niektórych dziedzinach maszyny są znacznie lepsze, komputery są znacznie lepsze niż ludzie, to tej sztucznej inteligencji na poziomie ludzkim jeszcze nie osiągnęliśmy, ale to dokładnie o to chodzi.

I trzeba się zastanowić, dlaczego chcemy rozmawiać z drugą osobą.

Czy chcemy rozmawiać, bo po prostu chcemy się wygadać i wtedy ta maszyna może wystarczyć?

Czy chcemy rozmawiać z drugą osobą, żeby to była druga osoba?

Czy chcemy rozmawiać z jakiegoś innego powodu?

I to jest bardzo indywidualne.

I dla jednej osoby to musi być człowiek z drugiej strony, a dla innej osoby to może być maszyna i wszystko jest fajnie.

Ale mówisz, poruszasz taki wątek, że no może chcemy po prostu się wygadać przed czatem.

To na ile to, co mówimy do czata, no i tam ludzie, tak jak mówisz, powierzają mu swoje tajemnice, jakieś tam rozterki sercowe, no każdy wie, co tam wpisuje do czata.

To na ile to jest bezpieczne, że my tam takie różne rzeczy wpisujemy?

A to już trzeba przeczytać to z małym druczkiem napisane w momencie, kiedy zgadza się na warunki korzystania z czatu.

Są różne wersje i są różnice między wersjami płatnymi, wersjami niepłatnymi, są różnice między wersjami, które są zrobione czysto dla stosowań medycznych, czy też robione dla korporacji i tak dalej.

Są wersje czatu, czy są wersje tych wszystkich systemów, które są zrobione po to, żeby być bardzo bezpieczne.

Czyli dane nigdy nie wyjdą poza system,

nie będą używane do ćwiczenia tych systemów poza tą organizacją i organizacja nie będzie miała żadnego problemu, żeby nie bała się o to, żeby te dane w jakikolwiek sposób gdzieś wyciekły, ale po prostu za to płacą.

Natomiast... A taki czat GPT, nawet wersja płatna?

Przyznam się, że nie wiem, nie czytałem.

Nie czytałem i osobiście nie wpisuję tam niczego, czego nie umieściłbym publicznie w internecie.

Ale tak naprawdę to nie o to chodzi.

To chodzi o to, że darmowa wersja nie jest darmową wersją po to, żeby świat był lepszy.

Dlatego, że OpenAI jest korporacją, która chce zarabiać pieniądze.

Żebyśmy trenowali tego czata.

żebyśmy trenowali tego czata i wszystko, co jest darmowe, tak naprawdę nie jest darmowe, tylko nie jest darmowe albo przez to, że są reklamy, albo nie jest darmowe przez to, że wykorzystują nasze dane, albo nie jest darmowe w jakiś inny, niebezpośredni sposób.

Wiadomo, że te korporacje są po to, żeby zarabiać pieniądze i to jest całkowicie normalne.

I wtedy taka wersja płatna jest stworzona specjalnie po to, żeby te dane były bezpieczne.

Chciałam jeszcze wrócić do jednego wątku, bo jak rozmawialiśmy o tym, do czego będzie potrzebny człowiek, to powiedziałeś coś takiego, że do kreatywności.

Jak najbardziej.

To, co masz na myśli.

Przychodzi mi na myśl taki system, którym się bawiłem ostatnio do pisania muzyki.

Ja lubię słuchać metalu, takiego lat osiemdziesiątych i jest taka strona, w której można podać, jak chce się, żeby ten utwór wyglądał, jakiego typu, na początku szybki, potem wolny i żeby tekst był o tym i tak dalej, i tak dalej.

I to tworzy kapitalną muzykę.

Ja słucham tej muzyki i to jest normalna muzyka i wiele osób nie jest w stanie stwierdzić, że to nie jest jakaś kapela z lat 80., która gdzieś gra.

I to jest strasznie fajne, bo jeżeli na przykład kazałem napisać tekst po polsku, to brzmi jak taki polski metal czy polski rock od 80.

Natomiast jeżeli tekst jest po angielsku, to brzmi jak taki amerykański albo brytyjski rock lat 80.

I nawet tylko zmieniając język, już brzmienie muzyki jest troszeczkę inne.

To strasznie fajnie działa.

Ale to wszystko brzmi tak samo.

Jak się słucha tych utworów, to one są fajne, ale cały czas gdzieś... Ja już to słyszałem.

i w fajny sposób generują wokal, ale ten wokal też brzmi jak jakiś artysta, którego ja już gdzieś słyszałem.

On nie jest dokładnie taki sam, ale jest podobny.

To brzmienie, ta muzyka, te solówki, to wszystko w tej muzyce jest świetne i jest takie, jak ludzie lubią i takie, jak mi się szczerze mówiąc podoba, ale to nie jest coś całkowicie nowego.

To nie napiszę nowej symfonii.

Można poprosić, żeby napisał nową symfonię i ją napiszę,

ale ona będzie brzmiała trochę tak jak coś, co już kto inny przedtem stworzył.

I ta kreatywność sztucznej inteligencji to też nie jest coś nowego.

Takie zawody kreatywności sztucznej inteligencji od wielu, wielu lat są organizowane na różnych uniwersytetach.

Ja pamiętam od lat dziewięćdziesiątych, a być może są jeszcze znacznie wcześniej, gdzie po prostu jest sztuka stworzona przez systemy sztucznej inteligencji i ona jest oceniana przez artystów, czy to jest sztuka, czy nie sztuka.

I ludzie starają się stworzyć coś kreatywnego, ale czy tak naprawdę to jest kreatywne, czy to jest losowa wariacja odtworzona milionów przykładów, które ten system oglądał?

Wydaje mi się, że to jest ta losowa zmiana tych wielu milionów przykładów.

To nie jest coś całkowicie innego.

No ale nie wiem, czy spotkałeś się z takim określeniem, że korzystanie ze sztucznej inteligencji zabija kreatywność.

W pewnym sensie tak.

Ale wszystko zależy od jak się na to tak naprawdę patrzy.

Zabija kreatywność dlatego, że łatwy sposób jest rozwiązać problemy.

Człowiek nie musi myśleć i dostaje gotowe rozwiązanie.

Ale tak jak przedtem mówiłem o swojej doktorance, która lubiła wszystko wpisywać do chat GPT, co jej powiem.

I to jak najbardziej wzbudza kreatywność, dlatego że my nie musimy sprawdzać czegoś, czy to już zostało zrobione, czy nie, czy to rozwiązanie ma sens, czy nie ma sensu.

Po prostu widać, czy takie rozwiązanie, jeżeli ono kompletnie nie ma sensu, to znaczy, że to jest jakiś fajny, nowy temat badawczy, na którym można zacząć pracować.

Ci to też wszystko zależy, jak się na to patrzy.

To powiedz, jak uważasz, co może się wydarzyć właśnie w obszarze sztucznej inteligencji w ciągu najbliższych dziesięciu lat.

Nie mam pojęcia.

Wszystko się może wydarzyć.

Ta dziedzina się zmienia strasznie, strasznie szybko.

To znaczy na pewno ta sztuczna inteligencja, czy też metody sztucznej inteligencji będą wbudowane właściwie wszędzie, gdzie są.

I to nie tylko będą telefony, zegarki, samochody samojeżdżące.

To będzie każda dziedzina życia, w której te systemy będą i one będą coraz bardziej zintegrowane z tym, co robimy.

Czy nastąpi jakiś taki gigantyczny przełom typu powstanie sztuczna inteligencja, powstanie świadomość w sztucznej inteligencji czy coś innego?

Tego nie wiem, to jest ciężko powiedzieć.

Być może to nastąpi w ciągu 10 lat, być może w ciągu 50 lat, to jest ciężko powiedzieć.

Natomiast to, co jest pewne, to jest takie całkowite zintegrowanie właściwie każdej sfery życia z jakimiś tam metodami sztucznej inteligencji, które po prostu będą nam pomagać żyć łatwiej.

Czy ty na przykład w swoim takim życiu domowym wprowadziłeś jakieś systemy oparte na sztucznej inteligencji, których na przykład my ludzie, którzy nie zajmujemy się tym tak zawodowo jak ty, nie wprowadzamy?

Lubi technologię, ale nie lubi moich eksperymentów w domu.

Czyli zawsze dyskutujemy na ten temat.

Na przykład takie sterowanie domem zrobiłem wiele lat temu, jak tylko kupiliśmy dom paręnaście lat temu.

Tych systemów jeszcze nie było wtedy i ja w dużej mierze samemu napisałem taki system.

I moja żona zawsze się skarży, że nie jest w stanie włączyć świateł, jak ja gdzieś wyjadę.

I jak najbardziej to ma sens.

Ale już w tych światłach takich oświetlających dom?

Oświetlający dom, tak.

To znaczy właściwie wszystko można w domu włączyć, wyłączyć zdalnie, w jakiś inny sposób.

Ale oczywiście jak mnie nie ma, prądu nie ma przez jakiś czas i to wszystko przestaje działać i trzeba wiedzieć, jak to włączyć.

A taki obecny komercyjny system, oczywiście te wszystkie problemy są rozwiązane i gdyby to zmienić na coś, co można kupić w tej chwili, to natychmiast by działało i działało fajnie.

U nas jest ten, który oryginalnie kiedyś dawno temu zbudowałem i kiedyś trzeba by go zmienić.

Także lubię się bawić, lubię eksperymentować.

Te techniki są bardzo skomplikowane, bardzo drogie i takie domowe zastosowania, najprościej jest wykorzystać coś komercyjnego.

Można sobie porozmawiać z Aleksą albo z Siri albo z czymś innym i te rzeczy fajnie działają i można coś zautomatyzować.

Można mieć termostat, który sam włącza, wyłącza ogrzewanie, można mieć różne inne rzeczy, a to są takie normalne, komercyjne rzeczy, które można kupić i one są.

Jeśli chodzi o takie eksperymenty,

eksperymenty, które to jest coś całkowicie innego, a lubię się pobawić, ale nie wdrażam tego w domu, bo żeby to zrobić dobrze, to zaczyna być bardzo skomplikowane, bardzo drogie i samemu siedząc wieczorami właściwie nie jest się w stanie zrobić tego na poziomie działającego systemu, takiego jak korporacja inwestująca miliony dolarów jest w stanie zrobić.

Wspominałeś tutaj o swoim sześcioletnim synu, więc chciałam zapytać, czy mimo, że on jest jeszcze takim małym dzieckiem, to czy już go wprowadzasz w te tematy, czy uważasz, że to nie jest ten wiek?

Wprowadzam go, ale trzymam go daleko od technologii.

To znaczy prawie nie ogląda telewizji, prawie w ogóle nie ma do czynienia z telefonem, prawie w ogóle nie ma do czynienia z tabletem, prawie w ogóle nic z tego nie robi.

Czasami lubi do mnie przyjść i sobie coś tam postukać na klawiaturze.

Chociaż już zna dużo liter, więc coś tam sobie pisze, usiłuje pisać na klawiaturze, ale staramy się go dużo od tego trzymać.

Natomiast dużo do niego mówię na ten temat.

I bardzo dużo mówię do niego o nauce, mówię do niego dużo o technologii, mówię do niego dużo o sztucznej inteligencji, o różnych innych rzeczach.

I taki sześciolatek być może to rozumie, być może tego nie rozumie, ale wychowuje się w takim, znając odpowiednie słownictwo, wychowuje się znając, wiedząc jak rozmawiać na ten temat, wychowuje się wiedząc różne inne rzeczy.

Ale oboje, ja i moja żona uważamy, że trzeba go trzymać daleko od ekranu.

Ktoś jeszcze nie dostał szkolnego iPada.

Dostał szkolny iPad i wprawdzie nie ma go w domu, ale nawet wczoraj mieliśmy spotkanie z nauczycielką w zerówce.

No i pani powiedziała, że każde dziecko w zerówce ma swojego iPada.

Troszeczkę nas to zaniepokoiło i żona się zapytała, w takim razie ile czasu spędzają z tymi iPadami.

I na szczęście okazało się, że niedużo.

Że jakieś 10-15 minut rano i później też po południu 10-15 minut.

I to jak najbardziej ma sens.

Wiedzą jak wykorzystywać te technologie, wiedzą co robić, coś na tym iPadzie robią i używają jakiejś gry po to, żeby się uczyć literek czy matematyki.

Natomiast gdyby przez cały dzień w tej szkole miał siedzieć przy tym iPadzie, to szczerze mówiąc by mi się to nie podobało.

Potem w starszych klasach to niestety w tym amerykańskim systemie dużo jest tego iPada, dlatego że bardzo dużo nauki opiera się właśnie o aplikacje, o jakieś systemy, które są w iPadzie.

I to też jak najbardziej ma sens.

To znaczy takie...

Używanie gier do nauki to jest kapitalny pomysł.

I nie tylko dla dzieci, ale też dla dorosłych.

I to motywuje do nauki.

Dlatego, że jeżeli się czegoś nauczy i potem jakaś nagroda się pojawi.

Tu się zbiera punkty za to, że rozwiązuje się dobrze zadania.

Można tutaj jakąś konkurencję prowadzić, współzawodniczyć z innymi uczniami w klasie, różnych rzeczy.

Dokładnie.

To jest strasznie motywujące i psychologowie i eksperci od nauczania dobrze wiedzą, jak takie systemy stworzyć.

I to działa kapitalnie.

I systemy, które też dostosowują poziom materiału do poziomu ucznia, one działają naprawdę bardzo dobrze.

To są świetne rzeczy.

Tylko to nie chodzi tak naprawdę o to...

Czy te systemy są dobre do uczenia?

To chodzi o to, jak dużo czasu powinien spędzać patrząc się na ekran, a nie patrząc się na inne osoby.

Janusz, kiedy przyjeżdżałeś do Stanów 23 lata temu, to wtedy przeszło ci przez myśl, że te 23 lata później sztuczna inteligencja, wszystkie czaty i te systemy, które są tak bardzo dostępne dla przeciętnego człowieka w tej chwili, że to dojdzie do takiego poziomu?

Miałem taką nadzieję.

To znaczy, ja zawsze lubiłem technologię.

Od dziecka zawsze interesowałem się technologią, zawsze lubiłem technologię i zająłem się czystą inteligencją i właściwie ciężko pomyśleć o czymś bardziej technologicznego.

Więc miałem nadzieję, że tak będzie.

Oczywiście nie dało się przewidzieć, że to będą takie systemy typu czat.

Nie dało się przewidzieć, jak to będzie wyglądało, ale zawsze miałem nadzieję, że ta automatyzacja, że to stworzenie życia człowieka lepszym, łatwiejszym, prostszym w jakiś sposób nastąpi.

Czyli w pewnym sensie tak, miałem na to nadzieję.

To tak na koniec chciałam zapytać, co twoim zdaniem byłoby takim kolejnym przełomem?

Mówi się, że to pojawienie się sztucznej inteligencji, takie zastosowanie powszechne, tak jak teraz, to jest ten taki wielki przełom.

To co będzie tym kolejnym, jak myślisz?

To jest kilka dziedzin, do których można by się tak naprawdę patrzeć.

I z jednej strony to jest automatyzacja, robienie rzeczy lepiej itd., itd., ale to, co jest bardzo ważne, to jest filtrowanie informacji.

Niektórzy mogą pamiętać, jak wyglądał internet przed Googlem.

I w internecie przed Googlem... To jakaś masakra była.

To się absolutnie nic nie dało znaleźć, prawda?

Wpisywało się w jakąś wyszukiwarkę coś i pojawiało się 57 kopii tej samej strony i to zdecydowanie nie była ta, której się szukało, to tego się nie dało zrobić.

I później tych dwóch panów, którzy założyło Google'a...

napisali, co tak naprawdę jest prostym i oczywistym algorytmem w momencie, kiedy się patrzy na niego lata później.

A ten PageRank algorytm, który zaczął działać kapitalnie i nagle w internecie wszystko zaczęło się dać znaleźć i wszystko zaczęło działać.

Najlepsze są najprostsze rozwiązania.

Tak, dokładnie tak.

I tak naprawdę co się dzieje w tej chwili, to ten Google przestaje działać tak jak trzeba.

Dlatego, że jest bardzo dużo informacji w internecie, jest bardzo dużo dezinformacji w internecie, w mediach, w mediach socjalnych, wszędzie indziej.

I to, co mi brakuje i to, co powoli zaczyna się pojawiać, to jest jakiś dobry sposób przefiltrowania tego.

W jaki sposób odróżnić informację, którą ktoś puścił coś w internet, a następnie milion osób zrobiło, przekierowało to gdziindziej i wszyscy uważają, że tak jest, dlatego że to się pojawiło milion razy w internecie, a tak naprawdę to jest jakaś przydóra, którą sobie ktoś wymyślił.

Jak to odróżnić od normalnej, rzeczowej informacji, która pochodzi z prawdziwego źródła?

I wydaje mi się, że dużo technologii i mogę się tylko domyślać nad czym Google pracuje i mogę się tylko domyślać nad czym te inne firmy pracują zajmujące się internetem.

że to jest właśnie to, co oni starają się zrobić.

To jest wprowadzić coś do ich algorytmów wyszukiwania, wprowadzić coś do tych inteligentnych systemów, takich jak czat, takich jak inne systemy, jak przefiltrować tę dezinformację od tego, co tak naprawdę jest prawdziwe.

I jeżeli taki czat jest nauczony na jakichś milionach albo miliardach stron internetowych, dokumentów i czegoś innego...

w jaki sposób wiedzieć, że spośród tych miliardów informacji miliony nie są czymś, co ktoś sobie wymyślił i naprawdę tak nie jest.

I on teraz jeszcze tego nie wie.

On jeszcze teraz tego nie wie.

Starają się to zrobić, starają się wprowadzać różne rzeczy i tak dalej, ale w tej chwili tego nie wie.

I tego nie wie Google w momencie, kiedy się szuka i tego może nie wiedzieć czat.

I generalnie wychodzi się z założenia, że jeżeli jakaś informacja jest milion razy zamieszczona w internecie, to pewnie jest prawdziwa.

I to będzie ten przełom.

To jest jeden z przełomów takich, który jest naprawdę, naprawdę ważny.

Trzeba coś z tą informacją zrobić.

Profesor Janusz Wojtusiak był gościem podcastu Ameryka i ja.

Bardzo dziękuję Ci za rozmowę.

Dziękuję również.

0:00
0:00