Mentionsy

Wszechnica FWW - Nauka
21.10.2025 11:15

860. Musimy wyjaśniać, będziemy wyjaśniać! - prof. dr hab. Przemysław Biecek

Wykład prof. dr hab. Przemysława Biecka w ramach Festiwalu Nauki w Warszawie [27 września 2025 r.] Czy można zrozumieć jak działają super złożone modele AI? Podczas prelekcji przedstawimy powody dlaczego musimy je wyjaśniać oraz aktualny stan wiedzy o technikach pozwalających na ich wyjaśnianie.Wykład kierowany dla osób interesujących się modelami uczenia maszynowego i sztucznej inteligencji. Przedstawię podczas niego nowe wyniki dotyczące technik eksploracji i wyjaśniania złożonych modeli. Pojawią się też przykładowe rozwiązania dla zastosowań medycznych i zastosowań w branży kosmicznej.Graficzne streszczenie wykładu znajduje się w komiksie:https://bit.ly/3GXU4pwprof. dr hab. Przemysław Biecek - specjalista w dziedzinie statystyki matematycznej i nauk inżynieryjno-technicznych, od lat związany z Politechniką Warszawską i Uniwersytetem Warszawskim. Studia oraz doktorat ukończył na Politechnice Wrocławskiej, gdzie w 2007 roku obronił rozprawę poświęconą testowaniu zbiorów hipotez z uwzględnieniem relacji hierarchii i ich zastosowaniom w genetyce. W 2013 roku uzyskał habilitację w Instytucie Biocybernetyki i Inżynierii Biomedycznej PAN, a w 2023 roku otrzymał tytuł profesora nauk inżynieryjno-technicznych. Jego badania koncentrują się na metodach statystycznych i uczeniu maszynowym, ze szczególnym uwzględnieniem wyjaśnialnej sztucznej inteligencji (Explainable AI). Interesuje się interpretacją złożonych modeli, wizualizacją danych oraz zastosowaniami sztucznej inteligencji w medycynie i biologii. Jest autorem i współautorem wielu publikacji naukowych oraz narzędzi open source, w tym popularnego pakietu DALEX, wspierającego interpretację modeli uczenia maszynowego. Profesor Biecek prowadzi grupę badawczą MI².AI działającą na Uniwersytecie Warszawskim i Politechnice Warszawskiej. Angażuje się także w projekty związane z testowaniem bezpieczeństwa modeli generatywnej sztucznej inteligencji, rozwija metody wyjaśniania modeli dla różnych typów danych i aktywnie działa na rzecz otwartej nauki oraz edukacji opartej na danych. Poza działalnością naukową pełnił funkcję prodziekana ds. rozwoju Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej w kadencji 2020–2024, a także uczestniczy w pracach komisji uczelnianych dotyczących finansowania badań i etyki. Jest uznanym popularyzatorem wiedzy o statystyce i sztucznej inteligencji, inspirując kolejne pokolenia badaczy i praktyków danych.Jeśli chcesz wspierać Wszechnicę w dalszym tworzeniu treści, organizowaniu kolejnych #rozmówWszechnicy, możesz:1. Zostać Patronem Wszechnicy FWW w serwisie https://patronite.pl/wszechnicafwwPrzez portal Patronite możesz wesprzeć tworzenie cyklu #rozmowyWszechnicy nie tylko dobrym słowem, ale i finansowo. Będąc Patronką/Patronem wpłacasz regularne, comiesięczne kwoty na konto Wszechnicy, a my dzięki Twojemu wsparciu możemy dalej rozwijać naszą działalność. W ramach podziękowania mamy dla Was drobne nagrody.2. Możesz wspierać nas, robiąc zakupy za pomocą serwisu Fanimani.pl - https://tiny.pl/wkwpkJeżeli robisz zakupy w internecie, możesz nas bezpłatnie wspierać. Z każdego Twojego zakupu średnio 2,5% jego wartości trafi do Wszechnicy, jeśli zaczniesz korzystać z serwisu FaniMani.pl Ty nic nie dopłacasz!3. Możesz przekazać nam darowiznę na cele statutowe tradycyjnym przelewemDarowizny dla Fundacji Wspomagania Wsi można przekazywać na konto nr:33 1600 1462 1808 7033 4000 0001Fundacja Wspomagania WsiZnajdź nas: https://www.youtube.com/c/WszechnicaFWW/https://www.facebook.com/WszechnicaFWW1/https://anchor.fm/wszechnicaorgpl---historiahttps://anchor.fm/wszechnica-fww-naukahttps://wszechnica.org.pl/#ai #technologia #nauka #festiwalnauki #sztucznainteligencja #uczeniemaszynowe

Szukaj w treści odcinka

Znaleziono 16 wyników dla "AI"

Na tym wydziale pracuję od 18 lat i od 10 interesuje mnie, w jaki sposób badać modele AI-owe.

Będę mówił o modelach AI.

Ja co roku organizuję konkurs, który nazywa się Epic Face, to są plebiscyty w tope roku, gdzie modele AI działały dużo gorzej niż się spodziewaliśmy.

Takich przykładów jest bardzo dużo, istnieją wręcz całe bazy danych, tu mam taki link do incidentdatabase.ai, bazy danych, gdzie raportuje się przypadki źle działających modeli.

Okazuje się, że modele AI-owe, modele językowe są łączone na wszystkim, co widzą w internecie.

Jeden z najbardziej klasycznych przypadków, jak to może zawieść, był przypadek modelu Gemini, który będąc poproszony o syntezę zdjęcia osoby wykonującej pewną profesję, starał się urozmaicić te zdjęcia tak, żeby pokazać właśnie różnorodność.

Ok, zapytacie się, gdzie jest AI?

Jeden z ojców AI, on niestety na swoich wywiadach mówi, że nie da się wyjaśnić modelu AI, one są zbyt złożone.

I wręcz mówi, że czasami i człowiek, i model AI ma ten sam problem, że jeżeli go prosi, żeby coś wyjaśnić, to będzie zmyślał.

I chciałem Wam pokazać trzy różne podejścia, w jaki sposób wyjaśniać modele AI-owe.

Te techniki dotyczyły modeli dzisiejszych AI, takie naprawdę gorące modele z tego roku.

Bo pomimo tego, że jestem z urodzenia sceptykiem i dzisiejsze modele AI-owe wydaje mi się, że są tragicznie słabe, to dopuszczam takie wyobrażenie, że modele będą lepsze i lepsze.

Oni przeanalizowali rozgrywki prowadzone przez model AI-owy z rozgrywkami, które są prowadzone przez ludzkich graczy szachowych.

Używają zupełnie innych strategii niż AI.

A też wiemy skąd inąd, że przegrywają z tym AI za każdym razem.

Być może w tych wszystkich ruchach szachowych albo modelach AI-owych będą rzeczy, których jeszcze nie sprawdziliśmy i nie wyeksplorowaliśmy, a nie możemy się poddawać, musimy tworzyć nowe narzędzia, żeby te modele AI-owe zrozumieć.