
Mentionsy

BM103: Transformery w uczeniu maszynowym - możliwości i ograniczenia
W uczeniu maszynowym istnieje wiele różnych rozwiązań i są grube książki, które opisują je wszystkie, ale z grubsza rzecz ujmując jest kilka rzeczy, które trzeba poznać.
Jedną z nich jest na pewno Performance i Transformery, który zostały stworzone z myślą o usprawnieniach NLP, czyli dziedziny nauki i technologii poświęconej przetwarzaniu języka naturalnego, ale w tej chwili ich wykorzystanie jest znacznie szersze.
Moim gościem jest Krzysztof Choromański, który zrobił doktorat na Uniwersytecie w Kolumbii. Pracuje już od 7 lat w Google Brain Robotics. Jest autorem ciekawych publikacji naukowych i ma wiele wartościowego do powiedzenia w temacie dzisiejszego odcinka.
Search in Episode Content
Recent Episodes
-
BM135: AI 2025: wzrost, przetrwanie albo upadek?
26.12.2024 08:00
-
BM134: AI to NIE magia... ale wciąż oczekujesz ...
04.12.2024 08:00
-
BM133: Agenci AI: między hype'm a rzeczywistością
20.11.2024 08:00
-
BM132: LLM i prawo, możliwości, wyzwania, narzę...
06.11.2024 08:00
-
BM131: Praktyczny LLM
23.10.2024 07:00
-
BM130: LangChain i wektorowe bazy: ciemna stron...
09.10.2024 07:00
-
BM129: Inferencja modele LLM: Mniej kosztów, wi...
25.09.2024 07:00
-
BM128: Czy warto inwestować LLM? Czy w klasyczn...
11.09.2024 07:00
-
BM127: Lokalne modele AI: Twoje dane, Twoje zasady
28.08.2024 07:00
-
BM126: RAG w LLM: Dlaczego popularne rozwiązani...
14.08.2024 07:00