Mentionsy

AI CODZIENNIE - czyli co słychać w sztucznej inteligencji
15.09.2025 22:50

🛡️ Dochodzenie FTC · 🧠 Tanie szkolenie modeli · 🔊 Głos w czasie rzeczywistym

W dzisiejszym odcinku AI Codziennie omawiamy:
🛡️ Dochodzenie FTC w sprawie chatbotów towarzyszących dla nieletnich.
🧠 Nowe podejście Microsoftu do trenowania modeli rozumujących po znacznie niższym koszcie.
🛠️ Nowe inteligentne narzędzie dla programistów – system, który sam wykrywa błędy w aplikacjach i podpowiada ich przyczyny.
🔊 Model głosowy w czasie rzeczywistym dla agentów i mediów.

Linki
FTC bada chatboty towarzyszące dla nieletnich – oficjalne postępowanie
https://www.reuters.com/business/ftc-launches-inquiry-into-ai-chatbots-alphabet-meta-others-2025-09-11/
Microsoft przedstawia ramę szkolenia modeli rozumujących przy ułamku kosztu
https://venturebeat.com/ai/microsofts-new-ai-framework-trains-powerful-reasoning-models-with-a-fraction/
Wykrywanie błędów w kodzie: Honeycomb Intelligence
https://www.prnewswire.com/news-releases/honeycomb-introduces-the-developer-interface-of-the-future-with-ai-native-observability-suite-302553408.html
Głos w czasie rzeczywistym: Deepdub Lightning
https://www.prnewswire.com/il/news-releases/deepdub-launches-lightning-a-real-time-voice-model-for-scalable-ai-agents-and-enterprise-applications-with-ultra-low-latency-302553740.html

Dołącz do mojej darmowej grupy wsparcia, w której dzielę się narzędziami AI i instrukcjami z zakresu tworzenia treści (tekstowych, audio, video, avatary…):
DOŁĄCZ DO DARMOWEJ GRUPY WSPARCIA



Superinteligencja od Mety i współpraca ze Scale AI
https://spidersweb.pl/2025/06/meta-mark-zuckerberg-superinteligencja.html
Google prezentuje Gemini 2.5 Pro
https://blog.google/products/gemini/gemini-2-5-pro-latest-preview
Nowe funkcje w ChatGPT: asystent do codziennej pracy
https://openai.com/blog/chatgpt-updates-june-2025
Dołącz do mojej darmowej grupy wsparcia, w której dzielę się narzędziami AI i instrukcjami z zakresu tworzenia treści (tekstowych, audio, video, avatary…): https://forms.gle/NYWQW1waXqiMuSrC7

Chcesz dowiedzieć się więcej o newsach, które uslyszałeś? Oto linki:
UWAGA! Na platformie 🍏 APPLE PODCASTS🍏 - kliknij w link EPISODE WEBSITE na końcu notatek podcastu. Przejdziesz na stronę odcinka na platformie SPREAKER. Następnie rozwiń opis pod playere

Szukaj w treści odcinka

Znaleziono 29 wyników dla "ralna Komisja Handlu w Stanach Zjednoczonych"

Ja nazywam się Michał Dobrzański i zapraszam do wysłuchania 434 odcinka, w którym przygotowałem dla Ciebie następujące tematy.

Dochodzenie amerykańskiego Urzędu Ochrony Konsumentów w sprawie chatbotów towarzyszących przeznaczonych dla osób nieletnich.

nowe podejście Microsoftu do trenowania modeli rozumujących przy znacznie niższych kosztach, premierę narzędzia stanowiącego centrum kontroli dla programistów, a skończymy na nowym modelu głosowym do pracy w czasie rzeczywistym dla agentów i mediów.

Zaczynam od wątku regulacyjnego, bo to on coraz częściej wyznacza ramy gry dla całej branży.

Federalna Komisja Handlu w Stanach Zjednoczonych wszczęła formalne postępowanie wyjaśniające wobec największych firm oferujących chatboty towarzyszące używane przez dzieci i nastolatków.

Instytucja chce sprawdzić, czy dostawcy rzetelnie oceniają bezpieczeństwo swoich produktów, wprowadzają ograniczenia wiekowe oraz jasno informują rodziców o ryzykach związanych z korzystaniem z takich narzędzi.

W praktyce to może oznaczać szczegółowe żądania dokumentów, testów i procedur.

a w dalszej kolejności również egzekwowanie zmian w sposobie projektowania interakcji.

Widzę w tym sygnał, że era beztroskich eksperymentów z takimi usługami dobiega końca i że standardem stanie się dowodzenie, w jaki sposób ograniczone są szkody dla nieletnich.

Dla firm to wyzwanie organizacyjne, ale także szansa na zbudowanie zaufania poprzez przejrzystość i odpowiedzialność.

Przechodzę teraz do nowości badawczo-technologicznej.

Microsoft przedstawił ramę szkoleniową do modeli rozumujących, która ma pozwolić osiągać zbliżone wyniki przy ułamku kosztu dotychczasowych metod.

W centrum podejścia jest lepsze zarządzanie danymi instruktażowymi, inteligentny dobór narzędzi oraz selektywne wydłużanie kontekstu tylko tam, gdzie realnie poprawia to wnioskowanie.

W efekcie proces uczenia ma wymagać mniejszej liczby kroków oraz mniej kosztownego sprzętu, co otwiera drogę dla zespołów, które nie dysponują wielkimi zasobami akceleratorów.

Dla zastosowań biznesowych to obietnica szybszego testowania agentów i asystentów, którzy potrafią planować działania wieloetapowe i lepiej wyjaśniać swoje decyzje.

W mojej ocenie to element szerszego trendu, w którym liczy się nie tylko rozmiar modelu, ale też spryt w konstrukcji procesu uczenia.

Następnie opowiem o narzędziu dla deweloperów, bo to właśnie tam rozstrzyga się codzienna użyteczność sztucznej inteligencji.

Honeycomb pokazał nowe rozwiązanie, które można porównać do inteligentnego centrum kontroli dla aplikacji.

System ten działa obok środowiska programistycznego i od razu pokazuje, czy w kodzie lub działaniu usługi dzieje się coś niepokojącego.

Potrafi sam zauważyć spadek wydajności, wskazać potencjalne źródło problemu i pomóc w szybkim zrozumieniu, co się zepsuło.

Co ważne, wszystkie informacje, ślady działania programu, raporty i dane pomiarowe są łączone w jedną przejrzystą historię.

Dzięki temu programista nie musi godzinami przeskakiwać między różnymi narzędziami, żeby znaleźć błąd.

W efekcie łatwiej i szybciej można przywrócić stabilność aplikacji, a praca nad kodem staje się mniej frustrująca i bardziej efektywna.

Na koniec wchodzę w obszar głosu i mediów, gdzie liczy się czas reakcji i jakość.

Firma DeepDub ogłosiła model głosowy zaprojektowany do działania w czasie rzeczywistym, który ma zasilać agentów konwersacyjnych w branży rozrywkowej.

Producent zapowiada bardzo niskie opóźnienia, obsługę wielu stylów i języków oraz integrację z platformami emisyjnymi, co pozwala prowadzić interaktywne dialogi bez odczuwalnych przestojów.

Dla producentów treści i twórców agentów oznacza to możliwość budowania doświadczeń bardziej naturalnych, w których system nie tylko mówi, ale też reaguje płynnie na kontekst i emocje rozmówcy.

Widziałem już, jak takie możliwości zmieniają obsługę klienta, a w połączeniu z multimodalnością mogą otworzyć nowe formaty programów na żywo i wydarzeń interaktywnych.

Dziękuję za wysłuchanie i zapraszam na kolejny odcinek już jutro.