Mentionsy
Cursor 2.0 vs Windsurf SWE-1.5 - dobrze, szybko i tanio? Nowa era programowania z AI już tu jest (+ DGX Spark, ChatGPT Atlas i nanochat)
Cursor 2.0 rozszerza tradycyjne środowisko programistyczne na rzecz rewolucyjnej platformy wieloagentowej, fundamentalnie zmieniając podejście do pisania kodu. Cognition natychmiast kontratakuje, wypuszczając Windsurf SWE-1.5 – model kodujący z oszałamiającą prędkością 950 tokenów na sekundę. Analizujemy ten pojedynek gigantów i sprawdzamy, które podejście zdominuje AI-assisted development. W odcinku również: premiera taniego i szybkiego Haiku 4.5, rozczarowujące testy superkomputera DGX Spark, krytyka przeglądarki Atlas od OpenAI oraz wielkie podsumowanie 10xDevs II.
Szukaj w treści odcinka
Cześć, witajcie w kolejnym odcinku podcastu Opanuj AI.
W dzisiejszym odcinku będzie o aktualizacji najpopularniejszych środowisk AI Native, czyli Cursor 2.0 i nowościach Windsurf.
Mieliśmy premierę taniego i szybkiego modelu Haiku 4.5.
technologicznych i chcecie świadomie z AI korzystać w zakresie engineeringu i developmentu, bo naprawdę dużo się wydarzyło przez ostatnie tygodnie i jeszcze więcej się wydarzy w przyszłym roku.
W niej będzie o modelu DeepSeq OCR, o przeglądarce Atlas OpenAI, frameworku AXE do budowania rozwiązań AI w TypeScriptie i będzie również o projekcie edukacyjnym NanoChat od znanego i ulubionego Andrzeja Karpatiego.
Szczególnie interesującym i wartościowym naszym zdaniem jest nasz newsletter Opanuj.ai.
Jeśli wejdziecie na stronę Opanuj.ai i zapiszecie się właśnie na naszą listę mailingową,
Możecie się również łatwiej na ten mailing zapisać, bo od niedawna mamy dedykowaną stronę.
opanuj.ai łamane przez newsletter.
To wszystko na opanuj.ai łamane na newsletter.
Na stronie głównej również dokument, który niedawno opublikowaliśmy, publikacja mapa drogowa.ai.
Jest to takie kompendium 10 kluczowych obszarów właśnie dotyczących wdrożeń AI, zarówno jeśli chodzi o inspiracje, o pobudzenie szarych komórek, o zastanowienie się jak ta sztuczna inteligencja może waszej firmie pomóc, jak ona może dowozić dodatkową wartość.
ale również case study, aspekty związane z bezpieczeństwem, czy taka czeklista pierwszych kroków, jeśli będziecie już zainteresowani, co do tego, że jest to faktycznie taka aktywność, w której chcecie się rozwijać, którą chcecie tutaj w tym 26. trenować na przykładzie własnej firmy i własnej organizacji.
Chciałbym przypomnieć, że jest to badanie z marca, które my już szczegółowo omówiliśmy pół roku temu w ramach podcastu o Panu AI.
ukraiński czy bułgarski osiągały świetne wyniki, mimo że mają jeszcze niższą reprezentację danych.
Proszę o uważność, jeżeli ktoś ma nazwisko na K na LinkedInie i pisze o AI, to warto uważać na tę publikację, bo tak się akurat składa, że trzy osoby o tych nazwiskach na taką literę o dużej popularności często popełniają gafy i jakość ich postów raczej wyłącznie nas inspiruje do rantów.
Z tego co pamiętam to w Copilocie i w AI Assistencie od JetBrains czy w Agencie Juni również jest ta sama historia, to znaczy tam na poziomie system promptów mamy wyłączone rozmowy o tematach innych niż
generative AI, LLM-ów, machine learningu.
Podbiłbym to co powiedziałeś, myślę, że właśnie tutaj też tak bardzo namacalnie widać tą zmianę paradygmatu programowania, bo o ile wcześniej to AI było jakby rozszerzeniem takich klasycznie wyglądających środowisk programistycznych można powiedzieć.
znacznie inny od tego, do czego przyzwyczaiły nas środowiska programistyczne i pozostaje po prostu cieszyć się całą tą zmianą.
No enjoy the ride po prostu, myślę, że znowu kupa materiałów do przygotowania z naszej strony i też kupa pracy do tego, żeby przygotować się do tej transformacji, która teraz już jest naprawdę bardzo odczuwalna, bo nie jest to jakaś chmurowa wersja kopailota, która tam pod jakąś zakładką na github.com się pojawia,
Haiku, model szybszy, o którym jeszcze powiemy, szybszy z rodziny Antropica, osiąga 142 tokenów na sekundę przy bardzo podobnym poziomie skuteczności.
nie wiem, dostrojenia modelu, ale też właśnie na poziomie infrastruktury tego, jak ten model jest hostowany, jaka jest jego dostępność, to też myślę, że będzie zmienne, bo wszyscy użytkownicy Cloud Coda wiedzą, że AI w Polsce o określonych godzinach działa inaczej rano czy wieczorem, w zależności od tego, czy Ameryka też z danego rozwiązania korzysta, natomiast tutaj przynajmniej na takim syntetycznym poziomie ten SWI 1.5 działa naprawdę szybko.
fanami, orędownikami gdzieś tam przygotowywania się do rozwiązywania zadań z AI zanim jeszcze wygenerujecie jakiś kawałek kodu i to właśnie bardzo często polega czy to na zaplanowaniu jakiejś pracy, pozbieranie jakichś plików, referencji tego co dzieje się w obrębie projektu i to trzeba zrobić szybko, to trzeba zrobić precyzyjnie i właśnie do tego służy ten drugi model, który tutaj twórcy Windsurfa wydają na rynek SWI Greb.
Mam nadzieję, że te firmy dostarczające te największe, najlepsze modele Google, OpenAI, Amtropic pójdą tym śladem i również na tą szybkość inferencji
Ja jako osoba, która z AI dużo programuje, no to mam poczucie, że to jest kierunek właściwy z jednej i drugiej strony.
Czerwone z AI pewnie podobnie, może trochę szybciej, ale też byłbym ostrożny.
Do tworzenia niezawodnych aplikacji AI właśnie z wykorzystaniem TypeScriptu.
I co ważne, możemy się tutaj integrować z różnymi dostawcami LRM-ów, czy to OpenAI, Antopic, Google, czy też modele lokalne w OLAM-ie.
i co jest bardzo pozytywną cechą, nie ma żadnych zależności zewnętrznych, dzięki czemu jest lekki, łatwy w utrzymaniu, ma również budowane narzędzia do observability, mamy walidację, mamy obsługę błędów, no i już coraz więcej firm z tego rozwiązania korzysta produkcyjnie, więc jeżeli będziecie jakąś aplikację AI z wykorzystaniem TypeScripta budować w swojej firmie, no to AXE wydaje się być godnym uwagi.
A teraz dwa kolejne newsy wokół firmy OpenAI.
Pierwszy od byłego pracownika OpenAI, a drugi o aktualnej linii produkcyjnej OpenAI.
No właśnie mamy tutaj kompletny stos dotyczący właśnie wdrażania i przygotowywania LLM-ów, w odwrotnej kolejności pewnie, przygotowywania, a następnie wdrażania LLM-ów, czyli z jednej strony cały cykl życia, tokenizacja, pre-training, fine tuning, ewaluacja i inferencja, aż poprzez webowy interfejs użytkownika.
I druga nowość, również gdzieś tam powiązana z OpenAI, teraz już bardziej bezpośrednio, mamy nową przeglądarkę ChatGPT Atlas, która ma jeszcze bardziej integrować potencjał sztucznej inteligencji z takim codziennym doświadczeniem przeglądania internetu.
Jest to wszystko warte uwagi, ale oczywiście jest też sporo kontrowersji a propos tego jak głęboko gdzieś tam OpenAI chcemy wpuścić do naszego ogródka.
Wielu użytkowników tutaj wspomina, że po prostu sama w ogóle funkcja pamięci, czy taki interfejs oparty o elemy, to jest duże zagrożenie, jeśli chodzi o prywatność użytkownika i to będzie w zasadzie jedno z największych wyzwań, z którym OpenAI musi sobie poradzić.
Na ten moment to jest tak naprawdę taki poziom, który chcemy tutaj przedstawić, bo temat jest na tyle interesujący, że myślę, że w jednym z kolejnych odcinków poruszymy ten temat właśnie przeglądania internetu ze wsparciem AI zdecydowanie szerzej.
Adama Gospodarczyka, współtwórcę programu ai-devs.pl, współtwórcę również aplikacji Alice.
Mieliśmy Jarka Michalika, Google Developer Experta, specjalistę w zakresie aplikacji mobilnych i stosowania AI w tym kontekście.
Teraz jest etap budowania, bo żeby otrzymać certyfikat zaliczenia tego kursu, to nie wystarczy tylko się przeklikać przez platformę, tylko trzeba AI
Przekazaliśmy w tej edycji dużo informacji o tym i wiedzy, umiejętności, jak korzystać z AI w kontekście pojedynczego dewelopera.
No i chcemy też omówić temat zwrotu z inwestycji, to znaczy jak mamy już AI i ludzie są na niego przygotowani, zaczynają z niego korzystać, nawet w ramach jakichś guardrailsów, to jak odpowiedzieć na pytanie, czy to się nam opłaca, jak mierzyć adopcję, jak mierzyć wykorzystywanie tej sztucznej inteligencji, jak mierzyć ten zwrot z inwestycji, myślę, że to będzie ogromnie ważna zagadka, którą postaramy się tutaj również rozsupłać wspólnie z Marcinem właśnie w trzeciej edycji Tenex Devs,
W związku z tym podjęliśmy decyzję, żeby wstrzymać się z prowadzeniem dedykowanych warsztatów dla firm, więc obecnie zapisów na takie warsztaty szyte na miarę, jakie oferowaliśmy w ramach opanu AI nie ma i do premiery Tenex Z3 najpewniej nie będzie.
zainteresowanych nie tylko takim szkoleniem kohortowym, ale również jeszcze spotkaniem się z waszymi pracownikami i no tak jak po prostu bezpośredni kontakt z nami, więc jeżeli to jest dla was ważne i wiosną chcecie taką transformację z naszą pomocą w swojej firmie przeprowadzić, no to również ten ex-draft.pl, listę oczekujących to jest właściwe miejsce, żeby tam czekać na odzew z naszej firmy.
Będziemy te tematy eksplorowali, pogłębiali i zrobimy, co możemy, aby Wam w tej transformacji AI pomóc.
Mocno rozwinęliśmy naszą aplikację tenexrules.ai.
Można na stronie tenexrules.ai łamane na prompt zgłosić się, aby otrzymać dostęp.
no to bardzo możliwe, że będzie opanu AI Gemini 3.0 Pro Thailand Edition.
Tym razem jest to Haiku, czyli mały, szybki i tani model.
plan działania, a następnie Haiku jest wykonawcą tego planu, czyli taki model współpracy Architekt-Edytor, jak my to zwykliśmy nazywać w naszych prelekcjach.
milion tokenów wyjściowych, to jest 5 dolarów, no więc są to trzykrotnie niższe ceny niż Sonnet 4.5, więc jeżeli jesteście posiadaczami tego planu Cloud AI Pro i na przykład korzystacie z Cloud Coda, no to to jest świetny sposób, żeby dużo wolniej te limity przepalać, które na Sonecie 4.5 przepalają się stosunkowo szybko, jeżeli jesteśmy na tym najniższym planie,
Wydaje mi się, że tutaj założenie jest takie, że trochę do mas jakby wynosimy taką rzecz, taką aktywność i dajemy możliwość powiedzmy rozszerzenia potencjału tych LLM-ów dla Janka Kowalskiego, który nigdy Cursora i Copilota nie zainstaluje, więc z tej perspektywy to na pewno plus.
no tego w skillach teraz nie uzyskamy, jeśli chodzi o jakieś nieużywalne prompty, no to pewnie tutaj na poziomie skilli MCP byłoby jakieś podobieństwo, natomiast MCP ma opakowywać znacznie bardziej złożone takie kompleksowe operacje i myślę, że taki protokół był potrzebny, tylko musimy się przyzwyczaić do tego, jak z niego tak naprawdę korzystać, więc tak to widzę.
Dla wszystkich, którzy również te narzędzia i rozwiązania lubią, więc jeżeli kodujecie w Cloud Codzie albo korzystacie z Cloud AI w swojej pracy, no to warto na ten event wpaść.
My tym urządzeniem zainteresowaliśmy się, o ile dobrze pamiętam, po pierwszej edycji Tanex Devs, gdzie mieliśmy trochę kapitału zgromadzonego i zastanawialiśmy się z Marcinem, w co by tutaj zainwestować, jakby kontynuując tą naszą misję.
Oczywiście w naszych głowach pojawił się taki plan, że kupimy sobie ten superkomputer i nauczymy naszą społeczność programować w oparciu o ten superkomputer, bo będziemy mieć lokalne AI, wszyscy chcemy mieć lokalne LLM-y.
Osoby zainteresowane wydajnością, no to cały czas chmura i jakieś po prostu ewentualnie self-hosted rzeczy na wynajmowanie infrastruktury, ale to jest jedyne na co sobie możemy pozwolić.
opanuj.ai, łamane na newsletter, co poniedziałek trzy wyselekcjonowane linki ode mnie, od Przemka, specjalnie dla Was na dobry początek tygodnia, a my słyszymy się za miesiąc, będzie opanuj.ai podcast Thailand Edition w moim wykonaniu, zobaczymy jak to będzie wyglądało, jaka będzie sceneria.
Ostatnie odcinki
-
AI zamiast lekarza? ChatGPT Health vs Google Me...
01.02.2026 18:45
-
Wielkie Podsumowanie AI w 2025 - Modele, Narzęd...
09.01.2026 05:00
-
GPT-5.2 to GEMINI KILLER? Google VS OpenAI, MCP...
01.01.2026 10:51
-
Gemini 3 to hit, ale konkurencja nie śpi! GPT-5...
01.12.2025 12:38
-
Cursor 2.0 vs Windsurf SWE-1.5 - dobrze, szybko...
04.11.2025 05:00
-
Czy agenci AI zdominują branżę e-commerce? Chat...
04.10.2025 06:10
-
Czy agenci AI zdominują branżę e-commerce? Chat...
03.10.2025 05:05
-
GPT-5: sukces i porażka. Koniec marzeń o AGI pr...
01.09.2025 09:02
-
Czy AI spowalnia programistów? Halucynacje w NC...
02.08.2025 06:27
-
5 mitów programowania z AI - zapomnij o Vibe Co...
29.07.2025 06:00