Mentionsy

DevTalk
29.12.2025 14:31

DevTalk #134 – O DevOps 2025 z Piotrem Zimochem

Czy wiesz, że DevOps miał być kulturą łączącą programistów z operacjami, a skończył jako… kolejna specjalizacja w IT? W najnowszym odcinku DevTalk odkrywamy, jak idea, która miała zburzyć silosy, sama stała się silosem. Gościem jest Piotr Zimoch, specjalista IT z 20-letnim doświadczeniem, który przeszedł drogę od frontendowca, przez backend i architekturę, aż po głębokie zanurzenie […]

The post DevTalk #134 – O DevOps 2025 z Piotrem Zimochem appeared first on DevTalk.

Szukaj w treści odcinka

Znaleziono 27 wyników dla "AI"

Teraz, jak pewnie wszyscy wiedzą, pojawia się cały temat AI, który może mnie nie ominie niestety lub stety.

Były rzeczywiście różne te systemy i rzeczywiście, żeby nie zakończyć swojego zainteresowania...

Okazało się znowu, że programiści często gęsto nie za bardzo są zainteresowani tym, co się dzieje bardziej po prawej stronie, czyli tą infrastrukturą.

i organizacje są w stanie tworzyć swoje własne template'y, moja template aplikacji node'owej, javowej, pythonowej, dokumentacja jest zbierana w jednym miejscu, cała hierarchia organizacyjna firmy jest też tam widoczna i to rzeczywiście daje taki interfejs dla osób technicznych, żeby zrozumiały, co jest dostępne, jak oni się łączą z innymi aplikacjami, bo często dzięki właśnie metainformacjom zawartych w naszych repozytoriach jesteśmy w stanie określić nasze dependencje.

Wasz DevOps zainstaluje tutaj sobie tego sidekara, tudzież tego agenta i my sobie monkey patching zrobimy na waszym kodzie i wam fajne diagramy wyświetlimy.

Ktoś się stanie maintainerem i tam coś wrzuci.

Także są dependencje, nad którymi już ci oryginalni maintainerzy, już ich to nie interesuje, oddaje to komuś, potem to oddał to komuś.

Tak, że można było do Aleksy po prostu zainstalować ten swój skill i przy użyciu odpowiedniego polecenia powiedzieć słuchaj, ja chcę kupić sobie bilet stąd dotąd.

Wręcz Aleksa sama w sobie i SDK gdzieś tam trochę tak sugerował to, ponieważ nie chcę wchodzić teraz w szczegóły, natomiast każdy twój prompt, który mówiłeś, to trochę teraz jak mamy ten nasz GenAI, tak?

Był prompt, on sobie szedł, tylko to nie było nic wcale takiego ML-owego ani AI-owego, tylko to naprawdę programowaliśmy sobie taką maszynę stanów,

Tutaj widzę swój uśmiech i mogłeś mieć na myśli trochę nasz szendobylski teraz AI, który się pojawia wszędzie.

A jeżeli nie miałeś tego na myśli... Pytanie do główic otwarte, do AI na pewno zaraz dojdziemy też.

Rzeczywiście teraz pojawiają się takie zakusy, wiele firm czy startupów nawet powstaje, które starają się zautomatyzować tym naszym AI-em nowoczesnym, tymi RLM-ami przede wszystkim, utrzymanie produkcji, utrzymanie do takiego poziomu, że...

No i potem ten AI jest jako pierwsza linia, taka pierwsza linia wsparcia.

No i fajnie, na tym etapie to jest, sam doceniam, czasami są łatwe rzeczy, które można wychwycić i AI jest tu mega pomocny.

Jeżeli ten AI rzeczywiście w większości wypadków ma rację, no to w takim razie mamy jeszcze wszystkie agenty, które mogą te poprawki nanieść.

To jest pierwszy krok, gdzie już AI zaczyna wchodzić troszeczkę daleko.

No ale teraz się okazuje, że AI zaczyna się pojawiać w takich miejscach typu jest incydent, coś nie działa.

Jeżeli będziemy w stanie przejść na taki poziom zaawansowania systemów AI, które będą same odpowiedzialne za utrzymanie i pisanie tego kodu, których człowiek nie będzie musiał rozumieć,

Jeżeli mówimy teraz o systemach, które odpalają filmiki, no to fajnie, to może sobie AI to robić, ale jeżeli mówimy o systemach, które też często pracujemy jednak z krytycznymi systemami, typu oprogramowanie aut, samolotów, szpitali i tak dalej, no to znowu tutaj, czy to jest krok za daleko?

W każdej rozmowie siłą rzeczy teraz, którą nagrywam, przewija się temat AI i zawsze pojawia się właśnie ten bardzo istotny aspekt, czyli odpowiedzialność za to, kto ponosi odpowiedzialność za efekty pracy sztucznej inteligencji, czy raczej LLM-ów.

Tak patrząc nawet przez takie okulary DevOpsowe, gdzie AI aktualnie się jeszcze pojawia dość często, przynajmniej w moich zastosowaniach, to widzę, że dużo specjalistów próbuje sobie offloadować te takie dość mozolne pisanie tych takich terraformów, czy po prostu pisanie kodu, tak upraszczając.

AI jest w stanie pisać piękny kod, który się pięknie czyta.

Ale potem znowu przechodzimy do tego problemu, że jego utrzymanie nie zawsze jest przez człowieka łatwe, bo tego kodu jest tak dużo wygenerowane, że dla AI jego sparsowanie sobie w głowie, w tej AI-owej głowie jest łatwe.

i on to robi i koniec i do domu, tylko samo jakby nawet skonfigurowanie środowiska do współpracy z takim agentem AI, samo to trwa tygodniami jak nie dłużej, żeby faktycznie odpowiednią ilość konstrukcji i instrukcji stworzyć, żeby faktycznie trzymać te mechanizmy w odpowiednich ryzach, no a potem oczywiście robić tego review.

Jakie są jakieś narzędzia, które być może już teraz warto jest, którymi warto się zainteresować i które potrafią to mocno uprościć, przyspieszyć czy po prostu nawet zmniejszyć koszty całych tych operacji.

Tak, ale tu też trzeba uważać, bo znowu jak się pojawia, jeżeli jesteśmy na styku bezpieczeństwa, powiedzmy, security i w jakiś sposób na przykład już AI stwierdził, że się dobierze do sekretów, albo gdzie on nie będzie sobie trzymał, no to już też trzeba tam, tam nie zawsze to jest fajnie, żeby były wygenerowane przez AI.