Mentionsy

Bezpieczny Kod Podcast
Bezpieczny Kod Podcast
01.09.2025 04:00

Czy AI zabierze pracę pentesterom? Analiza sukcesu XBOW i wpadki Gemini - Bezpieczny Kod Podcast

🤔 Czy sztuczna inteligencja zastąpi hakerów? To już się dzieje! W nowym odcinku wracamy po przerwie i nurkujemy w najgorętsze tematy ostatnich miesięcy.


W rozmowie poruszamy m.in.:

🤖 XBOW – startup i agent AI, który... zajął pierwsze miejsce w rankingu bug bounty w USA, wyprzedzając ludzkich ekspertów. Jak to zrobili i co to oznacza dla branży?


🕵️ Wpadka agenta Gemini – analizujemy, jak proste pytanie do AI mogło uruchomić złośliwy kod i doprowadzić do wycieku sekretów, np. kluczy do chmury.


🔍 Przyszłość pentestingu – czy automatyzacja i AI sprawią, że testy penetracyjne w obecnej formie znikną?. Dyskutujemy, jakie umiejętności będą kluczowe w nadchodzących latach.


🫂"Human in the loop" – dlaczego, mimo wszystko, człowiek nadal będzie potrzebny w procesie hakowania i jak wykorzystać AI jako potężną dźwignię w codziennej pracy.


📖 Rozdziały:

- Intro

- Wpadka Gemini: Jak AI dało się oszukać?

- XBOW: Sztuczna inteligencja, która została hakerem nr 1

- Jaka przyszłość czeka pentesterów? Rola "Human in the Loop"

- Outro - apel do uczniów


❤️ Dziękujemy za Twoją uwagę!

© Wszystkie znaki handlowe należą do ich prawowitych właścicieli.


#cybersecurity #appsec #software #softwareengineer #supplychain #programowanie #bezpieczeństwo #devops #devsecops #Cyberbezpieczeństwo #AI #TechTalk #AppSec #PodcastIT #BezpieczeństwoIT #ExpertInsights #QA #TestowanieOprogramowania #IT

Szukaj w treści odcinka

Znaleziono 7 wyników dla "ETC"

Jakość nie istnieje dla samej jakości, tylko istnieje dla jakiegoś produktu, czy usługi, czy czegoś, jakiegoś bytu, który chcemy komuś dać, sprzedać etc.

Czyli ta usługa, ten produkt ETC jest ważniejszy niż jego jakość.

Nie ma nawet co ich listować, bo po prostu ta lista będzie bardzo długa, wiele z nich wygląda podobnie etc.

Oglosili takie bug bounty, że możecie zgłaszać ETC przez Kanga, te swoje write-upy, no i oczywiście jeśli jakiś będzie legitny, okaże się realnym problemem bezpieczeństwa, realną podatnością, czyli np.

Pomimo tych wszystkich reinforcement learningów ETC, że nie powinieneś tego robić, jeśli uda nam się to zrobić, to możemy zgarnąć za to pieniądze.

Tylko, że człowiek musiałby wtedy to wszystko rozpisać etc.

Koszt agentów, koszt uprawiania, learningu etc.