Mentionsy

IT i cyberbezpieczeństwo
IT i cyberbezpieczeństwo
07.11.2025 06:00

AI w służbie hakerów, etyczni pentesterzy przed sądem, luki w ChatGPT i europejskie zmagania ekspertów cyberbezpieczeństwa.

Witamy w świecie IT i cyber bezpieczeństwa.
W dzisiejszym odcinku:
Google ujawnia kampanię z użyciem sztucznej inteligencji – ataki phishingowe wchodzą na nowy poziom.
 Trzej byli specjaliści od cyberbezpieczeństwa oskarżeni o działalność hackerską w USA.
 Luki w ChatGPT ujawnione – błędy w walidacji promptów i tokenizacji pozwalają na eskalację uprawnień.
Studenci z Delft w czołówce Europejskiego Cybersecurity Challenge w Polsce.




Patronem dzisiejszego odcinka jest firma Selfpost i ich rozwiązanie. Selfpost - Twój własny punkt odbioru przesyłek. Nie musisz czekać na kuriera czy jeździć po odbiór paczek. To Twoje przesyłki będą bezpiecznie czekać na Ciebie.
www.info.selfpost.pl


https://buycoffee.to/cybersecurity

Become a supporter of this podcast: https://www.spreaker.com/podcast/it-i-cyberbezpieczenstwo--6752004/support.

This episode includes AI-generated content.

Sponsorzy odcinka (1)

Selfpost post-roll

"Patronem dzisiejszego odcinka jest firma Selfpost i ich rozwiązanie."

Szukaj w treści odcinka

Znaleziono 6 wyników dla "AI"

Według raportu napastnicy korzystają z modelu językowych i generatorów obrazu do tworzenia spreparowanych e-maili, stron logowania oraz dokumentów korporacyjnych, które trudno odróżnić od oryginałów.

Atakujący używają modeli AI do dynamicznego dopasowywania treści wiadomości do ofiary, bazując na danych z mediów społecznościowych, historii zakupów i metadanych publicznych.

Systemy bezpieczeństwa firmy zostały rozszerzone o nowe modele klasyfikujące treści generatywne, wykrywające charakterystyczne wzorce syntaktyczne i metadane produkowane przez AI.

Śledczy ustalili, że oskarżeni wchorzyli własne narzędzia eksploitacyjne bazujące na frameworkach typu Metasploit i Cobalt Strike, a następnie sprzedawali dostęp do zainfekowanych serwerów na forach w darknecie.

OpenAI i firmy partnerskie wdrożyły już oprawki bezpieczeństwa, między innymi przez wzmocnienie sandboxingu procesów i lepsze filtrowanie sekwencji tokenów w warstwie inference.

Eksperci zwracają uwagę, że problem prompt injection staje się nową kategorią zagrożeń w świecie AI, wymagającą myślenia o bezpieczeństwie nie na poziomie kodu, lecz kontekstu językowego i intencji użytkownika.