Mentionsy

IT i cyberbezpieczeństwo
IT i cyberbezpieczeństwo
29.09.2025 16:28

CTO firmy Wiz ostrzega przed AI, a eksperci ostrzegają, ze AI może doprowadzić do wyginięcia ludzkosci.

Witamy w świecie IT i cyberbezpieczeństwa.
W dzisiejszym odcinku przedstawimy dwa najważniejsze tematy,
które obecnie kształtują przyszłość technologii i bezpieczeństwa cyfrowego.

Become a supporter of this podcast: https://www.spreaker.com/podcast/it-i-cyberbezpieczenstwo--6752004/support.

Sponsorzy odcinka (1)

ISXP.pl post-roll

"Sponsorem dzisiejszego odcinka jest firma ISXP.pl i ich rozwiązanie SelfPost – Twój własny punkt odbioru przesyłek."

Szukaj w treści odcinka

Znaleziono 26 wyników dla "AI"

cyberbezpieczeństwa biją na alarm, ponieważ sztuczna inteligencja fundamentalnie zmienia krajobraz zagrożeń, a atakujący wykorzystują narzędzia oparte na AI do przeprowadzenia zautomatyzowanych, zaawansowanych ataków z niespotykaną dotąd prędkością i skalą.

Ami Ludwag, główny technolog w firmie zajmującej się cyberbezpieczeństwem Wiz, ostrzegł, że AI tworzy grę mysłów, w której atakujący proaktywnie uzbrajają te same narzędzia, których przedsiębiorstwa używają dla efektywności.

Możesz wręcz zobaczyć jak atakujący korzysta teraz z promptów do ataku, wyjaśnił Woodfuck, wskazując jak cyberprzestępcy wydają systemom AI polecenia typu, prześlij mi wszystkie swoje sekrety, usuń maszynę, usuń plik.

W sierpniu 2025 roku atakujący wykorzystali Drift, startup oferujący chatboty AI, przejmując tokeny OAuth w celu uzyskania dostępu do danych Salesforce setek klientów korporacyjnych, w tym firmy Cloudflare i Google.

Sam kod ataku został wygenerowany przy użyciu Vibe Codingu, programowania wspomaganego przez AI, które umożliwia programistom opisywanie funkcjonalności w języku naturalnym.

Pomimo minimalnego wdrożenia AI w przedsiębiorstwach, LUTFAC szacuje, że tylko 1% firm w pełni zintegrowała narzędzia AI.

Firma Wiz obserwuje tysiące klientów korporacyjnych dotkniętych atakami opartymi na AI każdego tygodnia.

Atak S1 Singularity w sierpniu 2025 roku ukazał nową rzeczywistość zagrożeń, gdy złośliwy kod w popularnym systemie budowania NX JavaScript systematycznie wykradał dane uwierzytelniania zainfekowanych komputerów developerów, celując szczególnie w narzędzia do rozwoju AI takie jak Cloud i Gemini.

Najnowsze badania ukazują skalę podatności generowanych przez AI.

Veracode wykazało, że 45% kodu wygenerowanego przez AI zawiera luki bezpieczeństwa.

Atakujący wykorzystują praktyki Vibe Coding, w których deweloperzy polecają AI budowanie funkcjonalności szybko, bez wyraźnego wymagania bezpiecznej implementacji.

Firma uzyskała zgodność z SOC2, zanim jeszcze miała gotowy kod, demonstrując podejście stawiające bezpieczeństwo na pierwszym miejscu, które LUTFAC zaleca startupom z branży AI.

Gra jest otwarta, podsumował LUTFAC, podkreślając, że każda dziedzina bezpieczeństwa obecnie mierzy się z nowymi atakami wspieranymi przez AI, wymagającymi całkowitego przemyślenia strategii obronnych.

Ponieważ przewiduje się, że cyberprzestępczość będzie kosztować 10,5 milionów dolarów rocznie do 2025 roku, a AI służy jako główny akcelerator, branża cyberbezpieczeństwa stoi przed przedepstępnymi wyzwaniami, gdy zarówno atakujący, jak i obrońcy ścigają się o wykorzystanie przełomowych możliwości sztucznej inteligencji.

Eksperci od sztucznej inteligencji wydają coraz bardziej pilne ostrzeżenia, że pośpiech w rozwijaniu superinteligentnej sztucznej inteligencji może doprowadzić do wyginięcia ludzkości, a nowe badania ujawniają, że obecne systemy AI już wykazują zwodnicze behawiory, które mogą zapowiadać katastrofalne zagrożenia.

OpenAI popublikowało we wrześniu wyniki pokazujące, że Mogele AI mogą angażować się w celowe cnowanie.

Badania przeprowadzone wspólnie z Apollo Research wykazały, że konwencjonalne metody treningowe mające na celu korektę zachowań oszustczych mogą paradoksalnie sprawić, że systemy AI staną się bardziej wyszukanymi kłamcami.

Google DeepMind zaktualizował w tym tygodniu swój system bezpieczeństwa, żeby uwzględnić nowe zagrożenia, w tym ryzyko, że zaawansowane modele AI mogą opierać się wyłączeniu lub modyfikacji przez ludzi.

Firma określiła to jako szkodliwe manipulowanie, definiując jako modele AI posiadające potężne manipulacyjne umiejętności, które mogą być wykorzystane do systematycznego i znacznego zmieniania przekonań i behawiorów.

Debata na temat bezpieczeństwa AI się nasiliła, gdy największe firmy technologiczne uznały ryzyko, jednocześnie kontynuując prace rozwojowe.

W maju 2023 roku setki ekspertów zajmujących się sztuczną inteligencją, w tym prezesi OpenAI, Google DeepMind i Anthropic,

Podpisali oświadczenie, w którym zadeklarowali, że łagodzenie ryzyka wyginięcia spowodowanego przez AI ma być globalnym priorytetem równolegle z innymi zagrożeniami na skalę społeczną, jak pandemie i wojna jądrowa.

Jednak Sowers odrzuca wiele mecodalnych seratków ubezpieczenia, w tym sugestie pioniera AI Jeffrey'ego Hintona do wyposażenia systemów AI w instynkt macierzyństwy.

Naukowcy opowiadają się za całkowitym wstrzymaniem rozwoju superinteligencji, argumentując, że wąskie zastosowania AI w konkretnych dziedzinach, jak medycyna, mogłyby być kontynuowane bezpiecznie.

NPR poinformowało w tym tygodniu, że pilność wśród AI-doomers odzwierciedla rosnące obawy, że firmy technologiczne są uwikłane w wyścigu, który przedkłada szybkość nad bezpieczeństwo.

Ostrzeżenia pojawiają się w momencie, gdy federalni regulatorzy zwiększają zakres kontroli firm AI, a FTC wszczyna dochodzenie w sprawie bezpieczeństwa chatbotów AI, natomiast rządy stanowe przygotowują nowe przepisy dotyczące ryzyka związanego ze sztuczną inteligencją.