Mentionsy

O technologii na głos (podcast)
O technologii na głos (podcast)
22.05.2025 06:55

O technologii na głos – Odcinek 108: Cyberbezpieczeństwo w czasach AI

💡 Czy korzystanie z generatywnej AI, by napisać służbowego maila czy strategię produktu może sprowadzić zagrożenie dla firmy? Czy będziemy w stanie się obronić przed doskonale spersonalizowanymi atakami phishingowymi? W jaki sposób sztuczna inteligencja może wspomóc cyberbezpieczeństwo?

💡O tym i o wielu innych kwestiach dotyczących cyberbezpieczeństwa i AI Małgorzata Lamperska rozmawia z dr. inż. Tomaszem Gawronem, ekspertem od AI z Łukasiewicz – Poznańskiego Instytutu Technologicznego.

Szukaj w treści odcinka

Znaleziono 25 wyników dla "AI"

I mamy wirtualnego agenta, który sobie rozmawia z nami, przenosi ten kontakt na jakieś płaszczyzny właśnie bardziej prywatne typu Messenger czy Whatsapp, żeby potem po kilku dniach nawiązywania takiej wirtualnej znajomości zacząć spychać w stronę tego, że na przykład zainwestujmy wspólnie razem albo coś podobnego.

Ja myślę, że są też takie bardzo subtelne formy manipulacji, której możemy ulegać, korzystając z narzędzi Gen AI-owych.

No i okazuje się, że to właśnie nasza łatwość zaimplementowania tej funkcjonalności spowodowała, że wystarczy to zrobić w jeden dzień i pójść dalej.

Albo jakoś tak od-AI-zować to, od-chatować, trochę przeredagować tekst, żeby był bardziej autorski,

Tym samym okazuje się, że pewne metody przekazywania informacji mogą po prostu być archaiczne.

To znaczy, jak coś trafia do czasopisma naukowego, jeżeli chodzi o AI, to już jest za późno.

To samo zresztą widać też na poziomie chociażby korespondencji mailowej w różnych organizacjach.

Ja wielokrotnie widziałem osoby, które pisały jakiegoś e-maila do większego grona i potem nawet mówiły to nam, że o tutaj bardzo się cieszę, napisałem to czatem GPT z takich bullet pointów, prawda?

Kiedyś powiedziałeś, że czat GPT używany w pracy może być zagrożeniem dla cyberbezpieczeństwa i mnie to bardzo zaintrygowało na zasadzie, ale jak?

Niewinne pisanie maila do innych w czasie GPT może sprawić, że ktoś zaatakuje moją firmę.

A po to, żeby na przykład zautomatyzować pewne czynności albo żeby pomóc mi wykonać pewne czynności, których nie wiem jak wykonać, co do których nie ma takiego programowego interfejsu między tym systemem AI a daną usługą.

Na przykład mogę już zrobić tak, żeby AI autoryzować do mojego Whatsappa i żeby sobie tam pisał wiadomości do ludzi.

I okazało się, że część tego zadania została wykonana, a potem ten agent stwierdził sobie, że dużo pracy, czas na przerwę, dosłownie, otworzył sobie Paint'a i zaczął coś rysować losowego w Paint'cie.

Zwłaszcza, że AI obecnie myli się z dużą pewnością.

I tym samym my bardzo często obnażamy wtedy to, że dostaliśmy precyzyjną odpowiedź na podstawie dokumentu i to nie jest błąd AI, to jest błąd nas, którzy napisaliśmy tak dokument, że

Tutaj zacytuję może jedną z naszych rozmów z Andrzejem Draganem, w której on wspominał, że ma doktorantów, którzy korzystają z China AI do wygenerowania dużej części swojej pracy doktorskiej.

No tak, ale widzę, że oczekujemy od sztucznej inteligencji tych wszystkich narzędzi, które z pomocą AI są tworzone, żeby były doskonałe, a z drugiej strony, no, każdy może coś chłapnąć.

I my nawet nie wiemy, jak przez ostatnie 20-30 lat się do tego przyzwyczailiśmy, że jeżeli ja zrobię jakieś tam konkretne czynności, dostanę na wyjściu jakiś tam konkretny wynik.

Jak stają się odpowiednio długie, to budujemy je na podstawie pewnych reguł czy mnemotechnik, co już na przykład narzędzie AI może złamać.

No to teraz, jak mamy multimodalne systemy AI, to one mogą też z różnych zdjęć czy z otoczenia wywieźć różne informacje.

I tutaj najczęściej jest tak, że te problemy są odkrywane, czy to przez specjalistów od bezpieczeństwa, czy to przez zewnętrznych konsultantów, no i potem programiści muszą zaimplementować poprawki, żeby te problemy usunąć.

Aktualnie możemy korzystać z systemów AI, żeby tego typu testy wykonywać w sposób mocno zautomatyzowany i żeby te testy były wykonywane z kreatywnością, która staje się już podobna do kreatywności ludzkiej.

Stwierdzić narzędziem AI-owym, czy jesteśmy w danym momencie podczas jakiegoś ataku.

To znaczy, jeżeli ja dostałem jakiegoś e-maila i zastanawiam się, czy odpowiedzieć, czy kliknąć w link z tego e-maila, no to akurat niczym niebezpiecznym nie będzie, chyba że dostałem tam jakieś informacje wrażliwe typu moje albo czyjeś dane osobowe, ale tak, to niczym problematycznym nie będzie, żeby zrobić screenshota tego e-maila, wrócić go chociażby do czata GPT i zapytać

Możemy też w ogóle zresztą korzystać z bardziej szeroko pojętego AI, czyli chociażby narzędzi machine learningi, analizy sekwencji czasowych.