Mentionsy

NIEbezpieczne rozmowy
NIEbezpieczne rozmowy
18.06.2025 12:05

AI Act wyjaśniony: Co zmienia nowe prawo o sztucznej inteligencji w UE?

Czym jest AI Act i czy obowiązuje tylko firmy, czy także prywatnych użytkowników? Jak skutecznie wdrażać nowe prawo w firmie? Czy korzystanie z narzędzi takich jak Microsoft Copilot zwalnia nas z konieczności przejmowania się przepisami prawa? Czy AI Act jest w ogóle dobrym rozwiązaniem, czy raczej stanie się cenzorem nowej generacji?

Jeśli zastanawiasz się, czy AI Act dotyczy także Ciebie i Twojej firmy, nie wiesz, od kiedy obowiązuje nowe rozporządzenie Unii Europejskiej i o co w tym wszystkim chodzi, koniecznie posłuchaj tego odcinka „NIEbezpiecznych rozmów”.

TREŚĆ AI ACT: ⬇️⬇️⬇️ https://eur-lex.europa.eu/legal-content/PL/TXT/HTML/?uri=OJ:L_202401689

Naszym gościem jest Michał Jaworski, National Technology Officer w Microsoft, na co dzień zajmujący się zagadnieniami łączącymi prawo, biznes i technologię. A jeśli pierwszy raz słyszysz termin AI Act, wyjaśniamy:

AI Act (EU Artificial Intelligence Act, Akt w sprawie sztucznej inteligencji) to rozporządzenie Unii Europejskiej, które reguluje zasady rozwoju, wprowadzania na rynek oraz korzystania z systemów sztucznej inteligencji (AI). Zostało przyjęte przez Parlament Europejski 13 czerwca 2024 roku. Wchodzi w życie stopniowo.

Oglądaj nas na YouTube!
🔴 https://www.youtube.com/@IntegriTV-pl

Słuchaj nas także na Apple Podcasts:
🎙️ https://bit.ly/IntegriTV-ApplePodcast

🟢 Weź udział w wydarzeniach dla branży IT!
https://integritypartners.pl/integritv-newsletter/

🟢 Obserwuj nasz kanał IntegriTV i śledź nas w Social Media!

🔵 FACEBOOK https://www.facebook.com/integritvpl

🟣 INSTAGRAM https://www.instagram.com/integri_tv/

⚫ THREADS https://www.threads.net/@integri_tv

🔴 Obserwuj profil Integrity Partners na LinkedIn!
https://www.linkedin.com/company/integrity-partners-cloud-security

DO USŁYSZENIA!

Oglądaj nas na YouTube!
🔴 https://www.youtube.com/@IntegriTV-pl

Słuchaj nas także na Apple Podcasts:
🎙️ https://bit.ly/IntegriTV-ApplePodcast

🟢 Weź udział w wydarzeniach dla branży IT!
https://integritypartners.pl/integritv-newsletter/

🟢 Obserwuj nasz kanał IntegriTV i śledź nas w Social Media!

🔵 FACEBOOK https://www.facebook.com/integritvpl

🟣 INSTAGRAM https://www.instagram.com/integri_tv/

⚫ THREADS https://www.threads.net/@integri_tv

🔴 Obserwuj profil Integrity Partners na LinkedIn!
https://www.linkedin.com/company/integrity-partners-cloud-security

DO USŁYSZENIA!

Szukaj w treści odcinka

Znaleziono 50 wyników dla "AI"

Jak ty oceniasz AI Act w skali od 1 do 6, gdzie 6 to jest celujący?

Rozmawiamy z ekspertami na temat Cyber Security, Cloud, AI i Identity Security.

W tym odcinku porozmawiamy sobie trochę szerzej na temat AI Act i aspektów prawnych dotyczących wykorzystania sztucznej inteligencji.

Więc jestem takim trochę najgorszym rodzajem informatyka, czyli informatykiem, który jest zainteresowany tym, co się dzieje w przepisach prawa, co oczywiście budzi pewien respekt z jednej strony po stronie informatyków, ale budzi również inne uczucia po stronie prawników.

AI Act powstał z myślą o ochronie obywateli.

AI Act będzie za kilka lat martwym prawem, podobnie jak RODO.

Każdy system AI powinien być tak samo rygorystycznie testowany, jak nowy lek?

AI Act słyszymy w mediach, słyszymy wraz z pojawieniem się chociażby sztucznej inteligencji i pojawiają się takie głosy, że warto, żeby ktoś w końcu zaczął to regulować.

Powiedz nam proszę, czym tak naprawdę jest AI Act?

AI Act jest aktem prawnym, jest rozporządzeniem Unii Europejskiej, to znaczy z jednakowym tekstem został wprowadzony we wszystkich krajach członkowskich.

To jest czasami, powinniśmy o tym pamiętać, że ten AI Act jest taki sam u nas, jest taki sam na Cyprze, jest taki sam w Portugalii.

Jego celem tak naprawdę były te różne obawy, które są związane i dlatego pozytywnie odpowiedziałem na pytanie, czy celem AI Actu była właśnie ochrona człowieka.

Człowiek będzie postrzegany, w jaki sposób zdobywa pracę, w jaki sposób jest oceniany, no to musi spełniać pewne warunki choćby po to, żeby była ta ocena w sposób fair, żeby nie było dyskryminacji, żeby można było w jakiś sposób zdobyć informację, dlaczego zostałem w taki, a nie inny sposób oceniony.

I to jest gdzieś ta podstawa tego AI Act.

Mamy od sierpnia ubiegłego roku już we wszystkich krajach obowiązujące prawo i teraz po kolei upływają kolejne terminy, no bo jak każde dobrze spisane prawo, ono oprócz tego, że wchodzi, no to daje jeszcze pewien czas na dostosowanie się do tego prawa i mijają kolejne terminy, kiedy to kolejne elementy tego AI Actu są egzekwowalne.

Więc można powiedzieć, że mamy po jednej stronie to prawo europejskie, mamy w trakcie, jeszcze w tej chwili, tak jak rozmawiamy pod koniec maja, 25 polskie prawo wdrażające ten AI Act do naszego systemu, bo pomyślcie, każde takie rozporządzenie powoduje, że coś musi się zmienić.

Tak naprawdę odpowiedź brzmi nie wiem, ponieważ może z jednej strony pewne założenia, które są przy okazji AI Actu.

Jeden artykuł w tym całym AI Act, który liczy stron 140,

Jeden z prawników powiedział mi, że AI Act i zgadzam się akurat z tą opinią, AI Act ma taki charakter szkieletowy.

Oprócz tych systemów, które są zabronione, tych zabronionych praktyk, tak naprawdę są jeszcze trzy elementy, to znaczy systemy wysokiego ryzyka, średniego i niskiego, plus jeszcze opis tego, co się dzieje w modelach AI.

70% tego, co jest w AI Act dotyczy systemów wysokiego ryzyka.

Definicja znaczącej zmiany, czy to jakoś to się tak nazywa, jest oczywiście w AI Act.

Wysokie ryzyko, czyli systemy wymagające rygorystycznych obowiązków, czyli AI w medycynie i edukacji.

Są takie dwa pojęcia, które są zdefiniowane w AI Act.

Jeżeli ja jestem, wszystko jedno, bankiem, ale może, nie wiem, starostwem powiatowym i przygotowałem z pomocą narzędzi AI, otrzymanych, mam nadzieję, z Microsoftu, przygotowałem jakąś aplikację, staję się dostawcą.

Dostawcą to jest Microsoft, to jest OpenAI, ktoś taki.

A taki zwykły użytkownik, taki ja, ale jakby odchodząc od Integrity Partners, robię sobie coś w czacie GPT, generuję obrazy itd., też powinienem AI Act przeczytać, się do tego stosować?

Pewne elementy są wyłączone spoza AI Actu.

I tu nie ma jednolitej jakby takiej linii po stronie europejskiej, bo w Polsce ma to być całkiem i zupełnie nowa regulator, Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, w skrócie CRIPSI, która ma być, która jak się łatwo domyślić, nie będzie się zajmowała ani rozwojem, ani bezpieczeństwem sztucznej inteligencji, będzie po prostu normalnym regulatorem patrzącym, jak jest wdrażany AI Act.

Więc myślę, że musimy się przygotowywać do tego AI Actu.

Będą się wpisywały w te zapisy AI Actu, ale z drugiej strony też nie wpadajmy w taki stupor, że rany boskie, tutaj nam od razu, bo tam od razu jest czytanie, ile to procent rocznego obrotu mogą na nas nałożyć tej kary i tak dalej.

RODO i AI.

DORA i AI, NIS-2 i AI, czyli ustawa o krajowym systemie cyberbezpieczeństwa.

Bezpieczeństwa w Polsce, EAI, Data Act, EAI, EHDS, czyli Europejskie Strefy Danych.

To znaczy mamy swoich specjalistów od technologii, od compliance'u, od AI Act'u, od RODO.

Czyli na przykład takie rzeczy, które cały czas nas w tej chwili klienci pytają, one może nie mają wprost związku z AI Actem, ale jednak to jest to.

Jedną z rzeczy, która dla nas by była absolutnie ważna, to jest to, żeby sposób stosowania tego AI Actu był w miarę jednolity w całej Unii.

Bez względu na to, gdzie taki model będzie robiony, bez względu na to, co się będzie z nim działo, on musi spełniać wymagania AI Actu.

AI Act przewidział takich spryciarzy i w tym momencie również nie można to robić takich rzeczy.

Powiedziałeś o tym, że AI Act jest tylko dla firm stricte.

To muszę ci tutaj wejść, to w takim razie czy nie boisz się, że AI Act to będzie swego rodzaju cenzura?

Ale to właśnie, zobaczcie, to jest właśnie to, o czym mówiłem, że AI Act de facto ma globalne zastosowanie.

Dla wszystkich administratorów pełna przestroga, żeby... To jest właśnie ten artykuł, już nie pamiętam, który numer w AI Actcie, który mówi podnoście kwalifikacji użytkowników, że nie używajcie.

Wobec czego tu morał jest taki, taka polityka stosowania narzędzi AI to jest absolutnie konieczność w dniu dzisiejszym bez patrzenia się na AI-akty czy na jakieś inne, tak zupełnie prosto od strony bezpieczeństwa takiego nieopisanego przepisami.

Pojawia się trochę takie... Jeszcze jedno pytanie, które mnie nurtuje w trakcie tej rozmowy, że czy ty miałeś jakiś taki przypadek, czy znasz jakiś przypadek, gdzie właśnie prawa autorskie zostały zastosowane, podważone w toku wykorzystania AI?

Trochę odeszliśmy od AI Actu, ale trochę celowo.

Rozumiem, że AI Act jest dostępny w wersji cyfrowej, każdy może.

Ja chciałem tylko zapytać, jak ty oceniasz, ty jako Michał Jaworski, oceniasz AI Act w skali od 1 do 6, gdzie 6 to jest celujący?

Z drugiej strony właśnie mam ta szkieletowość tego AI Actu, że do każdego artykułu dopiszemy instrukcję, której objętość będzie liczona w tysiącach stron, a, że tak powiem, bilingi kancelarii będą puchły.

Ty po części o tym powiedziałeś, ale może chciałbyś jeszcze jakąś jedną doprecyzować, czy jest coś takiego konkretnie, niekoniecznie związanego z AI Act?