Mentionsy
JEDEN PROMPT I SĄD? Prawnicy kontra Shadow AI i pierwsze sprawy sądowe ze sztuczną inteligencją
() Wstęp
() Niebezpieczne pytanie
() Nieprawdziwe informacje wygenerowane przez AI. Czy można uniknąć halucynowania?
() Czy prawnicy korzystają ze sztucznej inteligencji?
() Najczęstsze błędy popełniane podczas pracy z narzędziami AI
() Pierwsze sprawy sądowe dotyczące wykorzystania sztucznej inteligencji
() Konsekwencje prawne nieautoryzowanego wykorzystania AI w firmie
() Czym jest Shadow AI i jak go uniknąć w organizacji?
() Czy każda firma powinna mieć politykę korzystania z narzędzi AI?
() AI a prawa autorskie. Kto ma prawo do utworu stworzonego przez sztuczną inteligencję?
() Grafika lub treść wygenerowana przez AI - czy trzeba ją oznaczyć?
() Oznaczanie treści AI a region świata. Czy przepisy dotyczą tylko Unii Europejskiej?
() Czy trzeba poinformować klientów i pracowników, że korzystamy z ich danych w pracy z narzędziami AI
() Niebezpieczne pytanie - odpowiedź
() Zakończenie
Shadow AI, halucynacje AI, prawa autorskie i AI Act – w świecie sztucznej inteligencji technologia i prawo ściśle się ze sobą łączą. Gdzie zatem kończy się pomoc asystenta AI, a zaczyna odpowiedzialność karna i cywilna człowieka? Sztuczna inteligencja wspiera nas w codziennej pracy, ale coraz częściej sięgamy po nią bez wiedzy pracodawcy. Z raportu Microsoft wynika, że aż 78% użytkowników rozwiązań AI wdraża je w pracy na własną rękę. A to może rodzić poważne konsekwencje prawne i biznesowe. Zatem jak dziś bezpiecznie korzystać ze sztucznej inteligencji w firmie?
O tym w NIEbezpiecznych rozmowach dyskutujemy z Renatą Zalewską, radczynią prawną z Microsoft Polska, oraz z Agatą Szeligą z Kancelarii Sołtysiński-Kawecki i Szlęzak.
Poruszamy między innymi temat Shadow AI. Wyjaśniamy, dlaczego pracownicy "ukrywają" korzystanie z AI i jakie ryzyka generuje to dla firmy (wycieki danych, naruszenia poufności). Pochylamy się nad prawem autorskim do treści z AI i sprawdzamy, czy prompt to już twórczość. Zastanawiamy się też nad tym, czy klonowanie głosu to naruszenie dóbr osobistych i jak bronić się przed kradzieżą "biometrycznej tożsamości"?
Analizujemy także:
▶️ jakie są konsekwencje prawne korzystania z AI w firmie
▶️ kto odpowiada za błędy AI (np. halucynacje i fałszywe dane)
▶️ do kogo należą prawa autorskie do treści generowanych przez AI
▶️ czy można legalnie używać AI do tworzenia grafik, tekstów i dokumentów
▶️ co zmieni AI Act i jakie kary grożą firmom (nawet do 35 mln euro!)
▶️ czy trzeba oznaczać treści stworzone przez AI (deepfake, content marketing)
▶️ jak chronić dane osobowe i tajemnice w firmach korzystających z AI
Oglądaj nas na YouTube!
🔴 https://www.youtube.com/@IntegriTV-pl
Słuchaj nas także na Apple Podcasts:
🎙️ https://bit.ly/IntegriTV-ApplePodcast
🟢 Weź udział w wydarzeniach dla branży IT!
https://integritypartners.pl/integritv-newsletter/
🟢 Obserwuj nasz kanał IntegriTV i śledź nas w Social Media!
🔵 FACEBOOK https://www.facebook.com/integritvpl
🟣 INSTAGRAM https://www.instagram.com/integri_tv/
⚫ THREADS https://www.threads.net/@integri_tv
🔴 Obserwuj profil Integrity Partners na LinkedIn!
https://www.linkedin.com/company/integrity-partners-cloud-security
DO USŁYSZENIA!
Szukaj w treści odcinka
Do 2027 roku aż 75% pracowników będzie pozyskiwało rozwiązania AI poza widocznością działu IT.
Rozmawiamy z ekspertami na temat Cyber Security, Cloud, AI i Identity Security.
Porozmawiamy sobie troszkę szerzej na temat Shadow AI oraz aspektów prawnych związanych z wykorzystaniem sztucznej inteligencji.
Pytanie dotyczy AI.
W którym roku i w jakim kraju zapadł jeden z pierwszych na świecie przełomowych wyroków dotyczących ochrony treści współtworzonych przez AI?
Pojawiła się pewna książka, która w zawartości ma w sobie nieistniejące źródła wygenerowane przez AI.
Z pism sądowych, które też zostały wygenerowane przez AI.
halucynacje AI.
AI generuje najbardziej prawdopodobną sekwencję słów, a jeżeli nie wie, to wymyśla takie, które pasują do danego kontekstu.
Pracownicy korzystający ze sztucznej inteligencji muszą wiedzieć, że AI to nie jest wyrocznia.
To jest bardzo pomocny asystent, ale należy weryfikować wyniki przedstawione przez AI.
Myślę, że takie najczęstsze przykłady to takie nieświadome wprowadzanie do rozwiązań AI danych poufnych, danych osobowych.
Czy macie takie wrażenie, że dojdziemy do takiego momentu, w którym AI będzie rozmawiać z AI?
Mówię tutaj o takiej sytuacji, kiedy prawnik wykorzystuje, może mało doświadczony, wykorzystuje w 100% AI
A ten drugi odpowiada mu też AI i się między sobą, mówiąc kolokwialnie, tłuką, a nic z tego dobrego nie wynika.
Gdzie kończy się wiedza AI, a gdzie zaczyna ta wiedza ekspercka prawnika?
Więc tutaj AI nie zastąpi ich.
AI musi wiedzieć, jak postępować, że najpierw musi sprawdzić stan prawny, potem orzeczenia, musi się pewnych rzeczy nauczyć.
Natomiast to raczej nie będzie mieli takiej sytuacji, że jedno AI rozmawia z drugim AI bezpośrednio, żeby rozstrzygnąć sprawę, przynajmniej nie teraz jeszcze.
Czy można powiedzieć, że my jesteśmy na takim wstępnym etapie rozpoznawania, co AI może tutaj wykorzystywać, a co nie?
osoby fizycznej, której dane są nielegalnie przetwarzane w narzędziach Shadow AI.
I z danych Microsoftu wynika, że 78% użytkowników rozwiązań AI wdraża je na własną rękę w pracy, czyli de facto nikt nie ma kontroli nad tym, do czego pracownicy wykorzystują sztuczną inteligencję.
Chciałbym, żebyśmy poruszyli ten wątek, który jest tematem dzisiejszego odcinka, czyli ten Shadow AI.
Shadow AI to jest takie zjawisko analogiczne do Shadow IT i oznacza sytuację, kiedy pracownicy korzystają z rozwiązań AI bez wiedzy pracodawcy.
Dzieje się to najczęściej w sytuacji, kiedy pracodawca w ogóle proaktywnie nie wprowadza żadnych rozwiązań AI albo te wprowadzone np.
Z raportu Sharp Europe z grudnia 2025 roku wynika, że aż 56% polskich pracowników korzysta z rozwiązań AI bez wiedzy przełożonych.
Raport Gartnera z kolei przewiduje, że do 2027 roku aż 75% pracowników będzie pozyskiwało rozwiązania AI poza widocznością działu IT.
Czy wprowadzać po prostu całkowity zakaz korzystania z AI?
Bo ja się zainspirowałem czymś, ale niekoniecznie muszę się na tym wzorować.
Z kolei na przykład dostawcy rozwiązań AI będą musieli zapewniać, że te systemy pozwalają na identyfikację, będą się identyfikowały jako sztuczna inteligencja przy interakcji z użytkownikami, osobami fizycznymi.
Niektóre grafiki, jak są wygenerowane przez AI, to tam w lewym górnym rogu jest takie zaznaczone, że to jest właśnie przy użyciu sztucznej inteligencji, ale jest trik, żeby to zmienić.
No tak, ale nie wiem czy zauważyliście, że różne branże stosują jakby już swoje własne standardy i w dziennikarstwie, w mediach stosuje się jednak takie obowiązkowe oznaczanie treści generowanych przez AI.
Natomiast w nauce AI nie może być oznaczana jako autor publikacji.
A poza tym też i z własnej praktyki wiem, że przygotowanie na takie nowe obowiązki, na to właśnie oznaczanie treści generowanych przez AI, będzie wymagało współpracy działów prawnych, IT, działów compliance, czyli będzie to taki długotrwały proces, więc myślę, że warto te przygotowania na te nowe obowiązki rozpocząć już teraz.
Generalnie tak, ta regulacja dotyczy Unii Europejskiej i dostawców na przykład, którzy oferują rozwiązania AI na terenie Unii Europejskiej.
W którym roku i w jakim kraju zapadł jeden z pierwszych na świecie przełomowych wyroków dotyczących ochrony treści współtworzonych przez AI?
Chodzi o słynną sprawę Feilin vs Baidu z 2019 roku.
To fascynujący przypadek, bo sąd internetowy w Pekinie orzekł bardzo konkretnie, że oprogramowanie AI nie może być uznane za autora, bo nie ma osobowości prawnej.
Wykorzystali do tego narzędzia AI, które wygenerowało wykresy i części opisowe na podstawie wprowadzonych danych.
Konkurencyjna firma Baidu opublikowała ten raport u siebie bez zgody i bez oznaczeń.
A już w kolejnym odcinku porozmawiamy sobie trochę szerzej na temat wdrażania AI w organizacji.
Ostatnie odcinki
-
JAK KROK PO KROKU WDROŻYĆ AI W FIRMIE? Strategi...
16.04.2026 09:15
-
JEDEN PROMPT I SĄD? Prawnicy kontra Shadow AI i...
26.03.2026 11:10
-
Bezpieczeństwo dzieci w Internecie – smartfony,...
29.01.2026 07:58
-
Czy WeTransfer i pendrive to bezpieczny sposób ...
09.01.2026 13:40
-
Niebezpieczne pliki: Czy PDF i ZIP mogą zainfek...
16.12.2025 14:33
-
CZY VPN BĘDZIE DZIAŁAŁ W 2026? SASE zmienia zas...
02.12.2025 08:39
-
Zero Trust vs oszustwa online – Jak brak zaufan...
06.11.2025 13:46
-
Czy Europa potrzebuje własnej chmury? Cyfrowa s...
11.07.2025 13:00
-
AI Act wyjaśniony: Co zmienia nowe prawo o sztu...
18.06.2025 12:05
-
SaaS czy On-Premises? Co wybrać dla ochrony toż...
23.05.2025 13:10