Mentionsy
JEDEN PROMPT I SĄD? Prawnicy kontra Shadow AI i pierwsze sprawy sądowe ze sztuczną inteligencją
() Wstęp
() Niebezpieczne pytanie
() Nieprawdziwe informacje wygenerowane przez AI. Czy można uniknąć halucynowania?
() Czy prawnicy korzystają ze sztucznej inteligencji?
() Najczęstsze błędy popełniane podczas pracy z narzędziami AI
() Pierwsze sprawy sądowe dotyczące wykorzystania sztucznej inteligencji
() Konsekwencje prawne nieautoryzowanego wykorzystania AI w firmie
() Czym jest Shadow AI i jak go uniknąć w organizacji?
() Czy każda firma powinna mieć politykę korzystania z narzędzi AI?
() AI a prawa autorskie. Kto ma prawo do utworu stworzonego przez sztuczną inteligencję?
() Grafika lub treść wygenerowana przez AI - czy trzeba ją oznaczyć?
() Oznaczanie treści AI a region świata. Czy przepisy dotyczą tylko Unii Europejskiej?
() Czy trzeba poinformować klientów i pracowników, że korzystamy z ich danych w pracy z narzędziami AI
() Niebezpieczne pytanie - odpowiedź
() Zakończenie
Shadow AI, halucynacje AI, prawa autorskie i AI Act – w świecie sztucznej inteligencji technologia i prawo ściśle się ze sobą łączą. Gdzie zatem kończy się pomoc asystenta AI, a zaczyna odpowiedzialność karna i cywilna człowieka? Sztuczna inteligencja wspiera nas w codziennej pracy, ale coraz częściej sięgamy po nią bez wiedzy pracodawcy. Z raportu Microsoft wynika, że aż 78% użytkowników rozwiązań AI wdraża je w pracy na własną rękę. A to może rodzić poważne konsekwencje prawne i biznesowe. Zatem jak dziś bezpiecznie korzystać ze sztucznej inteligencji w firmie?
O tym w NIEbezpiecznych rozmowach dyskutujemy z Renatą Zalewską, radczynią prawną z Microsoft Polska, oraz z Agatą Szeligą z Kancelarii Sołtysiński-Kawecki i Szlęzak.
Poruszamy między innymi temat Shadow AI. Wyjaśniamy, dlaczego pracownicy "ukrywają" korzystanie z AI i jakie ryzyka generuje to dla firmy (wycieki danych, naruszenia poufności). Pochylamy się nad prawem autorskim do treści z AI i sprawdzamy, czy prompt to już twórczość. Zastanawiamy się też nad tym, czy klonowanie głosu to naruszenie dóbr osobistych i jak bronić się przed kradzieżą "biometrycznej tożsamości"?
Analizujemy także:
▶️ jakie są konsekwencje prawne korzystania z AI w firmie
▶️ kto odpowiada za błędy AI (np. halucynacje i fałszywe dane)
▶️ do kogo należą prawa autorskie do treści generowanych przez AI
▶️ czy można legalnie używać AI do tworzenia grafik, tekstów i dokumentów
▶️ co zmieni AI Act i jakie kary grożą firmom (nawet do 35 mln euro!)
▶️ czy trzeba oznaczać treści stworzone przez AI (deepfake, content marketing)
▶️ jak chronić dane osobowe i tajemnice w firmach korzystających z AI
Oglądaj nas na YouTube!
🔴 https://www.youtube.com/@IntegriTV-pl
Słuchaj nas także na Apple Podcasts:
🎙️ https://bit.ly/IntegriTV-ApplePodcast
🟢 Weź udział w wydarzeniach dla branży IT!
https://integritypartners.pl/integritv-newsletter/
🟢 Obserwuj nasz kanał IntegriTV i śledź nas w Social Media!
🔵 FACEBOOK https://www.facebook.com/integritvpl
🟣 INSTAGRAM https://www.instagram.com/integri_tv/
⚫ THREADS https://www.threads.net/@integri_tv
🔴 Obserwuj profil Integrity Partners na LinkedIn!
https://www.linkedin.com/company/integrity-partners-cloud-security
DO USŁYSZENIA!
Szukaj w treści odcinka
Są z nami dzisiaj Renata Zalewska, radca prawny z Microsoft Polska.
Cieszymy się bardzo, że reprezentujecie zarówno i kancelarię, a także firmę Microsoft, z którą mamy tutaj okazję także współpracować w Integrity Partners.
Tak, ja może dodam, że te przypisy, o których wspominała Agata, występują również w Copilocie w Microsoftie i w bardzo łatwy sposób.
Tak, to może ja tylko dodam, że Microsoft w odpowiedzi na tą właśnie taką niepewność, która jest związana z kwestią praw autorskich, wprowadził takie zobowiązanie nazywane Microsoft Customer Copyright Commitment i oznacza ono, że w sytuacji, kiedy klient zostanie pozwany z tytułu naruszenia praw autorskich w związku z korzystaniem z rozwiązań sztucznej inteligencji Microsoftu,
To wówczas Microsoft podejmuje się obrony, pokrywa koszty sądowe, ale również koszty odszkodowań.
Właśnie dobrze, że troszeczkę żeśmy do tego momentu wrócili, zahaczyli o ten Microsoft de facto, bo chciałem troszkę tutaj szerzej dopytać i myśmy tutaj z Łukaszem przeszparali internet wzdłuż i wszerz, tak?
I z danych Microsoftu wynika, że 78% użytkowników rozwiązań AI wdraża je na własną rękę w pracy, czyli de facto nikt nie ma kontroli nad tym, do czego pracownicy wykorzystują sztuczną inteligencję.
Wyjaśnijmy sobie, czym jest i jak radzi sobie z tym Microsoft.
Tak jak powiedziałeś, te 78% to są dane, które pochodzą z takiego globalnego badania Microsoftu, które było przeprowadzone na grupie ponad 31 tysięcy pracowników w 31 krajach.
Pewnie pojawia się takie pytanie, co to oznacza dla biznesu, bo ja reprezentując Microsoft, pracując z klientami, też mam zawsze ten aspekt na uwadze.
z takiego narzędzia Microsoft Copilot i tam wykorzystujemy dane naszych pracowników, klientów, to czy musimy ich o tym poinformować, o tym fakcie?
Przede wszystkim jak mówimy o M365 Copilot, to w standardowej sytuacji Microsoft pełni rolę przetwarzającego dane osobowe, a administratorem jest klient.
Ostatnie odcinki
-
JAK KROK PO KROKU WDROŻYĆ AI W FIRMIE? Strategi...
16.04.2026 09:15
-
JEDEN PROMPT I SĄD? Prawnicy kontra Shadow AI i...
26.03.2026 11:10
-
Bezpieczeństwo dzieci w Internecie – smartfony,...
29.01.2026 07:58
-
Czy WeTransfer i pendrive to bezpieczny sposób ...
09.01.2026 13:40
-
Niebezpieczne pliki: Czy PDF i ZIP mogą zainfek...
16.12.2025 14:33
-
CZY VPN BĘDZIE DZIAŁAŁ W 2026? SASE zmienia zas...
02.12.2025 08:39
-
Zero Trust vs oszustwa online – Jak brak zaufan...
06.11.2025 13:46
-
Czy Europa potrzebuje własnej chmury? Cyfrowa s...
11.07.2025 13:00
-
AI Act wyjaśniony: Co zmienia nowe prawo o sztu...
18.06.2025 12:05
-
SaaS czy On-Premises? Co wybrać dla ochrony toż...
23.05.2025 13:10