Mentionsy
Korzystanie ze sztucznej inteligencji zgodnie z RODO, czyli jak bezpiecznie korzystać z AI.
Zapraszamy do obejrzenia skróconej, bezpłatnej wersji szkolenia „Bezpieczne korzystanie z AI”. Szkolenie w przystępny sposób pokazuje, jak korzystać ze sztucznej inteligencji w pracy. Bezpiecznie, świadomie i zgodnie z prawem. To materiał stworzony dla pracowników, specjalistów, menedżerów oraz wszystkich osób, które już korzystają lub dopiero planują wykorzystywać narzędzia AI w swoich codziennych obowiązkach.
W tym materiale dowiesz się m.in.:
✔ czym jest AI i jakie są jej realne możliwości oraz ograniczenia,
✔ jakie są najczęstsze ryzyka związane z korzystaniem z AI (wycieki danych, halucynacje, deepfake’i),
✔ jak bezpiecznie pracować z AI w kontekście RODO i AI Act,
✔ czego absolutnie nie wolno robić z danymi w narzędziach AI,
✔ jak mądrze wykorzystywać AI do codziennych zadań.
👉 Możesz też skorzystać z pełnej, płatnej wersji szkolenia i przeszkolić swój zespół.
Co zyskasz:
✔ rozszerzoną wersję szkolenia z dużą liczbą praktycznych przykładów,
✔ brak reklamy
✔ test sprawdzający wiedzę
✔ imienny certyfikat dla pracownika
✔ oraz realną rozliczalność realizacji szkolenia w naszym systemie e-learningowym.
Pełną wersję szkolenia dla swojego zespołu zamówisz tutaj:
https://blog-daneosobowe.pl/produkt/szkolenie-e-learningowe-bezpieczne-korzystanie-z-ai/
Szukaj w treści odcinka
Sam skrót AI pochodzi od angielskiego Artificial Intelligence, czyli sztuczna inteligencja.
AI potrafi analizować dane, rozpoznawać różne wzory, podejmować decyzje i wykonywać różne zadania.
A jak AI działa od strony technicznej?
AI analizuje informacje, rozpoznaje różne wzorce i na tej podstawie podejmuje decyzje.
Proces uczenia polega na tym, że karmimy AI danymi wejściowymi.
AI potrzebuje naprawdę masy przykładów, żeby coś zrozumieć i czegoś się nauczyć.
Przejdźmy do części drugiej szkolenia, gdzie opowiem o tym jakie są granice i niedoskonałości związane z AI.
Ale teraz warto zadać sobie pytanie, gdzie AI jest niedoskonała?
AI potrafi naprawdę dużo i ciągle się rozwija.
Ale na tu i teraz AI ma swoje poważne ograniczenia i niedoskonałości.
Taki incydent bezpieczeństwa będzie miał miejsce za każdym razem kiedy pracownik będzie korzystał z nieautoryzowanego przez pracodawcę systemu AI np.
Wkleja całą konwersację zawierającą imię, nazwisko, dane kontaktowe i numer telefonu tego klienta do popularnego narzędzia AI, żeby wygenerować profesjonalną odpowiedź.
Pracownik na ogół jest zupełnie nieświadomy tego, że taka treść może zostać i niestety w zdecydowanej większości przypadków zostanie wykorzystana do trenowania modelu AI.
Są specjalne grupy przestępcze, które zajmują się wyłuskiwaniem z różnych modeli AI tego typu danych, a następnie sprzedażą ich na czarnym rynku.
W efekcie organizacja traci kontrolę nad danymi osobowymi i innymi poufnymi informacjami, co może skutkować naruszeniem RODO, karami finansowymi, a także utratą zaufania klientów, którzy mogą zostać zasypani telefonami i mailami z niewiadomych źródeł.
Koniecznie zapamiętaj, że jeśli jest to narzędzie AI nie zatwierdzone przez Twoją organizację, tylko wykorzystywane prywatnie,
To nawet w trybie czatu tymczasowego temporary dostawca AI może przechowywać te dane również po zakończeniu czatu, a następnie wykorzystywać te dane w celach trenowania modelu.
Taki nieświadomy wyciek może zostać również spowodowany przez nadmierne integracje i wciskanie, gdzie się da, przez dostawców oprogramowania narzędzi opartych na AI.
Druga przyczyna zagrożenia poufności przez AI to wyciek świadomy i nieodpowiedzialny.
Na przykład idzie na skróty i obrabia plik Excel z listą płac przy użyciu prywatnego narzędzia AI.
Kolejne ryzyko związane z korzystaniem z AI dotyczy prawidłowości generowanych odpowiedzi.
AI ma za zadanie jak najlepiej trafiać w intencje użytkownika przy możliwie minimalnym koszcie obliczeniowym.
Gdyby AI weryfikowała każdą informację, koszty obliczeniowe byłyby ogromne i samo narzędzie byłoby nieopłacalne ekonomicznie.
I właśnie dlatego AI tworzy wypowiedzi, które są statystycznie prawdopodobne, czyli wyglądają na sensowne i logiczne, ale mogą być fałszywe.
Jeśli AI dostaje pytanie na temat, który rzadko występuje w jego danych treningowych, no to zaczyna zgadywać na podstawie podobieństw do tematów bardziej powszechnych, operując uproszczeniami.
AI ma dużą trudność w rozumieniu nieprecyzyjnych poleceń.
Przykładowo, jeżeli napiszemy zrób to lepiej niż ostatnio, no to AI nie zrozumie, co konkretnie znaczy lepiej i odpowiedź będzie nieadekwatna do pytania.
AI nie zawsze zapamięta wszystkie Wasze ostatnie konwersacje, więc złapanie kontekstu zapytania w oparciu o zapytanie sprzed miesiąca może być dla niej trudne.
Działa tutaj doskonale zasada garbage in, garbage out, czyli w wolnym tłumaczeniu jeśli do AI wrzucisz śmieci, to otrzymasz śmieciową odpowiedź.
Na przykład jeśli zatrudnisz AI do przeszukiwania Twojej skrzynki e-mail, to maksymalnie możliwie zawęź zapytanie, szczególnie poprzez wskazanie prawdopodobnej daty otrzymania poszukiwanego maila oraz danych nadawcy wiadomości.
Pamiętaj, że AI może generować błędne albo niedoskonałe, niedokładne odpowiedzi, które pracownicy mogą niestety przyjąć za poprawne.
W czym jeszcze AI może być niedoskonała?
uprzedzenia rasowe, płciowe czy klasowe, szczególnie jeśli AI była trenowana na stronniczych danych.
Nawet jeśli AI jest programowana zgodnie z zasadami etyki, to nie rozumie ich.
AI to technologia, która rozwija się błyskawicznie, ale jak każde dziecko ma swoje choroby wieku młodzieńczego.
Są to ryzyka zarówno po stronie samych narzędzi AI, jak i sposobów ich wdrożenia i konfiguracji wewnątrz organizacji.
Kolejny problem związany z wykorzystaniem AI to licencje.
piosenki, filmu, grafiki, głosu wygenerowanych przy użyciu bezpłatnego albo prywatnego narzędzia AI, to z ogromnym prawdopodobieństwem nie będzie mieć prawa do tego, żeby następnie wykorzystywać ten materiał w celach komercyjnych.
Niemal zawsze wynika to wprost z licencji bezpłatnych oraz płatnych, ale prywatnych planów subskrypcyjnych w narzędziach AI.
Wykorzystując bezpłatne albo prywatne subskrypcje AI narażasz swoją organizację na ryzyko wypłaty odszkodowań.
Kolejne ryzyko związane z korzystaniem z AI to brak przejrzystości działania modeli językowych.
Może się też zdarzyć, że nie zrozumiemy w jaki sposób AI doszła do określonych wniosków.
Kolejne ryzyko związane ze sztuczną inteligencją to wykorzystanie AI przez cyberprzestępców do zupełnie nowych, niespotykanych wcześniej prób wyłudzenia danych czy pieniędzy.
przy użyciu AI, ultra realistycznych, podrobionych nagrań audio albo wideo,
Albo, czy cyberprzestępcy używają AI do automatyzacji cyberataków, np.
Jakie są zasady korzystania z narzędzi AI?
Zostało oficjalnie zatwierdzone jakieś zaufane i autoryzowane narzędzie AI.
Dlaczego tak ważne jest, żeby mieć pewność, że w naszej organizacji zostało oficjalnie zatwierdzone jakieś zaufane i autoryzowane narzędzie AI?
Jeśli Twoja organizacja wdrożyła oficjalnie narzędzie do AI, to w większości wypadków działa ono w trybie Enterprise, a przynajmniej Business, czyli nie loguje danych, nie uczy się na nich, a przekazywane informacje powinny być bezpieczne.
Zgodnie z regulaminami większości dostawców AI będzie można wykorzystywać takie materiały również do celów komercyjnych.
Jeśli w Twojej organizacji jakieś narzędzie AI zostało oficjalnie zatwierdzone, no to została wykonana ocena ryzyka weryfikująca zagrożenie dla poufności i integralności przekazywanych do AI danych.
Na ogół dostawca narzędzia AI zobowiązuje się do przechowywania danych wyłącznie na serwerach leżących na obszarze Unii Europejskiej.
No a co zrobić jeśli w Twojej organizacji nie zostało oficjalnie zatwierdzone żadne zaufane i autoryzowane narzędzie AI?
Bardzo, bardzo, bardzo ważne, zanim skorzystasz z jakiegokolwiek niezatwierdzonego w Twojej organizacji narzędzia AI,
We wniosku wskaż szczególnie, jakiego rodzaju dane chcesz przekazać do AI, konkretnie do jakiego narzędzia, no i w jakim celu, to znaczy jaki rezultat chcesz uzyskać.
Niezweryfikowane aplikacje AI mogą wykorzystywać wszystkie dane, jakie do nich wprowadzisz, do uczenia modelu językowego, a Ty w efekcie możesz doprowadzić do niebezpiecznego wycieku poufnych informacji.
Płatna wersja szkolenia Bezpieczne korzystanie z AI to więcej korzyści.
W sam raz do zapisania albo wydrukowania i wpięcia w akta osobowe na potwierdzenie zapoznania się z zasadami bezpiecznego korzystania z AI.
Dodatkowo wersja płatna zawiera kilkanaście dodatkowych, praktycznych przykładów autentycznych sytuacji, w których korzystanie z AI może być dodatkowym ryzykiem albo wartością dodaną.
Chcesz przeszkolić z nami wygodnie i rozliczalnie swój zespół zasad bezpiecznego korzystania z AI?
Przykłady dozwolonego wykorzystania AI w pracy.
Zgodnie z większością wewnętrznych regulaminów i dobrymi praktykami, AI może wspierać pracowników w różnych obszarach.
Pamiętaj, że zgodnie z tym, co Ci przekazałem przed chwilą, to wsparcie może być możliwe wyłącznie w ramach narzędzi AI dopuszczonych przez Twojego pracodawcę.
Na przykład, często w wewnętrznych regulacjach korzystanie z nieautoryzowanego narzędzia AI typu ChatGPT może być albo całkowicie zakazane, albo ograniczone, ale wyłącznie do przetwarzania informacji ogólnodostępnych.
A teraz posłuchaj najczęstszych przykładów dozwolonego użytku AI, które zostało autoryzowane w danej organizacji.
pisanie, streszczenie maili, tworzenie notatek ze spotkań.
Wiesz już jaki jest dozwolony użytek AI, no to posłuchaj teraz jakie praktyki przy wykorzystaniu AI są niedozwolone.
Zgodnie z przepisami AI Act i większością wewnętrznych regulaminów zabronione jest po pierwsze użycie służbowej AI w celach prywatnych.
Zakazana jest też dyskryminacja pracowników czy klientów przy użyciu AI.
Nie możesz manipulować wynikami działania AI w celu osiągnięcia pożądanych rezultatów.
Nie korzystaj z AI w celu tworzenia deepfake'ów, czyli fałszywych materiałów audio-video wprowadzających w błąd.
Nie twórz z AI fałszywych recenzji produktów lub usług.
Nie korzystaj z AI w celu promowania nienawiści, rasizmu czy nietolerancji.
Nie korzystaj z AI do tworzenia fałszywych raportów.
No i ostatnie przypomnienie, pod żadnym pozorem nie wpisuj do nieautoryzowanego narzędzia AI żadnych danych osobowych, ani innych wewnętrznych, poufnych informacji.
Dodatkowo AI Act zakazuje stosowania systemów AI, które wykorzystują techniki manipulacyjne lub podprogowe, albo wykorzystują słabości osób w celu wpływania na ich decyzje, albo prowadzą scoring społeczny, albo rozpoznają emocje pracowników bez uzasadnienia medycznego lub bezpieczeństwa.
Pamiętaj, że narzędzia AI mogą generować błędne lub niedokładne odpowiedzi, dlatego nie przyjmuj ich bezkrytycznie za poprawne.
W skrajnym przypadku, jeśli AI zostanie użyta do tworzenia ważnych dokumentów, a zawarte w nich dane okażą się nieprawidłowe,
Dlatego zawsze weryfikuj wyniki i decyzje oparte na wynikach AI.
Stosuj zasadę ograniczonego zaufania do wyników generowanych przez AI.
Jeśli użycie AI nie leży w Twoich kompetencjach, nie zostało Ci przez pracodawcę zlecone, a mimo to je wykorzystujesz, albo jeśli wykorzystujesz to narzędzie niewłaściwie, nie przestrzegasz procedur i polityk pracodawcy, w szczególności w zakresie poufności, albo jeśli odbywasz...
Jeżeli korzystasz z AI dla celów służbowych, a nie odbywasz obowiązkowego szkolenia AI, no to możesz ponosić odpowiedzialność dyscyplinarną lub nawet materialną.
Po pierwsze, dla celów służbowych używaj wyłącznie narzędzi AI dopuszczonych przez pracodawcę.
Po trzecie, jeśli tylko takowe zostały opracowane, przestrzegaj zapisów wewnętrznych regulaminów opisujących korzystanie z AI w Twojej organizacji.
Życzę Ci efektywnego i bezpiecznego korzystania z AI w Twojej organizacji.
Ostatnie odcinki
-
Obalamy RODO-mity z Damianem Bieleckim | cz. 2/...
20.01.2026 09:00
-
Czy IOD musi być kozłem ofiarnym? | Damian Biel...
20.01.2026 09:00
-
RODOaktualności #49 - Luka w systemie | Kara za...
19.12.2025 16:00
-
Korzystanie ze sztucznej inteligencji zgodnie z...
10.12.2025 15:00
-
RODOaktualności #48 | CEO a IOD? | E-mail to da...
03.12.2025 09:00
-
Obalamy RODO-mity z Damianem Bieleckim | cz. 2/...
18.11.2025 17:00
-
Dlaczego zostałem IOD-em? Historia prawdziwa | ...
27.10.2025 14:00
-
RODOaktualności #47 - Nagana za RODO-braki | Da...
15.10.2025 13:00
-
RODOaktualności #46 | Pracodawca patrzy | McDon...
10.09.2025 12:00
-
RODOaktualności #45 | Wyciek z AI / USA wymaga ...
31.07.2025 11:00