Mentionsy
Jedno błędne wskazanie AI wywołało lawinę hejtu
Sprawa, która zaczęła się od niezręcznego pytania o skrót "KN" w odniesieniu do prezydenta Karola Nawrockiego, zaczęła żyć własnym życiem. Instytut Monitorowania Mediów prześledził drogę rozprzestrzeniania się fake newsa podanego przez Groka, który bardzo szybko rozlał się po sieci, wywołując falę obraźliwych komentarzy pod adresem dziennikarki TVP. Jakie wnioski płyną z analizy tego incydentu? Co nam to mówi o funkcjonowaniu mediów? Widać potrzebę większych standardów - etycznych czy technologicznych? Do tak rażącej pomyłki doszło tylko przez halucynacje AI? Gościni: Monika Ezman, dyrektorka Centrum Zarządzania Jakością i Działu Analiz, Instytut Monitorowania Mediów.
Szukaj w treści odcinka
Począwszy od oznaczania treści generowanych przez AI po procedury szybkiego dementowania przez platformy i redakcje, tak żeby było wiadomo, że nie tylko opuszczamy w obieg błędną informację, ale też umiemy odpowiedzialnie później przyznać się do błędu,
To właśnie o to chciałem zapytać, bo to pokazuje, że pomyłki czy halucynacje AI mogą przenieść się do świata realnego.
No tak, to w sumie jest sedno tej sprawy, bo AI w tym przypadku nie tylko wygenerował tę pomyłkę, ale on przypisał ją do konkretnej osoby, czyli wskazał bezpośrednio na osobę, która po pierwsze w ogóle w tej konferencji nie uczestniczyła, jak się później okazało, a grog napisał, że dziękuję za sprostowanie tej informacji.
AI, jak wiemy, w wielu obszarach życia nas już wspiera, także jest często wykorzystywanym już w wielu profesjach narzędziem pracy czy wspomagającym procesy pracy.
I to myśli pani, że dobry moment, by na przykład mówić o odpowiedzialności AI, odpowiedzialności samych użytkowników mediów społecznościowych?
Może nie odpowiedzialności AI, ale zdecydowanie dobry moment i myślę, że ta odpowiedzialność jest jednak dwustronna.
Z jednej strony twórcy AI, którzy muszą wdrażać zabezpieczenia, na przykład oznaczenie niepewnych odpowiedzi, wskazywać transparentnie źródła pochodzenia, bo być może tutaj, gdyby pojawiła się informacja, skąd grog pozyskał tę informację, albo że nie jest ona do końca zaufana, być może nie zostałaby
Z drugiej strony, czyli z jednej strony twórcy AI, a z drugiej strony użytkownicy i media powinni traktować AI jako narzędzie pomocnicze, ale jednak niewyrocznie.
Tak sobie myślę o przyszłości tego, jak zapobiegać takim przypadkom właśnie w przyszłości ta edukacja do mediów, wyraźne oznaczanie treści wygenerowanych przez AI, może takie wyraźne, jasne, wewnętrzne procedury redakcyjne w sytuacjach nie do końca jasnych.
W mediach procedury redakcyjne, na przykład zakaz korzystania z odpowiedzi AI jako jedynego źródła.
Ostatnie odcinki
-
Czy Bruksela chcąc obniżyć koszty energii, kaza...
21.04.2026 04:50
-
"Pies z mikrofalówki" i inne fake newsy o zwier...
20.04.2026 04:50
-
Czy samorządy okradają właścicieli działek?
16.04.2026 04:50
-
Dezinformacja wokół "rewolucji w L4"
15.04.2026 04:50
-
Fejkowe narracje na temat misji Artemis II
14.04.2026 04:50
-
Rosyjska szczepionka na raka?
13.04.2026 06:50
-
Czy Rosjanie wynaleźli skuteczną szczepionkę na...
13.04.2026 05:00
-
Dwa pożary turbin wiatrowych napędziły fejki wo...
09.04.2026 06:50
-
Słaba jakość obrazu z misji Artemis II rodzi te...
08.04.2026 06:00
-
Fit fake newsy czyli mity na temat odchudzania ...
07.04.2026 06:20