Mentionsy

News Albo Fake News
News Albo Fake News
27.08.2025 06:50

Jedno błędne wskazanie AI wywołało lawinę hejtu

Sprawa, która zaczęła się od niezręcznego pytania o skrót "KN" w odniesieniu do prezydenta Karola Nawrockiego, zaczęła żyć własnym życiem. Instytut Monitorowania Mediów prześledził drogę rozprzestrzeniania się fake newsa podanego przez Groka, który bardzo szybko rozlał się po sieci, wywołując falę obraźliwych komentarzy pod adresem dziennikarki TVP. Jakie wnioski płyną z analizy tego incydentu? Co nam to mówi o funkcjonowaniu mediów? Widać potrzebę większych standardów - etycznych czy technologicznych? Do tak rażącej pomyłki doszło tylko przez halucynacje AI? Gościni: Monika Ezman, dyrektorka Centrum Zarządzania Jakością i Działu Analiz, Instytut Monitorowania Mediów.

Szukaj w treści odcinka

Znaleziono 10 wyników dla "AI"

Począwszy od oznaczania treści generowanych przez AI po procedury szybkiego dementowania przez platformy i redakcje, tak żeby było wiadomo, że nie tylko opuszczamy w obieg błędną informację, ale też umiemy odpowiedzialnie później przyznać się do błędu,

To właśnie o to chciałem zapytać, bo to pokazuje, że pomyłki czy halucynacje AI mogą przenieść się do świata realnego.

No tak, to w sumie jest sedno tej sprawy, bo AI w tym przypadku nie tylko wygenerował tę pomyłkę, ale on przypisał ją do konkretnej osoby, czyli wskazał bezpośrednio na osobę, która po pierwsze w ogóle w tej konferencji nie uczestniczyła, jak się później okazało, a grog napisał, że dziękuję za sprostowanie tej informacji.

AI, jak wiemy, w wielu obszarach życia nas już wspiera, także jest często wykorzystywanym już w wielu profesjach narzędziem pracy czy wspomagającym procesy pracy.

I to myśli pani, że dobry moment, by na przykład mówić o odpowiedzialności AI, odpowiedzialności samych użytkowników mediów społecznościowych?

Może nie odpowiedzialności AI, ale zdecydowanie dobry moment i myślę, że ta odpowiedzialność jest jednak dwustronna.

Z jednej strony twórcy AI, którzy muszą wdrażać zabezpieczenia, na przykład oznaczenie niepewnych odpowiedzi, wskazywać transparentnie źródła pochodzenia, bo być może tutaj, gdyby pojawiła się informacja, skąd grog pozyskał tę informację, albo że nie jest ona do końca zaufana, być może nie zostałaby

Z drugiej strony, czyli z jednej strony twórcy AI, a z drugiej strony użytkownicy i media powinni traktować AI jako narzędzie pomocnicze, ale jednak niewyrocznie.

Tak sobie myślę o przyszłości tego, jak zapobiegać takim przypadkom właśnie w przyszłości ta edukacja do mediów, wyraźne oznaczanie treści wygenerowanych przez AI, może takie wyraźne, jasne, wewnętrzne procedury redakcyjne w sytuacjach nie do końca jasnych.

W mediach procedury redakcyjne, na przykład zakaz korzystania z odpowiedzi AI jako jedynego źródła.