Mentionsy

News Albo Fake News
News Albo Fake News
17.03.2026 06:50

Fake newsy o śmierci izraelskiego premiera oraz teorie spiskowe na temat "Żelaznej Kopuły"

Internet "uśmiercił" Benjamina Netanjahu, a chwilę później on sam wrzucił do sieci filmik, by udowodnić, że żyje. Zresztą w tej samej przestrzeni cyfrowej krążą różne opowieści o słynnej izraelskiej "Żelaznej Kopule". Jedni twierdzą, że zatrzyma każdą rakietę - inni, że to propagandowa "jedna wielka mistyfikacja". Co w tych historiach jest prawdą, co niebezpieczną dezinformacją? Czy to oznacza, że wchodzimy w epokę, w której zdjęcie czy wideo przestają być dowodami? Jak to możliwe, że wokół izraelskiego systemu obrony przeciwrakietowej pojawiają się także fantastyczne teorie, np. takie, które mieszają ją z koncepcjami globalnych szklanych kopuł czy nawet teorią płaskiej Ziemi? Jak weryfikować takie sensacje, zanim klikniemy „udostępnij”? Gość: Mateusz Cholewa, Demagog.

Szukaj w treści odcinka

Znaleziono 13 wyników dla "AI"

Albo, że jeżeli gdzieś mamy do czynienia z jakimś nietypowym kadrem albo zachowaniem, bądź widzimy coś dziwnego, że na pewno jest to AI.

Kilka razy podparto się podobnymi rozwiązaniami, które pokazywały, że filmiki były tworzone przez AI właśnie.

I w drugą stronę coś, co wydaje się być charakterystyczne i prawdziwe, zostanie zidentyfikowane jako stworzone przez AI.

Mamy jakąś wiedzę, taką powierzchowną, która wydaje się, że jest wystarczająca do tego, żeby sobie radzić z zagrożeniem, ale to niebezpieczeństwo jest na tyle złożone i ma różne warstwy, że trzeba zgłębić je trochę bardziej niż tylko hasło jeden dodatkowy palec oznacza AI.

Które zresztą jeszcze zanim pojawiło się to nagranie, o którym mówi się, że zostało wygenerowane przez AI jako dowód na to, że Benjamin Netanyahu żyje, już wcześniej publikowali podobne informacje mówiąc, że zginął na przykład w ataku rakietowym.

Co spowodowało to, że nawet ta platforma, którą osobiście uznaję za główny rozsadnik dezinformacji z tych głównych platform społecznościowych, wprowadziła ograniczenia i szef produktu powiedział, że każde wrzucenie tworu AI, czy to zdjęcia, czy filmu, który nie będzie oznaczony, a będzie przedstawiał zdarzenia związane z wojną, skończy się demonetyzacją kanału na 90 dni.

Nie mogłyby być to rosyjskie drony, bo przecież ich zasięg jest ograniczony, więc musiał być to sprzęt wysłany z Ukrainy, ponieważ mogą tylko dolecieć na ograniczony dystans i ten dystans wyraźnie wskazywał, że przyleciały one z tamtego obszaru, a nie z Rosji.

Mówił Pan o wyzwaniach związanych z filmikami wygenerowanymi przez AI.

Tutaj świetnym dowodem na to jest wybuch w fabryce w Chinach, który wydarzył się już chyba ponad 8 lat temu i który regularnie się pojawia przy wszelkiego rodzaju konfliktach zbrojnych i przedstawiony jest jako wybuchy w Ukrainie, wybuchy w Iranie, wybuchy w Izraelu.

No, w przypadku tego konfliktu na przykład media, w którym zdarzają się potknięcia i wykorzystują wygenerowane przez AI nagrania czy zdjęcia na przykład do okładek swoich tekstów albo umieszczając je w swojej ramówce.

I zdarza się tak, że same algorytmy promują to, co jest na czasie, a na czasie jest to, że dyskutuje się o tej wojnie i to wzmaga zainteresowanie.

No i może się zdarzyć tak, że to zainteresowanie jest podsycane nie tylko przez rzetelne doniesienie, ale też przez te sensacyjne przekazy, które wybijają się, no bo są bardziej atrakcyjne.

Tutaj jest ciekawy przypadek tego, jak miesza się rzeczywistość z AI.