Mentionsy

Podcast Demagoga
Podcast Demagoga
01.06.2023 06:00

Czy algorytmy wybierają naszych przywódców? Rozmowa z Maxem Fisherem #86

Jedną z najbardziej zaawansowanych technologii w zakresie sztucznej inteligencji codziennie trzymamy w swoich rękach. Jest w naszych telefonach, tabletach i komputerach. To algorytmy mediów społecznościowych. 

Ostatnio sporo dyskutuje się o chatbotach i ewentualnych zagrożeniach z ich strony w zakresie dezinformacji. Tymczasem na ten moment mamy już sporo badań i obserwacji, które sugerują, że potencjalnie niebezpieczna dla społeczeństwa technologia codziennie podrzuca nam przed oczy posty na platformach społecznościowych. Wie, że angażują nas treści oburzające, emocjonalne, pogłębiające podziały i wydające osądy. Dlatego właśnie takich treści nam dostarcza.

Nasza reakcja na nie nie zawsze ogranicza się do dania lajka. Czasami to, co czytamy w sieci, jest w stanie zmienić nasze spojrzenie na świat, przekonać do jakiegoś poglądu, zdarzało się, że do podjęcia działania offline – na przykład szturmu na pizzerię czy na Kapitol.

Czy algorytmy są w stanie wpłynąć na to, na kogo zagłosujemy w wyborach? Czy lubią podrzucać nam dezinformację okołopolityczną? Czy są w stanie sprawić, że zmienimy nasze poglądy polityczne? Czy algorytmy trzeba natychmiast wyłączyć?

O algorytmach i ich wpływie na świat realny, w tym politykę, porozmawialiśmy z Maxem Fisherem, dziennikarzem New York Timesa. 31 maja w Polsce odbyła się premiera jego książki zatytułowanej „W trybach chaosu. Jak media społecznościowe przeprogramowały nasze umysły i nasz świat”.

Wypowiedzi Maxa Fishera czytał Krzysztof Zimoch.


Ten podcast możemy wydawać m.in. dzięki wsparciu naszych słuchaczy. Jeśli podobał Ci się ten odcinek, możesz kupić nam kawę, zostać naszym Patronem, albo wesprzeć nas w inny sposób.

Szukaj w treści odcinka

Znaleziono 157 wyników dla "SI"

Czytałam ostatnio pewną książkę i nie mogłam się w trakcie lektury odpędzić od myśli, że chyba nie tak wyobrażaliśmy sobie sztuczną inteligencję.

Zamiast przybrać formę androidów i pomagać nam, nie wiem, kosić trawę, zmywać za nas naczynia albo po prostu dotrzymywać nam towarzystwa.

Ta SI, z którą mamy najczęściej do czynienia, czyli algorytmy w mediach społecznościowych, wciska nam kolejne przedmioty i usługi, próbuje nas skłócić, podrzuca nam treści o teoriach spiskowych, a przynajmniej tak sugerują badania.

bo politycy w ostatnich latach intensywnie korzystają z mediów społecznościowych, aby komunikować się ze swoimi potencjalnymi wyborcami.

I tutaj można się zastanowić, jak dużą rolę w pozyskiwaniu zwolenników może mieć algorytm, podrzucana przez niego dezinformacja, czy narracje wykorzystywane w kampaniach, które oparte są na emocjach i kontrowersji, a nie na faktach.

Pomyślałam, że dobrze będzie o tym porozmawiać na kilka miesięcy zanim sami pójdziemy, albo i nie, do urn tej jesieni.

I tak się składa, że wczoraj swoją premierę w Polsce miała książka Maxa Fischera.

to, co się dzieje w mediach społecznościowych i analizując dane oraz badania na ten temat, napisał m.in.

Udało nam się porozmawiać tydzień temu.

W kilku fragmentach swojej książki odwołujesz się do konkretnych tytułów z gatunku science fiction albo do samego podgatunku, jakim jest cyberpunk.

No to jak się czujesz, żyjąc w cyberpunkowej rzeczywistości bez tych wszystkich fajnych gadżetów?

Możemy zauważyć, jak różna jest od tej, która pojawia się w książkach i w filmach, a pod innymi względami żyjemy w świecie podobnym do naszych wyobrażeń.

Twój Facebook, YouTube, Twitter może nie wyglądają jak reprezentanci najnowocześniejszych osiągnięć w zakresie sztucznej inteligencji, ale zdecydowanie nimi są.

Po pierwsze dlatego, że posiadające je firmy zarabiają tak dużo pieniędzy, że w ciągu ostatnich lat zatrudniły wszystkie najzdolniejsze na świecie umysły zajmujące się SI, żeby zaprojektowały superkomputery.

Samoobsługowe, samomyślące, samotrenujące się maszyny, które cały czas się uczą z każdej twojej interakcji na platformach społecznościowych.

Technologia ta stara się zorientować, jaki rodzaj treści ci podrzucić, w jakiej sekwencji, formie, jakim bodźcem się posłużyć, abyś była jak najdłużej online.

Interakcje międzyludzkie, informacje, które szukamy, nawet to, jak się czujemy, chwila po chwili, godzina po godzinie, i to nawet, jeśli w danym momencie nie ma nas na platformie społecznościowej.

Kierujemy naszymi interakcjami w społeczeństwie przez platformy i ponieważ te interakcje napędzają proces uczenia się, nasze emocje, tożsamość,

Ale tak, zgadzam się.

Mów za siebie, mam je od tygodni.

To chyba był prototyp, o ile się nie mylę.

Nie jestem pewna, nie do końca to z fakt czekowałam, ale widziałam to w internecie, więc to musi być prawda.

Dlaczego właściwie nie mamy samozawiązujących się butów?

Napisałeś całą książkę o algorytmach, które wpływają na nasze życie na tyle, na ile rozumiem właśnie z tego powodu.

Czy ktokolwiek się nad tym zastanawiał, jakie będą skutki uboczne?

Ludzie, którzy tworzyli te systemy, nigdy nie skupiali się na możliwych konsekwencjach.

Aby ich firmy przetrwały, skupiali się głównie na tym, co zrobić, aby zarabiać dużo pieniędzy.

Nie tylko tworzyli produkty, które spodobałyby się ludziom, czy były im przydatne.

Im mocniej się z nimi zwiążą, tym bardziej będą wyzwoleni i oświeceni.

Nie było potrzeby zastanawiania się nad konsekwencjami tego, że Facebook stanie się narzędziem uzależniającym, czy tego, że zaprojektujemy YouTube'a tak, aby oglądać więcej materiałów.

Jeśli więcej ludzi spędzi więcej czasu przy ich produktach, będzie to oznaczało, że osiągają cel.

Tak więc mieszkańcy Doliny Krzemowej, aby nas uratować, musieli również rozwalić istniejące instytucje, struktury władzy oraz społeczeństwa.

Zajęło im naprawdę sporo czasu, żeby się odsknąć i zobaczyć, że korzystanie z ich produktów może mieć potencjalnie negatywne konsekwencje dla świata.

Nauczyły się jak to robić poprzez podtrzymywanie i angażowanie konkretnych emocji, takich jak oburzenie, nienawiść czy strach.

Albo odnosiły się do sposobów funkcjonowania w świecie, plemienności, podejścia my kontra oni, funkcjonowania w konflikcie egzystencjalnym.

W Dolinie Krzemowej nie uzgodniono, że hej, podgrzejmy trochę oburzenie na całym świecie, ale zaprojektowali samouczące się automatyczne i samodzielne systemy oparte na sztucznej inteligencji, które kierują platformami.

I bardzo szybko stało się jasne, może około roku 2013-2014, że te systemy bardzo konsekwentnie rozwijają u użytkowników negatywne, szkodliwe emocje oraz zachowania.

Cieszę się, że o tym wspomniałeś, o roli emocji w tym procesie, ponieważ chciałabym wrócić do tego tematu później.

Zastanawiałam się, o której części twojej książki porozmawiać, bo napisałeś o wpływie algorytmów i mediów społecznościowych na nasze zachowanie w wielu aspektach naszego życia.

Zdrowia, kontaktów społecznych, dyskusji i jej polaryzacji, ale ostatecznie pomyślałam, że moglibyśmy się skupić na polityce.

W 2010 roku, jak napisałeś w swojej książce, przeprowadzono eksperyment, który wykazał, że dzięki Facebookowi można zmobilizować ludzi, dokładnie 340 tysięcy ludzi, do tego, aby poszli na wybory.

I wystarczyło, że pokazał się ten drobny komunikat oraz zachęta do tego, aby się tym podzielić publicznie ze swoimi przyjaciółmi na Facebooku, aby zachęcić tysiące ludzi do wyjścia z domu i oddania głosu.

Powiedzmy, że masz 100 znajomych na Facebooku i w danym momencie tylko dziesięcioro z nich jest oburzone czymś, co się dzieje na świecie.

Pozostała dziewięćdziesiątka ma się świetnie, czuje się szczęśliwa w takim świecie, jaki mamy.

Jeśli dalej będziemy tak postępować na ogromną skalę, a to właśnie obserwujemy dzisiaj w polityce, że kiedy w rządzie wydarzy się coś, co może nie zasługuje na ogromne oburzenie, ale mimo to użytkownicy tak zareagują i udostępnią informacje na wielu feedach.

to prawdopodobne jest, że ludzie odczują te emocje nie tylko w sieci, ale też poza nią.

Okazało się, że pod koniec tych czterech tygodni ludzie, którzy skasowali Facebooka, po pierwsze mieli większą satysfakcję z życia.

Oczywiście w Stanach Zjednoczonych, tak jak w Polsce, wystąpił ogromny wzrost polaryzacji społeczeństwa w tym czasie.

Jest parę badań, opisanych również w twojej książce, które tego dowodzą.

Psychologowie zajmujący się polityką i parę osób w Dolinie Krzemowej, którzy niepokoili się o wpływ platform społecznościowych.

Zawsze starali się wywołać oburzenie czy nienawiść do tych po drugiej stronie barykady.

Ale to, co się zmieniło od 2015 czy 2016 roku, to to, że wielu ludzi szuka informacji o aktualnych wydarzeniach w mediach społecznościowych.

ale również o takich jak ty i ja, ludziach wyedukowanych albo takich, którzy lubią myśleć o sobie jako o osobach inteligentnych i zainteresowanych tym, co się dzieje na świecie.

Badacze zaprosili grupę republikanów, czyli ludzi, którzy na niego głosowali.

Poprosili, aby spojrzeli na tweety i posty Donalda Trumpa oraz innych republikanów, które szerzyły kłamstwa i mylne treści o uchodźcach i migrantach.

Kiedy pytano ich, czy chcieliby się podzielić tą informacją, odpowiedzieli, oczywiście, że nie, ponieważ wiem, że to nieprawda.

Sugerowały, że wiele osób w ich społeczności się nimi podzieliło z innymi.

Cieszę się, że o tym wspomniałaś.

Ale kiedy do tego dochodzi kontekst społeczny i wydaje nam się, że pochodzi ona od naszych przyjaciół, w szczególności jeśli natykamy się na nią raz za razem, jest bardziej prawdopodobne, że w nią uwierzymy.

Wtedy efekt iluzji prawdy aktywuje się i zaczynamy wierzyć w te informacje, ponieważ wydaje nam się, że słyszymy o tym od wielu ludzi.

Muszę ci się przyznać, że kiedy czytałem książkę na ten temat, zacząłem zauważać to w moim własnym życiu.

Zauważyłem, że nawet jeśli przeczytałbym potem artykuł w gazecie, który dokładnie opisywał to, co się stało, nadal w swoim sercu wierzyłbym w wersję wyolbrzymioną, ponieważ dostarczył mi jej ten społeczny bodziec, który był o wiele silniejszy.

Jedną z teorii spiskowych, z którą jako fact checkerzy spotykamy się nawet w Polsce jest Pizzagate.

Myślę, że takie rzeczy dzieją się nie tylko w Stanach.

Ale i mnie jest przykro, że musicie jakoś funkcjonować w rzeczywistości, w której istnieje teoria o Pizzagate.

Dla tych, którzy nie zetknęli się z tą historią, Pizzagate to opowieść o tak zwanym Deep State i politykach, którzy nie należą do partii, którą reprezentował Donald Trump, bo to ważny kontekst.

Politykach, którzy są częścią siatki handlu dziećmi.

Bo z tego, co wiem, okazało się, że nie ma.

Ale ludzie wierzyli, że dzieją się tam okropne rzeczy.

Tak, historia tej teorii spiskowej zaczyna się w 2016 roku, kiedy w Ameryce trwała kampania wyborcza, w której startowali Donald Trump i Hillary Clinton.

Działo się to na forum internetowym 4chan.

Od 2008 roku było swego rodzaju wylęgarnią różnych aspektów tego, co składa się na tak zwaną kulturę internetową.

Tak jest, ale najśmieszniejsze jest to, że na początku się na taki nie zapowiadał.

Tak więc było na nim wiele memów i roznosiły się one zależnie od tego, jak mocno były w stanie zaangażować użytkowników.

Możesz w nim dostać atencję i uznanie, które sprawią, że poczujesz się lepiej, poczujesz się coś wart.

Sam jestem jednym z nich, ale na Forchanie można było znaleźć wielu ludzi, którzy być może czuli się nieco zagubieni w świecie, może nie do końca wiedzieli, gdzie jest ich miejsce.

Właśnie dlatego można było tam natknąć się na żarty i prowokujące dowcipy, ale było to podszyte pewnym przekonaniem, że świat nas nie rozumie i dlatego musimy stworzyć własną społeczność.

Objawiało się to też brakiem zaufania do świata zewnętrznego, w tym instytucji.

Przez lata to wszystko narastało, radykalizowało się, aż w końcu przerodziło się w ekosystem młodych, wściekłych, prawicowych mężczyzn, którzy wszędzie wietrzą spisek.

Stało się tak dlatego, że 4chan istniał w idealnie szczelnym systemie poszukiwania i pozyskiwania atencji.

I to wszystko na fundamentach przekonania, że wypowiadamy się w imieniu dużej grupy młodych mężczyzn, których z czegoś wywłaszczono.

Tak więc wściekasz się na polityczny establishment, dorosłych, kobiety, mniejszości, migrantów czy uchodźców.

To był początek tworzenia naciąganych teorii spiskowych o pizzerii, która jest centrum jakichś niecnych działań, w które angażuje się polityczna elita.

Oczywiście brzmi to śmiesznie, ale jeśli odwiedzasz 4chan'a często i cały czas dusisz się w takich treściach, to w końcu uwierzysz w iluzję prawdy, tym bardziej jeśli masz poczucie, że w tym uczestniczysz.

ale szukają dowodów na ich istnienie i udostępniają je w sieci.

A to sprawia, że tworzą się więzi społeczne.

Teorie spiskowe, które przekazywali między sobą użytkownicy 4chan-a nie tylko w końcu pojawiły się na Facebooku, Twitterze czy YouTubie i kompletnie je zalały tuż przed wyborami w 2016 roku.

Mówiły, musimy coś zrobić, bo jesteśmy sami.

Nikt nie ma pojęcia, co się dzieje.

Postanowił wziąć odpowiedzialność na siebie.

Pomyślał, że musi uratować dzieci zamknięte w piwnicy pizzerii w Waszyngtonie.

Nie wiedzieli, czego się spodziewać po człowieku z naręczem broni palnej.

A on podszedł do drzwi, które według zdjęć rozprowadzonych w sieci miały prowadzić do sekretnego lochu, gdzie Hillary Clinton przetrzymuje dzieci.

I okazało się, że za nimi jest tylko schowek oraz przejście do serwerowni.

Kiedy ten człowiek to zobaczył, natychmiast sam się zgłosił na policję.

Stał tam z bronią w ręku i uświadomił sobie, że to wszystko było kłamstwem, że on sam się oszukał poprzez media społecznościowe.

Myślę, że to był pierwszy duży sygnał ostrzegawczy, że dzieje się coś bardzo niebezpiecznego, że nie skończy się na tym, że ludzie, którzy wierzą w głupoty, poprzestaną na wyświetlaniu ich na ekranie komputera.

ale że te treści zmienią politykę i społeczeństwo jako całość, co moim zdaniem już się wydarzyło.

Istnieją nawet badania, które pokazują, że działo się tak w wielu krajach.

Jeśli oglądałaś jakikolwiek materiał polityczny na YouTubie, nieuniknione było to, że w którymś momencie zaczynał cię delikatnie popychać w stronę wideo w duchu ultraprawicowym, konspiracyjnym, w którym były mylne treści opowiadające o swego rodzaju złych siłach.

Podsuwał ci medyczną dezinformację, kłamstwa o uchodźcach i migrantach, o rasie i podziałach religijnych.

Nakłaniał ludzi do oglądania ich, ponieważ system zorientował się, że angażowanie ludzi przez pokazywanie tego konkretnego sposobu postrzegania świata

W książce za przykład podaję Brazylię, gdzie poprzednim prezydentem był Jair Bolsonaro.

To wcale nie musiały być materiały okołopolityczne.

W tym sensie, że algorytmy zawsze będą cię popychać do oglądania coraz bardziej ekstremalnych i emocjonalnych treści.

Kolejne badania wykazywały, że algorytm popycha osoby na prawo, a sami prawicowcy się radykalizują.

Zdarzają się nawet przypadki zmiany poglądów z lewicowych na prawicowe.

Jest kilka teorii, dlaczego tak się dzieje.

Ale pogląd, co do którego występuje ogólna zgoda, mówi o tym, że powodem jest emocjonalny ton skrajnej prawicy, odnoszący się do my kontra oni, plemienności, nienawiści czy strachu, które świetnie się niosą na platformach społecznościowych.

Później dowiedzieliśmy, jaka strategia zatem stała, że starano się sprowadzać debatę na tony emocjonalne zamiast merytoryczne.

że skupiono się na przekonaniu do głosowania ludzi, którzy nie byli jeszcze zdecydowani i używano do tego na przykład informacji wyciągniętych z kontekstu czy pobudzających emocje.

To jest coś, z czym w Polsce możemy się spotkać przed wyborami na jesieni i jest to coś, z czym na pewno spotkali się Amerykanie.

W swojej książce opisałeś badanie, które szczególnie mnie zainteresowało, bo zajęło się językiem treści.

Ja zauważyłam, że język mediów społecznościowych się zmienił ze względu na monetyzację treści, a nas przecież pociąga konkretny rodzaj komunikowania.

Pisałeś o eksperymencie dotyczącym języka moralno-emocjonalnego, który odnosi się do niechęci, wstrętu czy...

Używano w nich innych zestawów słów, różnych odniesień do emocji i polityki, żeby zobaczyć, czy będą miały lepsze zasięgi.

Okazało się, że wiele słów czy przekazów, które wydawałoby się wpłyną na zasięgi, takiego wpływu nie miało.

Ale jeśli w tych treściach pojawiło się słowo moralizatorsko-emocjonalne, tweet rozprzestrzeniał się 20% skuteczniej.

Kiedy zalogujesz się do mediów społecznościowych, możesz to zobaczyć wszędzie, dlatego że takie treści są zasięgowe.

Za każdym razem, kiedy dowiadujesz się czegoś z internetu, prawdopodobnie masz do czynienia z językiem, o którym rozmawiamy, a to wpływa na twoje postrzeganie danej sprawy.

Istnieją takie badania, w których okazało się, że ludzie, którzy wyrazili jakiś rodzaj moralnego oburzenia na Twitterze, ze względu na to, że dzięki swoim postom uzyskali uznanie społeczności przez lajki, zaczęli częściej wyrażać oburzenie nie tylko w sieci,

A kiedy poddajesz się takim emocjom, trudniej ci odnieść się do rozsądku, niuansów, szarych stref.

Sam się popychasz w stronę ekstremum.

Kiedy przeniesiemy te informacje na grunt kampanii wyborczych?

To był kandydat postrzegany jako ktoś, kto, jak to powiedzieć, był rzucający się w oczy i kontrowersyjny w swoich wypowiedziach.

Kiedy staram się połączyć teraz te kropki, to wychodzi na to, że żyjemy albo istnieje takie zagrożenie, że możemy żyć w świecie, w którym już nie liczy się to, co ktoś powie, tylko jak to powie.

Kiedy sprawdzaliśmy jego wypowiedzi, okazywało się, że wiele z nich nie miało poparcia w faktach.

I kiedy myślę o tym, co się dzieje w Polsce, a jednym z zadań demagoga jest sprawdzanie wypowiedzi polityków, to okazuje się, że w ubiegłym roku wśród wypowiedzi, które sprawdzaliśmy, te prawdziwe były w mniejszości.

Możemy jakoś powiedzieć naszym politykom, żeby przestali na siebie wrzeszczeć i zaczęli mówić o faktach?

Te bodźce, które dotyczą polityków dramatycznie się zmieniły w ostatnich dziesięciu latach.

Kiedyś, kiedy politycy starali się zdobyć głosy, komunikowali się z wyborcami głównie przy pomocy mediów dominujących.

Te instytucje nie są idealne, to na pewno, ale ogólnie rzecz biorąc, w ich interesie jest weryfikacja informacji i precyzyjne przekazanie w taki sposób, aby celowo nie podżegała, nie szkodziła i nie wywoływała podziałów społecznych.

Wraz ze wzrostem popularności mediów społecznościowych, politycy w pierwszej kolejności komunikują się z potencjalnymi wyborcami przez platformy społecznościowe, ponieważ wielu z nas właśnie tam szuka informacji.

Nauczyli się nie tylko tego, że platformy jako ucieleśnienia algorytmów i użytkowników

Jedno badanie przyjrzało się temu, co platformy promowały w Stanach Zjednoczonych przed wyborami w 2016 roku i okazało się, że Donalda Trumpa.

Wydaje mi się, że to było w 2016 roku.

Zadaniem bota było komunikowanie się z użytkownikami.

To była bardzo wczesna wersja nowej technologii opartej na sztucznej inteligencji, którą dzisiaj nazywamy Large Language Model.

Bardzo szybko przekształcił się w skrajnie prawicowego białego nacjonalistę.

Człowiek z Doliny Krzemowej, który pewnie trochę wkurzyłby się moimi reportażami, powiedziałby, powodem dla którego media społecznościowe promują te treści jest to, że ludzie je lubią i reagują na nie.

A kiedy reagujemy na nie w sieci, to reagujemy też w prawdziwym świecie.

W ciągu tysięcy lat budowania cywilizacji nauczyliśmy się, jak nimi zarządzać, kontrolować i powstrzymywać te impulsy.

Kiedy rozmawiamy o algorytmach i przenieśmy się tutaj na chwilę z klimatu w science fiction w rejony fantasy,

Myślisz, że da się wytresować tego smoka?

Zaniepokojenie tym, co się dzieje w mediach społecznościowych.

A może to, że działają jak działają, jest ich cechą wrodzoną i jedyne, co możemy zrobić, aby się przed nimi uratować, to próbować je ograniczać na tyle, na ile się da.

Pojawiło się już kilka ciekawych pomysłów, ale trudno powiedzieć, czy będą skuteczne.

Staram się traktować je jak papierosy, jak coś, co jest dla mnie niebezpieczne i szkodliwe.

Staram się jak najmniej czytać i publikować w mediach społecznościowych.

Wydaje mi się, że istnieje coś w rodzaju ruchu wśród ludzi, którzy badają, pracują albo piszą o tej technologii, żeby traktować ją jako coś potencjalnie niebezpiecznego.

Rozmawialiśmy o algorytmach i o tym, jak na nas wpływają raczej w kontekście polityki i fałszywych treści, które pojawiają się właśnie w tej sferze, takich jak teorie spiskowe, a które, jak się okazuje, algorytmy podrzucają nam chętnie.

Ale w książce Maxa Fischera można też przeczytać o tym, jak w mediach społecznościowych rozchodziła się dezinformacja medyczna na przykład.

Co mogło się przełożyć na poziom wyszczepienia w krajach, gdzie była popularna, no albo wręcz na prawodawstwo.

Książka nosi tytuł W trybach chaosu.

Tak na marginesie jeszcze sprawdziłam informacje o samozawiązujących się butach i faktycznie taka technologia już istnieje od prawie dekady.

To tyle na dzisiaj.

Zastanawiam się, skąd się to wzięło.