Mentionsy
Odcinek specjalny: Big Tech odpowiedzialny za hejt w sieci? Debata
W odcinku specjalnym prezentujemy debatę, która odbyła się 5 września w kinie Muranów w Warszawie, w związku z premierą raportu Amnesty International “Śmierć przez tysiąc cięć. Jak wspomagana technologicznie przemoc na platformie X uderza w polską społeczność LGBTI” oraz towarzyszącego mu filmu “Wyloguj nienawiść”. Linki poniżej.
Hejt, przemoc i radykalizacja – to dziś niestety rzeczywistość platform społecznościowych i główne skutki modelu biznesowego Big Techów. Jak ten model biznesowy zniekształca nasz obraz rzeczywistości, wpływa na stosunki społeczne i dobrostan osób, których najbardziej dotyka?
Jak działają Big Techy, (a w szczególności media społecznościowe) i jak wpływają one na nasze życie? Czy ich model biznesowy promuje hejt i radykalizuje postawy w społeczeństwie? Czym jest DSA, czyli Akt o usługach cyfrowych? Jak można przeciwdziałać takim zjawiskom jak hejt i radykalizacja postaw w internecie?
Te wszystkie pytania pojawiły się podczas panelu dyskusyjnego, który odbył się przy okazji premiery krótkometrażowego filmu dokumentalnego zrealizowanego na zlecenie Amnesty International. Film opowiada o doświadczeniu hejtu i cyberprzemocy przez osoby aktywistyczne LGBTI na platformie X. W debacie udział wzięli i wzięły: Ewa Abart, lektorka, autorka słuchowiska „Hejt nie jest ok”, Alia Al Ghusain, badaczka i doradczyni ds. sztucznej inteligencji i praw człowieka w Amnesty Tech, dr Dorota Głowacka, prawniczka w Fundacji Panoptykon, Ali Kopacz, psycholog, osoba aktywistyczna występująca w filmie, dołączyła także Sylwia Czubkowska, dziennikarka, współautorka podcastu „Techstorie”, autorka książek „Chińczycy trzymają nas mocno” i „Bóg techy”. Rozmowę poprowadziła Anna Matras, analityczka ds. prawnych w Amnesty International Polska. Dowiedz się więcej o tym, jak model biznesowy Big Tech nakręca hejt: https://www.amnesty.org.pl/wylogujnienawisc/ Domagaj się realnej ochrony praw człowieka online – podpisz petycję o pełną implementację Aktu o usługach cyfrowych w Polsce https://www.amnesty.org.pl/akcje/petycja__wyloguj_nienawisc/ Raport Amnesty International “Śmierć przez tysiąc cięć. Jak wspomagana technologicznie przemoc na platformie X uderza w polską społeczność LGBTI” https://www.amnesty.org.pl/smierc-przez-tysiac-ciec-raport/ Film “Wyloguj nienawiść” (reż. Karolina Domagalska, Monika Kotecka) https://www.youtube.com/watch?v=F7u74JL8ZqE&feature=youtu.be Prawa człowieka łamane są w ciszy. Wesprzyj głos tych, których nie słychać https://www.amnesty.org.pl/wspieraj/?utm_source=Podcast&utm_medium=Social&utm_campaign=podcast_wspierajRozdziały:- – Przywitanie - - Jak hejt w sieci wpływa na młodzież? - O raporcie “Śmierć przez tysiąc cięć” - O systemach rekomendacyjnych i problemach, które z nich wynikają - O większej cenzurze treści LGBTI i trudnościach z badaniem platform - Hejt w sieci z perspektywy osób, których dotyka - - Nowe technologie i hejt a życie szkolne - Wnioski z raportu Amnesty – sposoby, w jakie Big Tech wspomaga hejt w sieci - Unijny Akt o usługach cyfrowych odpowiedzią na problemy? - Więcej z perspektywy osoby aktywistycznej - Pytania z publiczności - Zakończenie
Szukaj w treści odcinka
Ale naprawdę myślę, że jest naprawdę ważne, żebyśmy nie myśleli o temacie hejtu w sieci tylko jako o czymś, co dzieje się zbyt daleko od nas, w miejscach, gdzie jest wojna i konflikt, ponieważ tak jak widzieliśmy w filmie i jak pokazano w raporcie, to jest problem globalnie, gdziekolwiek te platformy funkcjonują i przedstawiają ryzyko do każdej grupy, która jest marginalizowana w społeczeństwie.
Jest to związane z tym, w jaki sposób w ogóle te platformy działają.
Wracając, tak, Fundacja Panoptykon zajmuje się prawami człowieka, nowymi technologiami i platformy internetowe, przede wszystkim platformy społecznościowe, te największe i różne problemy, które generują, faktycznie są takim jednym z naszych obszarów priorytetowych.
Natomiast dla nas jeszcze jedną ważną rzeczą i to paradoksalnie jest też zjawisko, które uderza w społeczność LGBT+, coś czym my się zajmujemy jest tak zwana prywatna cenzura, czyli trochę odwrotna sytuacja, taka w której platformy arbitralnie blokują treści, bo one z jednej strony nie reagują wtedy, kiedy powinny, a z drugiej strony
Chociaż wiem, że oficjalnie platformy temu zaprzeczają, że liczba zgłoszeń nie ma wpływu na ich decyzję moderacyjną.
Po tym, jak Elon Musk stał się właścicielem X w 2022 roku, zasady platformy zmieniali się tak, że więcej kontentów, które dotyczy marginalizowanych społeczeństw, jest pozwalane, więcej kontentów, które wzmocnia zbroję, też jest pozwalane.
Natomiast tak, to jest regulacja, która nakłada różne nowe obowiązki na platformy, między innymi w zakresie właśnie moderacji treści.
Takim kluczowym, nowatorskim elementem tej regulacji jest też obowiązek mapowania przez platformy tak zwanych systemowych ryzyk, które są związane z ich funkcjonowaniem i przyjmowania środków ograniczających te ryzyka.
Bardzo wiele w tym procesie zależy od tego jak platformy podejdą do właśnie tego zadania zmapowania tych ryzyk, jak ocenią te ryzyka, jak ocenią adekwatność środków, które należy wprowadzić.
Podejdzie do tego Komisja Europejska, która jakby na sam koniec patrzy na to, co zrobił Platformy i decyduje, czy wywiązały się dobrze z tego zadania, czy nie.
Akurat w przypadku X mam wrażenie, że powiedzmy, że przyjęcie DSA zbiegło się mniej więcej z przyjęciem tej platformy przez Elona Muska.
Bo to jest, tak jak powiedziałam, regulacja przyjęta w 2022 roku, którą duże platformy musiały zacząć stosować w 2023 roku.
No samo DSA nie zmienia tej ogólnej zasady ograniczonej odpowiedzialności platform za treści, to znaczy platformy nie odpowiadają za nielegalne treści, które są rozpowszechniane za ich pośrednictwo, tak jak autorzy takich treści.
Na nielegalne treści, stanowiące na przykład mowy nienawiści, że jakby ta walka stanie się sprawniejsza, dlatego że DSA obliguje platformy na przykład do tego, żeby do takiej większej transparentności na poziomie indywidualnym i kolektywnym.
Indywidualnym dlatego, że na przykład jeżeli coś zgłaszasz, to teraz to już nie może wpaść jak kamień w wodę, takie zgłoszenie, tylko DSA zobowiązuje platformy do tego, żeby potwierdziły otrzymanie takiego zgłoszenia.
To jest też obowiązek stworzenia na platformach ścieżki odwoławczej, czyli osoba, która zgłasza i dostaje niesatysfakcjonalną decyzję, czyli nie narusza to naszych standardów społeczności, powinna mieć możliwość wewnętrznego odwołania do platformy.
raporty przejrzystości, gdzie platformy muszą zbierać dane dotyczące tego,
Ale generalnie zgodnie z DSA to są takie podmioty, które będą mogły zgłosić jakąś treść i ich zgłoszenie będzie musiało być traktowane przez platformy priorytetowo.
Koszty ponoszą platformy, nawet jeżeli użytkownik przegra czy nie miał racji.
Zresztą powinnam dodać, że jeśli chodzi o największe platformy, to Komisja Europejska jest głównym aktorem, który czuwa nad egzekwowaniem DSA.
I daję też nadzieję na to, że w innym rozwiązaniu architektonicznym, czyli w rozwiązaniu, gdzie nie będzie jednej platformy, która ma monopol na media społecznościowe w danej domenie, nie tylko w wielu, można wytworzyć różne mechanizmy, społeczność może sama kontrolować,
Wydaje mi się, że to, czego potrzebujemy, to są na przykład rozwiązania prawne, które będą narzucać konieczność stosowania tych rozwiązań właśnie przez największe platformy.
Kiedy sobie już to zrozumiemy, to rzeczywiście podstawowym działaniem, naprawdę, ja wiem, że ono może brzmieć mało sexy i może się wydawać takie bardzo na niskim poziomie właśnie skuteczności, jest pójście systemowe, czyli uparte zgłaszanie takich treści, jak dużo jest zgłoszeń, w którymś momencie platformy muszą, znaczy no nie muszą, ale tak algorytm działa, że zaczyna je zakopywać.
Ale mówimy tak dużo o rozwiązaniach systemowych dlatego, że platformy mówią, to wy to załatwcie, nie powinniście tego pisać czy tamtego pisać.
I więc oczywiście ludzie powinni robić rzeczy, by rozwiązać ten problem i pomóc ludziom czuć się wspierani, jeśli są dotarci o hejt, ale w końcu to jest odpowiedzialność platformy, aby uratować ten problem, ponieważ to jest problem, który oni stworzyli.
I oczywiście powinniśmy pomagać i wspierać osoby, które są tym dotknięte, ale to platformy powinny się tym zająć, zająć się tym jako problemem, bo to one go stworzyły.
Więc myślę, że kiedy myślimy o społeczeństwie i problemach i nieprawidłowaniach, które spotykamy tam, musimy się pytać, jak te platformy rozwojują te problemy i jak one do nich wpływają, ale nie powinniśmy je widzieć jako całkowicie wyjątkowe, ponieważ są bardzo ważną częścią naszego świata i jak to rozumiemy.
Powinniśmy patrzeć na platformy i jak one się przyczyniają do tych problemów społecznych.
Ostatnie odcinki
-
#42 Sudan. Zapomniana wojna
15.04.2026 12:07
-
#41 O pracy dziennikarskiej – z ideałami, ale b...
03.04.2026 07:14
-
#40 Białoruś za kratami. Świadectwo więźniarki ...
20.03.2026 10:06
-
#39 Prawa człowieka na porodówce
06.03.2026 08:30
-
#38 Cywile podczas wojny – po co nam prawa czło...
20.02.2026 09:58
-
#37 To nie jest sprawa prywatna. O przemocy wob...
13.02.2026 10:20
-
#36 Niewidoczni - o prawach osób starszych
30.01.2026 09:39
-
#35 W walce o przyszłość. Wojowniczki o Amazonię
02.01.2026 09:20
-
#34 „Oddajmy głos tym, których nie słychać”. O ...
19.12.2025 08:00
-
#33 Saamowie. Ostatni rdzenni mieszkańcy Europy.
12.12.2025 10:59