Mentionsy

MIT Sloan Management Review Polska
MIT Sloan Management Review Polska
07.08.2025 15:00

Limity AI: #10 Wojny kognitywne i suwerenność poznawcza. Czy AI to narzędzie psychomanipulacji? 

W dziesiątym odcinku "Limitów AI" rozmawiamy o bezpieczeństwie, obronności oraz strategicznych wyzwaniach generowanych przez AI – począwszy od krytycznej infrastruktury publicznej, poprzez kluczowe procesy społeczno-gospodarcze, środowiska korporacyjne i akademickie, aż po nasze codzienne wybory konsumenckie, naszą prywatność i suwerenność poznawczą. Na czym ta suwerenność ma właściwie polegać? I co jej zagraża? Na czym polegają wojny kognitywne? Czym jest systemowa dezinformacja? Jak ma się do psychomanipulacji czy inżynierii społecznej? Jak się przed nią chronić? Co z językiem nauki – czy nie jest zawłaszczany? Co z autonomią naukowych badań? Czy jest jeszcze miejsce na wolną od dezinformacji, rzeczową dyskusję o obiektywnych limitach dostępnych dziś technologii oraz o ryzykach przez nie generowanych? Special Guest: Marta Chalimoniuk-Nowak.

Szukaj w treści odcinka

Znaleziono 15 wyników dla "LLM"

tej maszyny, czyli trenowania systemów predykcyjnych, one nie muszą być generatywne, to może być, bo tutaj też używamy tego słowa po tym, co ostatnio Paweł zastrzegł, tak, pamiętajmy, że najczęściej, kiedy mówimy o EIA i mówimy o LLM-ach, no ale tutaj mówimy też o innych systemach uczenia maszynowego, na przykład opartych na regułach, czy predykcyjnych, diagnostycznych, które im więcej danych dostaną w jakimś obszarze, tym więcej wzorców potrafią wykryć,

Czyli pytanie, czy my skorzystamy z dostawców, czy to usług, rozwiązań, czyli na przykład LLM-ów i z infrastruktury, która nam

Zaczęliśmy od solucjonizmu, ja też słyszę tutaj pewnego rodzaju ideologię, to znaczy taką ideologię, znowu odwołam się do Pawła Szczęsnego, który bardzo fajnie zauważył w rozmowie, którą mieliśmy parę dni temu w szerszym gronie, że LLM-y to jest psychotechnologia i są też w naszym tytule psychomanipulacja, ale też powiedział podobnie jak Koran czy Biblia.

to okazuje się, że ten poziom manipulacji już jest na poziom do 30%, tak, do 30% chybionych, niepełnych, fałszywych odpowiedzi generowanych przez LLM-a.

No i wszystkie dzieci korzystają z LLM-ów, wszystkie.

Tylko po prostu LLM-y generują, generują.

Ale tu mówimy o psychomanipulacji, znowu to pojęcie też zawdzięczam Pawłowi Szczęsnemu, psychomanipulacji i badaniach w tej chwili, które trwają teraz, w tych tygodniach, miesiącach, o tym, że LLM-y...

Mi chodzi o to, że ta granica dzisiaj, znowu to nie jest o tym rozmowa, ale ta używanie informacji i dezinformacji dzisiaj przy pomocy już nowych technologii, już AI, LLM-ów i tego chociażby zatruwania źródła, no to oczywiście mówimy o czymś, co jest stare jak po prostu wojna, to znaczy stare jak ludzkość, tylko że dzisiaj mamy technologie, które to przyspieszają.

To znaczy produkować treści, produkować treści dowolnie, generować treści znowu, używać LLM-ów.

No bo dobrze, tylko wojna kognitywna, jak ma się do tradycyjnej, że dzisiaj tym obszarem wojny stała się nasza psychika, nasze poznanie, nasze systemy nerwowe, a interfejsem stały się na przykład LLM-y.

Że zagrożeniem dzisiaj okazuje się, no którym musimy warto sobie zdawać sprawę, powinniśmy, no nie musimy oczywiście, możemy sobie żyć na autopilocie, ale jeżeli chcemy przeżyć to życie jakoś trochę bardziej, powiedzmy z bardziej zróżnicowany sposób niż taki automatyczny, no to zadajemy sobie pytania na ile właśnie to, co dostaje na przykład przez LLM-a jest

Tak, to jest takiego na sterydach, to znaczy to jest to, co robiły social media, algorytmomy, dzisiaj LLM-y mogą robić na sterydach.

Czyli one są typowe i w większości powtarzalne, ale w tej masie, w jakiej używamy LLM-ów, one siłą rzeczy, siłą tej skali generują odpowiedzi

Także można by to odnieść do organizacji, czyli tego, co LLM robią z mózgami Twoich pracowników, jak oddziałują na ich ośrodek nagrody.

Czyli na te też, no to jest to, co rozmawialiśmy z Ewą Hartman o wpływie LLM-ów na system nerwowy.