Mentionsy
Limity AI: #14 Kicz technologiczny – co nam się wmawia o AI?
W 14 odcinku "Limitów AI" rozmawiamy de facto o storytellingu – narracjach na temat AI oraz o sile perswazji i jej społecznych skutkach. Zaczynamy od kiczu wedle szkoły frankfurckiej (Max Horkheimer, Theodor Adorno) – chodzi o takie masowo reprodukowane treści (narracje, obrazy), które są łatwe w odbiorze (zrozumiałe, emocjonalnie absorbujące) i które tym samym na masową skalą odwracają uwagę od spraw trudnych, złożonych i naprawdę ważnych, a w szczególności odwracają uwagę od spraw niewygodnych dla tych, którzy ten masowy obieg (re)produkcji treści kształtują z pozycji władzy. W rozmowie wspieramy się krytycznymi analizami m.in. Karen Hao, Kate Crawford oraz Sylwii Czubkowskiej.
Pytanie brzmi zatem: do jakiego stopnia opowieści o AI to technologiczny kicz?
Special Guests: Edyta Sadowska and Kasia Zaniewska.
Szukaj w treści odcinka
Witamy w czternastym odcinku cyklu Limity AI, w którym z naszymi gośćmi, badaczami nowych technologii, naukowcami, inżynierami AI i praktykami biznesu krytycznie badamy dyskusję wokół AI i próbujemy zrozumieć, o co właściwie chodzi, co jest w tej dyskusji rzetelnym, popartym naukowo faktem, co clickbaitowym, marketingowym spinem, a co futurystyczną spekulacją czy wręcz dezinformacją służącą grze kapitału.
Naszym celem nie jest tu krytykanstwo czy kwestionowanie korzyści, jakie daje AI, ale wręcz przeciwnie.
W tej chwili pracuje jako Research and Design Lead, gdzie zajmuje się rozwiązaniami na styku AI i zarządzania wiedzą.
funkcjonuje w naszej świadomości AI.
Bo moja wspólniczka właśnie w tym kolektywie, tak zwana druga Kasia, w zależności od tego, która z nas się pojawia, to ta druga jest tą drugą, ona przyszła do mnie z takim pomysłem praw robotów i o tym, jak kiedyś piszeliśmy o robotach i rozwijania tego w sferze prawniczej i stąd nam wypączkowało myślenie o tym, okej, to jakie opowieści sobie opowiadamy dzisiaj o AI, bo to za te x lat, nikt nie chce mówić dokładnie za ile,
Czy straciliśmy kontrolę, czy AI to storytelling, czy może to technologiczny kicz.
Jest taka etykietka, która teraz bardzo mocno krąży, czyli AI Slop i to jest właśnie taka współczesna wersja kiczu.
I myślę, że też dotknąłeś drugiego ważnego wątku dla mnie w tych moich badaniach, czyli kontroli, czyli de facto struktury władzy i tego, że my reprodukujemy w tej sferze AI-owej...
To jest jakiś punkt wyjścia, rozumiem, że... No właśnie, czy to podejście w ogóle do tematu AI, że słyszymy opowieści na temat AI?
I to samo dzieje się w kontekście AI, w kontekście technologii.
Też ci eksperci, którzy występują w podcastach i wypowiadają się o AI.
że dostajemy z podcastów, z mainstreamu zasięgowe, czyli to są opowieści, które w naszym kraju, naszych polskich bohaterów, to są po parę milionów ludzi to zobaczyło, czy parę milionów odsłon.
którzy zajmują się AI.
Ja słyszę, że mówisz o takiej pętli, znaczy raz, że tutaj wspomnieliśmy o zdiagnozowanym już bodaj rok temu kolapsie modelu, to znaczy pewnym scenariuszu, w którym mówiąc obrazowo internet przestał być organiczny, czyli wszystko co jest trenowane na internecie jest trenowane coraz bardziej na danych przemielonych już przez tak zwane AI, przez różne maszyny.
To znowu perspektywa nauk społecznych, pytanie jak kooperujemy z technologią, tu konkretnie z AI.
Ja też gdzieś wywodzę się naukowo z takiego dużego zainteresowania transhumanizmem.
I taki też jest ten w moim poczuciu i poczuciu Kasi Kamińskiej, która nad tym pracuje, ten dyskurs o AI, kiedy się go nie rozbierze tej metafory i nie wejdzie głębiej, to on też funkcjonuje cały czas na takich bardzo skrajnych emocjach.
uwierzyli w te opowieści, już dzisiaj mogą doświadczyć skutków pewnych niedopowiedzeń, że owszem, korzystaj z AI, to nie jest tak, żeby nie korzystać, ale musisz być ekspertem i kontrolować to korzystanie z generatywnej, bo jak nie jesteś ekspertem i ona ci nageneruje, to tam wiesz, że z konieczności będą halucynacje, wiesz, że z konieczności właśnie mogą znaleźć się tak zwane zatrute źródło, czyli nieprawdziwe informacje.
Natomiast ten ton, w którym mówi się o AI-u nakazuje nam wszystkim wskakiwać na ten... Znaczy zatwierdzasz zasady użytkowania, że pamiętaj, że on halucynujący z dronnym maczkiem, nie?
AI jest fantastyczne, zmieni, zrewolucjonizuje nam rynek pracy, będziemy pracować itd.
Kiedyś zrobiłam warsztat z szkoły podstawowej i oni napisali taki list odnośnie tego, jak chcieliby, żeby wyglądała kooperacja z AI-em tu konkretnie.
Słowo roku na chyba 2024 albo 2025 już to było AI, a z drugiej strony był brain rot.
Nawet jak obsłużysz emocje, to na końcu tej ścieżki AI robi robotę ekspercką, powtarzalną, a ty musisz umieć i mieć zasoby na to, żeby robić te wszystkie rzeczy, te wszystkie zadania, których AI nie ogarnie, bo są jeszcze trudniejsze, czyli zadania kontekstowe, adaptacyjne, eksperymenty.
I teraz w takim znowu dystopijno-utopijnym scenariuszu, kiedy AI ci uwalnia zasoby ludzkie, a ty jesteś firmą, która...
Znaczy lęk wśród pracowników, że w najprostszym scenariuszu przyjdzie AI i nas zje, bo się nasłuchali, bo się nasłuchali, że to jest już nowy gatunek, że my nie mamy szans, prawda?
Mamy się bać, że nie jesteśmy na tym przodku tego pracy z AI i tego, jak będzie tworzona nowa rzeczywistość i że zostaniemy z tyłu.
Ten lęk ma nas pchać do wskakiwania, eksplorowania, adaptowania AI bez zastanawiania się do czego i kiedy.
To się nazywa AI safety teraz.
A jeszcze rok temu to właśnie mówiliśmy o tych zasobach ekologicznych, które AI zje.
Blockchain, pamiętacie blockchain sprzed dziesięciu lat.
To znaczy my do tego AI, my przygotowaliśmy wystawę na Gdynia Design właśnie o narracjach, które nas oblepiły.
To zobaczcie, to w tych narracjach jest AI zabierze ci pracę.
AI, ta, ta, ta, ta, czasowniki.
To się drukowuje nam w głowę, że AI jest sprawcze.
Znaczy powiedzieliście, że AI jest upodmiotowione, ale przecież za AI stoją konkretni dostawcy.
I też jakby mam poczucie, że te bardzo nieostre pojęcia AI, A-G-I-S-E-I, czyli super inteligencji, to jest po prostu przesuwanie, przewijanie taśmy, to znaczy przewijanie tej krzywej hype'u, żeby znowu ją zresetować i żebyśmy znowu byli na szczycie tego...
że oni muszą robić rzeczy AI-owe, bo im dopisali KPI-e na wdrażanie AI.
Bo wskaźnikiem tego, jaką firmą jesteś, jest stopień adopcji AI.
Ale skutek jest taki, o którym słyszymy, że większość z tych adopcji kończy się powiedzmy AI-slopem, mówiąc obrazowo, czyli niskiej jakości treściami, których jest dużo dezinformacji, halucynacji.
Jakby myślę, że w ogóle zaczęcie myślenia o tym, gdzie moglibyśmy się przesuwać w stronę wspólnych zasobów, publicznej infrastruktury AI, jakby to mogło wyglądać, jak to regulować, a nie tylko jak na końcu całego procesu developmentu narzędzi AI-owych
Ojcowie założyciele AI, tak jak chociażby Geoffrey Hinson, też o tym mówi, że regulacja nie powinna być właśnie takim afterthought, i tu przepraszam za moją staropolszczyznę, takim ostatnim etapem, czy kwiatkiem do kożucha.
Jakby nazywajmy te problemy, nazywajmy je tak, jak możemy budować AI, które będzie wyrównywaczem szans, jak będzie, jak mogłoby wyglądać AI, które by było publicznym zasobem i tak dalej jakby.
Jakie są skutki z nazywania i korzystania z AI partnerstwem?
Też jakby jeden z moich ukochanych przykładów w tej sfery całej AI-owej to jest, zaraz mogę sprawdzić jak się nazywa, bo strasznie mi ciężko zapamiętać jego nazwiska, ale jest taki inżynier, który przepytał wszystkie modele językowe, łącznie z chińskimi,
Jak mówimy o AI, to mówimy o tym, że zbawi nam świat.
A nie mówimy o tym, że nie wiem, tą i tą czynność mam zmapowaną jako taką, którą mogę zautomatyzować, albo na przykład mam takie skille, które chciałabym, żeby AI mi wzmocniło i w ramach, nie wiem, ja na przykład mam krytyków, mam jakieś takie masochistyczne wątki współpracy z AI, którzy mnie krytykują, którzy zadają mi trudne pytania i dzięki temu moje prace na przykład są lepsze, tak?
I też nie mówimy o specyficznych małych zastosowaniach, bo miarą sukcesu AI jest jakaś globalna skalowalność.
Znaczy tam możemy stosować, wiecie, inne typy uczenia maszynowe, czy inne typy tak zwanego AI-a.
I z drugiej strony w NGOs-ach budowanie rozwiązań AI-owych
I do tego, żeby... Mam wrażenie, rozmawiając też z różnymi ludźmi, może to jest znowu moja bańka, a w tej mojej bańce AI-owa spekulacja zaczyna trochę pękać.
W sensie, no my się orientujemy, co nam AI po prostu robi.
Brainroad.
Brain rot, tak jak mówię, brak skupienia uwagi, to, że się zaczynamy mielić w tych syntetycznych treściach.
W naszych indywidualnych działaniach po prostu, w tym, żeby to powtórzę, zmapować, w których miejscach ja mogę z AI na przykład doprowadzić do jakiejś augmentacji, bo to jest znowu wszystko o nas ludziach.
Tak, jakby też nie nakładać na nich odpowiedzialności za to, jak wygląda AI.
I mózg sufluje pierwszą myśl, że weź zrób zdjęcie i ci AI znajdzie.
To znaczy, jak rozmawiamy o AI-u,
Albo, nie wiem, też mam kontakty z osobami, które się zajmują już nie sustainability, czyli jakby
Po pierwsze to jest taki think tank, nazywa to się AI Now Institute.
Ostatnie odcinki
-
Podcast MIT SMRP. Dlaczego po 40-tce tak trudno...
25.02.2026 15:00
-
Zdrowie Lidera: #4 Otyłość bez mitów: nauka, mó...
22.12.2025 15:00
-
Neverending Startup: Jak zbudowałem firmę wartą...
03.12.2025 16:30
-
Limity AI: #14 Kicz technologiczny – co nam się...
12.11.2025 16:00
-
Limity AI: #13 A co jeżeli Turing prowadzi na m...
23.10.2025 15:00
-
Mentoring dla Liderów C-Level: Rozwój, Samotnoś...
17.10.2025 14:00
-
Jak dzięki AI zwiększyć sprzedaż i poprawić obs...
16.10.2025 16:00
-
Bądź dobrym szefem i... spróbuj nie zwariować
10.10.2025 11:30
-
Limity AI: #12 Dlaczego LLMy nie mogą przestać ...
09.10.2025 15:00
-
Gotowi na Gen Z: #1 Roszczeniowi czy świadomi? ...
06.10.2025 14:00