Mentionsy
Limity AI: 2026 #1 HYPE AI: Kto naprawdę zarabia na straszeniu sztuczną inteligencją?
🔔Gościem tego odcinka jest Jacek Mańko – asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Jacek jest absolwentem kognitywistyki na UAM oraz specjalistą analizy i przetwarzania big data z doświadczeniem w consultingu IT. Wspólnie z Marcinem Wilkowskim prowadzi eksperckiego bloga humanistyka.dev, publikuje także na łamach OKO Press.
🔔Z Jackiem rozmawiamy o hype studies i critical AI studies, których jest jednym z prekursorów w Polsce. Dowiemy się przy jakich założeniach AI czuje ból i posiada świadomość oraz kto korzysta na skutkach społecznych tego rodzaju narracji.
Special Guest: Jacek Mańko.
Szukaj w treści odcinka
Po zimowej przerwie witamy w Limitach AI, pierwszym polskim podcaście dehypującym AI, w którym konsekwentnie od marca ubiegłego roku krytycznie badamy dyskusję wokół syntetycznych modeli ludzkiej inteligencji i próbujemy zrozumieć o co właściwie chodzi.
Co jest dziś rzetelnym, popartym naukowo faktem, a co clickbaitowym, marketingowym spinem, futurystyczną spekulacją czy wręcz dezinformacją służącą grze kapitału.
Naszym celem nie jest tu krytykanstwo czy kwestionowanie korzyści jakie oferuje AI, ale wręcz przeciwnie.
Z przyjemnością informuję też, że w tym roku nasz podcast powstaje we współpracy z Business Program AI, który dołączył do redakcji MIT Sloan Management Review jako partner strategiczny naszego kanału.
Takiego krytycznego podejścia do opowieści o AI.
Można powiedzieć, że polskim prekursorem hype studies i critical AI studies.
Czyli bardzo wcześnie, już dwa lata temu, co najmniej zacząłeś na własną rękę kwestionować wówczas jeszcze bezkrytyczne zachwyty i spekulacje wokół AI.
Tak, to już w ogóle tak do mainstreamu jest pewnego rodzaju takie odwrócenie wektorów, czyli ten owczy pęd zawraca trochę, można powiedzieć.
No to może zacznijmy w takim razie, rozpakujmy na razie, co to jest ten Hype Studies, Critical AI Studies i powiedziałeś, że nie wiem, w Niemczech jak zajmowałeś się tam
Na pewno prekursorem osobą bardzo zasłużoną dla rozwoju kognitywistyki, jak również AI w Polsce jest też prof. Władysław Duch, ale równolegle na AGH jest prof. Tadeusiewicz, który zajmował się troszeczkę innym... Jak ja?
I właśnie to, co ja obserwuję, zwłaszcza powiedzmy w narracji rozmaitych prominentnych przedstawicieli biznesowych, to to, że oni w gruncie rzeczy zrównują te, w cudzysłowie, tak, cyfrowe mózgi z tymi właśnie naszymi, ludzkimi, biologicznymi,
To tutaj chyba już pijesz do tej niedawnej wypowiedzi sama Altmana, który na szczycie w Indiach AI-owym, no tak mu się chlapnęło, no nie?
Ale to się właśnie łączy, że definiujemy, że tak OpenAI definiuje ich ten święty graal, który chcą zbadać, który chcą osiągnąć, czyli to właśnie generalną sztuczną inteligencją, czy pewnie będziemy rozmawiać to AGI, że właśnie to są po prostu takie systemy, które przewyższają człowieka w tych wartościowych ekonomicznie
To jest taki, powiedzmy też eksperymentalny program badawczy, który rodzi się na styku właśnie też krytycznych badań nad AI, jak również czegoś, co w socjologii nazywamy STS, czyli Science Technology Studies, czyli jakby badań nad nauką i technologią.
No właśnie, jeżeli mamy rozmaite wizje przyszłości, ktoś coś mówi, że coś się wydarzy, że coś jest w jakimś stopniu pewne czy niepewne, no to to w jakiś sposób też organizuje pewnego rodzaju... Wytwarza skutki społeczne.
Bo w sumie nawiązałeś tutaj do obietnicy składanej przez OpenAI.
Ja nie wiem, czy to nie zniknęło z ich stron, ale jeszcze do niedawna można było znaleźć z 2018 roku taki claim, czyli taką obietnicę, że chcemy dać ludzkości, bo to jest w takiej narracji opowieści o darze, że my chcemy podarować ludzkości.
Tylko, że z perspektywy, jak ja mam miliard dolarów do zainwestowania, to ja słyszę, że jak ja ci dam teraz na takie badania miliard, to ty mi dostarczysz za chwilę pracowników,
Ale również to co, nie wiem, z czym mamy do czynienia na rozmaitych takich medialnych portalach, które w sumie już nie wiadomo na ile są pisane ludzkie czy nieludzkie.
Tak, ale jak również te wszystkie rozmaite wpadki, że ktoś tam wysłał jakiś wygranowany raport do sądu, do jakiejś firmy konsultingowej.
Nie da się tego powiedzieć właśnie, czy w ogóle takie krytyczne badania nad AI.
Czy to jest właśnie Hype Studies, czy to jest Critical AI?
W zasadzie pewnie kiedyś nie trzeba było wyróżniać takich badań krytycznych, bo one były, że tak powiem, wewnątrz, jakby wewnątrz danej dyscypliny, to znaczy po prostu jeżeli zajmowało się AI,
Też obecnie trochę zmienia wektor, bo firmy technologiczne stosują teraz na dużą skalę ten ethical washing, chcą się pozycjonować jako takie bardziej etyczne, że im właśnie zależy na wykorzystaniu technologii w różnych rozmaitych szczytnych celach.
Stosują rozmaite hasła, tam AI for good i tak dalej.
Antropologia, tak można powiedzieć, firmy OpenAI i tego, jak się właśnie antropik wyłonił, że tam się mówi o schizmie.
Zresztą na tym wspomnianym szczycie w AI w Indiach, tam właśnie sam Altman nie podał ręki, nie ucisnął ręki.
Jutro Amodei opowiada, że AI może zastąpić pracowników tu czy tam.
Po prostu to będzie narracja niejako mainstreamowa.
Dokładnie w tym się to zawiera, że od dekad byli ludzie z rozmaitych obszarów, czy właśnie psychologii, czy pracujący jako analitycy danych, czy oduczenia maszynowego, czy budujący systemy konwersacyjne, czy właśnie te wspomniane wcześniej, a zajmowali się technikami przetwarzania języka naturalnego itd.
I nagle, ni stąd, ni zowąd, jako znikąd, wchodzą goście z Doliny Krzemowej i mówią, że słuchajcie, to jest teraz w ogóle AI i że to zaraz będzie najważniejsze, bo my to w ogóle wszystko zastąpimy, my to w ogóle odwrócimy, my ten stolik wywrócimy.
No i tak jak wspomniałeś, też możemy właśnie stosować rozmaite krytyczne metody, krytyczne analizy dyskursu, follow the money, albo nawet jakąś taką prostą, wirtualną etnografię, to znaczy posprawdzać sobie ich starsze wersje internetowe, przecież są zachowane w rozmaitych archiwach internetu.
Są rozmaite konferencje naukowe, jakie też organizowali od 2000,
Mniej więcej 20 lat temu, tak jak przejdziemy, jak ten obszar właśnie technologii czy AI głównie rozwijał się przez ostatnie 20 lat, a na początku XXI wieku była posłucha, no to na przykład zobaczymy, że głównymi pozainstytucjonalnymi promotorami czy mecenasami AI były takie osoby jak Elon Musk, Peter Thiel.
To znaczy w roku 2014-2015 to właśnie Elon Musk jednocześnie jedną ręką ufundował chyba 10 milionową dotacją FLE, jak również w tym samym roku ufundował OpenAI.
No bo jedną ręką dotuje powiedzmy rozwój AI, jak również drugą ręką ma trochę ostrzegać.
Więc nie ma pomiędzy tym żadnej sprzeczności, a tak jak wspomniałeś o tym w kontekście też mojej działalności publicystycznej, za co dziękuję, że właśnie, że to nie było pionierskie, ale mimo wszystko, to spotykam się właśnie z pewnego rodzaju niezrozumieniem, ale jak to w ogóle, jak to w ogóle właśnie rozmaici właśnie miliarderzy, czy wszelkiego rodzaju tak zbiorczo powiem elity technologiczne, jako oni mogą, czy CEO rozmaitych spółek, jako oni mogą jednocześnie promować AI i ostrzegać?
To swoją drogą też jest bardzo, bardzo taki ciekawy obszar, jak eksperci z innych nauk wypowiadają się o AI.
To takie apelę wychodzą mniej więcej co pół roku, rozmaite właśnie listy otwarte, ostrzeżenia.
Obecnie jest właśnie taka też, chyba nie cytowałeś z tego fragmentu, ale kolejna wersja to jest ta właśnie pro ludzka deklaracja na temat rozwoju AI.
I tam też podpisywali się royalsi, czy rozmaite osoby, które tam mnie kojarzą.
To teraz naiwnie zapytam, to jak wyjaśnić tę pozorną sprzeczność?
Natomiast nie ma w tym żadnej sprzeczności, ponieważ w ten sam sposób ta narracja o tej przyszłościowej, nadludzkiej, tak zwanej sztucznej inteligencji, po prostu, jak to się mówi z języka angielskiego, wysysa tlen z pokoju, sucking air out of the room.
W tej inteligencji, której nie ma, nie wiemy czy i kiedy będzie w jakiejkolwiek formie, ale jakby skupia to całkowitą naszą uwagę i nie zajmujemy się innymi rzeczami, jak na przykład, nie wiem, rozbrajanie monopolii, o czym swoją drogą oni nawet w tej deklaracji piszą, ale robią to w taki sposób naiwny, że jakby kompletnie nie rozumieją.
Nawet dwa lata temu, powiem Ci, że jak sobie przeglądałem nasz ulubiony portal społecznościowy LinkedIn, tam właśnie też promieniowali w sumie osoby traktowanej, w sumie też nie moimi kompetencjami, jako eksperci dotyczący właśnie AI czy wpływu na rynek pracy.
Ale to zależy od mnóstwa rozmaitych innych czynników, jak chociażby, nie wiem, dlaczego by nie, w tym momencie dziejąca się wojna w Iranie.
To paradoksalnie w gruncie rzeczy, bo oni w tych apelach mówią, że my ludzie musimy coś z tym zrobić, bo przyjdzie AI i nas zje, a w gruncie rzeczy takimi apelami odbierają ludzką sprawczość,
Właśnie tak mówią, że musimy jako ludzkość zadbać o to, żeby AI była dla nas dobra.
Nie, że nad rozwojem AI, tylko dlatego, że no nijak nie możemy wpłynąć środkami właśnie też prawnymi nad właśnie tym, co opowiada Altman czy Amodei.
Znowu, ja mówiąc to, nie chcę krytykować AI, bo jasne, czy sam korzystam, jestem, można powiedzieć, heavy userem, bardzo korzystam na korzystanie z AI, ale to jest jak gdyby inna rozmowa.
I ja rozumiem, że jeżeli ja powiem, że AI zabierze ci pracę i wyhodowaliśmy, uwaga, nowy gatunek, który za chwilę przejmie kontrolę nad gospodarką,
To znaczy opowieści o samoświadomym AI, czy to mówi profesor, czy to mówi influencer taki czy inny, po prostu się niosą, bo to działa na ten gadzi mózg, to uruchamia w nas
Natomiast przywołuję w punkcie wyjścia ustalenia, właśnie projekcję modelu, który opracowali pracownicy OpenAI w 2023 roku na temat tego, jakie tam zawody w ich mniemaniu tych pracowników, to jest konkretna autorka, teraz nie przypomnę nazwiska,
Przy jednoczesnym też podbieraniu, podkupywaniu ekspertów, akademickich naukowców do biznesu, co rodzi gigantyczne też konflikty interesu, plus do tego dochodzi jeszcze logika mediów społecznościowych, plus do tego dochodzi jeszcze wymiar polityczny, to znaczy, że właśnie na AI chce Donald Trump i jego tam akolici opierać dominację, supremację amerykańską.
Tu tam dojdzie jeszcze sam Altman, powie coś o sobie, o tych właśnie ludziach, którzy jedzą i zużywają energię, a modeli sobie tam jakąś wizję konstytucji AI, czy tam jakieś właśnie... Upodmiotowienia.
Natomiast on wypowiedział coś, co mi też chodzi po głowie ostatnio, że może ci ludzie naprawdę w to wierzą i są potwornie naiwni.
W Polsce jak w ogóle można coś takiego sobie pomyśleć i niejako żyć w tym świecie, bo oni faktycznie, że na OpenAI w ogóle te AGI wpisały jako ich oficjalny model biznesowy w ramach też negocjacji z Microsoftem.
Takiej rzetelnej, panoramicznej, po prostu opowiadania o tym, jakie są różne modele umysłu, jakie są różne wyjaśnienia tego, czym jest AI.
Mogą wierzyć, w sensie tak samo jak my też mamy prawo wierzyć, tylko że różnica jest teraz taka, i wydaje mi się, że to dokładnie bada Hype Studies czy Critical AI Studies, że oni używają swojego autorytetu i ekspertyzy w jednej dziedzinie,
I mają prawo tak mówić, bo każdy ma prawo, żeby mieć takie zdanie, ale jeżeli to ich zdanie urasta do stanowiska, na którym później, nie wiem, rządy opierają swoje strategie dotyczące rozwoju AI i tak dalej.
Wcześniej powiedzmy Web3, blockchain, zawsze jakaś musi być.
Ja słyszałem takie dane, że w ogóle całe PKB w ubiegłym roku było zrobione na inwestycjach w AI.
Może naiwna to jest za mocne słowo, ale za wąska, bo naiwną nazywa to Gary Marcus, ale ja powiem za wąska koncepcja tego, czym jest umysł i co ten umysł robi, taka właśnie wywodząca się z tej anglosaskiej tradycji myślenia o tym, że wystarczy skopiować działanie
No tak, ale też masz rację, ale też moje hasło wkrótce szerszy kontekst, jak powiedzmy, ile teraz studia kosztują, już pomijając, że jakby w Polsce są bezpłatne i jakby cały właśnie sytuacja na rynku pracy, nawet nie, że AI, bo w ogóle AI
Słuchajcie, no trzeba kogoś zwolnić, to powiemy, że tam wdrożyliśmy AI.
I czy to właśnie te wszystkie dumerskie scenariusze, poza tym, że to sprzedaje nadludzką moc i nieuniknioność i w gruncie rzeczy sugeruje, że ci, którzy wytwarzają AI są w dyspozycji nadludzkich mocy, czy to nie jest zasłona dymna właśnie, odwracanie uwagi, od realnych zagrożeń,
Wspomniałem wcześniej właśnie, że to wysysa ten sucking air out of the room.
No tak, ale to też, to właśnie, dokładnie to właśnie bada HYPE SADIS, jak to się dzieje, że właśnie jak powiesz, słuchaj, coś tam AI, no to od razu będzie kojarzenie, że to te modele, że tam pracę zabierze i tak dalej, i tak dalej.
Ich, powiedzmy, takie prawne warunki finansowe pogarszają się poprzez wypychanie na rozmaite freelancerki.
Taką w zasadzie pracę na akord i coś, co znamy z XIX wieku, ale teraz, że to właśnie jest AI, a w ogóle jeszcze jest taka najgorsza perwersja, że teraz będzie można, że te AI, agenci będą zlecali te prace w takim właśnie rent your human.
Deskilling, deprofesjonalizacja, a także, i to na to zwraca uwagę właśnie też Critical AI Studies, mamy właśnie pogłębianie tego kryzysu wiedzy eksperckiej, dewaluacji wiedzy eksperckiej, no bo w sumie można teraz sobie wrzucić, przemielić jakiś, nie wiem, korpus sobie w modelach, no to po co mi jakiś ekspert, żeby jakieś tam średniowieczne egzegezy robił, skoro w sumie coś takiego mogę sobie... Ja Ci może dla ilustracji podam Ci taki przykład.
z Wydziału Prawa Uniwersytetu Bostońskiego, którzy bardzo precyzyjnie argumentują, że AI, takie jakie mamy, wytwarza skutki, które powodują rozpad instytucji społecznych.
OK, znaczy, wiesz, oczywiście... Trochę zarabili na to, ale... Tak, ale mi chodzi, wiesz, sytuacja taka, że ja miałem taką, że musiałem ostatnio tam podjąć pewną decyzję w firmie i jestem laikiem, nie jestem ekspertem w tej materii, wiem, że się nie znam, więc mam co?
I ja mówię, no dobrze, ale jak tu jest, masz na imię, mówi tak, człowiek mówi tak, to ja jako laik, co mam wybrać?
Ja mam regułę heurystyczną, że ja dobrze wiem, że człowiek zna kontekst, ale 9 na 10, ale może nawet 99 na 100 nie będzie miał tej reguły heurystycznej, bo ci AI zaczyna produkować już, proponować, że ja ci wyprodukuje
Wiesz, do Altmana tak naprawdę po poradę prawną, po poradę lekarską, po wiedzę, po entertainment, raz widziałem na konferencji jak gość przede mną siedział, nie widziałem jego twarzy, ale to był jakiś prelegent na konferencji technologicznej i rozpykiwał z czatem GPT swoją sytuację w kryzysowym małżeństwie.
I w tym sensie AI wchodzi, to jeszcze jakby dobija trochę.
Tak, już te mankamenty, no bo jeżeli mówimy, że teraz AI przyjdzie i coś tam pozmienia, no to dobrze, pozmienia, ale jakby jaki jest stan, jaki jest punkt wyjścia, tak?
No i tutaj wchodzi ta Shannon Valor, do której zaproponowałeś, żebyś się odwołał, czyli DAI Mirror.
Wskazuje, że AI, ponieważ zostało wytrenowane na danych wytworzonych przez ludzkość, na powiedzmy tekstach wytworzonych przez ludzkość, to siłą, taką deterministyczną siłą tych tekstów, czyli z konieczności zapisanej w tych tekstach, dziedziczy też wszystkie
Tego jak działa AI do potrzeb ludzkich.
Chodzi o to, żeby to jak mechanizm działania AI był...
Właśnie dlatego, że problem z AI nie jest dlatego, że tam właśnie jest niedopasowane i realizuje własne cele, tylko właśnie, że realizuje te ludzkie cele.
Tutaj pojawią się analizy właśnie, że no taka, gdyby faktycznie AI miała być taka autonomiczna, w takim rozumieniu miała jakieś własne interesy i tak dalej, to równie dobrze mogłaby odmówić, tak, generowania celów wojska.
Zwróciła na to uwagę, bardzo trafne, bo jak rozmawiałem jeszcze z Pawłem Szczęsnym też znowu w zeszłym roku, w maju, to on zwrócił uwagę, że właśnie AI, żeby było świadome, musi mieć sprawczość i inicjatywę.
Tak, to jest rozmaite alchemiczne, też kabalistyczne wątki.
Gdzie był artykuł, no znowu, artykuł naukowców, ekonomistów z Uniwersytetu w Toronto, w Pradze i w Montrealu, który w tytule był Gradual Disempowerment, Systemic Existential Risks from Incremental AI Development, czyli z takiego właśnie bez rewolucji, bez AGI, ryzyka jakie widzą w ekonomii tamci.
Ale to może jakiś przykład podejść, no powiedz, postaw się w skórze osoby, która ok, już powiedzmy nie kupuje tego, że AI ma świadomość, wie, że tam jest dużo marketingu, ale w dalszym ciągu przecież są profesorowie, są ludzie, którzy wychodzą za duże pieniądze, robią występy, opowiadają różne rzeczy, to komu wierzyć, kiedy?
Mechanice hype'u, tak to można powiedzieć, czyli tym, czym zajmują się AI Studies, czym się zajmuje Jacek Mańko.
AI.
Ostatnie odcinki
-
Zdrowie lidera: #5 Czy naprawdę możesz zmienić ...
23.04.2026 14:00
-
Limity AI: 2026 #2 Przepis na porażkę: Jak nie ...
16.04.2026 15:45
-
Podcast MIT SMRP. Sztafeta czy gra zespołowa? J...
03.04.2026 13:00
-
Limity AI: 2026 #1 HYPE AI: Kto naprawdę zarabi...
02.04.2026 16:00
-
Czy Twoje ego jest "wąskim gardłem" Twojej firmy?
12.03.2026 14:00
-
Wyzwania HR 2026: AI wygryza juniorów, presja n...
26.02.2026 09:15
-
Podcast MIT SMRP. Dlaczego po 40-tce tak trudno...
25.02.2026 15:00
-
Zdrowie Lidera: #4 Otyłość bez mitów: nauka, mó...
22.12.2025 15:00
-
Neverending Startup: Jak zbudowałem firmę wartą...
03.12.2025 16:30
-
Limity AI: #14 Kicz technologiczny – co nam się...
12.11.2025 16:00