Mentionsy
Limity AI: 2026 #1 HYPE AI: Kto naprawdę zarabia na straszeniu sztuczną inteligencją?
🔔Gościem tego odcinka jest Jacek Mańko – asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Jacek jest absolwentem kognitywistyki na UAM oraz specjalistą analizy i przetwarzania big data z doświadczeniem w consultingu IT. Wspólnie z Marcinem Wilkowskim prowadzi eksperckiego bloga humanistyka.dev, publikuje także na łamach OKO Press.
🔔Z Jackiem rozmawiamy o hype studies i critical AI studies, których jest jednym z prekursorów w Polsce. Dowiemy się przy jakich założeniach AI czuje ból i posiada świadomość oraz kto korzysta na skutkach społecznych tego rodzaju narracji.
Special Guest: Jacek Mańko.
Szukaj w treści odcinka
Ale to się właśnie łączy, że definiujemy, że tak OpenAI definiuje ich ten święty graal, który chcą zbadać, który chcą osiągnąć, czyli to właśnie generalną sztuczną inteligencją, czy pewnie będziemy rozmawiać to AGI, że właśnie to są po prostu takie systemy, które przewyższają człowieka w tych wartościowych ekonomicznie
Gercel robił konferencję pod tytułem AGI Summit.
Ale dobrze, więc powiedzieliśmy sobie o AGI, Future of Life Institute.
W Polsce jak w ogóle można coś takiego sobie pomyśleć i niejako żyć w tym świecie, bo oni faktycznie, że na OpenAI w ogóle te AGI wpisały jako ich oficjalny model biznesowy w ramach też negocjacji z Microsoftem.
Natomiast jeszcze ty mówisz o AGI-1, w co można uwierzyć, ale przecież to nie jest jedna wizja, to jest cały właśnie ten koktajl, konglomerator tych wizji, również powiązany z wizją kolonizacji kosmosu przecież, albo również takiej wizji stworzenia super człowieka.
Jeżeli powstać nieuchronnie nadludzka AGI, no to po co ja mam w ogóle się uczyć?
I czy to właśnie te wszystkie dumerskie scenariusze, poza tym, że to sprzedaje nadludzką moc i nieuniknioność i w gruncie rzeczy sugeruje, że ci, którzy wytwarzają AI są w dyspozycji nadludzkich mocy, czy to nie jest zasłona dymna właśnie, odwracanie uwagi, od realnych zagrożeń,
Ale takiego właśnie zawłaszczania uwagi, przestrzeni, narracji i właśnie... Ale to od czego to odwraca uwagę?
I za fajnie to podbiła, powiedziała, że z konieczności AGI musi umieć mówić nie.
Gdzie był artykuł, no znowu, artykuł naukowców, ekonomistów z Uniwersytetu w Toronto, w Pradze i w Montrealu, który w tytule był Gradual Disempowerment, Systemic Existential Risks from Incremental AI Development, czyli z takiego właśnie bez rewolucji, bez AGI, ryzyka jakie widzą w ekonomii tamci.
Ostatnie odcinki
-
Zdrowie lidera: #5 Czy naprawdę możesz zmienić ...
23.04.2026 14:00
-
Limity AI: 2026 #2 Przepis na porażkę: Jak nie ...
16.04.2026 15:45
-
Podcast MIT SMRP. Sztafeta czy gra zespołowa? J...
03.04.2026 13:00
-
Limity AI: 2026 #1 HYPE AI: Kto naprawdę zarabi...
02.04.2026 16:00
-
Czy Twoje ego jest "wąskim gardłem" Twojej firmy?
12.03.2026 14:00
-
Wyzwania HR 2026: AI wygryza juniorów, presja n...
26.02.2026 09:15
-
Podcast MIT SMRP. Dlaczego po 40-tce tak trudno...
25.02.2026 15:00
-
Zdrowie Lidera: #4 Otyłość bez mitów: nauka, mó...
22.12.2025 15:00
-
Neverending Startup: Jak zbudowałem firmę wartą...
03.12.2025 16:30
-
Limity AI: #14 Kicz technologiczny – co nam się...
12.11.2025 16:00