Mentionsy

MIT Sloan Management Review Polska
MIT Sloan Management Review Polska
02.04.2026 16:00

Limity AI: 2026 #1 HYPE AI: Kto naprawdę zarabia na straszeniu sztuczną inteligencją?

🔔Gościem tego odcinka jest Jacek Mańko – asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Jacek jest absolwentem kognitywistyki na UAM oraz specjalistą analizy i przetwarzania big data z doświadczeniem w consultingu IT. Wspólnie z Marcinem Wilkowskim prowadzi eksperckiego bloga humanistyka.dev, publikuje także na łamach OKO Press.
🔔Z Jackiem rozmawiamy o hype studies i critical AI studies, których jest jednym z prekursorów w Polsce. Dowiemy się przy jakich założeniach AI czuje ból i posiada świadomość oraz kto korzysta na skutkach społecznych tego rodzaju narracji.

Special Guest: Jacek Mańko.

Szukaj w treści odcinka

Znaleziono 10 wyników dla "AGI"

Ale to się właśnie łączy, że definiujemy, że tak OpenAI definiuje ich ten święty graal, który chcą zbadać, który chcą osiągnąć, czyli to właśnie generalną sztuczną inteligencją, czy pewnie będziemy rozmawiać to AGI, że właśnie to są po prostu takie systemy, które przewyższają człowieka w tych wartościowych ekonomicznie

Gercel robił konferencję pod tytułem AGI Summit.

Ale dobrze, więc powiedzieliśmy sobie o AGI, Future of Life Institute.

W Polsce jak w ogóle można coś takiego sobie pomyśleć i niejako żyć w tym świecie, bo oni faktycznie, że na OpenAI w ogóle te AGI wpisały jako ich oficjalny model biznesowy w ramach też negocjacji z Microsoftem.

Natomiast jeszcze ty mówisz o AGI-1, w co można uwierzyć, ale przecież to nie jest jedna wizja, to jest cały właśnie ten koktajl, konglomerator tych wizji, również powiązany z wizją kolonizacji kosmosu przecież, albo również takiej wizji stworzenia super człowieka.

Jeżeli powstać nieuchronnie nadludzka AGI, no to po co ja mam w ogóle się uczyć?

I czy to właśnie te wszystkie dumerskie scenariusze, poza tym, że to sprzedaje nadludzką moc i nieuniknioność i w gruncie rzeczy sugeruje, że ci, którzy wytwarzają AI są w dyspozycji nadludzkich mocy, czy to nie jest zasłona dymna właśnie, odwracanie uwagi, od realnych zagrożeń,

Ale takiego właśnie zawłaszczania uwagi, przestrzeni, narracji i właśnie... Ale to od czego to odwraca uwagę?

I za fajnie to podbiła, powiedziała, że z konieczności AGI musi umieć mówić nie.

Gdzie był artykuł, no znowu, artykuł naukowców, ekonomistów z Uniwersytetu w Toronto, w Pradze i w Montrealu, który w tytule był Gradual Disempowerment, Systemic Existential Risks from Incremental AI Development, czyli z takiego właśnie bez rewolucji, bez AGI, ryzyka jakie widzą w ekonomii tamci.