Mentionsy

WATCH Polska. Demokratyczny Monitoring Polityczny.
WATCH Polska. Demokratyczny Monitoring Polityczny.
06.01.2026 20:31

Transhumanizm: ratunek dla ludzkości czy nowa eugenika?

Rozmowa dwóch perspektyw o transhumanizmie - na tle ideologii i technologii napędzanych przez Silicon Valley.

Przedstawiamy analizę  ideologicznych i technologicznych fundamentów transhumanizmu, ze szczególnym uwzględnieniem koncepcji TESCREAL oraz historycznych powiązań z eugeniką. Opisujemy dążenie współczesnych elit Doliny Krzemowej do przekroczenia biologicznych ograniczeń człowieka poprzez rozwój sztucznej inteligencji, inżynierii genetycznej oraz cyborgizacji. Teksty źródłowe na które powołujemy się w podcaście, wskazują na niebezpieczeństwo powstania nowych hierarchii społecznych, w których dostęp do technologii ulepszających organizm może pogłębić nierówności między uprzywilejowanymi a resztą ludzkości. Analiza obejmuje również wizję technologicznej osobliwości oraz etyczne dylematy związane z dążeniem do postludzkiej doskonałości i nieśmiertelności. Całość stanowi krytyczne spojrzenie na wpływ radykalnych filozofii technicznych na politykę, edukację i przyszłość gatunku ludzkiego.

Szukaj w treści odcinka

Znaleziono 39 wyników dla "SI"

W dzisiejszej rozmowie przyjrzymy się ideologiom, które zdobywają coraz większą popularność w Dolinie Krzemowej.

Zgadza się.

Zastanowimy się nad etycznymi i społecznymi implikacjami nurtów takich jak transhumanizm czy longtermizm.

Opierając się na dostępnych materiałach, będę argumentował, że jest to poważna i głęboko uzasadniona refleksja etyczna.

Ja natomiast postaram się wykazać, że pod płaszczykiem troski o przyszłość kryje się ideologia, która w istocie promuje ekstynkcję gatunku homo sapiens

Jeśli przetrwamy tyle co typowy gatunek saków, czekają nas setki tysięcy lat, a jeśli skoronizujemy kosmos, możemy istnieć przez setki bilionów lat, aż do wygaśnięcia ostatnich gwiazd.

W tej perspektywie nasze dzisiejsze działania nabierają kosmicznej wagi.

Jej korzenie filozoficzne sięgają pism Derek'a Parfita czy Nicka Bostroma, ale podobne myślenie odnajdziemy w zasadzie siódmego pokolenia irokezów.

Te ideologie, które dla wygody badacze zebrali pod wspólnym akronimem TESCREAL, to w zasadzie zbiór zazębiających się techno-optymistycznych filozofii.

Zaczęło się w XX wieku od prymitywnej eugeniki opartej na selektywnym rozmnażaniu.

Analityk rynku SI Daniel Fagella mówi wprost o stworzeniu godnego następcy, istoty tak dalece przewyższającej nas moralnie i intelektualnie, że z radością powinniśmy oddać jej władzy nad przyszłością.

Tak jak rodzic chce, by jego dziecko go przerosło, tak ludzkość może chcieć, by jej ewolucyjni następcy byli od niej lepsi.

Pozwól, że się nie zgodzę, bo to jest właśnie sedno problemu.

Mam wrażenie, że cała ta misterna konstrukcja opiera się na pewnej lingwistycznej manipulacji.

O ile tylko zostaniemy przez coś zastąpieni, to pozwala im twierdzić, że sprzeciwiają się ludzkiej zagładzie, podczas gdy w rzeczywistości promują naszą terminalną ekstynkcję.

Filozof Derek Shiller posuwa się do stwierdzenia, że powinniśmy zaprojektować naszą ekstynkcję, aby zasoby planety mogły być efektywniej wykorzystane przez istoty sztuczne, które będą wiodły lepsze, bogatsze życie.

Prosi on, byśmy porównali trzy scenariusze.

Przejście od pokoju do kataklizmu, w którym ginie 99% z nas, jest niewyobrażalną tragedią, ale ten ocalały 1% wciąż niesie w sobie potencjał odbudowy cywilizacji, cały potencjał przyszłości.

I to właśnie ten potencjał jest dla longtermistów kluczowy, a nie kurczowe trzymanie się naszej obecnej, niedoskonałej formy biologicznej.

Cierpienia, chorób, starzenia się i wreszcie śmierci.

Już teraz głośno mówi się o reprogenetycze, dążeniu do projektowania dzieci o pożądanych cechach.

Co więcej, te wielkie abstrakcyjne cele, jak zabezpieczenie losu bilionów przyszłych cyfrowych istot, stają się doskonałym usprawiedliwieniem dla ignorowania realnych, palących problemów tu i teraz.

Filozof Toby Ord przedstawia argumenty, które nie opierają się na liczeniu przyszłych istnień, ale na prostym poczuciu obowiązku.

No bo jaki jest sens pisania książek, tworzenia sztuki czy prowadzenia badań naukowych, jeśli za 100 lat nie będzie nikogo, kto mógłby to przeczytać, podziwiać i rozwijać?

Jeśli okaże się, że inteligentne, świadome życie jest we wszechświecie absolutną rzadkością, to na nas spoczywa odpowiedzialność, by ten płomień nie zgasł.

Argumenty są poważne, ale problem w tym, że w praktyce przekładają się one na bardzo konkretne i problematyczne działania, zwłaszcza w kontekście sztucznej inteligencji.

Ta fiksacja na odległym, hipotetycznym, egzystencjalnym zagrożeniu ze strony przyszłej superinteligencji odwraca uwagę od bardzo realnych szkód, które wyrządzają już dziś istniejące, znacznie prostsze systemy SI.

Przyznaczanie miliardów dolarów i najtęższych umysłów na zapewnienie bezpieczeństwa nieistniejącej jeszcze ogólnej sztucznej inteligencji, podczas gdy ignoruje się te obecne namacalne szkody, jest po prostu skrajnie nieodpowiedzialne.

Przyznaję, że rozwój zaawansowanej SI jest jednym z największych ryzyk egzystencjalnych.

Nie można też skupiać się wyłącznie na ryzyku, ignorując gigantyczne potencjalne korzyści.

Dobrze zaprojektowana SI może nawet wzmocnić demokrację, pomagając w walce z dezinformacją i cyberatakami.

Unia Europejska dzięki swoim ramom regulacyjnym jak AI Act ma szansę stać się światowym liderem w rozwoju bezpiecznej i wiarygodnej sztucznej inteligencji.

To jest niebezpieczna ideologia, która zyskuje na sile.

Być może najważniejszym celem na najbliższe stulecia, jak sugerują Oort i McCaskill, powinno być osiągnięcie stanu, który nazywają długą refleksją.

Chodzi o stworzenie stabilnego, bezpiecznego świata, w którym ludzkość jako całość, a nie tylko garstka inżynierów z Kalifornii, będzie mogła spokojnie i dogłębnie zastanowić się nad swoimi ostatecznymi wartościami, zanim podejmie nieodwracalne decyzje dotyczące transformacji gatunku czy masowej kolonizacji kosmosu.

Zgadzam się, że pytania są fundamentalne.

Pod pozorem optymizmu, postępu i troski o przyszłość kryje się wizja, w której ludzkość w swojej obecnej, biologicznej formie jest jedynie wadliwym, przejściowym szczeblem w ewolucji ku czemuś innemu, postludzkiemu.

Dlatego musimy z najwyższą uwagą krytycznie analizować język, korzenie historyczne i realne motywacje stojące za tymi ruchami.

Musimy zadbać o to, by rozwój techniczny podlegał szerokiej, demokratycznej kontroli i służył dobrobytowi wszystkich ludzi żyjących tu i teraz, a nie tylko realizował utopijne, a być może i dystopijne fantazje wąskiej elity technologicznej.