Mentionsy

Crazy Nauka
Crazy Nauka
17.03.2026 18:00

157. Nauka na czasie - przepychanie planetoidy i wojna jądrowa AI

Pierwszy raz w historii świadomie zmieniliśmy ruch ciała niebieskiego - okazuje się, że nawet drobne „szturchnięcie” planetoidy może uchronić Ziemię przed katastrofą. W tym samym odcinku zaglądamy do niepokojących symulacji, w których modele AI w sytuacjach kryzysowych niemal automatycznie eskalują konflikty aż do poziomu nuklearnego — i robią to bez ludzkich hamulców. 

To jest odcinek z cyklu “Nauka na czasie”, w którym omawiamy dwa wybrane newsy naukowe.

Zachęcamy też do posłuchania dwóch cykli naszych podcastów, które tworzymy we współpracy z Polskim Radiem: 
1) serii kryminalno-naukowej “Laboratorium zbrodni”:
https://open.spotify.com/show/5Sw33l0P1o2vDOErG6VGL2?si=b3068c6d99a34dac

2) serii dociekliwie analizującej “Sekcja teorii spiskowych”:

https://www.youtube.com/playlist?list=PLZTuUgCmeGG6cRigivWs3HvsZBIr2ZdRv 

Jeśli podobają Wam się nasze podcasty, rozważcie wsparcie nas na Patronite - dzięki Waszym wpłatom będziemy mogli utrzymać cotygodniowy rytm ukazywania się nowych odcinków: 
https://patronite.pl/crazynauka

Jeśli wolisz jednorazowo postawić nam kawę (albo psie smaczki), to super. Dzięki! 😊
https://buycoffee.to/crazynauka 

A tu znajdziecie nasze koszulki 😊
https://kreatorium.com/pl/c/Crazy-Nauka/109  

Zapraszamy do posłuchania naszego podcastu! 

Przygotowując ten odcinek podcastu, korzystaliśmy m.in. z tych źródeł:
https://www.science.org/doi/10.1126/sciadv.aea4259
https://science.nasa.gov/solar-system/asteroids/didymos/
https://neo.ssa.esa.int/documents/d/guest/newsletter-january-2026
https://neo.ssa.esa.int/risk-list
https://pl.wikipedia.org/wiki/Double_Asteroid_Redirection_Test
https://www.heramission.space/
https://www.kcl.ac.uk/news/artificial-intelligence-under-nuclear-pressure-first-large-scale-kings-study-reveals-how-ai-models-reason-and-escalate-under-crisis
https://arxiv.org/pdf/2602.14740
https://www.nytimes.com/2026/02/20/podcasts/the-pentagon-vs-anthropic-an-ai-agent-slandered-me-hot-mess-express.html
https://audycje.tokfm.pl/podcast/189240,154-Oni-postawili-sie-Pentagonowi-Poznajcie-Anthropic-najwiekszego-rywala-OpenAI
https://www.implicator.ai/ai-models-deployed-nuclear-weapons-in-95-of-war-game-simulations-study-finds/
https://winbuzzer.com/2026/03/16/palantir-demos-military-ai-war-plans-xcxwbn/
https://www.thestack.technology/palantir-boasts-of-military-ai-target-detection-wins-as-growth-surges/
https://time.com/article/2026/03/11/anthropic-claude-disruptive-company-pentagon/
https://www.nist.gov/caisi/cheating-ai-agent-evaluations/2-examples-cheating-caisis-agent-evaluations

Szukaj w treści odcinka

Znaleziono 22 wyników dla "AI"

Najpopularniejszy, najbardziej znany to był ChatGPT-5.2 OpenAI.

Tam były rozmaite opcje deeskalacji tego konfliktu, złagodzenia go.

Ja mam parę własnych też refleksji, to znaczy zwróćcie uwagę, że modele AI, poza bardzo nielicznymi wyjątkami, nie odpowiadają, nie wiem.

To akurat mowa jest o modelu O3 OpenAI, czyli tam jednej z wersji ChatterGPT.

I teraz wiemy, że takie systemy są coraz intensywniej włączane w rozmaite rozwiązania wojskowe.

Do tego można by wykorzystać AI, ale powiedzmy, że nawet do mniej upierdliwych rzeczy typu na przykład przeanalizowanie różnych ofert, zakupu kubeczków i wybranie najkorzystniejszej, wypełnienie formularza i tak dalej, żeby nie trzeba się było z tym wszystkim bujać.

Oczywiście one mają serię rozmaitych zabezpieczeń i to są po pierwsze zabezpieczenia tych programów, które pewnych rzeczy nie wolno im robić, ale już wiemy, że jak nie wolno to można, tylko trzeba ostrożnie, co już robiły te systemy.

10 lutego 26 roku agent AI, czyli właśnie taki program oparty na AI, który ma pewną swobodę działania, on...

I ten człowiek to odrzucił, bo oni mają taką zasadę, że akurat tam w tym obszarze, gdzie on działał, oni nie przyjmują oprogramowania tworzonego przez takie systemy AI, w skrócie rzecz ujmując.

Tu jak ktoś ma ochotę, to odsyłam do podcastu Hard Fork przez New York Timesa robionego, technologicznego, gdzie prowadzący rozmawiają z tym programistą, który tam został rozjechany przez tego AI.

Mamy AI, który się buntuje i podejmuje działania wykraczające zdecydowanie poza jego kompetencje.

Mamy systemy AI, które aktywnie dążą, kiedy im się pozwoli, do wojny jądrowej.

I ten system agentowy sterowany przez AI'a

Można sobie to wyobrazić, oczywiście takie systemy mają zabezpieczenia, ale AI są dość nieprzewidywalne i mają bardzo duże możliwości, więc być może na przykład przygotuje taki atak, który obejdzie tamte zabezpieczenia.

To jest tak, że żyjemy w ciekawych czasach i naprawdę warto się temu przyglądać, bo idziemy w tę stronę i naprawdę nie unikniemy różnych sytuacji, w których AI będą nam...

Słusznie, bo się zbliżamy do końca, ale jeszcze chcę to jedno powiedzieć, że te systemy obronne chociażby wykorzystują AI do podejmowania decyzji w takich sytuacjach, kiedy jest mało czasu na podjęcie decyzji.

Tak zresztą są prowadzone często te cyberataki przez inne systemy AI, więc tylko szybkość drugiego systemu może to mu zapobiec.

Jeżeli AI nam podpowiada...

Pod presją czasu i emocji i w dodatku AI dobrze o tym wie, jak człowiek działa, no bo czytał książkę Kahnemana, wszystkie czytał AI, w związku z czym doskonale wie, że jeżeli oprawi taką informację w odpowiednie ramki i odpowiednio ją przedstawi, to człowiek jadąc na tych emocjach ulegnie temu i zatwierdzi tą jego decyzję.

Tak, zwłaszcza, że AI może skorzystać z systemu Najingu, który to system jest systemem projektowania architektury przekazywania informacji i AI może tak sformułować tę informację dotyczącą potencjalnego zagrożenia, że będziemy przekonani, że wybierając dany punkt, że coś mamy do wyboru, no to i tak zostaniemy tak

Te systemy agentowe, te niepokojące działania AI.

Minęło tam około 10 miesięcy i jebut mamy tą historię o tym agencie AI, który pojechał sobie po programiście.