Mentionsy

Techstorie - rozmowy o technologiach
Techstorie - rozmowy o technologiach
03.03.2026 17:00

154# Oni postawili się Pentagonowi. Poznajcie Anthropic, największego rywala OpenAI

Czy firma Anthropic, stawiając się Pentagonowi, okazała się "ostatnim sprawiedliwym" Doliny Krzemowej? Czy to ona jest teraz etycznym liderem branży AI? Nie do końca. Owszem, Anthropic priorytetyzuje bezpieczeństwo nad szybkie decyzje rynkowe. Ale jednocześnie dogaduje się z big techami i czasem nagina własne zasady bezpieczeństwa. Natomiast cała ta awantura może świadczyć o nadchodzącym przetasowaniu sił w branży AI. I właśnie o tym, w gorącym dla Anthropika czasie, opowiadamy w tym odcinku podcastu "Techstorie".

GOŚCIE ODCINKA:
- Artur Kurasiński, przedsiębiorca, inwestor, prowadzący podcast “Technofobia”,
- Mateusz Chrobok, ekspert ds. technologii i cyberbezpieczeństwa, współautor platformy edukacyjnej "Ucz mnie" i autor świetnego kanału na YT i podcastu o technologach, które nazywają się po prostu "Mateusz Chrobok".

NA SKRÓTY:
Skąd się wziął Anthropic?
Ile etyki w Anthropiku?
Co dalej po kłótni z Pentagonem?

ŹRÓDŁA:
- o roli Anthropica w ataku na Iran: https://www.wsj.com/livecoverage/iran-strikes-2026/card/u-s-strikes-in-middle-east-use-anthropic-hours-after-trump-ban-ozNO0iClZpfpL7K7ElJ2
- o wykorzystaniu Claude'a w operacji w Wenezueli: https://www.wsj.com/politics/national-security/pentagon-used-anthropics-claude-in-maduro-venezuela-raid-583aff17
- wywiad Danieli Amodei dla "Wired": https://www.wired.com/story/anthropic-benevolent-artificial-intelligence/
- esej Daria Amodei o "Dojrzewaniu technologii": https://www.darioamodei.com/essay/the-adolescence-of-technology
- inwestycja Amazona w Anthropic: https://www.ft.com/content/01da4ed8-0371-44b0-a07d-63e07f32939e
- Responsible Scalling Policy, wersja trzecia: https://www-cdn.anthropic.com/e670587677525f28df69b59e5fb4c22cc5461a17.pdf
- Donald Trump o Anthropiku: https://www.bbc.com/news/articles/cn48jj3y8ezo
- Pete Hegseth o Anthropiku: https://x.com/secwar/status/2027507717469049070?s=46&t=Glebo8-Z1syI2niLQYEboQ
- o umowie OpenAI z Pentagonem: https://edition.cnn.com/2026/02/27/tech/openai-pentagon-deal-ai-systems
- Sam Altman o umowie z Pentagonem: https://x.com/sama/status/2027578652477821175
- o przychodach Anthropika: https://epoch.ai/data-insights/anthropic-openai-revenue
- wywiad Daria Amodei dla CBS: https://www.youtube.com/watch?v=MPTNHrq_4LU&t=295s
Polecane odcinki z archiwum "Techstorii" - numery: 20, 26

Szukaj w treści odcinka

Znaleziono 76 wyników dla "AI"

David Sachs, czyli car AI w administracji Trumpa, nazwał tę firmę częścią kultokatastrofy.

Od kilku dni ludzie kasują swoje konta w czat GPT i zaczynają sprawdzać, jak wygląda korzystanie z AI tej firmy.

Oczywiście chodzi o firmę Anthropic, największego rywala OpenAI.

To spółka, która zbudowała wizerunek najbardziej etycznej w branży AI, a dziś jest w samym centrum potężnej politycznej awantury w Stanach Zjednoczonych o bezpieczeństwo sztucznej inteligencji.

Anthropic próbuje być takim sumieniem branży AI.

Zanim jednak odwiedzimy świat AI i wojskowości i walki o to, kto powinien mieć kontrolę nad tą technologią, no w którym trzeba przyznać, że w tym świecie AI trochę nas już nie było.

I też mamy do Was taką prośbę, jak uważacie, że na przykład ten odcinek jest ciekawy, to podeślijcie go komuś ze znajomych, kogo też mógłby ten temat zainteresować.

I tak się składa, że to właśnie AI należąca do firmy, o której dzisiaj chciałyśmy Wam opowiedzieć.

Owszem, tej administracji zdarzało się w ten sposób wykręcać ramiona dotychczasowym sojusznikom albo państwom, takim jak Ukraina, ale i tak wobec swoich zachowywali wspólny front.

Historia Anthropica dobrze pokazuje, co dzieje się, gdy firma pracuje nad technologią, na którą służby, a przede wszystkim wojsko oczywiście, mają apetyt, a że takich technologii podwójnego użycia, czyli szczególnie opartych na AI, będzie dużo więcej, no to możemy mieć do czynienia nie z pojedynczym przypadkiem, ale raczej z większym trendem, albo przynajmniej z jego początkiem.

Jest takie pojęcie, które nazywa się poręczami, guardrails angielskiego, to znaczy to, że model czasami jak stwierdza, że coś jest złośliwe, coś jest takie niefajne, to on nie będzie szedł w tym kierunku, żeby pomagać krzywdzić, pomagać robić coś złego.

Sygnalizowała, w jakim kierunku będą szły badania i przede wszystkim ambicje tego, czym chce być nowy podmiot na rynku AI.

Firma została założona przez rodzeństwo Dario i Daniela Amodei, którzy wcześniej pracowali w OpenAI.

I razem z nimi Anthropic założyło kilku byłych pracowników OpenAI.

I cała ta grupa uchodźców z OpenAI w tej swojej poprzedniej firmie nadzorowała tworzenie dużych modeli językowych, no czyli tej technologii, która ostatecznie zasiliła chatbota ChatGPT.

Co bardzo ciekawe, w 2019 roku, kiedy Amodei wciąż pracował w OpenAI, był częścią zespołu, który ogłosił, że nie opublikuje wczesnego modelu językowego GPT-2.

Oni byli niezadowoleni z tego, że OpenAI związało się chociażby z Microsoftem, umową, która wymagała udostępniania technologii temu gigantowi.

Obawiali się, że OpenAI zmierza w zbyt komercyjnym kierunku, co z kolei utrudni kontrolę nad jego technologią.

To był ten odcinek o tym, jak Indie rozwijają swoje technologie i jak szykują się do AI Impact w Delhi.

Było takie nagranie, w którym wszyscy tam uczestnicy, najważniejsi tego AI Impact, na koniec na scenie chwytali się za ręce i podnosili je w takim uścisku w imię rozwoju sztucznej inteligencji dla dobra ludzkości.

My pewnie wielu rzeczy nie wiemy, a i się pewnie kiedyś dowiemy, jak jakiś proces wybuchnie i znowu trzeba będzie te wszystkie maila opublikować, ale to dobrze było, znaczy widać było doskonale.

Podejście dwóch, jakby nie było, bardzo bliskich ludzi, bo pamiętajmy, że Amodei po prostu był pracownikiem OpenAI, wyszedł właśnie nie zgadzając się na kierunek, w którym podąża OpenAI, więc widać, że ta linia, nie wiem jak ją nazwać, bardziej właśnie związana z pryncypiami, jest dla obu panów bardzo ważna.

Praktycznie w nowej firmie Amodei i jego zespół postanowili być bardziej samodzielni i asertywni i mocno odróżniać się od OpenAI.

No więc można brać te deklaracje dosłownie, ale jednocześnie trzeba zauważyć, że z perspektywy czasu, no one brzmią nieco naiwnie, skoro jednak przedsiębiorstwo powstało i na początku tego roku przecież Anthropic osiągnąłby cenę 350 miliardów dolarów, więc no ojejku, ojejku, nie chcieliśmy, ale tak jakoś wyszło.

Co więcej, ona wciąż pozycjonuje się jako przeciwwaga dla OpenAI, tyle że znowu, to brzmi dosyć tak kuriozalnie, jak sobie przypomnimy, że OpenAI też powstawało jako organizacja non-profit i przedstawiało się jako przeciwwaga dla korporacyjnego i żarłocznego Google.

W tej firmie wiara w potencjał AI ma niemal mesjanistyczny charakter.

A więc wizerunek Anthropica jako tych dobrych był wspierany przez ich związek z ruchem efektywnego altruizmu, czyli bardzo specyficznej społeczności filozofów, filantropów i inżynierów, którzy mają taką, powiedzmy, obsesyjną troskę o ryzyka związane z przyszłością ludzkości, no a oczywiście w dzisiejszych czasach przede wszystkim w kontekście AI.

Wtedy ludzie w OpenAI wiedzieli już, że mają super technologię, która może być hitem i zmienić świat, ale wiedzieli też, że ona jest wciąż

Kiedy jednak OpenAI wypuściło czat AGPT, który w ciągu dwóch miesięcy zrobił furorę, zdobył 100 milionów użytkowników, stał się takim naprawdę symbolem rozwoju sztucznej inteligencji, to i Anthropic uznał, że musi zaznaczyć swoją obecność.

Klot miał być ucieleśnieniem podejścia, które Anthropic określa jako Constitutional AI.

I to przez długi czas było utrzymywane i wzmacniane, bo ja śledziłem badania Anthropica na różnych dziedzinach, to znaczy to jak oni wprowadzili tak zwaną konstytucję AI, gdzie chcieli jak najlepiej zdefiniować to, co to w ogóle oznacza, że model ma być pomocny i ma nie krzywdzić.

No więc to jest tak, że jest takie zjawisko w wyścigu pomiędzy firmami związanymi z AI, jak wyścig na szczyt.

Ten drugi w jednym z podcastów w 2023 roku ocenił, że istnieje 10 do 25% szans, że AI mogłaby doprowadzić do zagładu ludzkości.

A ten pierwszy w październiku 2024 roku przedstawił bardziej optymistyczną wizję AI w takim długaśnym eseju na temat potencjalnych korzyści tej technologii.

Tak, no więc ten esej jest zatytułowany The Adolescence of Technology, czyli dojrzewanie technologii i traktuje o cywilizacyjnych zagrożeniach, które związane są z tym, co Amodei nazywa potężną AI, czyli technologią, którą jego firma sama, jakby nie było, rozwija.

Bo to jest też tak, że my jak wybieramy firmę, z której korzystamy, to znaczy AI, z którego korzystamy, to wybieramy pewien światopogląd.

Tym najważniejszym dokumentem jest ta konstytucja AI, która określa co można i co nie można robić.

OpenAI jest tak bardzo do klientów końcowych, do tego, żeby jak najwięcej im dać albo zarobić na reklamach, a Anthropic bardziej się pozycjonuje jako w sprzedaży dla firm, no i o wiele trudniej jest tym innym firmom, które nie są pierwsze w tym świecie, żeby się jakoś wyróżnić.

Otóż pewnego razu Clodowi dano taką rolę nadzorcy systemu e-mailowego w fikcyjnej firmie.

To znaczy napisał do tego dyrektora, jeśli mnie wyłączysz, ujawnię twoje pozamałżeńskie relacje wszystkim zainteresowanym.

To znaczy, oni stworzyli automat z przekąskami zarządzany przez AI, by zbadać, czy model może prowadzić biznes.

I sam Altman, i Elon Musk, i inni liderzy branży również od dawna mówią o destrukcyjnym potencjale AI.

To znaczy, skoro to AI może być takie groźne, to trzeba w nią inwestować więcej.

I równolegle oczywiście i OpenAI, i grog, jak widzieliśmy, widzieliśmy wszyscy doskonale, wypuszczają też generatory po prostu bezwartościowych treści.

OpenAI udostępniło pod wpływem też tej narracji Anthropica model SPEC, czyli bardziej taką zwięzłą i pragmatyczną odpowiedź na konstytucję Antropii.

I zaczynają się rozbieżności między teorią a praktyką, ideą bezpiecznej AI, a prędkością konieczną do wygrania w wyścigu o AI.

A dodatkowo Anthropic kupował książki fizyczne, potem je skanował na masową skalę, a potem niszczył te egzemplarze, żeby szybciej tworzyć cyfrowe zbiory treningowe i formalnie no mieściło się to w granicach prawa, ale jednak stało się globalnym symbolem instrumentalnego traktowania kultury przez branżę AI.

Bo jak sobie pomyślimy o tym, że tutaj OpenAI wydaje tryliardy dolarów, że pieniądze płyną bardzo szerokim łukiem.

To wszystko jest ważne, bo w świecie AI chodzi nie tylko o to, czyja AI jest najlepsza do skomplikowanych obliczeń, ale także, która mniej halucynuje.

I zresztą Anthropic podobny deal ma z Googlem, bo ta firma zainwestowała 3 miliardy dolarów i ma 10% udziału w Anthropiku.

I oczywiście z Googlem Anthropic też ma umowę chmurową i zobowiązał się kupić od niej 1 milion chipów AI.

Czyli zobacz, umowa z Microsoftem w OpenAI to B, ale już nasza umowa z Amazonem i z Googlem to C.

Owszem, na konsumenckim rynku AI pozostaje w tyle za OpenAI, ale za to dominuje w segmencie biznesowym.

Wszystko to oznacza, że w przeciwieństwie do OpenAI, Anthropic nie stawia na własną infrastrukturę.

Antropic chce być narzędziem B2B i bardzo mocno inwestuje, żeby stać się takim narzędziem pierwszego wyboru dla ludzi, którzy myślą o stworzeniu kodu, o wyprodukowaniu czegoś za pomocą AI.

A OpenAI, czyli ChatGPT, no raczej narzędziem takim dla szeregowego Kowalskiego, dla osób, które poszukują proste odpowiedzi na trudne pytania, czyli jak żyć, co mam zrobić, czy ona mnie kocha i tak dalej.

Natomiast oczywiście diabeł tkwi w szczególe, no po prostu też różnica w podejściu, mam nadzieję, takiego finałowego, jakie zobaczymy między Anthropiciem a OpenAI, będzie jednak leżało w tym, że Dario Amodei jednak nie złamie kręgosłupa, do końca przynajmniej.

I wychodząc z OpenAI nie chcą uczestniczyć w tym bardzo czasami dziwnym i przykrym show, które urządza sam Altman.

No że jego jednak wizja tego, jak AI powinno się rozwijać, w którą stronę, za pomocą jakich narzędzi kontrolować ten rozwój, że będzie po prostu szanowane.

Równolegle jednak na tę firmę zwróciła uwagę administracja Stanów Zjednoczonych, która, co nie jest żadną tajemnicą, w rozwoju AI upatruje budowę przewag konkurencyjnych w zderzeniu z Chinami.

Dla mnie takim klasacznym przykładem jest Ani od XAI, to znaczy od groka, czyli ten taki bot, który ma swoją wizualizację, którego można sobie bardziej albo mniej rozbierać, no i który pewnie uzależnia część użytkowników.

Potem OpenAI zapowiedział, że oni też wprowadzą Eroticę, czyli taki model dla dorosłych, z którym będzie można poświętuszyć.

Zamiast tego Anthropic AI i jego dyrektor generalny Daria Amodei wybrali dwulicowość.

Pete Hegseth będzie starał się wywrzeć bardzo dużą presję, czy wywiera tę presję, zapraszając i dając do zrozumienia właśnie Amodei, że jeżeli ten się nie złamie i nie doprowadzi do złamania wszystkich hamulców w swoim AI, no to nie dość, że go wyrzuci z kontraktów rządowych, z kontraktów Pentagonu,

Jakby nie było, natura nie znosi próżni i ledwie kilka godzin po tym, jak Trump wręczył Anthropicowi VG bilet, podał tą czarną polewkę, to na białym koniu pojawił się na scenie sam Altman, który nie dość, że zapewnił, że on to nie będzie mieć żadnych wątpliwości, jak jakiś tam Daria Amodei, to dodatkowo, że jego OpenAI już podpisało umowę z Pentagonem.

Z tego świadczenia wynika, że OpenAI dostał takie same warunki, jakie miał wcześniej Anthropic, czyli bez żadnych dodatkowych wymagań.

Tyle, że szybko pojawiło się oświadczenie podsekretarza w Departamencie Stanu, Jeremiego Lewina, który sprostował Altmana i wyjaśniał, że umowa opiera się na zasadzie, cytacik, wszelkiego zgodnego z prawem użytkowania, na którą słusznie nadlegał Departament Wojny, a na którą zgodził się chociażby XAI, czyli firma Muska.

Ja śledzę kwestie przełamywania zabezpieczeń w ramach hackowania AI, u mnie na ucznie, od lat.

No wiesz, oby z tym wykorzystaniem AI na wojnie nie skończyło się tak jak w filmach sci-fi.

Czyli po prostu zarówno XAI, jak i OpenAI poszły Departamentowi Wojny na rękę.

Ja tutaj jestem bardzo ciekawa, jak odniosą się do tego pracownicy OpenAI, no bo w końcu Dolina Krzemowa ma długą historię protestowania przeciwko daleko idącym umowom z Pentagonem.

Ten ruch nie sprawi, że sam Altman i Dario Amodei, jeśli znów niedługo staną razem na jakiejś scenie, to ochoczo złapią sobie za ręce i będą ogłaszać AI dla dobra ludzkości.

To prawda, ale są też niewiadome, chociażby nie wiadomo jak decyzja Trumpa o wykluczeniu Anthropica z administracji przełoży się na przychody tej firmy, no bo przecież firma Amodei była na prostej trajektorii do przeskoczenia pod tym względem OpenAI.

Dla porównania przychody OpenAI urosły zaledwie 3,5-krotnie.

I według analiz firmy Epoch, Anthropic miał mniej więcej w połowie tego roku, może jesienią, przeskoczyć OpenAI pod względem przychodów.

A jako, że w tym roku na giełdę planuje także wyjść OpenAI, to na pewno firmie rodzeństwa Amodei będzie zależało na tym, by jednak nie oddać im pola.