Mentionsy
154# Oni postawili się Pentagonowi. Poznajcie Anthropic, największego rywala OpenAI
Czy firma Anthropic, stawiając się Pentagonowi, okazała się "ostatnim sprawiedliwym" Doliny Krzemowej? Czy to ona jest teraz etycznym liderem branży AI? Nie do końca. Owszem, Anthropic priorytetyzuje bezpieczeństwo nad szybkie decyzje rynkowe. Ale jednocześnie dogaduje się z big techami i czasem nagina własne zasady bezpieczeństwa. Natomiast cała ta awantura może świadczyć o nadchodzącym przetasowaniu sił w branży AI. I właśnie o tym, w gorącym dla Anthropika czasie, opowiadamy w tym odcinku podcastu "Techstorie".
GOŚCIE ODCINKA:
- Artur Kurasiński, przedsiębiorca, inwestor, prowadzący podcast “Technofobia”,
- Mateusz Chrobok, ekspert ds. technologii i cyberbezpieczeństwa, współautor platformy edukacyjnej "Ucz mnie" i autor świetnego kanału na YT i podcastu o technologach, które nazywają się po prostu "Mateusz Chrobok".
NA SKRÓTY:
Skąd się wziął Anthropic?
Ile etyki w Anthropiku?
Co dalej po kłótni z Pentagonem?
ŹRÓDŁA:
- o roli Anthropica w ataku na Iran: https://www.wsj.com/livecoverage/iran-strikes-2026/card/u-s-strikes-in-middle-east-use-anthropic-hours-after-trump-ban-ozNO0iClZpfpL7K7ElJ2
- o wykorzystaniu Claude'a w operacji w Wenezueli: https://www.wsj.com/politics/national-security/pentagon-used-anthropics-claude-in-maduro-venezuela-raid-583aff17
- wywiad Danieli Amodei dla "Wired": https://www.wired.com/story/anthropic-benevolent-artificial-intelligence/
- esej Daria Amodei o "Dojrzewaniu technologii": https://www.darioamodei.com/essay/the-adolescence-of-technology
- inwestycja Amazona w Anthropic: https://www.ft.com/content/01da4ed8-0371-44b0-a07d-63e07f32939e
- Responsible Scalling Policy, wersja trzecia: https://www-cdn.anthropic.com/e670587677525f28df69b59e5fb4c22cc5461a17.pdf
- Donald Trump o Anthropiku: https://www.bbc.com/news/articles/cn48jj3y8ezo
- Pete Hegseth o Anthropiku: https://x.com/secwar/status/2027507717469049070?s=46&t=Glebo8-Z1syI2niLQYEboQ
- o umowie OpenAI z Pentagonem: https://edition.cnn.com/2026/02/27/tech/openai-pentagon-deal-ai-systems
- Sam Altman o umowie z Pentagonem: https://x.com/sama/status/2027578652477821175
- o przychodach Anthropika: https://epoch.ai/data-insights/anthropic-openai-revenue
- wywiad Daria Amodei dla CBS: https://www.youtube.com/watch?v=MPTNHrq_4LU&t=295s
Polecane odcinki z archiwum "Techstorii" - numery: 20, 26
Szukaj w treści odcinka
Oczywiście chodzi o firmę Anthropic, największego rywala OpenAI.
Anthropic próbuje być takim sumieniem branży AI.
To, co się dzieje wokół Anthropica, który postawił się samemu Pentagonowi, to opowieść o momencie, w którym sztuczna inteligencja przestała być wyłącznie narzędziem, a zaczęła stawać się elementem przetasowania.
Jak donosi Wall Street Journal, w tym ataku wykorzystana została sztuczna inteligencja firmy Anthropic.
I choć nie planowałyśmy tego, że Anthropic zostanie uwikłany także w wojnę w Iranie i będziemy musiały się do niej odwoływać, to jednak są te wydarzenia znakomitą ilustracją całego naszego dzisiejszego odcinka.
A dodatkowo Anthropic, jakby nie było, staje się ewenementem, jeżeli chodzi o firmy amerykańskie, no bo nieczęsto zdarza się, żeby administracja Stanów Zjednoczonych tak publicznie wywierała nacisk na firmę, z którą bardzo blisko współpracuje.
Historia Anthropica dobrze pokazuje, co dzieje się, gdy firma pracuje nad technologią, na którą służby, a przede wszystkim wojsko oczywiście, mają apetyt, a że takich technologii podwójnego użycia, czyli szczególnie opartych na AI, będzie dużo więcej, no to możemy mieć do czynienia nie z pojedynczym przypadkiem, ale raczej z większym trendem, albo przynajmniej z jego początkiem.
No to może omówmy sobie, na czym w ogóle polega ta cała awantura wokół Anthropica, która się przetacza przez ostatnich kilka, no kilkanaście dni przez Stany Zjednoczone, ale też bardzo mocno rezonuje na świecie.
Wtedy to Anthropic zaczyna współpracę z Palantirem, czyli spółką, którą znamy już z odcinka nr 140.
No więc Anthropic i Palantir nawiązują współpracę, wtedy, dwa lata temu, i w ramach tej współpracy chatbot Anthropica, czyli Claude, miał być wpleciony w infrastrukturę Palantira po to, żeby ten system mógł lepiej rozumieć język naturalny i wszystko to oczywiście miało miejsce w systemach dla agencji wywiadowczych i obronnych Stanów Zjednoczonych.
A Anthropic miał zyskać rozpoznawalność w oczach wujka Sama, co też mogło się w przeszłości przełożyć na większe kontrakty, na przykład dla cywilnej części administracji.
No i oczywiście jeszcze Anthropic na tym zarobił całkiem nieźle, bo umowa opiewała na 200 milionów dolarów.
Wiadomo natomiast, że współpraca Pentagonu i Anthropica układała się bardzo dobrze, a przynajmniej nikt nie narzekał.
I okazało się, że Departament już w tym roku wojny, bo jednak nazwę została zmieniona, kierowany przez, i to jest bardzo ciekawe, byłego prezentera Fox News, Pete'a Hegseta, od pewnego czasu naciskał na Anthropic, by ten poluzował zabezpieczenia swojej sztucznej inteligencji.
Pentagon oceniał takie ograniczenia, które gdzieś tam Anthropic posiada, za wręcz działanie na niekorzyść państwa.
Od prawie 2 lat już Anthropic dostarcza modele dla szeroko rozumianego rządu Stanów Zjednoczonych.
Jest taka czerwona linia, która jest zdefiniowana przez firmę Anthropic, to znaczy oni stwierdzili, że ich modele nigdy nie powinny być używane do masowej inwigilacji oraz do autonomicznej broni, która służy do tego, żeby po prostu zabijać.
Bo w oczach wojskowych technologia Anthropica stała się po prostu zasobem strategicznym.
Tylko, że co innego w tej kwestii ma do powiedzenia Dario Amodei, prezes Anthropica.
Hegseth postawił Anthropicowi ultimatum.
Albo zgodzą się na ich żądania i zdejmą zabezpieczenia, albo Anthropic zostanie usunięty, znowu cytat, z łańcucha dostaw jego departamentu.
A efektem wdrożenia takiego rozwiązania jest wymaganie od wszystkich wykonawców współpracujących z wojskiem udowodnienia, że ich projekty wojskowe nie wykorzystują produktów Anthropic.
No więc tak w skrócie wygląda streszczenie sytuacji z ubiegłego tygodnia i o ile do konsekwencji tego zamieszania oczywiście jeszcze wrócimy, no to chyba trzeba w tym momencie opowiedzieć skąd wziął się Anthropic i czy upieranie się Dario Amodei przy tym, żeby nie znosić zabezpieczeń, ma jakiekolwiek podstawy.
Anthropic powstał w 2021 roku i to było wydarzenie, które od początku miało znaczenie nie tylko technologiczne, ale również filozoficzne i polityczne.
I razem z nimi Anthropic założyło kilku byłych pracowników OpenAI.
No więc można brać te deklaracje dosłownie, ale jednocześnie trzeba zauważyć, że z perspektywy czasu, no one brzmią nieco naiwnie, skoro jednak przedsiębiorstwo powstało i na początku tego roku przecież Anthropic osiągnąłby cenę 350 miliardów dolarów, więc no ojejku, ojejku, nie chcieliśmy, ale tak jakoś wyszło.
No dobra, ale jeżeli spojrzymy na strukturę tej firmy, to Anthropic nie jest zwykłą korporacją jak Microsoft, Nvidia czy każda inna firma większa w Dolinie Krzemowej, tylko działa jako korporacja pożytku publicznego, tak zwany Public Benefit Corporation.
Anthropic deklaruje swój cel jako odpowiedzialny rozwój i utrzymanie zaawansowanej sztucznej inteligencji dla długoterminowego dobra ludzkości.
W każdym razie, Anthropic od początku pozycjonowała się jako firma, która przede wszystkim dba o bezpieczeństwo swojej technologii oraz danych użytkowników, no a w konsekwencji także jako alternatywa dla firm, które zbyt szybko prą do komercjalizacji.
A więc wizerunek Anthropica jako tych dobrych był wspierany przez ich związek z ruchem efektywnego altruizmu, czyli bardzo specyficznej społeczności filozofów, filantropów i inżynierów, którzy mają taką, powiedzmy, obsesyjną troskę o ryzyka związane z przyszłością ludzkości, no a oczywiście w dzisiejszych czasach przede wszystkim w kontekście AI.
To znaczy, są bardzo skupieni na zarabianiu i dlatego ta społeczność dostarczyła Anthropicowi pierwszych inwestorów.
No ale jakby nie było, po tym skandalu z FTX-em kierownictwo Anthropica zaczęło się po prostu od efektywnego altruizmu odcinać, a Daniela Amodei zasugerowała w wywiadzie dla Wired, że ledwo kojarzy ten ruch, co było dosyć dziwne, biorąc pod uwagę, że zatrudnia jedną z jego ikon, Holdena Karnowskiego.
No więc Anthropic stwierdził, że to oni tak nie będą robić.
Kiedy jednak OpenAI wypuściło czat AGPT, który w ciągu dwóch miesięcy zrobił furorę, zdobył 100 milionów użytkowników, stał się takim naprawdę symbolem rozwoju sztucznej inteligencji, to i Anthropic uznał, że musi zaznaczyć swoją obecność.
Klot miał być ucieleśnieniem podejścia, które Anthropic określa jako Constitutional AI.
I to przez długi czas było utrzymywane i wzmacniane, bo ja śledziłem badania Anthropica na różnych dziedzinach, to znaczy to jak oni wprowadzili tak zwaną konstytucję AI, gdzie chcieli jak najlepiej zdefiniować to, co to w ogóle oznacza, że model ma być pomocny i ma nie krzywdzić.
Anthropic jako pierwszy wprowadził takie naklejki, które dla różnych modeli określały, na ile one są bezpieczne albo niebezpieczne.
Twórca Anthropica w ogóle bardzo lubi taką formę komunikacji.
W ogóle wśród, wiesz co, pracowników Anthropica jest bardzo dużo dzieci pisarzy, humanistów, filozofów, etc.
I ta retoryka oczywiście dobrze służy wizerunkowi firmy, jest z nią koherentna, pozwala Anthropicowi wyróżnić się na tle konkurencyjnej branży, ale Mateusz Chrobok podkreśla, że to więcej niż tylko sam marketing, choć ma też konkretne przełożenie na decyzje klientów.
Więc ja bym powiedział, że Anthropic miał taką
Oczywiście upraszczam, natomiast dla mnie to jest fascynujące, że wychodzi się w tym wypadku od filozofii i wprost się o tym mówi, to znaczy ja uwielbiam słuchać o tym, jak kształtowany jest system prompt, czyli ta definicja tego, jak model się zachowywać i że w zasadach tego funkcjonowania są takie podstawy, które są związane właśnie z tym, żeby nie krzywdzić, żeby wspierać, żeby jakby mieć elementy, które mają być dobre dla wszystkich, bo z jednej strony dla Anthropica
OpenAI jest tak bardzo do klientów końcowych, do tego, żeby jak najwięcej im dać albo zarobić na reklamach, a Anthropic bardziej się pozycjonuje jako w sprzedaży dla firm, no i o wiele trudniej jest tym innym firmom, które nie są pierwsze w tym świecie, żeby się jakoś wyróżnić.
Więc doceniasz, że Anthropic zatrudnia wspomnianą Amandę Asco, która ma stopień doktora filozofii na Uniwersytecie Nowojorskim.
Ale wracając znowu do naszego tematu, to wyróżniające Anthropic podejście okazało się skuteczne.
I tutaj zresztą, jak mówił Chrobok, Anthropic zastopował wypuszczenie tego konkretnego rozwiązania.
Anthropic jest firmą, która zdecydowała się nawet zatrudnić badacza dobrostanu modeli, aby sprawdzić, czy klot może cierpieć lub być świadomy.
Ja uważam, że jeszcze piękniejsza jest druga, drugi przykład takiej pomysłowości Anthropica.
Dobra, a wracając znowu do tej takiej etycznej strony funkcjonowania Anthropica, to firma w ramach dbania o swoją przejrzystość publikuje też raporty o przerażających możliwościach cloda.
A obecnie jedynym dużym produktem konsumenckim Anthropica, poza oczywiście chatbotem Cloud, jest Cloud Code, czyli potężne narzędzie, które automatyzuje pracę.
I żeby było jasno, to nie jest tak, że Anthropic sobie funkcjonuje w jakiejś próżni i tak sobie opowiada o tej etyce, o tym spowalnianiu wypuszczania modeli, o tym, żeby uważać, do czego ich używać, etc.
OpenAI udostępniło pod wpływem też tej narracji Anthropica model SPEC, czyli bardziej taką zwięzłą i pragmatyczną odpowiedź na konstytucję Antropii.
Anthropic pozyskał miliony książek z pirackich bibliotek, takich jak Libgen czy Pirate Library Mirror.
No więc Anthropic wszedł w te pirackie biblioteki, stworzył ogromne repozytoria chronionych utworów bez pytania o zgodę właścicieli praw autorskich, podważył w ogóle funkcjonowanie rynku licencji, no i też przy okazji pozbawił twórców wynagrodzenia po to, żeby treściami z tych książek nakarmić swój model.
A dodatkowo Anthropic kupował książki fizyczne, potem je skanował na masową skalę, a potem niszczył te egzemplarze, żeby szybciej tworzyć cyfrowe zbiory treningowe i formalnie no mieściło się to w granicach prawa, ale jednak stało się globalnym symbolem instrumentalnego traktowania kultury przez branżę AI.
A jakby tego było mało, to jeszcze branża muzyczna pozwała Anthropica, twierdząc, że ta firma wykorzystała dziesiątki tysięcy utworów, w tym oczywiście poprzez sieci torrent.
I przy tych najnowszych sprzed paru tygodni wprost firma Anthropic powiedziała, że tam pentesterzy, którzy z niego korzystali, oni korzystali nie z ręcznych interakcji,
Odszedł z Anthropica, napisał list, stwierdził, że on teraz będzie się zajmował poezją.
No więc dużo tutaj jeszcze elementów jest takich składowych, jeżeli chodzi o większy potencjał Anthropica na rynku.
A dodatkowo te narracje o byciu takim etycznym trochę podważa fakt, że Anthropic jest bardzo mocno uzależniony od Big Techów, a konkretnie od Googla oraz Amazona i to pod dwoma turbo ważnymi względami.
Przede wszystkim, chodzi o pieniądze, wiadomo, Amazon wpompował w rozwój Anthropica 8 miliardów dolarów, a w zamian Amodei zobowiązał się, że to chmura Amazona będzie podstawową przestrzenią obliczeniową dla jego firmy.
I zresztą Anthropic podobny deal ma z Googlem, bo ta firma zainwestowała 3 miliardy dolarów i ma 10% udziału w Anthropiku.
I oczywiście z Googlem Anthropic też ma umowę chmurową i zobowiązał się kupić od niej 1 milion chipów AI.
Bo Anthropic może i jest skupiony na etyce, ale jednak też jest biznesowo bardzo skuteczny.
Wszystko to oznacza, że w przeciwieństwie do OpenAI, Anthropic nie stawia na własną infrastrukturę.
No i ta batalia, bo to oczywiście sam Altman też widzi i dla niego to wcale nie jest w smak, że Anthropic stał się takim narzędziem B2B i wyborem bardzo dużej grupy, bo tak jak powiem, może to jest fakt.
Natomiast oczywiście diabeł tkwi w szczególe, no po prostu też różnica w podejściu, mam nadzieję, takiego finałowego, jakie zobaczymy między Anthropiciem a OpenAI, będzie jednak leżało w tym, że Dario Amodei jednak nie złamie kręgosłupa, do końca przynajmniej.
Ale przede wszystkim daje to biznesowe szanse Anthropicowi.
No i w momencie, gdy relacje między Amodei a Białym Domem oraz Pentagonem zaczęły się coraz bardziej zaogniać, no to Anthropic oskarżył chińskie firmy technologiczne, w tym oczywiście DeepSeek oraz Minimaxa, o prowadzenie operacji, które polegały na masowym pozyskiwaniu odpowiedzi modelu Cloth w celu naturalnie trenowania własnych systemów.
W tym tygodniu, w tym samym tygodniu, gdzie te wszystkie rzeczy się wydarzyły, pojawiła się informacja o tym, że Chińczycy, trzy laboratorskie chińskie, czyli Minimax, DeepSeek i Moonshot, destylowały dane z modeli Anthropica.
No i Anthropic powiedział, o nie, no nie możemy tak robić, tutaj Chińczycy nas kopiują, oni idą na skróty, nie ponoszą tych wszystkich kosztów.
I to jest z mojej perspektywy takie relatywizowanie, dlatego że Anthropic sam pobierał dane z internetu i to na szeroką skalę.
Ale w każdym razie, no już abstrahując od tego, jak oceniamy tę destylację całą, no to widać, że coś w tej wielkiej, etycznej opowieści Anthropica po prostu się przestaje ostatnio kleić.
I Anthropic rozróżnia tam dwie rzeczy.
No i zobaczcie, te zmiany pojawiły się w czasie, kiedy już rozgorzał konflikt z Departamentem Wojny, czy też Obrony, a równocześnie Anthropic i Amodei jak nigdy dotąd stali się symbolem walki właśnie o etykę i o niezależność technologii wobec polityki.
Ale on od razu ogłosił, że skoro tak, to on wyklucza Anthropica ze swojej administracji i wprost kazał wszystkim podległym sobie agencjom przestać korzystać z Cloda.
No a z kolei jak podaje BBC, Anthropic to jest pierwsza firma, która przez administrację amerykańską została w taki sposób potraktowana, czyli najpierw próbowano ją zmusić do uległości, właśnie wykręcać jej ręce za plecami, a potem odcięto ją od zamówień.
A z kolei Anthropic oświadczył, że, i to jest cytat, będzie kwestionować w sądzie wszelkie oznaczenia dotyczące ryzyka.
W tym tygodniu Anthropic wygłosił mistrzowską lekcję arogancji i zdrady, a także podręcznikowy przykład tego, jak nie robić interesów z rządem Stanów Zjednoczonych ani Pentagonem.
Departament Wojny musi mieć pełny, nieograniczony dostęp do modeli Anthropic.
Zamiast tego Anthropic AI i jego dyrektor generalny Daria Amodei wybrali dwulicowość.
Coś się nie klei, ale drugim wyjaśnieniem może być to, że oni po prostu mogą na Anthropica szukać hacków.
A od roku wcale nie jest takie dziwne, gdyby się okazało, że jutro Donald Trump by powiedział, hej, ponieważ Anthropic robi dobrą robotę i ma dobre narzędzie, to jest spółka amerykańska, to my ją przejmujemy.
Jakby nie było, natura nie znosi próżni i ledwie kilka godzin po tym, jak Trump wręczył Anthropicowi VG bilet, podał tą czarną polewkę, to na białym koniu pojawił się na scenie sam Altman, który nie dość, że zapewnił, że on to nie będzie mieć żadnych wątpliwości, jak jakiś tam Daria Amodei, to dodatkowo, że jego OpenAI już podpisało umowę z Pentagonem.
I co ciekawe, w oświadczeniu na X-ie on napisał, że Departament Wojny zgodził się na te zastrzeżenia dotyczące bezpieczeństwa, których zdjęcia domagał się Anthropica.
Z tego świadczenia wynika, że OpenAI dostał takie same warunki, jakie miał wcześniej Anthropic, czyli bez żadnych dodatkowych wymagań.
Lewin dodawał, że to kompromis, który także Anthropic otrzymał, ale został odrzucony.
I ze mną bardzo rezonuje to, co jest napisane z firmy Anthropic.
To prawda, ale są też niewiadome, chociażby nie wiadomo jak decyzja Trumpa o wykluczeniu Anthropica z administracji przełoży się na przychody tej firmy, no bo przecież firma Amodei była na prostej trajektorii do przeskoczenia pod tym względem OpenAI.
Pierwszy miliard Anthropic zarobił pod koniec 2024 roku.
I według analiz firmy Epoch, Anthropic miał mniej więcej w połowie tego roku, może jesienią, przeskoczyć OpenAI pod względem przychodów.
Zresztą przecież w tym roku Anthropic ma wejść na giełdę.
Znacznie poważniejsze jest wykluczenie klientów, którzy mają jakiekolwiek kontrakty rządowe w relacji biznesowej z Anthropiciem.
Natomiast to wszystko wskazuje na to, że po prostu szef Anthropica nie odrzuca całkowicie oferty Pentagonu, tylko teraz próbuje negocjować i proponuje współpracę w takim bardziej kontrolowanym środowisku.
I w tym wszystkim zostaje jeszcze jedna niewiadoma, mianowicie w jakim zakresie klot czy też inne usługi od Anthropica zostały wykorzystane do ataku na Iran i czy akurat one nie naruszają etycznego kręgosłupa firmy.
Jeżeli dalej będzie tak się zagnięła sytuacja między administracją Trumpa a Anthropiciem, to może się okazać, że wypłyną na ten temat informacje, czy to ze środka Pentagonu, czy to ze środka Anthropica.
Ostatnie odcinki
-
161# Mroczny lord Palantira. Peter Thiel i jego...
21.04.2026 16:00
-
160# Ban Telegrama w Rosji. Cyfrowa suwerenność...
15.04.2026 03:00
-
160# Ban Telegrama w Rosji. Cyfrowa suwerenność...
14.04.2026 16:00
-
159# Robot na salonach. Czym (lub kim) jest Edw...
07.04.2026 16:00
-
158# Bezwzględni czy beztroscy? Twórcy Facebook...
31.03.2026 16:00
-
157# "Korporacje" tworzone, by kraść. Tak dział...
24.03.2026 21:37
-
157# "Korporacje" tworzone, by kraść. Tak dział...
24.03.2026 17:00
-
156# Australio, jak Ci idzie? Co wychodzi z odc...
17.03.2026 17:00
-
155# Ojciec i syn Ellisonowie - dynastia, która...
10.03.2026 17:00
-
154# Oni postawili się Pentagonowi. Poznajcie A...
03.03.2026 17:00