Administracja Trumpa nakazała agencjom federalnym i wykonawcom współpracującym z wojskiem zakończenie używania technologii Anthropic oraz wycofanie modelu Claude z systemów obronnych w ciągu sześciu miesięcy. Pentagon dodatkowo oznaczył firmę jako „ryzyko dla łańcucha dostaw”, czyli kategorię zwykle kojarzoną z zagrożeniami bezpieczeństwa.

Dla rynku to jest przede wszystkim zmiana dostawcy, a nie zmiana kierunku. Wojsko nadal będzie kupować narzędzia AI. Pytanie brzmi, kto wejdzie w puste miejsce. Wygrywać będą ci, którzy potrafią dostarczać szybko i zaakceptują warunki użycia, które Pentagon uznaje za konieczne. Doniesienia mówią, że OpenAI już próbuje przejąć część pracy po Anthropic. Dla inwestorów w sektorze obronnym i technologicznym to może być nowy podział wpływów w kontraktach rządowych.
O co spierają się Anthropic i Pentagon
Sedno sporu jest proste: Pentagon chciał możliwości wykorzystania Claude "do wszystkich zgodnych z prawem celów"; Anthropic zachował dwie czerwone linie - zakaz stosowania w pełni autonomicznych systemów uzbrojenia i zakaz masowej inwigilacji obywateli amerykańskich. Anthropic twierdzi, że określenie "ryzyko dla łańcucha dostaw" jest prawnie nie do utrzymania i że zakwestionuje je w sądzie.
Z praktycznego punktu widzenia obrony ważne jest również to, że Claude działał już w sieciach niejawnych, a Anthropic miał kontrakt z Departamentem Obrony z limitem do 200 milionów dolarów. Odcięcie narzędzia, które już znalazło bazę użytkowników w agencji, jest bolesne również dla rządu - dlatego też Pentagon otwarcie mówi o szybkim zastąpieniu go innymi wykonawcami.
Dlaczego nie jest to tylko problem Anthropic, ale sygnał dla całego sektora
Ten epizod stanowi wyraźny sygnał dla rynku: jeśli firmy zajmujące się sztuczną inteligencją chcą sprzedawać modele wojsku, sama "polityka etyczna" może nie wystarczyć. Dla inwestorów podnosi to premię za ryzyko dla firm, które budują część swojego wzrostu na kontraktach rządowych, tworząc jednocześnie przestrzeń dla konkurentów, którzy mogą zaoferować kompromisowy model "ubezpieczenia" bez postrzegania przez Pentagon ograniczeń jako bariery dla operacji.
Poza krótkoterminowym szokiem istnieje również gra długoterminowa: ktokolwiek wyznaczy standard "bezpiecznej" sztucznej inteligencji w sektorze rządowym, zyska nie tylko przychody, ale także znaczek reputacji, który można wykorzystać w sferze komercyjnej. Właśnie dlatego konflikty takie jak ten są tak uważnie obserwowane - to nie tylko jeden kontrakt, ale precedens.
Kto z "Magnificent 7" jest powiązany z Anthropic i co to może oznaczać dla akcji?
Amazon's $AMZN jest najbardziej widoczny w tej historii: od dawna pogłębia swoje relacje z Anthropic i przesłał firmie miliardy dolarów, zgodnie z własnymi materiałami i publicznymi raportami, a AWS jest kluczowym partnerem Anthropic w zakresie operacji i szkoleń. Oznacza to, że jakakolwiek presja na działalność Anthropic może pośrednio wpłynąć na wzrost zużycia mocy obliczeniowej w chmurze - i odwrotnie, jeśli Anthropic przeniesie część swojej działalności z sektora obronnego na komercyjny, AWS może nadal odnosić korzyści.
Alphabet (Google) $GOOG ma również znaczący ślad ekonomiczny w Anthropic. Zarówno Bloomberg, jak i Reuters opisały wcześniej wielomiliardową inwestycję Google w Anthropic i silne powiązania poprzez infrastrukturę obliczeniową. Dla Alphabet stwarza to dwojaki efekt: z jednej strony ekspozycję na wycenę i wzrost Anthropic, az drugiej strony potencjalne "rozlanie się" popytu rządowego na własne modele, jeśli Pentagon zacznie szukać alternatyw.
Microsoft $NVDA i Nvidia $NVDA również weszły do Anthropic poprzez inwestycje i umowy strategiczne. Jest to istotne dla rynku, ponieważ są to firmy, które zarabiają na sztucznej inteligencji głównie poprzez infrastrukturę (chmura, chipy, platformy). Jeśli Pentagon i kontrahenci z sektora obronnego przekierują budżety z Anthropic na inne modele, zwycięzcami mogą okazać się ci, którzy dostarczają "stos" zastępczy - moc obliczeniową, sprzęt i narzędzia integracyjne. Jednocześnie jednak eskalacja konfliktu zwiększa ryzyko polityczne dla całego sektora sztucznej inteligencji: jeśli jedna firma upadnie tak mocno dzisiaj, presja może pojawić się na innych jutro, jeśli wdadzą się w podobny spór dotyczący warunków użytkowania.
Kto może zyskać na odcięciu Anthropic?
W perspektywie krótkoterminowej najczęściej wymieniana jest firma OpenAI, która szybko ogłosiła zawarcie umowy z Ministerstwem Obrony i podkreśliła, że może zaoferować "bezpieczniki warstwowe" do użytku w sieciach niejawnych. Jeśli Pentagon zamierza spróbować zminimalizować koszty transformacji, sensowne jest sięgnięcie po dostawcę, który ma już gotowy produkt, ramy bezpieczeństwa i personel.
Inną grupą potencjalnych zwycięzców są integratorzy i wykonawcy z branży obronnej, którzy będą musieli ponownie skonfigurować wewnętrzne przepływy pracy i aplikacje. W tym miejscu często pojawia się nazwa Palantir $PLTR (ze względu na jego rolę w systemach danych obronnych) i duże domy zbrojeniowe, które będą przepisywać procesy, a nie tylko "zastępować chatbota". Im dłuższy okres przejściowy, tym więcej pracy (i budżetów) zostanie przeznaczonych na integrację.