Pentagon chce całkowitej kontroli nad AI: „Będzie sama decydować”. Anthropic musi się ugiąć?

Stany Zjednoczone znalazły się w punkcie zwrotnym w relacjach między państwem a sektorem sztucznej inteligencji. Spór pomiędzy Pentagonem a firmą Anthropic nie dotyczy już pojedynczego kontraktu ani technicznych zapisów umownych, lecz fundamentalnej kwestii … Kto ma ostateczną kontrolę nad najbardziej zaawansowanymi systemami AI w warunkach narastającej rywalizacji geopolitycznej. Pozornie brzmi to jak scenariusz wyjęty z 'Universal Soldier’, ale problem stał się do bólu realny.

Departament Obrony USA postawił Anthropic twarde ultimatum. Sekretarz obrony Pete Hegseth dał zarządowi spółki czas do piątku, do godziny 17:00, na zaakceptowanie warunków zakładających pełny, nieograniczony dostęp wojska do modelu Claude dla wszystkich „prawnie dozwolonych” zastosowań militarnych. W przypadku odmowy firma ma stracić kontrakt obronny o wartości do 200 mln dolarów oraz zostać formalnie uznana za ryzyko dla łańcucha dostaw Departamentu Obrony.

Defense Production Act jako broń ostateczna

Jeszcze poważniejszym sygnałem jest gotowość Pentagonu do sięgnięcia po Defense Production Act. To narzędzie prawne, historycznie stosowane w czasie wojen i kryzysów strategicznych, pozwala rządowi wymuszać priorytetową produkcję i dostęp do kluczowych technologii. Jego potencjalne użycie wobec prywatnej firmy AI byłoby precedensem i oznaczałoby, że państwo uznaje zaawansowane modele językowe za zasób o znaczeniu strategicznym porównywalnym z przemysłem zbrojeniowym.

W praktyce taki ruch mógłby zmusić Anthropic do udostępnienia technologii wojsku niezależnie od woli zarządu, a nawet bez wynagrodzenia. To radykalnie przesuwa granicę między dobrowolną współpracą a przymusem regulacyjnym w sektorze nowych technologii.

Dlaczego Anthropic mówi „nie”

Źródłem konfliktu jest sprzeciw Anthropic wobec zniesienia kluczowych zabezpieczeń etycznych. Firma, jako pierwsza dopuszczona do pracy z danymi niejawnymi Pentagonu, domagała się gwarancji, że jej model nie będzie wykorzystywany do masowej inwigilacji obywateli USA ani do rozwoju w pełni autonomicznych systemów bojowych pozbawionych realnego nadzoru człowieka.

Prezes spółki Dario Amodei wielokrotnie ostrzegał, że zaawansowana AI analizująca miliardy rozmów i interakcji społecznych mogłaby stać się narzędziem systemowej kontroli społeczeństwa. W jego ocenie taki scenariusz podważałby sens Czwartej Poprawki i tworzył infrastrukturę, która czyni prywatność iluzją. Amodei zwracał także uwagę na ryzyko autonomicznych rojów dronów zdolnych do prowadzenia śmiercionośnych operacji bez decyzji człowieka, co jego zdaniem niszczy podstawy odpowiedzialności prawnej w działaniach wojennych.

Pentagon: bezpieczeństwo bez „ideologicznych ograniczeń”

Stanowisko Departamentu Obrony jest jednoznaczne. Pentagon odrzuca argumentację Anthropic, podkreślając, że wojsko działa wyłącznie w ramach prawa, a odpowiedzialność za użycie technologii spoczywa na instytucjach państwowych, nie na dostawcach. Hegseth otwarcie stwierdził, że amerykańska AI wojskowa nie może być krępowana „ideologicznymi barierami”, które mogłyby ograniczać skuteczność operacyjną sił zbrojnych.

W tle tej retoryki wyraźnie widać presję geopolityczną. W warunkach globalnej rywalizacji technologicznej USA nie chcą dopuścić do sytuacji, w której prywatna firma de facto decyduje o tym, jak państwo może wykorzystywać kluczowe narzędzia obronne.

Konkurencja bez hamulców etycznych

Pozycję Anthropic osłabia fakt, że konkurenci przyjęli znacznie bardziej elastyczne podejście. xAI, należąca do Elon Musk, podpisała już umowę umożliwiającą wykorzystanie modelu Grok w sklasyfikowanych systemach wojskowych na zasadzie „all lawful purposes”. Podobnie OpenAI oraz Google w ostatnich latach usunęły ze swoich polityk zapisy zakazujące wojskowych i wywiadowczych zastosowań AI, uznając je za zgodne z interesem bezpieczeństwa narodowego.

W tym kontekście odmowa Anthropic czyni z niej nie tylko partnera problematycznego, ale potencjalnie zastępowalnego.

Ustępstwa Anthropic i presja rynku

Pod presją Pentagonu i konkurencji Anthropic już częściowo ustąpiło. Firma zastąpiła swoją wiążącą Responsible Scaling Policy bardziej elastyczną, niewiążącą „Frontier Safety Roadmap”, usuwając zobowiązanie do wstrzymywania rozwoju modeli w przypadku, gdy mechanizmy bezpieczeństwa nie nadążałyby za ich rosnącymi możliwościami. Ten krok pokazuje skalę presji rynkowej, ale nie rozwiązuje kluczowego sporu o pełną kontrolę nad zastosowaniami militarnymi.

AI jako zasób strategiczny państwa

Z perspektywy geopolitycznej stawka jest znacznie wyższa niż los jednego kontraktu o wartości 200 mln dolarów. Spór Anthropic z Pentagonem pokazuje, że państwo amerykańskie coraz wyraźniej traktuje zaawansowaną AI jako zasób strategiczny porównywalny z technologiami nuklearnymi, kryptografią czy systemami satelitarnymi. W tej logice prywatne firmy mogą uczestniczyć w ekosystemie obronnym, ale nie mogą narzucać ograniczeń, które podważają suwerenność decyzyjną państwa.

Niezależnie od tego, czy Anthropic ustąpi przed piątkowym terminem, czy zdecyduje się na konfrontację, jedno jest już przesądzone. Era, w której największe firmy AI mogły samodzielnie wyznaczać granice dopuszczalnych zastosowań swoich modeli, dobiega końca. W świecie narastających napięć strategicznych sztuczna inteligencja przestaje być neutralnym narzędziem innowacji, a staje się instrumentem władzy państwowej. Etyka pozostaje elementem debaty — ale coraz częściej podporządkowanym racji stanu.