Pentagon uderza w Anthropic, zrezygnuje z usług AI? Znamy powód
Departament Obrony USA rozważa zakończenie współpracy z firmą Anthropic, twórcą modelu Claude. Miałoby to być następstwem ujawnienia faktu wykorzystania tego systemu sztucznej inteligencji podczas niedawnej operacji wojskowej w Wenezueli. Według pojawiających się doniesień i źródeł prasowych, bot Claude został zintegrowany z wykorzystywanymi przez amerykańską armię narzędziami firmy Palantir Technologies i użyty w styczniowej akcji ujęcia autorytarnego prezydenta Nicolása Maduro oraz jego żony.
Przeprowadzona w zeszłym miesiącu spektakularna operacja obejmowała bombardowanie kilku obiektów w Caracas oraz bezpośrednie działania kinetyczne, tj. szturm przeprowadzony przez operatorów Delta Force na obiekt, w którym ukrywał się Maduro. Jak twierdzi wenezuelski resort obrony, w wyniku tych działań zginęły 83 osoby. Wykorzystanie Claude’a w tych wydarzeniach opierało się na partnerstwie, jakie Anthropic zawarł z Palantirem. Wedle dostępnych informacji wiodący ostatnio bot wspierał przetwarzanie i analizę dużych wolumenów danych wywiadowczych – w tym najprawdopodobniej obrazów satelitarnych i meldunków operacyjnych.
AI dla wojska – ale „nie do zastosowań militarnych”
Departament Obrony – co nie stanowi zaskoczenia – nie potwierdził ani nie zdementował szczegółów technicznych. Można jednak domniemywać, że samo pojawienie się tego pytania, dotyczącego przecież kwestii tajnych (a takimi bez wątpienia były dane wywiadowcze, na podstawie których planowano działania w Wenezueli), było przedstawicielom Pentagonu mocno nie w smak. Kontrakty wojskowe dotyczące takich kwestii rutynowo zawierają zobowiązania do zachowania dyskrecji (non-disclosure agreements), niezależnie od tego zaś ujawnianie szczegółów ich dotyczących jest także złamaniem przepisów federalnych.
Anthropic ze swej strony miał od początku deklarować, że polityka użytkowania Claude’a wyklucza możliwość użycia przemocy, rozwoju uzbrojenia czy inwigilacji. Firma oświadczyła, że nie komentuje ewentualnego wykorzystania modelu w konkretnych – zwłaszcza tajnych – operacjach, ale każdy przypadek musi być zgodny z jej zasadami. Oczywiście kwestią dyskusyjną pozostaje to, na ile Pentagon czuje się zobligowany do podporządkowania się polityce ustalonej przez prywatną firmę (Departament ma przy tym narzędzia prawne, by móc taką politykę bezkarnie zignorować, jak np. zapisy ustawy Defense Production Act z 1950 r.).
Anthropic dobrowolne rezygnuje z kawałka tortu?
Po ujawnieniu faktów przedstawiciele firmy Anthropic zwrócili się do Palantiru z pytaniami o charakter użycia Claude’a w fazie kinetycznej akcji, co interpretowano jako wyraz dezaprobaty. Kontrakt z Pentagonem, wart do 200 mln dolarów i podpisany latem 2025 r., uczynił tę firmę pierwszym dostawcą komercyjnych modeli AI zintegrowanych z tajnymi sieciami resortu obrony. Teraz administracja rozważa jego rozwiązanie. Jak wskazują źródła w administracji, Pentagon domaga się możliwości szerszego zakresu zastosowań AI – w tym w rozwoju uzbrojenia i operacjach wywiadowczych – podczas gdy Anthropic dąży do utrzymania ścisłych ograniczeń.
Zastąpienie Claude’a w krótkim terminie uznawane jest za trudne, gdyż inne dostępne modele komercyjne nie osiągnęły jeszcze porównywalnego poziomu dostosowania do potrzeb rządowych. W pełni wyobrażalne wydaje się natomiast wykorzystanie przez Pentagon bota „po swojemu”, nie przejmując się polityką firmy (zwłaszcza, jeśli miałoby to być wykorzystanie niejawne), przy zachowaniu tzw. plausible deniability przez firmę (co może mieć znaczenie prawno-sądowe, gdyby ktoś zechciał ją o to pozwać). Długoterminowo natomiast takie ograniczenia faktycznie mogą zamknąć przed startupem dostęp do dalszych lukratywnych zleceń wojskowych.