Stany Zjednoczone obkładają narzędzia firmy Anthropic natychmiastowym zakazem użytku w zastosowaniach publicznych. Decyzję tę ogłosił personalnie Donald Trump w swoim wpisie. Jest to pokłosie coraz głośniejszego konfliktu, który poróżnił firmę z amerykańskim Departamentem Wojny, a który dotyczył wykorzystania firmowych modeli AI w zastosowaniach militarnych – w szczególności użycia mechanizmów AI do inwigilacji celów bądź też bezpośredniego zarządzania przez nie systemami uzbrojenia.
Krok ogłoszony przez prezydenta Trumpa stanowi tego sporu ogromną eskalację. Wprowadzony przez Biały Dom zakaz dotyczy bowiem wszystkich instytucji federalnych, nie tylko Pentagonu i jego struktur. Co więcej, standardowo w takich przypadkach obejmuje on nie tylko same organa federalne, ale także wszystkich ich dostawców i kontrahentów, pośrednich i bezpośrednich, beneficjentów federalnych programów. Decyzja przewiduje sześciomiesięczny okres przejściowy dla tych instytucji, które już używają firmowego modelu Claude, i jest on zintegrowany z ich systemami. Jak na ironię, jedną z tych instytucji jest Pentagon.
Anthropic i Pentagon na wojennej ścieżce
Spór narósł wokół kontraktu o wartości 200 milionów dolarów, podpisanego w lipcu 2025 r., przewidującego użycie Claude w środowiskach klasyfikowanych do analizy wywiadu, symulacji operacji i planowania wojskowego. Rychło jednak pojawiły się zgrzyty. W swym regulaminie świadczenia usług Anthropic przewiduje zakazy wykorzystania swych narzędzi do masowej inwigilacji oraz obsługi w pełni autonomicznych systemów uzbrojenia, aktywowanych bez nadzoru ludzkiego. Te ograniczenia, zdaniem firmy, wynikają z niewystarczającej niezawodności obecnych modeli AI w takich scenariuszach, co mogłoby naruszać standardy bezpieczeństwa i wartości demokratyczne.
Departament Wojny odmówił jednak podporządkowania się i dostosowywania działań militarnych do regulaminu prywatnej firmy. Stało się to szczególnie jasne po błyskotliwej operacji ujęcia prezydenta Maduro w Wenezueli – w toku której jakoby wykorzystano właśnie Claude’a, tyle, ze bez zgody firmy. Obydwie strony, pomimo oficjalnie dobrej komunikacji, odmawiały ustąpienia. W efekcie sekretarz wojny, Pete Hegseth, na wtorkowym spotkaniu z prezesem firmy Anthropic, Dario Amodeim, postawił mu ultimatum: do godz. 17:01 w piątek, 27 lutego, firma miała usunąć te restrykcje, umożliwiając użycie Claude do „wszelkich zgodnych z prawem celów militarnych”.
W przypadku odmowy grożono anulowaniem kontraktu, zaklasyfikowaniem firmy Anthropic jako „ryzyka w łańcuchu dostaw” – kategorii typowej dla firm powiązanych z rywalami geopolitycznymi lub panstwami totalitarnymi, jak Huawei – oraz ewentualnym wykorzystaniem zapisów ustawy Defense Production Act z 1950 roku., umożliwiającej przymusowe wykorzystanie aktywów gospodarczych czy produkcyjnych na potrzeby obronności kraju. Pentagon argumentował, że nie planuje zastosowania botów AI do inwigilacji – która, wyjąwszy przypadki szczególne, i tak jest nielegalna – czy autonomicznych systemach uzbrojenia, ale żądał pełnej swobody w ramach prawa, bez zewnętrznych ograniczeń.
Regulacyjna „egzekucja” firmy?
We czwartek Anthropic ogłosił jednak, że żądania te odrzuca. Firma stwierdziła w oświadczeniu, że nie może zgodzić się na kompromis w kwestiach zasadniczych – choć, jak zauważają niektórzy obserwatorzy, wcześniej już to zrobiła, rezygnując z twardych, wyznaczonych przez siebie granic bezpieczeństwa AI na rzecz standardów bardziej labilnych. Firma podkreśliła za to swoje wcześniejsze wsparcie dla obronności USA, w tym wdrożenie modeli AI w poufnych zastosowaniach i rezygnację z kontraktów z podmiotami chińskimi o wartości setek milionów dolarów. Oferowała współpracę w płynnej migracji do alternatywnych dostawców, unikając zakłóceń w operacjach wojskowych.
To wszystko, jak się okazuje, nie uczyniło wiele, aby złagodzić ewidentne poirytowanie amerykańskiego prezydenta. Trump w swym oświadczeniu nie zawahał się sięgnąć po kilka barwniejszych określeń („lewicowe świry (…), których egoizm zagraża życiu Amerykanów„), ale co znacznie bardziej istotne, ogłosił też, że administracja federalna USA na dobre rezygnuje z rozwiązań firmy, także w przyszłości. Oznacza to realnie wciągnięcie jej na czarną listę – nie tylko odcina ją od kontraktów federalnych, ale też od całych sektorów rynku, na których firmy i podmioty mogą same obawiać się wtórnego objęcia podobnymi ograniczeniami. I stanowi sięgnięcie po jedno z najcięższych i radykalnych narzędzi regulacyjnych.
Postawa Anthropica kontrastuje tutaj dość istotnie z działaniami innych firm. Zaledwie niedawno kontrakt z Pentagonem na wykorzystanie rozwiązań opartych na algorytmach Groka – bez ograniczeń dot. wykorzystania na podstawie polityki firmy – podpisała xAI. Chętna, aby zając miejsce konkurenta – na którego w ostatnich miesiącach wyrósł Anthropic – jest też OpenAI. Sam Altman miał wyjawić, że firma współpracuje z Departamentem Wojny nad możliwym zaadoptowaniem modeli ChatGPT lub pochodnych do zastosowań militarnych. Wszystko to nie oznacza, że Claude zostanie zastąpiony całkowicie – jeśli jednak pozostanie w użytku, to najpewniej nieoficjalnie – i w sposób nadal łamiący politykę firmy.