Anthropic pozostanie na czarnej liście. Apelacja firmy odrzucona, prawna wojna z Pentagonem trwa

Pentagon nie przekroczył swoich kompetencji, kwalifikując firmę Anthropic jako zagrożenie dla łańcucha dostaw – co wiąże się z szeregiem konsekwencji dla niej. Tak orzekł amerykański sąd apelacyjny, właściwy dla Dystryktu Kolumbii, czyli stołecznego miasta Waszyngton. Sąd ten oddalił wniosek o tymczasowe wstrzymanie (temporary injunction) wykonania decyzji Departamentu Wojny. Decyzja nie stanowi przy tym rozstrzygnięcia co do meritum sprawy i nie kończy postępowania. Desygnacja dokonana przez Pentagon pozostaje jednak w mocy na czas trwania procesu – który trwać może latami.

Jak wiadomo, Anthropic został oficjalnie zakwalifikowany jako firma niespełniająca norm bezpieczeństwa narodowego w wyniku publicznego sporu i kłótni z Pentagonem o wykorzystanie systemów AI w zadaniach bojowych. Decyzję taką podjął sekretarz wojny, Pete Hegseth, realizując polecenie prezydenta Donalda Trumpa, na podstawie dwóch odrębnych ustaw dotyczących zamówień rządowych. Pierwsza z nich odcina Anthropic od kontraktów Pentagonu związanych z systemami informacyjnymi sił zbrojnych. Druga otwiera drogę do objęcia spółki zakazem współpracy z całą administracją federalną.

Jest to pierwsze publiczne zastosowanie tych przepisów wobec amerykańskiej spółki technologicznej – dotychczas kategoria ta była „zarezerwowana” dla państwowych koncernów chińskich czy rosyjskich. Żadne przepisy nie zabraniają zarazem sięgnięcia po te środki w przypadku firmy zarejestrowanej w Stanach Zjednoczonych – co też, jak wiadomo, nastąpiło.

Kręty labirynt przepisów – i praktyk sądowych

Naturalnie, Anthropic zaskarżył obydwie decyzje przed sądem federalnym, co skądinąd jest już w USA niemal standardem, a przy okazji także rosnącym problemem ustrojowo-cywilizacyjnym – niemal każda oficjalna decyzja jest bowiem zaskarżana przez tych, którzy na niej tracą, lub chociaż nie zyskują. W ten sposób system sądowniczy i obsadzający go sędziowie, podtrzymując, blokując lub dowolnie zmieniając oficjalne postanowienia, efektywnie przejmują władzę administracyjną, metodą faktów dokonanych rozszerzając ją daleko poza ramy dyktowane przez amerykańskie tradycje konstytucyjne).

Naturalnie prowadzi to do absurdalnych niekiedy sytuacji, gdy poszczególni sędziowie federalni – uznając, że mają nieograniczone kompetencje do zmieniania decyzji administracyjnych (a niekiedy i samych przepisów prawnych) – wydają orzeczenia wzajemnie ze sobą sprzeczne. Historycznie, zwłaszcza w XIX w., nie było to wielkim problemem, wówczas bowiem skutecznie zapobiegały takim praktykom społeczne oczekiwania oraz żywa tradycja prawna z początków istnienia USA, a kładąca nacisk na ograniczone uprawnienia władz państwowych (w tym i tych sądowniczych).

Niestety, obecnie czynniki te działają znacznie słabiej, o ile w ogóle, co często prowadzi do prawnego chaosu. Tak też było i tym razem. Anthropic zaskarżył osobno obydwie decyzje Hegsetha w dwóch oddzielnych procesach. W jednej ze spraw, toczącej się w sądzie okręgowym w Kalifornii, sędzia federalny wydał tymczasowe postanowienie blokujące wykonanie omawianej decyzji. W drugim pozwie, procedowanym w Dystrykcie Kolumbii, Sąd Apelacyjny odmówił wstrzymania skutków oznaczenia, mimo że w jeszcze innej, powiązanej apelacji inny sąd apelacyjny doszedł do odmiennego wniosku.

Anthropic ma rację, Pentagon też ją ma

Jak wiadomo Anthropic, producent modelu językowego Claude, wdał się w zażarty spór z Pentagonem, którego przedmiotem było wykorzystanie Claude’a przez wojskowych w systemach autonomicznej broni oraz do zadań śledzenia wrażliwych informacji. Firma odmówiła usunięcia ograniczeń zaprogramowanych w algorytmach swych systemów sztucznej inteligencji, na co Departament Wojny zareagował poleceniem zignorowania polityki firmy – oraz właśnie wspomnianym oznaczeniem jej jako zagrożenia łańcuchu produkcyjnego, wraz z decyzją o zastąpieniu wszystkich jej produktów modelami innych firm.

Anthropic sprzeciwia się tej decyzji, że kroki Pentagonu stanowią formę represji za publiczne wyrażanie poglądów na temat bezpieczeństwa sztucznej inteligencji w zastosowaniach wojskowych oraz naruszenie Pierwszej i Piątej Poprawki do Konstytucji Stanów Zjednoczonych. Departament odpiera, że nie ma zamiaru podporządkowywać decyzji militarnych polityce narzucanej przez prywatną firmę, ani też rezygnować z możliwości, jakie oferuję AI w systemach uzbrojenia. Pentagon uznał, że postawa firmy naraziła systemy wojskowe na potencjalne podważenie ich pełnej skuteczności.

W konsekwencji oznaczenie blokuje dostęp spółki do kontraktów obronnych i może spowodować – wedle szacunków samej firmy Anthropic – utratę przychodów rzędu miliardów dolarów. I o to właśnie toczy się proces, choć firma stoi tutaj na o tyle słabszej pozycji, że nawet w przypadku wygrania procesu trudno jej będzie zmusić Pentagon do przyznania jej kontraktu. No, chyba że i w tej sprawie znajdzie się jakiś sędzia federalny, który przyzna swojej instancji prawo do przyznawania zamówień w imieniu rządu federalnego. Dotąd takiego precedensu w USA nie było – ale to nie gwarantuje, że nie będzie go w przyszłości.