OpenAI podpisało umowę z Pentagonem. Da wojsku pełnię władzy nad AI? Anthropic za burtą?

Sam Altman, prezes firmy OpenAI, ogłosił w mediach społecznościowych nawiązanie ścisłej współpracy z Departamentem Wojny Stanów Zjednoczonych w zakresie wdrażania zaawansowanych modeli sztucznej inteligencji.

Umowa przewiduje wykorzystanie technologii OpenAI wewnątrz sklasyfikowanych sieci wojskowych, co ma na celu podniesienie efektywności operacyjnej armii. Altman podkreśla, że podczas negocjacji strona rządowa wykazała się głębokim zrozumieniem kwestii bezpieczeństwa oraz chęcią partnerstwa na rzecz osiągnięcia optymalnych rezultatów. W oświadczeniu zaznaczono, że fundamentem misji firmy pozostaje bezpieczeństwo sztucznej inteligencji oraz szeroka dystrybucja płynących z niej korzyści.

źródło: X

Zasady bezpiecznego wykorzystania technologii przez wojsko

Kluczowym elementem porozumienia jest wprowadzenie rygorystycznych ograniczeń dotyczących zastosowania broni autonomicznej oraz nadzoru wewnętrznego. Altman poinformował, że dwie fundamentalne zasady bezpieczeństwa obejmują zakaz stosowania technologii do masowej inwigilacji obywateli w kraju oraz wymóg ludzkiej odpowiedzialności za użycie siły, co dotyczy również systemów broni autonomicznej. Departament Wojny zgodził się z tymi postulatami, odzwierciedlając je w obowiązującym prawie oraz polityce, a odpowiednie zapisy znalazły się w finalnej umowie. Wdrożenie modeli odbędzie się wyłącznie w oparciu o bezpieczne sieci chmurowe, co ma zminimalizować ryzyko wycieku danych. Eksperci ds. obronności zwracają uwagę na potencjalne ryzyka związane z powierzeniem AI decyzji na polu bitwy, co budzi skrajne emocje wśród obserwatorów. Bez wątpienia kluczowe okaże się tu techniczne zdefiniowanie ludzkiej odpowiedzialności za działania algorytmów. Dodatkowo firma zobowiązała się do zbudowania technicznych zabezpieczeń gwarantujących, że modele zachowają się zgodnie z założeniami. W tym celu zostaną wdrożone specjalne rozwiązania techniczne mające na celu wsparcie modeli i zapewnienie ich bezpieczeństwa.

Wpływ sztucznej inteligencji na bezpieczeństwo narodowe i rynki

Oczekuje się, że ta współpraca może przynieść ogromne oszczędności dla sektora obronnego, szacowane w długim terminie nawet na 10 mld USD rocznie dzięki optymalizacji procesów logistycznych i analitycznych. Jednakże decyzja ta wywołała również debatę na temat etyki wykorzystania zaawansowanej AI w kontekście militarnym, co przypomina dyskusje nad zastosowaniem technologii blockchain w bezpiecznych przelewach finansowych. Niektórzy analitycy sugerują, że konkurencja w tym sektorze może przyspieszyć rozwój AI szybciej niż rynek kryptowalut, gdzie Bitcoin wciąż wyznacza trendy. Warto zauważyć, że inni giganci technologiczni również aktywnie zabiegają o kontrakty rządowe, co pokazuje, że sektor zbrojeniowy staje się jednym z głównych klientów dla twórców AI.

Przyszłość regulacji i etyka w zbrojeniach

OpenAI zaapelowało do Departamentu Wojny o zaoferowanie identycznych warunków współpracy wszystkim innym firmom działającym w branży sztucznej inteligencji, co według nich jest rozwiązaniem, które wszyscy powinni zaakceptować. Firma wyraziła silne pragnienie deeskalacji napięć prawnych i rządowych na rzecz zawarcia rozsądnych porozumień, które umożliwią rozwój technologii przy zachowaniu najwyższych standardów bezpieczeństwa.

Obserwatorzy branży zauważają, że postawa Altmana może wskazywać na próbę wyprzedzenia przyszłych regulacji, które mogłyby ograniczyć działalność OpenAI. Niezależnie od kontrowersji, firma pozostaje zaangażowana w służbę ludzkości, podkreślając jednocześnie, że świat jest skomplikowanym i czasem niebezpiecznym miejscem. To partnerstwo z pewnością zmieni układ sił w sektorze technologii obronnych, przyciągając uwagę inwestorów śledzących rozwój sztucznej inteligencji równie wnikliwie, co kursy akcji technologicznych gigantów.