ChatGPT jako dowódca wojskowy? US Army testuje, jak sztuczna inteligencja poradzi sobie na polu bitwy

ChatGPT jako dowódca wojskowy? US Army testuje, jak sztuczna inteligencja poradzi sobie na polu bitwy

Planiści Pentagonu testują, jak sztuczna inteligencja sprawdza się w zarządzaniu operacjami militarnymi. Na pierwszy, nomen omen, ogień poszły boty firmy OpenAI, które zaprzęgnięto do doradzania w symulacjach i grach bitewnych.

Celem jest sprawdzenie, czy planowanie i kierowanie działaniami wojennymi przy wsparciu maszyny będzie efektywniejsze niż to czynione wyłącznie siłami umysłów ludzkich dowódców. Taka jest przynajmniej idea, którą sformułowali specjaliści z Laboratorium Badawczego Armii Amerykańskiej (US Army Research Laboratory).

Naturalnie, i jak się można spodziewać, powierzenie botom – i to jeszcze takim nie wolnym od kontrowersji – komendy nad realnym, śmiercionośnym sprzętem oraz (przede wszystkim) żywymi żołnierzami nie wchodziło w grę z przyczyn polityczno-wizerunkowych. Przynajmniej do tej pory, bo w przypadku powodzenia testów taki będzie logiczny kolejny krok.

Zobacz też; Operacja Beethoven: zatrzymać kluczową firmę w kraju. Krytyczne technologie i…

Sztuczna inteligencja pyka w Starcrafta

Póki co jednak wojskowi specjaliści powściągnęli swoje zapędy badawcze. Zamiast tego posadzili ChataGPT – konkretnie modele GPT-4 Turbo, GPT-4 Vision – oraz dwa starsze boty do znanej i lubianej gry Starcraft II. Nie sposób ukryć, że rzeczywistość pola walki w Starcrafcie odrobinkę różni się od tej rzeczywistej, zarówno pod względem realiów, jak i stopnia komplikacji.

Zaczynając jednak małymi krokami, chodziło o sprawdzenie, jak boty poradzą sobie, gdy otrzymają zadanie bojowe w grze. Wgrano im informacje dotyczące pola bitwy, sił własnych i wrogich oraz wojskową teorię i doktrynę działania. Następnie miały, jak to w Starcrafcie, zniszczyć wroga i zająć teren.

Wszystkie boty okazały się kreatywne, proponując kilka strategii osiągnięcia celu. Miały jednak cechę, która upodabnia je nieco do sowieckich dowódców – nie przejmowały się zanadto stratami, i w ludziach, i sprzęcie. Co ciekawe, najsilniej cechę tę przejawiały najnowsze boty firmy OpenAI.

Złośliwym może z pewnością dać to asumpt do twierdzeń, że odrobinkę sowiecka mentalność środowiska twórców AI nie ogranicza się do preferencyjnego traktowania czarnych w tworzonych przez siebie grafikach czy tekstach oraz rugowania z nich osób białych.

Zobacz też: Fabryka Tesli w ogniu. Przyczyną – atak terrorystyczny, ekstremiści się…

Skynet, to ty?

Nie jest to bynajmniej pierwsze zastosowanie AI w siłach zbrojnych. Sam Pentagon zidentyfikował około 180 możliwych zastosowań tego narzędzia. W realnych działaniach wykorzystano je już zresztą w identyfikacji celów przeznaczonych do bombardowania na Bliskim Wschodzie.

Amerykański departament obrony prowadzi obecnie współpracę z firmami Scale AI oraz Palantir nad rozszerzeniem tych zdolności. Poważnie rozważa się także wyposażenie, przykładowo, myśliwców czy wozów bojowych nowych generacji w systemy zarządzania walką (Combat Management Systems) wspomagane przez AI.

Boty uczestniczyły też już wcześniej w grach wojennych. Efekty tych doświadczeń okazały się jednak przyczyną sporych kontrowersji (i, co tu dużo mówić, poważnych obaw). Sztuczna inteligencja przejawiała bowiem w toku tych symulacji zadziwiającą skłonność do rozpoczynania wojny nuklearnej, zaś broń masowego rażenia zdawała się jej ulubionym orężem.

Może Cię zainteresować:

AIChatgptgryGry komputerowekonflikty zbrojneOpenAIPentagonsymulacjesztuczna inteligencjaUS Armywojnawojsko
Komentarze (0)
Dodaj komentarz