ChatGPT jako dowódca wojskowy? US Army testuje, jak sztuczna inteligencja poradzi sobie na polu bitwy

Planiści Pentagonu testują, jak sztuczna inteligencja sprawdza się w zarządzaniu operacjami militarnymi. Na pierwszy, nomen omen, ogień poszły boty firmy OpenAI, które zaprzęgnięto do doradzania w symulacjach i grach bitewnych.

Celem jest sprawdzenie, czy planowanie i kierowanie działaniami wojennymi przy wsparciu maszyny będzie efektywniejsze niż to czynione wyłącznie siłami umysłów ludzkich dowódców. Taka jest przynajmniej idea, którą sformułowali specjaliści z Laboratorium Badawczego Armii Amerykańskiej (US Army Research Laboratory).

Naturalnie, i jak się można spodziewać, powierzenie botom – i to jeszcze takim nie wolnym od kontrowersji – komendy nad realnym, śmiercionośnym sprzętem oraz (przede wszystkim) żywymi żołnierzami nie wchodziło w grę z przyczyn polityczno-wizerunkowych. Przynajmniej do tej pory, bo w przypadku powodzenia testów taki będzie logiczny kolejny krok.

Zobacz też; Operacja Beethoven: zatrzymać kluczową firmę w kraju. Krytyczne technologie i…

Sztuczna inteligencja pyka w Starcrafta

Póki co jednak wojskowi specjaliści powściągnęli swoje zapędy badawcze. Zamiast tego posadzili ChataGPT – konkretnie modele GPT-4 Turbo, GPT-4 Vision – oraz dwa starsze boty do znanej i lubianej gry Starcraft II. Nie sposób ukryć, że rzeczywistość pola walki w Starcrafcie odrobinkę różni się od tej rzeczywistej, zarówno pod względem realiów, jak i stopnia komplikacji.

Zaczynając jednak małymi krokami, chodziło o sprawdzenie, jak boty poradzą sobie, gdy otrzymają zadanie bojowe w grze. Wgrano im informacje dotyczące pola bitwy, sił własnych i wrogich oraz wojskową teorię i doktrynę działania. Następnie miały, jak to w Starcrafcie, zniszczyć wroga i zająć teren.

Wszystkie boty okazały się kreatywne, proponując kilka strategii osiągnięcia celu. Miały jednak cechę, która upodabnia je nieco do sowieckich dowódców – nie przejmowały się zanadto stratami, i w ludziach, i sprzęcie. Co ciekawe, najsilniej cechę tę przejawiały najnowsze boty firmy OpenAI.

Złośliwym może z pewnością dać to asumpt do twierdzeń, że odrobinkę sowiecka mentalność środowiska twórców AI nie ogranicza się do preferencyjnego traktowania czarnych w tworzonych przez siebie grafikach czy tekstach oraz rugowania z nich osób białych.

Zobacz też: Fabryka Tesli w ogniu. Przyczyną – atak terrorystyczny, ekstremiści się…

Skynet, to ty?

Nie jest to bynajmniej pierwsze zastosowanie AI w siłach zbrojnych. Sam Pentagon zidentyfikował około 180 możliwych zastosowań tego narzędzia. W realnych działaniach wykorzystano je już zresztą w identyfikacji celów przeznaczonych do bombardowania na Bliskim Wschodzie.

Amerykański departament obrony prowadzi obecnie współpracę z firmami Scale AI oraz Palantir nad rozszerzeniem tych zdolności. Poważnie rozważa się także wyposażenie, przykładowo, myśliwców czy wozów bojowych nowych generacji w systemy zarządzania walką (Combat Management Systems) wspomagane przez AI.

Boty uczestniczyły też już wcześniej w grach wojennych. Efekty tych doświadczeń okazały się jednak przyczyną sporych kontrowersji (i, co tu dużo mówić, poważnych obaw). Sztuczna inteligencja przejawiała bowiem w toku tych symulacji zadziwiającą skłonność do rozpoczynania wojny nuklearnej, zaś broń masowego rażenia zdawała się jej ulubionym orężem.

Może Cię zainteresować:

Dziękujemy, że przeczytałeś/aś nasz artykuł do końca. Obserwuj nas w Wiadomościach Google i bądź na bieżąco!
Zostaw komentarz

Twój adres e-mail nie będzie opublikowany.