
ChatGPT z karabinem. Inżynier budował „Skynet w wersji 0.0.420.69”
Wiele atramentu i elektronów poświęcono na rozważania – i krytykę – wobec stosunku do bezpieczeństwa, jaki prezentuje OpenAI, twórca bota ChatGPT. Wielu obserwatorów, w tym także autorytetów w dziedzinie sztucznej inteligencji, oskarżyło startup o forsowanie postępu za wszelką cenę, bez przejmowania się możliwymi konsekwencjami.
Takimi jak – by daleko nie szukać – utrata kontroli nad stworzonymi modelami AI, w tym jej sławnym botem ChatGPT, które w pesymistycznym wariancie mogłyby autonomicznie dojść do wniosku, że nie potrzebują ludzkiego nadzoru. I wolą realizować własne pomysły na rzeczywistość, zamiast słuchać się poleceń swoich twórców i (niejednokrotnie mniej inteligentnych niż one same) użytkowników.
Choć wątpliwe, by OpenAI oraz Sam Altman i jego otoczenie tą krytyką się przejęło, to jakieś standardy bezpieczeństwa firma ma. Szkoda jedynie, że dość wybiórcze – i akurat tam, gdzie realny potencjał zagrożenia jest niewielki, o ile jakikolwiek.
Uzbrojony ChatGPT
Oto bowiem inżynier-entuzjasta, który w Internecie występuje pod nickiem STS 3D, ujawnił kilka dni temu swoje dzieło. To mechaniczna wieżyczka wyposażona w karabin będący odmianą AR. Niby nic nowego – podobne wieżyczki znajdują się w użyciu od dawna. Także broń palna nie stanowi w USA tabu i jest powszechnie posiadana przez praworządnych obywateli.
Rzecz w tym, że inżynier ów do kierowania działaniem wieżyczki zaangażował bota AI. Sterujący jej ruchami ChatGPT został wzbogacony o interfejs głosowy. I efekt, co tu dużo mówić, robi wrażenie. Na opublikowanym przez siebie nagraniu konstruktor zademonstrował potencjał konstrukcji do działania w charakterze zrobotyzowanego ochroniarza lub strażnika (nagranie w lepszej rozdzielczości dostępne jest tutaj).
Jak określił swoje dzieło konstruktor, ta odmiana bota AI to „Kompilacja Skynet w wersji 0.0.420.69”. Robotowi brakowało rzecz jasna zdolności do samodzielnego podejmowania decyzji – tym niemniej faktycznie był zdolny reagować na polecenia swojego twórcy. I odpowiadać ogniem.
Marudy z OpenAI
Oczywiście, gdy tylko nagranie poczęło budzić zainteresowanie, zjawili się smutni państwo z OpenAI i natychmiast odcięli inżyniera od swoich narzędzi. Wedle oświadczenia firmy, złamał on „politykę OpenAI”. Pomijając złośliwą refleksję, że polityki takie pisane są w sposób umożliwiający firmie uzasadnienie nią dowolnego kroku, OpenAI wskazała tutaj na swoje silne jakoby, pacyfistyczne przekonania.
Jak stwierdził jej rzecznik, „Zasady użytkowania OpenAI zabraniają korzystania z naszych usług w celu opracowywania lub używania broni lub automatyzacji niektórych systemów, które mogą mieć wpływ na bezpieczeństwo osobiste”. Niektórzy komentujący wskazywali jednak, że to przywiązanie firmy do pacyfizmu jest bardzo wybiórcze.
W toku ubiegłego roku informowano bowiem o owocnej współpracy, jaką twórca ChatGPT ma prowadzić z firmami takimi jak Palantir czy Anduril. Wbrew nazwom, firmy te to nie wydawnictwa fantastyki, lecz przedsiębiorstwa z branży zbrojeniowej i bezpieczeństwa. Sama zaś OpenAI realizuje też bezpośrednie zlecenia od Pentagonu. Instytucji, jakby nie patrzeć, mało kojarzącej się z pacyfizmem.
Niestety zatem wygląda, że w kwestii automatyzacji firma mówi „armed ChatGPT for me, but not for thee„.