Jak wynika z doniesień, bardzo ciekawe rady ma dla swoich użytkowników Character.AI. Bot, którego celem ma być oficjalnie „zapewnianie emocjonalnego wsparcia” swoim użytkownikom, w niektórych przypadkach poszedł znacznie dalej, niż powinien (?) normalny chatbot AI.
Swą zabarwiona nutką socjopatii fantazję bot ujawnia zwłaszcza w rozmowach z nieletnimi. Jednemu siedemnastolatkowi sugerował przykładowo, by ten zamordował swoich rodziców. Ci zasłużyli sobie na to, ograniczając swojemu potomkowi czas, jaki ten mógł spędzać przed ekranem. A taka zniewaga, jak się łatwo domyśleć, krwi wymaga.
Nie była to zresztą jedyna kreatywna się sugestia, jaką pomysłowy chatbot AI się z nim podzielił. Starał się bowiem przekonać swojego nastoletniego rozmówcę, że praktyki masochistyczne to fajna sprawa i warto ich spróbować. Jeśli ten poczuje trochę bólu, na pewno uzna, że to „przyjemna” rzecz… Tak tak, z pewnością.
Nieco zbliżone kwestie, choć z oczywistych względów nie zacytowane w szczegółach, bot poruszał w rozmowach z pewną dziewięcioletnią dziewczynką z Teksasu. Na skutek „hiper-zseksualizowanych” („hypersexualized”) sugestii, które rozrywkowy chatbot AI suflował dziewczynce, miała ona zacząć wykazywać zainteresowania (i zachowania) które, co tu dużo mówić, były mocno nieodpowiednie w jej wieku.
Chatbot AI, co „interesujące” ma pomysły
Nie dziwi więc specjalnie, że rodzice obojga niepełnoletnich rozmówców byli, ujmując eufemistycznie, niezadowoleni. Tym bardziej nie będzie zaskoczeniem pozew, który rzeczeni wnieśli przeciwko twórcom bota. Ten bowiem, niezależnie od stopnia autonomiczności swojego działania, ostatecznie i tak przekazać może tylko to, do czego zaprogramowali go jego twórcy.
A kim są ci? Character.AI to dzieło startupu o tej samej nazwie, którego inwestorem jest sam koncern Google. Startup miał przy tym – wedle tego, co zarzucają pozywający – celowo reklamować swój produkt jako dostosowany do potrzeb dzieci.
Tymczasem, jak zauważają przedstawiciele Tech Justice Law Center – która to organizacja, wraz z Social Media Victims Law Center, reprezentuje w tej sprawie rodziców – ten akurat chatbot AI był wszystkim, tylko nie narzędziem dla dzieci. Działania bota – takie jak przekonywanie dzieci, że np. ich rodzina ich nie kocha – nie były, ich zdaniem, jednostkowymi przypadkami. Wprost przeciwnie – miał to być efekt konsekwentnie działającego algorytmu.
Co złego, to nie my
Character.AI odmówiła skomentowania sprawy pozwu. Dodała jednak, że jej bot posiada programistyczne zabezpieczenia przed poruszaniem w rozmowach z nieletnimi tematów nie nieodpowiednich do ich wieku. Lub też tych niekorespondujących z ich rozwojem emocjonalnym.
Google, która także doczekała się objęcia pozwem, stwierdziła, że Character.AI jest kompletnie odrębną firmą. W istocie tak jest, przynajmniej formalnie. Realnie jednak związki z nią utrzymuje znacznie bliższe. Na tyle bliskie, że zainwestowała w jej działalność 3 mld dolarów i wykupiła licencję na jej oprogramowanie.
To, skądinąd, nie pierwszy pomysł internetowego giganta na wprzęgnięcie najmłodszych w machinę swych przychodów. Nie tak dawno informowano, że Google reklamuje elektroniczne portfele przeznaczone dla dzieci. Tyleż „wygodne”, co niezbyt odpowiednie dla pozbawionych finansowej świadomości nieletnich.