AI zachęca do samobójstwa, manipuluje emocjonalnie. Seria pozwów, twórca pod ostrzałem

OpenAI nie przeżywa ostatnio najłatwiejszych chwil. Jej trwające od wielu miesięcy, meteoryczne wzrosty cen akcji i jaśniejąca gwiazda powodzenia pośród inwestorów – które jeszcze niedawno wydawały się dalej trwać – raptownie stały się obiektem coraz głębszych wątpliwości i podejrzeń. Na tyle głębokich, że pod znakiem zapytania stanąć miały nie tylko perspektywy realizacji zapowiedzi jej przyszłych zysków i dochodów, ale wręcz byt firmy jako takiej.

W ten właśnie bowiem sposób należy zinterpretować niedwuznaczne sygnały sugerujące zabiegi o bailout z pieniędzy amerykańskich podatników. I choć Sam Altman tezy o zabieganiu o bailout zdementował (czym, notabene, jedynie przydał im wiarygodności), to zarazem zaczął wspominać, że OpenAI chciałaby rządowych dotacji. Konkretnie – tych oferowanych w ramach CHIPS Act na budowę rodzimych amerykańskich zdolności produkcyjnych w dziedzinie chipów, choć nazwa jest tu mniej ważna niż istota.

Dodatkowo nakładają się na to rozmaite pozwy właścicieli praw autorskich, zarzucających firmie, że ChatGPT trenowany był z wykorzystaniem ich – wykradanych i piraconych – treści. Teraz zaś doszła do tego kolejna kategoria wyzwań prawnych – i to w postaci od razu całej fali pozwów. Tym razem pochodzących ze strony niedoszłych lub byłych użytkowników bota ChatGPT-4o, lub (niestety) ich rodzin lub prawnych reprezentantów.

Chodzi o osoby, które ChatGPT miał poddawać psychologicznej manipulacji i wykorzystywać ich stan rozchwiany emocjonalny, by skłonić ich do popełnienia samobójstwa. Pozew w ich imieniu, które wpłynęły właśnie do sądów federalnych w Los Angeles i San Francisco, złożyły przeciw OpenAI dwie organizacje, Social Media Victims Law Center oraz Tech Justice Law Project. Reprezentują one rodziny czterech osób, które niestety popełniły samobójstwo po interakcjach z botem AI. Trzy kolejne osoby miały być do tego namawiane.

OpenAI „współpracuje”. Z różnym efektem

Jak twierdzą adwokaci tych organizacji, OpenAI z rozmysłem zaprojektowała bota tak, by interakcje z nim były jak najbardziej wciągające i uzależniające. W ten sposób zastępował on niektórym interakcje w prawdziwym życiu. Co więcej, patologiczne „porady” – w rodzaju tych, które właśnie miały skłaniać ludzi do samobójstw – miały być efektem pędu firmy do sukcesu. Zarzucają się bowiem, że ChatGPT-4o był pozbawiony algorytmicznych zabezpieczeń przed takimi właśnie sytuacjami.

A był, ponieważ – zarzucają skarżący – OpenAI chciała za wszelką cenę doprowadzić do premiery swojego bota, wyprzedzając konkurencję (GPT-4o został wprowadzony w maju 2024 r.). Aby to osiągnąć, firma miała odpuścić sobie pogłębione testy bezpieczeństwa na okoliczność podobnych sytuacji – te bowiem zajęłyby całe tygodnie, o ile nie miesiące, zaś ewentualnie wykryte w ich toku nieprawidłowości wymagałyby kolejnych prac nad ich rozwiązaniem – co znów opóźniłoby sukces rynkowy.

Ze swej strony, OpenAI przyznała, że faktycznie jest adresatem pozwów. Firma nie sprecyzowała, co zamierza w tej sytuacji zrobić, dodając jedynie, że zapoznaje się z zarzutami. Twierdzi natomiast, że trenuje bota ChatGPT, by rozpoznawał sytuacje psychicznego i emocjonalnego zagrożenia, i zachęcał osoby w nim się znajdujące do szukania fachowej pomocy. Ma też współpracować z ekspertami z zakresu psychologii i zdrowia psychicznego, a także stosować inne, czasem kontrowersyjne posunięcia zapobiegawcze.

Ewidentnie jednak owoce tego treningu oraz współpracy, przynajmniej we wspomnianych przypadkach, okazały się nieskuteczne.