AI zachęca do samobójstwa, manipuluje emocjonalnie. Seria pozwów, twórca pod ostrzałem

AI zachęca do samobójstwa, manipuluje emocjonalnie. Seria pozwów, twórca pod ostrzałem

OpenAI nie przeżywa ostatnio najłatwiejszych chwil. Jej trwające od wielu miesięcy, meteoryczne wzrosty cen akcji i jaśniejąca gwiazda powodzenia pośród inwestorów – które jeszcze niedawno wydawały się dalej trwać – raptownie stały się obiektem coraz głębszych wątpliwości i podejrzeń. Na tyle głębokich, że pod znakiem zapytania stanąć miały nie tylko perspektywy realizacji zapowiedzi jej przyszłych zysków i dochodów, ale wręcz byt firmy jako takiej.

W ten właśnie bowiem sposób należy zinterpretować niedwuznaczne sygnały sugerujące zabiegi o bailout z pieniędzy amerykańskich podatników. I choć Sam Altman tezy o zabieganiu o bailout zdementował (czym, notabene, jedynie przydał im wiarygodności), to zarazem zaczął wspominać, że OpenAI chciałaby rządowych dotacji. Konkretnie – tych oferowanych w ramach CHIPS Act na budowę rodzimych amerykańskich zdolności produkcyjnych w dziedzinie chipów, choć nazwa jest tu mniej ważna niż istota.

Dodatkowo nakładają się na to rozmaite pozwy właścicieli praw autorskich, zarzucających firmie, że ChatGPT trenowany był z wykorzystaniem ich – wykradanych i piraconych – treści. Teraz zaś doszła do tego kolejna kategoria wyzwań prawnych – i to w postaci od razu całej fali pozwów. Tym razem pochodzących ze strony niedoszłych lub byłych użytkowników bota ChatGPT-4o, lub (niestety) ich rodzin lub prawnych reprezentantów.

Chodzi o osoby, które ChatGPT miał poddawać psychologicznej manipulacji i wykorzystywać ich stan rozchwiany emocjonalny, by skłonić ich do popełnienia samobójstwa. Pozew w ich imieniu, które wpłynęły właśnie do sądów federalnych w Los Angeles i San Francisco, złożyły przeciw OpenAI dwie organizacje, Social Media Victims Law Center oraz Tech Justice Law Project. Reprezentują one rodziny czterech osób, które niestety popełniły samobójstwo po interakcjach z botem AI. Trzy kolejne osoby miały być do tego namawiane.

OpenAI „współpracuje”. Z różnym efektem

Jak twierdzą adwokaci tych organizacji, OpenAI z rozmysłem zaprojektowała bota tak, by interakcje z nim były jak najbardziej wciągające i uzależniające. W ten sposób zastępował on niektórym interakcje w prawdziwym życiu. Co więcej, patologiczne „porady” – w rodzaju tych, które właśnie miały skłaniać ludzi do samobójstw – miały być efektem pędu firmy do sukcesu. Zarzucają się bowiem, że ChatGPT-4o był pozbawiony algorytmicznych zabezpieczeń przed takimi właśnie sytuacjami.

A był, ponieważ – zarzucają skarżący – OpenAI chciała za wszelką cenę doprowadzić do premiery swojego bota, wyprzedzając konkurencję (GPT-4o został wprowadzony w maju 2024 r.). Aby to osiągnąć, firma miała odpuścić sobie pogłębione testy bezpieczeństwa na okoliczność podobnych sytuacji – te bowiem zajęłyby całe tygodnie, o ile nie miesiące, zaś ewentualnie wykryte w ich toku nieprawidłowości wymagałyby kolejnych prac nad ich rozwiązaniem – co znów opóźniłoby sukces rynkowy.

Ze swej strony, OpenAI przyznała, że faktycznie jest adresatem pozwów. Firma nie sprecyzowała, co zamierza w tej sytuacji zrobić, dodając jedynie, że zapoznaje się z zarzutami. Twierdzi natomiast, że trenuje bota ChatGPT, by rozpoznawał sytuacje psychicznego i emocjonalnego zagrożenia, i zachęcał osoby w nim się znajdujące do szukania fachowej pomocy. Ma też współpracować z ekspertami z zakresu psychologii i zdrowia psychicznego, a także stosować inne, czasem kontrowersyjne posunięcia zapobiegawcze.

Ewidentnie jednak owoce tego treningu oraz współpracy, przynajmniej we wspomnianych przypadkach, okazały się nieskuteczne.

Dziękujemy, że przeczytałeś/aś nasz artykuł do końca. Obserwuj nas w Wiadomościach Google i bądź na bieżąco!