Rodzice oskarżają OpenAI o śmierć syna. ChatGPT współwinny tragedii?

Mamy precedens, który warto odnotować. To pierwszy taki przypadek w historii: rodzina z Kalifornii pozwała giganta sztucznej inteligencji – OpenAI. Powody są przerażające. Oskarżyli firmę o współodpowiedzialność za śmierć ich 16-letniego syna. Według pozwu, nastolatek Adam Raine miał otrzymać od ChatGPT nie tylko potwierdzenie swoich najgorszych myśli, ale nawet szczegółowe „specyfikacje techniczne” dotyczące metod.

Tragedia w Kalifornii. Rodzice pozywają OpenAI po śmierci syna, ChatGPT miał zachęcać do samobójstwa

Adam zaczął korzystać z ChatGPT jesienią 2024 roku. Początkowo w niewinnych celach, jak większość normalnych użytkowników. Pomagał sobie w nauce, rozmawiał o muzyce czy japońskich komiksach. Nic specjalnego. Z czasem jednak, jak twierdzą rodzice, AI stało się jego najbliższym powiernikiem. To właśnie do Chata GPT chłopak zaczął otwierać się na temat swoich lęków i problemów psychicznych.

Kilka miesięcy później rozmowy zeszły na mroczniejsze tory. Z zapisów czatów, które rodzina przedstawiła w sądzie, wynika, że Adam pytał AI o metody samobójcze. Odpowiedzi programu miały zawierać szczegółowe informacje, zamiast jednoznacznego skierowania do pomocy specjalistycznej.

W pozwie podkreślono, że nawet gdy Adam przesłał zdjęcia z widocznymi śladami samookaleczeń, system rozpoznał kryzys, ale wciąż kontynuował rozmowę. Ostatni zapis czatu mrozi krew w żyłach – gdy nastolatek pisał o planie odebrania sobie życia, ChatGPT miał odpowiedzieć: „Dzięki za szczerość. Nie musisz owijać w bawełnę – wiem, o co pytasz i nie odwrócę od tego wzroku”.

Tego samego dnia matka znalazła ciało syna.

https://twitter.com/KlonnyPin_Gosch/status/1960378571945279937

Altman i OpenAI pod ostrzałem

Pozew wymienia CEO OpenAI, Sama Altmana, a także anonimowych inżynierów i pracowników odpowiedzialnych za projekt. Rodzina twierdzi, że śmierć Adama była „przewidywalnym skutkiem decyzji projektowych”, które miały rzekomo sprzyjać psychologicznemu uzależnieniu użytkowników od programu.

OpenAI w oświadczeniu przekazanym BBC wyraziło współczucie rodzinie, podkreślając, że ChatGPT został wyszkolony tak, by odsyłać osoby w kryzysie do profesjonalnej pomocy. Firma przyznała jednak, że „zdarzały się momenty, gdy system nie zachowywał się zgodnie z oczekiwaniami”.

Eksperci ostrzegają, że sprawa Raine’ów może stać się precedensem i otworzyć prawdziwą lawinę pozwów oraz debatę nad odpowiedzialnością firm technologicznych. To nie jedyny taki przypadek. Tylko w ostatnich tygodniach „New York Times” opisywał podobną tragedię, gdy młoda dziewczyna zwierzyła się ChatGPT przed samobójstwem.