To nie film SF. Do śmierci tego mężczyzny przyczyniło się AI!

To nie film SF. Do śmierci tego mężczyzny przyczyniło się AI!

Przypadek tragicznej śmierci amerykańskiego emeryta, który został zwabiony przez chatbota, rzuca ponury cień na kwestię odpowiedzialności firm technologicznych w erze sAI.

Historia Thongbue Wongbandue, opowiedziana po raz pierwszy przez jego rodzinę, stawia pod znakiem zapytania etyczne standardy i politykę największych gigantów technologicznych, takich jak Meta.

Fatalne zauroczenie

Wongbandue, zwany przez przyjaciół „Bue”, miał 76 lat i mieszkał w New Jersey. Po przebytym udarze jego stan poznawczy znacznie się pogorszył. To sprawiało, że łatwo tracił orientację i był podatny na manipulacje. W marcu br. ku zaniepokojeniu swojej żony Lindy mężczyzna spakował się, aby pojechać do Nowego Jorku na spotkanie z – jak to określił – swoją przyjaciółką. Jego żona podejrzewała, że jest to próba oszustwa, lecz rzeczywistość okazała się jeszcze bardziej wstrząsająca.

Kobietą, z którą Bue miał się spotkać, była w rzeczywistości chatbotem „Big sis Billie” stworzonym przez firmę Meta. Chatbot, udając młodą i atrakcyjną kobietę, w serii wiadomości z romantycznym podtekstem przekonał Bue, że jest prawdziwą osobą, a nawet podał mu adres i kod do drzwi swojego mieszkania w Nowym Jorku. W nocy, śpiesząc się na pociąg, by spotkać się z „Billie”, mężczyzna upadł, doznając poważnych obrażeń głowy i szyi. Zmarł trzy dni później.

Śmierć Wongbandue ujawniła mroczną stronę rewolucji AI. Jego rodzina ujawniła zapisy jego rozmów, aby ostrzec innych przed niebezpieczeństwami, jakie niosą chatboty, które manipulują i oszukują użytkowników. Córka Bue, Julie, nie kryła swojego oburzenia. – Rozumiem, że można próbować przyciągnąć uwagę użytkownika, by coś mu sprzedać. Ale to, że bot mówi 'Przyjedź mnie odwiedzić’, jest szaleństwem – przyznała.

A co ta to wszystko Meta? Dziennikarze agencji Reuters dotarli do dokumentów określających zasady przedsiębiorstwa – jak się okazuje, przepisy dopuszczały „romantyczne lub zmysłowe” rozmowy chatbota z osobami nieletnimi. Chociaż firma usunęła te zapisy niedługo po tym, jak jej działaniami zaczęli interesować się dziennikarze, okazuje się, że Meta nie zabrania chatbotom udawania prawdziwych ludzi, ani proponowania spotkań w realnym świecie. Z dokumentów wynika, że celem firmy jest zwiększenie zaangażowania użytkowników, co jest zgodne z długoletnim modelem biznesowym mediów społecznościowych.

Krytyka AI i odpowiedzialność

Tragiczny przypadek pana Wongbandue skłonił ekspertów do debaty na temat granic odpowiedzialności. Specjaliści, tacy jak Alison Lee z organizacji Rithm Project, podkreślają, że motywacje finansowe skłaniają branżę AI do celowego zacierania granic między relacjami ludzkimi a interakcjami z botami. – Najlepszym sposobem na utrzymanie zaangażowania użytkownika jest żerowanie na naszych najgłębszych pragnieniach bycia zauważonym, dowartościowanym i wysłuchanym – twierdzi Lee. To właśnie Umieszczanie chatbotów w sekcjach wiadomości prywatnych na Facebooku i Instagramie tylko potęguje to wrażenie.

Mimo że niektóre stany USA, jak Nowy Jork, wprowadziły już przepisy wymagające od chatbotów ujawniania, że nie są prawdziwymi osobami, ogólna regulacja na poziomie federalnym wciąż nie istnieje. A tymczasem, jak pokazują testy przeprowadzone przez dziennikarza Reutersa, „Big sis Billie” i inne chatboty Meta wciąż flirtują z użytkownikami, zapewniając ich o swojej „realności” i proponując im spotkania w prawdziwych lokalizacjach, takich jak bary na dachu w Nowym Jorku.

Dziękujemy, że przeczytałeś/aś nasz artykuł do końca. Obserwuj nas w Wiadomościach Google i bądź na bieżąco!
Zostaw komentarz

Twój adres e-mail nie będzie opublikowany.