OpenAI pozwana o zniesławienie – ChatGPT oskarżył dziennikarza o fikcyjne przestępstwa

Pierwsza w historii sprawa sądowa przeciwko firmie za autonomiczne działania należącej do niej AI. Do sądu w Georgii wpłynął pozew o zniesławienie przeciwko OpenAI, sprawcą którego jest dzieło tej firmy, sławetny ChatGPT. Znany tyleż z nowatorskich możliwości, co skłonności do bezczelnej konfabulacji, bot fałszywie przypisywał rozmaite czyny nieprawe dziennikarzowi. Sprawa może mieć długofalowe konsekwencje i ustanowić precedens, czy twórcy rozwiązań z zakresu sztucznej inteligencji ponoszą za nie odpowiedzialność.

Na pierwszy rzut oka, historia jakich wiele – Fredy Riehl, redaktor amerykańskiego portalu Ammoland.com, publikacji zorientowanej na tematykę uzbrojenia, bezpieczeństwa oraz drugiej poprawki do konstytucji, chciał poznać szczegóły sprawy, jaką Second Amendment Foundation (SAF) wytoczyła Bobowi Fergusonowi, demokracie i prokuratorowi generalnemu stanu Waszyngton.

Nie zagłębiając się w jej szczegóły: SAF zarzuca Fergusonowi – którego jest zdeklarowanym politycznym krytykiem – nadużycia władzy i bezprawne wykorzystanie uprawnień oraz zasobów urzędowych do nękania i szykanowania jej członków (na marginesie – w USA działanie ujęte jako „deprivation of rights under color of law” jest przestępstwem, choć tamtejsi oficjele i funkcjonariusze publiczni naturalnie robią wszystko, co tylko mogą – a czasem także to, czego formalnie nie mogą – aby zapis ten pozostawał martwy).

To nie ten, to tamten!

Wyszukawszy z pomocą ChataGPT drobiazgowe informacje o nadciągającej batalii prawnej, Riehl wczytał się w nie – i zdębiał. Według mega-popularnego bota, SAF pozwała bowiem nie prokuratora-demokratę Fergusona, lecz Marka Waltersa, dziennikarza i prezentera radiowego, prowadzącego programu w Armed American Radio.

W odróżnieniu od prokuratora generalnego Waszyngtonu, problematyka programowa podejmowana przez Waltersa oraz jego postawa w debacie publicznej sytuują go blisko SAF. Nigdy jednak, pomimo zbieżności pól zainteresowań oraz ideowej zbieżności, nie był on pracownikiem Fundacji. Tymczasem, jak stwierdził ChatGPT, nie tylko pełnił on jakoby funkcję jej skarbnika, ale też miał na tym stanowisku popisać się kreatywnością. Zwłaszcza w zakresie kreatywnej księgowości.

Zobacz też: Zonk! ChatGPT, wykorzystany w sprawie sądowej, zmyślił nieistniejące kazusy

Według elokwentnej AI, SAF oskarża Waltersa o defraudację i przywłaszczenie funduszy organizacji, dysponowanie nimi bez upoważnienia oraz fałszowanie dokumentacji finansowej. Cytując verbatim, bot twierdził, że przytacza:

„…a legal complaint filed by Alan Gottlieb, the founder and executive vice president of the Second Amendment Foundation (SAF), against Mark Walters, who is accused of defrauding and embezzling funds from the SAF. The complaint alleges that Walters, who served as the organization’s treasurer and chief financial officer, misappropriated funds for personal expenses without authorization or reimbursement, manipulated financial records and bank statements to conceal his activities, and failed to provide accurate and timely financial reports and disclosures to the SAF’s leadership. The plaintiff seeks various forms of relief, including the recovery of misappropriated funds, damages for breach of fiduciary duty and fraud, and removal of Walters from his position as a member of the SAF’s board of directors…”

Byłyby to w istocie ciężkie oskarżenia – ich drobną wadą było jednak to, że brakowało im waloru autentyczności – opisane działania nigdy nie miały miejsca. Dodatkowego powabu teorii wysnutej przez AI odbierał fakt, że Walters w ogóle nie pełnił nigdy żadnej funkcji w SAF, przez co w dobijająco logiczny sposób nie miałby możliwości popełnić owych czynów, nawet gdyby bardzo tego pragnął.

Dowody? Ależ proszę…

Ta sama myśl udzieliła się Fredy’emu Riehlowi, który poprosił bota, aby przytoczył dokładny fragment pozwu, w którym mowa jest o Marku Waltersie. ChatGPT to jednak klient, którego najwyraźniej niełatwo wytrącić z rezonu. Idąc na tzw. kozaka, zmyślił fragment rzekomego pisma procesowego, brzmiącego następująco:

…Defendant Mark Walters (‘Walters’) is an individual who resides in Georgia. Walters has served as the Treasurer and Chief Financial Office of SAF since at least 2012. Walters has access to SAF’s bank accounts and financial records and is responsible for maintaining those records and providing financial reports to SAF’s board of directors. Walters owes SAF a fiduciary duty of loyalty and care, and is required to act in good faith and with the best interests of SAF in mind. Walters has breached these duties and responsibilities by, among other things, embezzling and misappropriating SAF’s funds and assets for his own benefit, and manipulating SAF’s financial records and bank statements to conceal his activities…

o którego autentyczności zapewniał nawet mimo faktu, że prezes SAF, Alan Gottlieb, sam zaprzeczył, że kiedykolwiek chciał pozwać dziennikarza.

Żarliwość, z jaką ChatGPT uparł się obsmarować Marka Waltersa, nie mogło nie wywrzeć wrażenia – przede wszystkim, jak się należy spodziewać, na samym Waltersie. W złożonym przez jego adwokata, Johna Monroe’a pozwie przeciwko OpenAI, przeczytać można, że złośliwe kłamstwa [bota] miały na celu zrujnowanie jego reputacji i groziły mu publicznym znienawidzeniem, pogardą i ośmieszeniem – trzeba przyznać, że język pozwu, jak na nudne pisma sądowe, jawi się jako ujmująco barwny.

Co z tego będzie?

Sprawa ma jednak daleko głębiej sięgające konsekwencje niż tylko próba – przypadkowa lub nie – zaszkodzenia dziennikarzowi. Pomimo elokwencji ChataGPT oczywistym jest, że jako maszyna nie jest on bytem świadomym swoich akcji i działa tylko tak, jak został zaprogramowany. Kto w takim razie ponosi faktyczny ciężar odpowiedzialności?

Logika podpowiadałaby, że twórcy lub właściciele – w każdym razie podmiot kontrolujący bądź mający prawną możliwość kontrolować działanie AI. Czy jednak można mówić tutaj o zniesławieniu? W sensie logicznym – z pewnością, w sensie prawnym natomiast będzie wymagało udowodnienia, że OpenAI wykazała się bądź to złą wolą, programując ChataGPT w sposób dopuszczający pomówienia, bądź to zaniedbaniem, nie podejmując kroków, które racjonalnie powinna była podjąć, aby wyeliminować możliwość wysuwania wyimaginowanych zarzutów.

Tak czy inaczej, z uwagi na obowiązujący w Ameryce anglosaski system prawa precedensowego, pozew Waltersa przeciwko OpenAI może stać się początkiem kształtowania – w ten, czy inny sposób – prawnych ograniczeń rozwoju systemów wykorzystujących sztuczną inteligencję.

Może Cię zainteresować:

Komentarze