Zonk! ChatGPT, wykorzystany w sprawie sądowej, zmyślił nieistniejące kazusy

Nowojorski adwokat zaprzągł popularnego bota AI do pracy – ten zaś wywinął mu numer, biorąc z sufitu precedensy prawne, których prawnik poszukiwał. Teraz ma delikatny problem i musi się z tego tłumaczyć, natomiast sędzia w sprawie, w której dokumentacji owe fikcyjne kazusy się znalazły, planuje urzędowo zbadać sprawę, czy i kto wprowadził tutaj kogo w błąd – ktokolwiek inny niż ChatGPT, naturalnie, który zakpił ze wszystkich.

Wszechobecny i wszech-popularny ChatGPT potrafi nadziać użytkownika na minę, zwłaszcza wtedy, gdy pod jakąś pracą trzeba podpisać się z imienia i nazwiska, podczas gdy faktyczną harówkę wykonuje za człowieka poczciwy bot AI. Przypadki takie dzieją zdarzają się nie tylko na egzaminach szkolnych w wydaniu co bardziej przedsiębiorczych uczniów, ale też w sytuacjach, zdarzałoby się, poważniejszych. Takich jak casus pewnego nowojorskiego prawnika.

Mecenas ChatGPT

Steven Schwartz, adwokat z trzydziestoletnim doświadczeniem zatrudniony w kancelarii Levidow, Levidow i Oberman, reprezentował dżentelmena pragnącego pozwać linię lotniczą – ot, nudna sprawa, jakich tysiące. Ta konkretna przestała być nudna, kiedy w sążnistych dokumentach procesowych przytoczone zostały sążniste precedensy prawne i zapierające w dech piersiach historie, mające świadczyć na korzyść powoda.

Sędzia, prawnicy linii lotniczych, tudzież wszyscy inni zainteresowani znaleźli się w kropce – tyle przypadków, o których nigdy nie słyszeli. Tak samo bowiem, jak w przypadku Kubusia Puchatka (który im bardziej zaglądał do baryłki, tym bardziej nie było tam miodu), ich poszukiwania w odmętach prawnej historii przynosiły konsekwentnie zerowy wynik.

Tak, jak się łatwo domyśleć, przykłady i precedensy miały ten drobny feler, że były stuprocentowo fałszywe. ChatGPT bowiem, którego zatrudniono do napisania tych dokumentów, nie czuł się zobowiązany do przestrzegania zasad uczciwości intelektualnej, i wszystkie je wymyślił.

Zobacz też: Elon Musk ma nową teorię: AI ma być „nianią” ludzkości

Wysoki sądzie, sprzeciw!

Co może zaskakujące w przypadku nowojorskiego prawnika, pan Schwartz w kolejnym piśmie sądowym nie próbował się wykręcić, zwalić winy na praktykanta bądź imputować ataku hakerskiego, ale uczciwie przyznał się do użycia AI. Niesłychane… Pan adwokat tłumaczył się tym, że nie miał intencji zrobienia prawników strony przeciwnej w bambuko, a jedynie nie był świadom sposobu pracy bota, którego zatrudnił jakoby jedynie do automatycznego przejrzenia baz danych.

Załączył także zrzuty ekranu, świadczące o tym, że ChatGPT został osobno przezeń zapytany, czy znalezione przykłady są prawdziwe, na co ten (jak tu nie wierzyć w złośliwość rzeczy martwych…?) odparł z bezczelnością godną komputera, że i owszem, są one prawdziwe i poświadczone przez „renomowane bazy danych prawnych”. Czego Schwartz, jak dodał, żałuje. Podobnie jak drugi adwokat prowadzący sprawę, Peter LoDuca. Cóż…

Sprawą otwartą pozostaje, czy będą oni mieli czego konkretnie żałować (prócz nie do końca pożądanej popularności, naturalnie). Prowadzący sprawę sędzia, P. Kevin Castel, wyznaczył osobne posiedzenie, na którym sąd ma rozważyć „bezprecedensowe okoliczności” zdarzenia, i zadecydować o ewentualnych konsekwencjach.

Może Cię zainteresować:

AIChatgptPrawoUSA
Komentarze (0)
Dodaj komentarz