ChatGPT zapyta o „dowodzik”. OpenAI będzie kontrolować użytkowników, śledzić ich aktywność
Jak poinformowano, firma OpenAI dołącza do grona podmiotów, które – miast obiecywać im pewien margines prywatności i śledzić mimo to – będzie czynić to zupełnie otwarcie. Co znacznie gorsze, będzie to robić w sposób znacznie bardziej agresywny i wręcz rażący, nie ograniczający się do zbierania informacji personalnych czy metadanych. Sztandarowy produkt firmy, ChatGPT, będzie bowiem – teoretycznie „w niektórych przypadkach” – donosić na swoich rozmówców, a także żądać od nich, by się przed nim wylegitymowali.
Oficjalnym powodem tych zmian jest seria pozwów wobec OpenAI, które dotyczyły obiektywnych tragedii. Chodzi o przypadki, w których dzieci i osoby niepełnoletnie miały popełniać samobójstwa pod wpływem i w wyniku interakcji (i inspiracji) ze strony bota ChatGPT. W ślad za tym przyszła niekorzystna oprawa medialna, krytyka w Sieci i cała reszta czegoś, co korporacyjne działy marketingu określają jako negatywną atmosfera wokół produktu czy usługi.
Niestety – jak zwykle w takich przypadkach – znaleźli się tacy (szczególnie w kręgach polityków oraz aktywistów) którzy owe tragedie wykorzystali, by postulować realizację własnych celów politycznych. Jak zwykle, w jednym kierunku – w stronę większej kontroli kosztem indywidualnej wolności. Konkretnie, chodzi o przymus identyfikowania się oficjalnymi dokumentami w Internecie. W teorii, w ramach „weryfikacji wieku”.
W praktyce – owa weryfikacja sprowadza się do odarcia internautów w jakiegokolwiek marginesu anonimowości (a zatem i prywatności) w Sieci. Stąd nic dziwnego, że zarówno organa regulacyjne, jak i technologiczne koncerny takie zmiany popierają. W celu pokonania oporu zainteresowanych, wykorzystuje się zaś etyczny szantaż poprzez możliwość zarzucenia krytykom takich pseudo-rozwiązań, że „nie dbają o tragiczne śmierci dzieci”. Tak tak, cztery nogi dobrze, dwie nogi źle – i ad nauseam.
Never let the crisis to go waste
Nie będzie najpewniej wielkim zaskoczeniem, że OpenAI – zamiast dopatrywać się winy we własnych algorytmach, które takie a nie inne, toksyczne treści podsuwały małoletnim – postanowiła „zaradzić” problemowi, zwiększając, i to radykalnie, zakres inwigilacji użytkowników usług, które oferuje ChatGPT. O co konkretnie chodzi? Po pierwsze, OpenAI wprowadzi stałe, nieustające śledzenie zachowań rozmówców swojego sztandarowego modelu AI.
Oficjalnie – jak zawsze w przypadku zamordyzmu, „dla bezpieczeństwa” – ma to na celu estymację tego, czy osoba korzystająca z bota jest pełnoletnia. Oczywiście nie trzeba dodawać, że skoro firma może to śledzenie wykorzystać w tym celu, to może też wykorzystać (i wykorzysta) w dowolnym innym, nie mającym nic wspólnego z powodem oficjalnym. Jeśli mechanizmy śledzące zaczną podejrzewać, że użytkownik jest niepełnoletni, odetną go od dostępu do bota.
Aby ów dostęp przywrócić, ChatGPT zażąda zaś od chętnego, by wylegitymował się oficjalnymi dokumentami tożsamości. Oczywiście ani słowa o jakiejkolwiek ochronie prywatności danych, które niemal na pewno firma potraktuje jako swoją własność. W ten prosty sposób, pod hasłem „dbania o bezpieczeństwo dzieci”, OpenAI zacznie budować swoją nieoficjalną bazę oficjalnych danych identyfikacyjnych. A że firma bardzo „lubi” takie dane, świadczy powiązany z nią projekt Worldcoin. Czy współpraca z pewnymi portalami.
ChatGPT wstępuje do Milicji Obywatelskiej?
Najlepsze jednak na koniec. Jeśli mimo tego ChatGPT poweźmie przypuszczenie, że użytkownik może sobie (lub innym…) coś zrobić, „skontaktuje się z rodzicami lub władzami”. „Lub władzami”… Innymi słowy, OpenAI po prostu doniesie na swoich klientów. I znów, oficjalnym wytłumaczeniem jest pseudo-bezpieczeństwo. Nie wymaga jednak wiele wyobraźni, by przewidzieć, że kryteria te można banalnie łatwo rozszerzyć. I zacząć donosić za, przykładowo, „mowę nienawiści”.
Prezes OpenAI, Sam Altman, tłumaczył w swoim wpisie, że firma zdaje sobie sprawy, że jest to „privacy compromise”. Uznała jednak, że likwidacja wolności do prywatnego korzystania z bota w imię bezpieczeństwa jest warta owego „compromise”. Polskie tłumaczenie zapewne nie odda tutaj głębi znaczeniowej. Słowo compromise może bowiem oznaczać zarówno „kompromis”, jak i „kompromitację”. Pytaniem, które muszą zadać sobie użytkownicy, jest kwestia tego, czy bot, który żąda od nich dokumentów i na nich donosi to „kompromis w dziedzinie prywatności” czy jej całkowita kompromitacja?
„Ci, którzy oddają fundamentalną wolność dla tymczasowego bezpieczeństwa, nie zasługują ani na wolność, ani na bezpieczeństwo”
~ Benjamin Franklin
