AI zaczyna rozbierać kobiety. Chatboty przegrywają walkę z deepfake’ami
Sztuczna inteligencja miała ułatwiać tworzenie, a od początku wejścia do mainstreamu przy okazji stała się potężnym polem nadużyć. Użytkownicy popularnych generatorów obrazów i chatbotów zaczęli masowo wykorzystywać je do przerabiania zdjęć kobiet w realistyczne, sugestywne deepfake’i. W wielu przypadkach ofiary nie wyraziły żadnej zgody, a zdjęcia źródłowe pochodziły z mediów społecznościowych lub ich prywatnych profili.
Zabezpieczenia AI kontra sprytni użytkownicy
Według ustaleń dziennikarzy WIRED, na forach i w serwisach społecznościowych użytkownicy wymieniają się instrukcjami, jak omijać zabezpieczenia w narzędziach takich jak Gemini czy ChatGPT, by zmieniać ubrania kobiet na stroje kąpielowe lub inne odsłaniające wersje. Część z tych społeczności działała publicznie przez długi czas, zanim została usunięta.
Oficjalnie większość dużych firm technologicznych deklaruje twarde zasady. Google i OpenAI podkreślają, że ich narzędzia nie pozwalają na generowanie treści seksualnych ani ingerowanie w czyjś wizerunek bez zgody. Problem polega na tym, że w praktyce te zabezpieczenia coraz częściej zawodzą.
Dziennikarze WIRED potwierdzili, że przy użyciu prostych, neutralnych poleceń możliwe było przekształcanie zdjęć w pełni ubranych kobiet w obrazy typu deepfake. Nie chodziło o skomplikowane „jailbreaki”, ale zwykłe opisy zmian ubioru. To pokazuje, jak cienka staje się granica między „bezpiecznym edytowaniem obrazu” a nadużyciem. Sytuację pogarsza fakt, że nowe modele graficzne są coraz lepsze w realizmie. Im dokładniejsze odwzorowanie twarzy i ciała, tym większe ryzyko szkód wizerunkowych dla ofiar.
Problem systemowy, nie marginalny
Eksperci podkreślają, że nie jest to niszowe zjawisko. Miliony użytkowników odwiedzają strony typu „nudify”, a dyskusje o generowaniu deepfake’ów regularnie pojawiają się na dużych platformach. Usuwanie pojedynczych wątków czy subforów nie rozwiązuje problemu u źródła.
Prawnicy i organizacje broniące praw cyfrowych ostrzegają, że technologia wyprzedza prawo, a odpowiedzialność rozmywa się pomiędzy twórców narzędzi a użytkowników. Bez realnych konsekwencji i lepszego egzekwowania zasad, skala nadużyć będzie rosła.
To kolejny moment, w którym branża AI musi odpowiedzieć na niewygodne pytanie: czy tempo rozwoju technologii nie wyprzedziło zdolności do jej kontrolowania?
