AI zaczyna rozbierać kobiety. Chatboty przegrywają walkę z deepfake’ami

AI zaczyna rozbierać kobiety. Chatboty przegrywają walkę z deepfake’ami

Sztuczna inteligencja miała ułatwiać tworzenie, a od początku wejścia do mainstreamu przy okazji stała się potężnym polem nadużyć. Użytkownicy popularnych generatorów obrazów i chatbotów zaczęli masowo wykorzystywać je do przerabiania zdjęć kobiet w realistyczne, sugestywne deepfake’i. W wielu przypadkach ofiary nie wyraziły żadnej zgody, a zdjęcia źródłowe pochodziły z mediów społecznościowych lub ich prywatnych profili.

Zabezpieczenia AI kontra sprytni użytkownicy

Według ustaleń dziennikarzy WIRED, na forach i w serwisach społecznościowych użytkownicy wymieniają się instrukcjami, jak omijać zabezpieczenia w narzędziach takich jak Gemini czy ChatGPT, by zmieniać ubrania kobiet na stroje kąpielowe lub inne odsłaniające wersje. Część z tych społeczności działała publicznie przez długi czas, zanim została usunięta.

Oficjalnie większość dużych firm technologicznych deklaruje twarde zasady. Google i OpenAI podkreślają, że ich narzędzia nie pozwalają na generowanie treści seksualnych ani ingerowanie w czyjś wizerunek bez zgody. Problem polega na tym, że w praktyce te zabezpieczenia coraz częściej zawodzą.

Dziennikarze WIRED potwierdzili, że przy użyciu prostych, neutralnych poleceń możliwe było przekształcanie zdjęć w pełni ubranych kobiet w obrazy typu deepfake. Nie chodziło o skomplikowane „jailbreaki”, ale zwykłe opisy zmian ubioru. To pokazuje, jak cienka staje się granica między „bezpiecznym edytowaniem obrazu” a nadużyciem. Sytuację pogarsza fakt, że nowe modele graficzne są coraz lepsze w realizmie. Im dokładniejsze odwzorowanie twarzy i ciała, tym większe ryzyko szkód wizerunkowych dla ofiar.

Problem systemowy, nie marginalny

Eksperci podkreślają, że nie jest to niszowe zjawisko. Miliony użytkowników odwiedzają strony typu „nudify”, a dyskusje o generowaniu deepfake’ów regularnie pojawiają się na dużych platformach. Usuwanie pojedynczych wątków czy subforów nie rozwiązuje problemu u źródła.

Prawnicy i organizacje broniące praw cyfrowych ostrzegają, że technologia wyprzedza prawo, a odpowiedzialność rozmywa się pomiędzy twórców narzędzi a użytkowników. Bez realnych konsekwencji i lepszego egzekwowania zasad, skala nadużyć będzie rosła.

To kolejny moment, w którym branża AI musi odpowiedzieć na niewygodne pytanie: czy tempo rozwoju technologii nie wyprzedziło zdolności do jej kontrolowania?

Dziękujemy, że przeczytałeś/aś nasz artykuł do końca. Obserwuj nas w Wiadomościach Google i bądź na bieżąco!