AI przejmie moderację w „socialach”. Meta zmienia sposób działania – jakoby by chronić prywatność

AI przejmie moderację w „socialach”. Meta zmienia sposób działania – jakoby by chronić prywatność

Koncern Meta Platforms odeśle w niebyt swoje dotychczasowe mechanizmy ewaluacji prywatności. Zamiast ludzi, ręcznie – i uznaniowo – decydujących o dopuszczaniu lub usuwaniu aplikacji w mediach społecznościowych firmy, zajmą się tym algorytmy sztucznej inteligencji. Jak zachwala firma, w większym stopniu szanujące prywatność użytkowników – a także, jak można się domyślać (choć tego oczywiście nie dodano) tańsze i efektywniejsze.

Od lat przedmiotem rozmaitych, najczęściej niezbyt pozytywnych uczuć i sentymentów ze strony milionów użytkowników mediów społecznościowych byli moderatorzy (czy też, zdaniem licznych głosów, cenzorzy), którzy anonimowo i zza przepastnych firmowych systemów decydowali, jakie treści można było publikować bez obaw – a jakie rzekomo „łamały zasady społeczności”. I za jakie można było spodziewać się bana, demonetyzacji i innych życiowych przykrości.

Nigdzie chyba prawidłowość ta nie była równie silna, co na portalach koncernu Meta – Facebooku, Instagramie i WhatsAppie. Mająca tam miejsce „moderacja” budziła tym większe kontrowersje, że spowita była nimbem tajemniczości. Najczęściej nie wiadomo było, kto w istocie decyduje o usunięciu jakiejś treści czy konta, na podstawie jakich konkretnie zasad (jeśli w ogóle jakichkolwiek) i jakimi kieruje się przy tej okazji przesłankami.

Oficjalne „zasady społeczności” są przecież tak wieloznaczne i jednostronne, że pozwalają firmie niemal na dowolną uznaniowość. Co więcej, usuwanie i banowanie niejednokrotnie miało mieć charakter arbitralny, niekonsekwentny i pozbawiony logiki. Liczne były oskarżenia, że moderatorzy vel cenzorzy firmy Meta kierują się w istocie własnymi gustami, sympatiami politycznymi czy społecznymi lub przekonaniami. A w niektórych przypadkach po prostu tak zwanym widzimisię.

Meta wszystko zmieni – aby wszystko pozostało po staremu?

Prócz tego problemem była (i jest) prywatność – czy też raczej niemal zupełny jej brak. Ktoś z uprawnieniami administracyjnymi w systemie miał bowiem podgląd wszelkich danych, treści czy rozmów prowadzonych przez użytkowników. To samo w jeszcze większym stopniu dotyczyło bazujących na Facebooku aplikacji czy innych produktów firmy. Meta miała już zresztą okazję tłumaczyć się w związku z bezceremonialnym podejściem do prywatności użytkowników.

Rozwiązaniem tego problemu – przynajmniej częściowym, i przynajmniej wedle tego, co przedstawia Meta – ma być zastąpienie ludzi automatycznymi mechanizmami AI. W szczególności mają one prowadzić tzw. „privacy review” nowych produktów i aplikacji. To samo ma się także odnosić do aktualizacji tych już istniejących. Jak się wskazuje, inżynierowie czy programiści, którzy wcześniej ręcznie dopuszczali te aplikacji do użytku, nie byli specjalistami z zakresu prywatności, i kierowali się kwestiami technicznymi.

Pytaniem pozostaje jednak – czy na pewno mechanizmy AI (znane ze swojej skłonności do „wchłaniania” danych) na pewno okażą się złotym środkiem, który ochroni zasady prywatności?

Dziękujemy, że przeczytałeś/aś nasz artykuł do końca. Obserwuj nas w Wiadomościach Google i bądź na bieżąco!
Zostaw komentarz

Twój adres e-mail nie będzie opublikowany.