Meredith Whittaker, prezes komunikatora Signal, ostrzega przed zagrożeniami związanymi ze sztuczną inteligencją. Jej zdaniem narzędzia AI oparte są na modelu wszechobecnej inwigilacji i kradzieży danych. Z kolei obróbka tych danych nie podlega kontroli ze strony ich właścicieli.
Truizmem będzie stwierdzenie, że AI przeżywa ostatnio hossę. Jednak pośród licznych jej zastosowań istnieją też uzasadnione obawy jej dotyczące. I chodzi w ich przypadku nie tylko o to, że sztuczna inteligencja jako narzędzie może zostać wykorzystana w niewłaściwy sposób.
Także sama istota jej działania budzi wątpliwości niektórych obserwatorów. Do tych zalicza się, przykładowo, Meredith Whittaker, szefowa szyfrowanego komunikatora Signal. Wyraziła je ona przy okazji targów VivaTech w Paryżu, w wypowiedzi dla AFP.
Targom tym skądinąd towarzyszyło entuzjastyczne nastawienie w stosunku do narzędzi AI oraz rozwijających je start-up’ów. Whittaker jednak nie podziela owego entuzjazmu – a przynajmniej nie w tak bezkrytycznym wydaniu co reszta branży.
Signal of concerns
Whittaker zaczęła od stwierdzenia oczywistości, którą jednak może warto podkreślić – AI nie funkcjonuje bez ogromnych ilości danych. Danych, dodajmy, które pochodzą z masowego „zbierania” (czytaj: inwigilacji), i które maja realny wpływ na codzienne życie ludzi.
Co więcej, szefowa apki Signal zauważa także, że obawy dotyczące podmywania prywatności w sieci oraz mechanizmów sztucznej inteligencji są ze sobą powiązane. Podmioty, które rozwijają sztuczną inteligencję – w tej liczbie wszyscy duzi giganci Big Tech-u – swój model biznesowy opierają w dużej mierze właśnie na masowej inwigilacji danych (oficjalnie: „gromadzeniu pewnych informacji w celu poprawy jakości usług”, albo jakoś podobnie. ).
Trend ten wykiełkować miał w latach 90′ w USA, i niestety stał się nieomal synonimem branży technologii informatycznych. Whittaker może wiedzieć co mówi, sama pracowała bowiem w Google’u (skąd odeszła w 2017 na fali protestu przeciwko warunkom pracy).
Jeśli pierwszy zasadniczy problem związany z AI można określić jako „data input”, to drugim byłby „data output”. Chodzi mianowicie o to, co sztuczna inteligencja czyni, i w jaki sposób przetwarza dostarczane jej, niekończące się potoki informacji.
Człowiek z wysokiego biurowca
W oczywisty sposób sposób ich obróbki zależy od jej napisanych przez człowieka algorytmów. Algorytmy te nie są bynajmniej bezbłędne, a nadto często obarczone są także przywarami ich twórców (jak dobitnie udowodniła saga google’owskiego bota AI, Gemini).
Twórcy ci jednak rzadko kiedy bywają z tytułu tych niedoskonałości rozliczani – nawet we wspomnianym przypadku Gemini, pomimo monumentalnych zafałszowań zapisanych w jej kodzie, jej falstart nastąpił dopiero po fali ogromnego oburzenia.
Tymczasem efekty ich błędów mają realny wpływ na życie użytkowników. Nawet tych, którzy nie chcą korzystać z nich sami z siebie, ale zostają do tego zmuszeni w pracy, w relacjach urzędowych lub w domenie publicznej.
Whittaker jest obecnie aktywistką na rzecz zachowania prywatności w sferze IT i przeciwko masowej inwigilacji. Signal, którego jest szefową, to szyfrowane narzędzie, które służyć ma komunikacji tak bezpiecznej przed wścibstwem podmiotów zewnętrznych, jak to możliwe.