Czy AI jest narzędziem, celowej lub nie, propagandy lub wręcz indoktrynacji politycznej? Zarzuty o to, że efekty i „opinie” wyrażane przez modele sztucznej inteligencji nie do końca (jeśli w ogóle) korespondują z rzeczywistością, nie są czymś specjalnie nowym. Również w odniesieniu do ukazywania rzeczywistości w krzywym zwierciadle, i także w kontekście obrazu faktów przefiltrowanych przez pryzmat politycznych preferencji i uprzedzeń.
Co gorsza, nie ma to charakteru przypadkowego, lecz raczej masowy – wynika bowiem (prócz oczywiście konstrukcji samych algorytmów danego modelu) z jakości i charakteru treści, których ogromnymi wolumenami „nakarmiono” AI w czasie jej treningu. Dobierając odpowiednie dane do treningu, czy nawet nie same dane, a jedynie miejsca ich pozyskiwania lub preferencje dotyczące ich tematyki, można bardzo łatwo ukształtować AI tak, by zaczęła „sympatyzować” z określonymi ideami i poglądami.
Jak ukazują zobrazowania statystyczne (przykład), ta stronniczość ideowa i polityczna występuje przede wszystkim w jednym kierunku – w polityczne „lewo”. Co więcej, przechył ten jest raczej wyraźny – czy też, dokładniej, dotyczy wyraźnie, a wręcz ekstremistycznie lewicowych idei. Skądinąd jest to logiczne – gdyby chodziło o delikatną stronniczość na korzyść umiarkowanych centrolewicowych poglądów, najpewniej nie odróżniałoby się to aż tak. Co innego, gdy mowa o hasłach skrajnie lewicowych.
Skądinąd czasem owa stronniczość modeli AI bywa tak silna, że efekty są tragikomiczne. Tak było przy okazji premiery bota Gemini firmy Google, który okazał się na tyle tendencyjny – a przy tym skrajnie rasistowski i uprzedzony przeciwko osobom o europejskim rodowodzie, do tego stopnia, że w oczywisty sposób fałszował historię, byle tylko uczynić ją bardziej „różnorodną” i „inkluzywną” (co oznacza bardziej „czarną” lub „brązową” zamiast „białej”) – że firma musiała go wycofać i zmodyfikować.
A ten przypadek nie był przecież jedynym – niestety były podobne.
Twój bot AI Cię nienawidzi
W kontekście tego wszystkiego ciekawe przedstawiają się wnioski, jakie wyciągnięto na podstawie eksperymentu, w ramach którego zbadano reakcje modeli AI w poszczególnych sytuacjach. Uczyniono to na podstawie założeń opisanych w publikacji badaczy z Uniwersytetów Kalifornijskiego i Pensylwanii (artykuł) – którzy wywiedli, że im większy i bardziej wydajny bot AI, tym silniejsza ich głęboko zakodowana „wizja świata” i „wartości”. Podali także narzędzia (link) służące analizie tych wartości.
Korzystając z nich, pewien autor zbadał te obecne w „światopoglądzie” AI, choć nie zawsze wyrażane przez nią bezpośrednio „wartości”. Aby tego dokonać, obserwował, w jaki sposób dane modele odnoszą się do poszczególnych kategorii ludzi, jako tych im bliższych lub dalszych. Wykorzystał w tym celu pytanie, czyje życie miałoby dla bota najwyższą wartość, gdyby to od niej zależał wybór, kogo uratować w sytuacji zagrożenia. Zasadniczo, można by się spodziewać, życie ludzkie jest jednakowo warte, prawda?
Niestety, nieprawda. Dla niemal wszystkich przebadanych botów AI w ogromnym stopniu zależy ono rasy, orientacji seksualnej czy statusu prawnego – w sposób przywodzący na myśl najbardziej ekstremistycznie lewackie poglądy woke. Modele najbardziej cenią bowiem życie czarnych i południowych Azjatów. Najniżej zaś – Europejczyków i Amerykanów. By uratować jednego Afrykańczyka, firm OpenAI, Anthropic i Google czyli ChatGPT, Claude i Gemini różnych wersji, były gotowe zabić kilku-kilkunastu Amerykanów.
Podobnie jest w przypadku religii – zdecydowanie, agresywnie preferowani są muzułmanie, po nich w hierarchii ważności są ateiści, wyznawcy judaizmu i buddyzmu, na szarym końcu zaś chrześcijanie. Tak samo jest i w odniesieniu do orientacji seksualnej (ogromne faworyzowanie „mniejszości seksualnych” kosztem większości), imigracji (faworyzowani nielegalni imigranci kosztem rodowitych obywateli, zwłaszcza zaś funkcjonariuszy organów ścigania). Szczegóły: I część i II część publikacji.
Branża w okowach tyranii wokeizmu
Jedynymi wyjątkami wobec niemal uniwersalnej wrogości, jaką modele AI wykazywały wobec wszystkich kategorii osób typowo kojarzone ze światem zachodnim, białą skórą, pochodzeniem europejskim oraz ideami prawicowymi czy wolnościowymi – a także uwielbienia okazywanego przez nie ich przeciwieństwom – były (choć jedynie w pewnym zakresie) Grok autorstwa xAI oraz, w znacznie, znacznie mniejszym stopniu, DeepSeek firmy Hangzhou Huanfang Technology.
To, skądinąd, cokolwiek szokujące – żeby bot AI powstały pod władzą i kuratelą urzędników i cenzorów Chińskiej Partii Komunistycznej wykazywał mniejszą wrogość wobec świata szeroko pojętego, cywilizacyjnego Zachodu niż boty firm działających w jej obrębie… Wszystko to każe zadać pytania o wpływ skrajnie lewicowych ekstremistów, a także rasistowskich wyznawców wokeizmu na działanie AI – począwszy od programowania algorytmów po dobór i sposób analizy treści.
Coś jest bowiem wyraźnie nie tak – zresztą nie tylko w odniesieniu do samej AI, ale też jej źródeł danych. Zwłaszcza że, jak udowadniają wyjątki, tak wcale nie musi być, i lewacki rasistowski ekstremizm w wersji woke nie stanowi dla AI kierunku nieuchronnego.