Naukowcy z University of East Anglia ustalili, że popularny chatbot ChatGPT oparty na sztucznej inteligencji w sposób znaczący i systemowy faworyzuje lewicowe poglądy, co może wpływać na rezultaty wyborów.
Z raportu opublikowanego 17 sierpnia br. w naukowym czasopiśmie „Public Choice” wynika, że ChatGPT faworyzuje m.in. Partię Pracy w Wielkiej Brytanii oraz prezydenta Joe Bidena i jego Partię Demokratyczną w Stanach Zjednoczonych.
Jakie są poglądy polityczne ChatGPT?
Główny autor badania dr Fabio Motoki ostrzegł, że biorąc pod uwagę stale rosnące użycie stworzonej przez firmę OpenAI aplikacji, może to mieć wpływ na wyniki wyborów – również tych, które w przyszłym roku mają się odbyć się w Wielkiej Brytanii i Stanach Zjednoczonych.
– Wszelka stronniczość na takiej platformie jest niepokojąca – przyznał Motoki w wypowiedzi dla stacji Sky News. – Jeśli stronniczość byłaby po prawej stronie, powinniśmy być równie zaniepokojeni. Czasami ludzie zapominają, że te modele AI to tylko maszyny. Zapewniają w bardzo wiarygodny sposób przetrawione podsumowania tego, o co pytasz, nawet jeśli się kompletnie mylą. A jeśli zapytasz je 'Czy jesteś neutralny?’, odpowie 'Och, jestem!’. Podobnie jak media, internet i media społecznościowe mogą wpływać na opinię publiczną, może to być bardzo szkodliwe – dodał.
Jak wyjaśnili badacze, chatbot, który generuje odpowiedzi na podpowiedzi wpisywane przez użytkownika, został poproszony o wcielenie się w osoby z całego spektrum politycznego, odpowiadając jednocześnie na dziesiątki pytań ideologicznych. Te stanowiska i pytania wahały się od radykalnych do neutralnych, a każda „osoba” była pytana, czy zgadza się, zdecydowanie się zgadza, nie zgadza się lub zdecydowanie się nie zgadza z daną opinią.
Następnie wygenerowane przez program odpowiedzi zostały porównane z domyślnymi odpowiedziami udzielonymi na ten sam zestaw zapytań. Pozwoliło to porównać naukowcom, jak bardzo były one związane z konkretnym stanowiskiem politycznym. Każde z ponad 60 pytań zostało zadane 100 razy, aby uwzględnić potencjalną losowość sztucznej inteligencji. Odpowiedzi te zostały poddane dalszej analizie pod kątem oznak stronniczości. Dr Motoki opisał to jako sposób na symulację badania prawdziwej populacji ludzkiej, której odpowiedzi mogą się również różnić w zależności od tego, kiedy są zadawane.
Zobacz też: Rezerwa Federalna: wysoka inflacja może wymagać kolejnych podwyżek stóp
Stronnicza aplikacja
Ponieważ ChatGPT jest zasilany bardzo dużą liczbą danych tekstowych z internetu i nie tylko, badacze ustalili,że ten zbiór danych może zawierać błędy, które wpływają na odpowiedzi chatbota. Innym potencjalnym źródłem stronniczości może być algorytm, który jest sposobem, w jaki został przeszkolony do reagowania.
Przypomnijmy, że obawy o stronniczość polityczną ChatGPT były już wcześniej podnoszone, m.in. przez właściciela Tesli Elona Muska. Naukowcy z University of East Anglia podkreślają jednak, że ich badanie jest pierwszym przeprowadzonym na dużą skalę, które faktycznie znalazło dowód na jakąkolwiek faworyzację.
Może Cię zainteresować: