Analiza nie pozostawia złudzeń. Chatboty AI działają coraz gorzej

Malejące zainteresowanie konsumentów chatbotami spowodowało spadek przychodów sektora sztucznej inteligencji (AI) w drugim kwartale 2024 roku.

Z wyników badania pt. „Większe i bardziej instruktażowe modele językowe stają się mniej niezawodne”, którego wyniki zostały opublikowane w magazynie naukowym „Nature Scientific Journal”, możemy dowiedzieć się, że chatboty oparte na sztucznej inteligencji popełniają coraz więcej błędów w miarę jak na rynki pojawiają się kolejne ich modele.

Kłopoty z AI

Lexin Zhou, jeden z autorów badania, uważa, że ponieważ modele sztucznej inteligencji są zoptymalizowane tak, aby zawsze dostarczać wiarygodnych odpowiedzi, pozornie poprawne odpowiedzi są traktowane priorytetowo i przekazywane użytkownikowi końcowemu niezależnie od dokładności. Te halucynacje sztucznej inteligencji same się wzmacniają i mają tendencję do narastania w czasie. Zjawisko to nasila się w wyniku używania starszych dużych modeli językowych do trenowania nowszych dużych modeli językowych, co prowadzi do „załamania modelu”.

Redaktor i pisarz Mathieu Roy ostrzegł użytkowników, aby nie polegali zbytnio na tego typu narzędziach. Zaleca on, by zawsze sprawdzać wyniki wyszukiwania generowane przez sztuczną inteligencję pod kątem niespójności. – Chociaż sztuczna inteligencja może być przydatna w wielu zadaniach, ważne jest, aby użytkownicy weryfikowali informacje uzyskane z modeli AI. Sprawdzanie faktów powinno być krokiem w procesie każdego użytkownika korzystającego z narzędzi AI. Sprawa komplikuje się, gdy w grę wchodzą chatboty do obsługi klienta – powiedział. Jednocześnie przyznał on, że często nie ma innego sposobu na sprawdzenie informacji niż zapytanie samego chatbota.

W tym miejscu należy wyjaśnić, że problem halucynacji sztucznej inteligencji odnosi się do sytuacji, w której system AI generuje informacje, które są nieprawdziwe, błędne lub nieistniejące. Zjawisko to często występuje w modelach językowych, które tworzą teksty na podstawie wzorców i danych, na których zostały wytrenowane. W takich przypadkach, AI może „wymyślać” odpowiedzi, które wydają się prawdziwe lub sensowne, ale w rzeczywistości nie mają poparcia w faktach.

Nieszczęsne halucynacje

Halucynacje mogą być problematyczne w aplikacjach AI, takich jak chatboty, systemy wspierające decyzje czy narzędzia do generowania treści, ponieważ mogą wprowadzać użytkowników w błąd, jeśli te błędne informacje nie zostaną wykryte. Przyczyny halucynacji obejmują: brak pełnych danych (AI może próbować wypełniać luki w danych lub tworzyć odpowiedzi w oparciu o niekompletne informacje), niedokładne dopasowanie (model AI może generować treści, które wydają się pasować do pytania, ale faktycznie są błędne), a także brak zrozumienia rzeczywistości (AI nie posiada rzeczywistego rozumienia świata, więc nie jest w stanie ocenić prawdziwości lub realności swoich odpowiedzi)

Przykładów na nieprawidłowe działanie AI nie brakuje. Jest to np. sytuacja, w której AI odpowiada na pytanie o wydarzenie historyczne, podając daty lub fakty, które nigdy nie miały miejsca. Przypomnijmy też sytuację z lutego 2024 r., kiedy to Google stało się obiektem kpin. To właśnie wtedy generator obrazów tej firmy tworzył kompletne bzdury – m.in. przedstawiał osoby czarnoskóre jako nazistowskich oficerów. Niestety, takie incydenty są coraz bardziej powszechne w przypadku obecnej iteracji sztucznej inteligencji i dużych modeli językowych.

.

Dziękujemy, że przeczytałeś/aś nasz artykuł do końca. Obserwuj nas w Wiadomościach Google i bądź na bieżąco!