Wielka Czystka: OpenAI usunie fałszywe informacje w ChatGPT

ChatGPT fałszywe informacje

Amerykańskie laboratorium badawcze specjalizujące się w dziedzinie sztucznej inteligencji zapowiedziało zwiększenie możliwości swojego flagowego produktu, ChatGPT, do rozwiązywania problemów matematycznych. Przedsiębiorstwo dąży do zmniejszenia liczby przypadków tzw. halucynacji sztucznej inteligencji. Chodzi o sytuacje, w których narzędzia AI nie znając odpowiedzi na zadane im pytanie, po prostu zmyślają.

Wspomniane halucynacje odnoszą się do przypadków, w których systemy sztucznej inteligencji generują niepoprawne wyniki, wprowadzające w błąd lub niepoparte rzeczywistymi danymi. Mogą się one przejawiać w różnych formach, takich jak generowanie fałszywych informacji, wymyślanie nieistniejących wydarzeń lub osób, a także dostarczanie mało precyzyjnych szczegółów na określone tematy.

ChatGPT i nieprawdziwe treści

Wprowadzenie najnowszej wersji oprogramowania ChatGPT, oznaczonej numerem 4, miało miejsce w marcu br. Jednak problem, jakim jest generowanie fałszywych informacji przez chatboty, jest znany programistom od dawna. Jak się okazuje, połączenie faktów i fikcji jest szczególnie niebezpieczne w przypadku porad medycznych lub ustalania faktów dotyczących kluczowych wydarzeń historycznych.

To tylko jeden z powodów, dla których zarząd OpenAI zdecydował się na przeprowadzenie badań, które miały na celu zbadanie dwóch rodzajów informacji zwrotnych. Pierwsza z nich, określana mianem „nadzoru nad wynikiem” obejmuje informacje zwrotne oparte na wyniku końcowym. Z kolei „nadzór nad procesem” pozwala na uzyskanie danych wejściowych dla każdego kroku w łańcuchu myśli. Badacze OpenAI ocenili te modele za pomocą problemów matematycznych, tworząc wiele rozwiązań i wybierając spośród nich te najwyżej ocenione – zgodnie z każdym modelem informacji zwrotnej.

Z przeprowadzonych przez naukowców analiz wynika, dużo lepsze wyniki przynosi nadzór nad procesem. Dzieje się tak, ponieważ skłania on model do przestrzegania procesu zatwierdzonego przez człowieka. „Nadzór nad procesem może zaoferować korzystne połączenie wydajności i dostosowania w porównaniu z nadzorem nad wynikiem” – napisano w raporcie.

Zobacz też: Zonk! ChatGPT, wykorzystany w sprawie sądowej, zmyślił nieistniejące kazusy

Badania nad AI trwają

Okazało się również, że implikacje nadzoru procesu wykraczają daleko poza matematykę. Przedstawiciele OpenAI wyrazili już gotowość prowadzenia dalszych badań w tej kwestii. Chcąc zachęcić inne podmioty do podobnej aktywności firma publicznie opublikowała kompletny zestaw danych dotyczących nadzoru procesu, zachęcając naukowców do prowadzenia własnych analiz.

Warto przypomnieć, że w przeciwieństwie do prostego asystenta głosowego, takiego jak Siri lub Google Assistant, ChatGPT jest zbudowany na tzw. LLM (Large Language Model). Jest to system zbudowany w opraciu o sieci neuronowe, które są szkolone na ogromnych ilościach informacji w celu głębokiego uczenia się – co oznacza, że generują całkowicie nowe odpowiedzi. Co istotne, nie są one budowane w konkretnym celu, jak chatboty z przeszłości – i są o wiele mądrzejsze.

Może Cię zainteresować:

Dziękujemy, że przeczytałeś/aś nasz artykuł do końca. Obserwuj nas w Wiadomościach Google i bądź na bieżąco!
Zostaw komentarz

Twój adres e-mail nie będzie opublikowany.