Opinia współtwórcy Ethereum odnosi się do wyników badań wskazujących, że większość ludzi nie jest już w stanie stwierdzić, kiedy rozmawiają z maszyną.
Przypomnijmy – test Turinga to mglisty punkt odniesienia dla systemów sztucznej inteligencji, który ma określać, jak podobny do człowieka jest model konwersacyjny. Termin ten wywodzi się od słynnego matematyka Alana Turinga, który stworzył test w 1950 roku.
Turing przewidział przyszłość?
Celem testu jest sprawdzenie, czy komputer potrafi odpowiedzieć na pytania sędziego w taki sposób, że sędzia nie jest w stanie z wystarczającą pewnością odróżnić go od człowieka. Jeśli komputer przejdzie test, oznacza to, że wykazuje zachowanie inteligentne na poziomie ludzkim.
Według Turinga w tamtym czasie system sztucznej inteligencji zdolny do generowania tekstu, który oszukuje ludzi, że prowadzą rozmowę z innym człowiekiem, wykazywałby zdolność do „myślenia”.
Niemal 75 lat później osoba, której w dużej mierze przypisuje się stworzenie drugiej najpopularniejszej kryptowaluty na świecie, zinterpretowała ostatnie badania preprintów z University of California San Diego jako wskazujące, że model produkcyjny w końcu przeszedł test Turinga. Naukowcy opublikowali bowiem artykuł pt. „Ludzie nie mogą odróżnić GPT-4 od człowieka w teście Turinga”. W artykule tym około 500 osób poddanych testowi wchodziło w interakcję z ludźmi i modelami sztucznej inteligencji w ślepym teście, aby ustalić, czy mogą dowiedzieć się, który z nich jest który. Według badań, ludzie błędnie określili, że GPT-4 był człowiekiem w 56 proc. przypadków. Oznacza to, że maszyna częściej oszukiwała ludzi, myśląc, że jest jednym z nich.
Co prawda sztuczna inteligencja ogólna (AGI) i test Turinga niekoniecznie są ze sobą powiązane, ale te dwie terminologie są często łączone. Dodajmy, że Turing sformułował swój test w oparciu o swoją matematyczną przenikliwość i przewidział scenariusz, w którym sztuczna inteligencja mogłaby oszukać ludzi, aby myśleli, że jest jednym z nich poprzez rozmowę.
Vitalik Buterin o AI
Według Vitalika Buterina, system sztucznej inteligencji zdolny do oszukania ponad połowy ludzi, z którymi wchodzi w interakcję, kwalifikuje się jako zdający test Turinga. – Oznacza to, że zdolność ludzi do stwierdzenia, czy jest to człowiek, czy bot, jest w zasadzie rzutem monetą! – stwierdził. – Ok, nie do końca, ponieważ ludzie są odgadywani jako ludzie w 66 proc. przypadków w porównaniu do 54 proc. w przypadku botów, ale różnica 12 proc. jest niewielka; w każdym rzeczywistym świecie liczy się to jako zaliczenie – dodał.
Zdaniem Buterina AI zdająca test Turinga może być przydatna np. w firmach jako telekonsultant. Jednak nie poradzi sobie w każdej sytuacji. Choć będzie potrafiła udawać człowieka, jej brak empatii może doprowadzić do frustracji u klientów.