Apple: sztuczna inteligencja jest głupia. Uczeni masakrują AI. To chwyt marketingowy?
Badacze pracujący na zlecenie koncernu Apple opublikowali wyniki swojego nowego – i być może przełomowego – studium nad AI. Badanie to wykazać miało, że sztuczna inteligencja, wbrew nazwie i potocznemu mniemaniu, bynajmniej nie jest inteligencją jako taką. Zaś hurraoptymizm jej dotyczący może okazać się dalece nieuzasadniony. Przynajmniej w samej warstwie koncepcyjnej – zakładającej stworzenie autonomicznej, zdolnej do faktycznego myślenia maszyny.
Badanie prowadzone przez uczonych Apple’a – Keivana Alizadeha, Samy’ego Bengio, Mehrdada Farajtabara, Maxwella Hortona, Imana Mirzadeha oraz Parshin Shojaee – pod tytułem „The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity„ miało na celu przebadanie najpopularniejszych istniejących modeli AI pod względem tego, jaki faktycznie zakres autonomicznego rozumowania wykazują.
Dominacja nazwisk indyjsko-pakistańskich może sugerować, że prowadzono je w filii koncernu na Subkontynencie (ew. że Apple dopuszcza się nielegalnych preferencji w stosunku do pracowników z Indii, zatrudnianych na podstawie wiz H-1B – o co firmę oskarżano). Pomijając samą doniosłość tego, że badania prowadzone przez koncerny technologiczne poczynają spełniać rolę dotychczas realizowaną przez uniwersytety (które jednak od dłuższego czasu przeżywają coraz głębszy kryzys jakościowy oraz ideowy) – doniosłe są też jego konkluzje.
AI – bardziej „artificial” niż „intelligence”
W myśl wniosków płynących z badania, modele AI to, co prawda, bardzo wydajne narzędzia (czy też potencjalnie bardzo wydajne, w zależności od jakości promptów oraz wykorzystanych danych) w realizacji wielu problemów. Zalet AI w rozwiązywaniu problemów matematycznych, sporządzaniu kodu działających programów, kwerendzie i analizie danych czy kreowaniu treści takich jak literatura lub wideo (o bardziej kreatywnych zastosowaniach nie wspominając) najpewniej nie trzeba nikomu przedstawiać. Badacze zwrócili jednak uwagę na to, jak sztuczna inteligencja te zadania realizuje.
Odpowiedź brzmi: nie tak, jak można by się tego było spodziewać po maszynie dysponującej faktyczną inteligencją. Boty AI, mimo iluzji i wrażenia kreatywności, nie dysponują bowiem zdolnością do faktycznej kreacji czegoś nowego. Zaawansowane modele w dalszym ciągu są „głupimi” maszynami, które potrafią tylko to, do czego je zaprogramowano. Wszystkie wspomniane funkcje realizowały bowiem, „ucząc się” rozwiązań (lub choćby ich modułowych elementów) ”na pamięć” – na podstawie danych użytych do ich treningu.
Jak jednak wykazały badania Apple’a, modele AI nie są w stanie same zaadaptować się do nieznanych sobie warunków i opracować rozwiązania problemów, z którymi wcześniej, w ten czy inny sposób, się nie zetknęły. Nawet wówczas, gdy badacze próbowali „ręcznie” podpowiedzieć im rozwiązania, podając w treści prompta stosowny algorytm. Algorytm ten, jak stwierdzono, nie był jednak w momencie podania częścią wypraktykowanych przez model rozwiązań – i jako taki nie znajdował zastosowania w jej bieżącym „rozumowaniu”.
Puzzle miarą postępu
Badacze firmy Apple przeprowadzili swoje badania zarówno wobec dużych modeli językowych (large language models, LLM), jak i dużych modeli wnioskujących (large reasoning models, LRM). Jeśli chodzi o te pierwsze, to testom poddano modele Claude 3.7 Sonnet, GPT-4 oraz DeepSeek V3, natomiast w odniesieniu do tych drugich – ChatGPT o1, ChatGPT o3-mini, Gemini, Claude 3.7 Sonnet Thinking oraz DeepSeek R1. Na marginesie, zastanawia tu brak przetestowania Groka firmy xAI.
W ramach badań, modele miały rozwiązywać puzzle o rozmaitych układach i skalach trudności. Boty LLM okazywały się lepsze w przypadku łatwych puzzli, LRM – w przypadku tych o średniej trudności. Wszystkie natomiast okazały się niezdolne do radzenia sobie z puzzlami naprawdę trudnymi. Jak zaznaczono, skala spadku efektywności AI nie była tutaj liniowa – lecz skokowa. Po osiągnięciu pewnego progu trudności skuteczność AI nagle się załamywała, i to całkowicie.
Jak skonkludowano, najtrudniejsze układy puzzli wymagały nie odtwórczego, lecz kreatywnego i inteligentnego podejścia. Do którego istniejące modele sztucznej „inteligencji” okazały się niezbędne. Właśnie takowe ma być jednak przymiotem zakładanej i przewidywanej przez technologicznych optymistów AGI (artificial general intelligence). Nie jest powiedziane, że ta ostatnia nie powstanie – zwłaszcza, że już istniejące narzędzia AI zdradzały niekiedy tendencje do „niezależnego” myślenia (niekiedy w bardzo niepokojący sposób).
Jak wnioskują uczeni Apple’a, obecne rozwiązania w tej dziedzinie nie stanowią jednak w tej dziedzinie przełomu.
