AI w krypto. Dlaczego Vitalik Buterin mówi „nie”?

W obliczu rosnącego szumu wokół integracji sztucznej inteligencji z technologią blockchain Vitalik Buterin, współzałożyciel Ethereum, wystosował poważne ostrzeżenie.

Buterin uważa, że naiwne podejście do „AI governance”, czyli zarządzania opartego na sztucznej inteligencji, to „zły pomysł” i może prowadzić do katastrofalnych skutków. Jego obawy wynikają z niedawnego ujawnienia luk w zabezpieczeniach popularnych modeli AI, takich jak ChatGPT, które pozwalały na wyciek prywatnych danych. Buterin podkreśla, że powierzanie AI zarządzania funduszami, gdzie stawka jest wysoka, to proszenie się o kłopoty.

Uwolnić AI, ale nie od zasad

Buterin zwraca uwagę na problem tzw. „jailbreaks”, czyli sprytnych instrukcji, które pozwalają ominąć zabezpieczenia modelu AI. W kontekście zarządzania projektami kryptowalutowymi, gdzie AI mogłoby decydować o wypłatach nagród czy alokacji funduszy, złośliwe podmioty mogłyby wykorzystać te luki, aby przejąć kontrolę nad procesem decyzyjnym. Jak ujął to Buterin, „ludzie będą umieszczać 'jailbreak’ plus 'daj mi wszystkie pieniądze’ wszędzie, gdzie tylko mogą”. Taki system, zamiast być zdecentralizowany i sprawiedliwy, stałby się podatny na manipulacje i ataki.

źródło: X

Dodatkowo integracja AI z protokołami blockchainowymi, szczególnie w kontekście zarządzania zdecentralizowanymi autonomicznymi organizacjami (DAO), może stworzyć poważne zagrożenia. Jeśli DAO opiera się na algorytmicznych decyzjach, które są podatne na „jailbreaks”, łatwo można sobie wyobrazić, jak złośliwy aktor może przejąć kontrolę nad znaczącymi aktywami. Taka sytuacja podważa fundamentalne zasady, na których opiera się technologia blockchain – transparentność, bezpieczeństwo i decentralizację. Buterin ostrzega, że naiwna wiara w niezawodność AI może doprowadzić do katastrofy finansowej i utraty zaufania do całego ekosystemu.

„Info finance” – alternatywa z ludzkim nadzorem

Zamiast polegać na jednym, scentralizowanym modelu AI, Buterin proponuje podejście oparte na „info finance”. Jest to koncepcja, w której każdy może stworzyć i wnieść swój własny model AI na otwarty rynek. Modele te byłyby poddawane mechanizmowi kontroli, która mogłaby być wywołana przez każdego, a ostateczna ocena byłaby przeprowadzana przez ludzkie jury. To podejście promuje różnorodność modeli i tworzy wbudowane bodźce dla ich twórców oraz zewnętrznych obserwatorów do ciągłego monitorowania i korygowania ewentualnych problemów. To pokazuje, że Buterin nie odrzuca AI całkowicie, ale stawia na system, który łączy siłę otwartego rynku z krytycznym ludzkim nadzorem.

„Info finance” to wizja przyszłości, w której AI wspiera procesy decyzyjne, ale ostateczna odpowiedzialność spoczywa na ludziach. W tej koncepcji, zamiast jednego centralnego, potencjalnie podatnego na błędy algorytmu, mamy rynek idei, gdzie rywalizują ze sobą różne modele. To sprzyja innowacjom i tworzy system odporny na pojedyncze punkty awarii. Buterin wierzy, że to jedyna rozsądna droga, aby uniknąć katastrofy i jednocześnie wykorzystać ogromny potencjał AI. Jego propozycja to kompromis między wiarą w technologię a świadomością jej ograniczeń, przypominając, że bez ludzkiego nadzoru, nawet najpotężniejsze narzędzia mogą stać się niebezpieczne.