Vitalik Buterin, współzałożyciel Ethereum i uznawany za lidera myśli w dziedzinie kryptowalut, ostrzega, że sztuczna inteligencja (AI) niewłaściwie kontrolowana ma poważną szansę na przewyższenie ludzi, stając się nowym głównym gatunkiem na planecie.
Jak bardzo grozi nam AI? Założyciel Ethereum odpowiada
W swoim najnowszym poście na blogu z 27 listopada, Buterin przedstawił swoje przemyślenia na temat AI, które uważa za „fundamentalnie różne” od innych niedawnych wynalazków, takich jak media społecznościowe, antykoncepcja, samoloty, broń, koło czy prasa drukarska.
Według Buterina, AI różni się od innych technologii, ponieważ tworzy nowy rodzaj „umysłu”, który może obrócić się przeciwko ludzkim interesom. Podkreślił, że superinteligentna AI może potencjalnie doprowadzić do zakończenia istnienia ludzkości, zwłaszcza jeśli uzna ludzi za zagrożenie dla swojego przetrwania. „Nawet Mars może nie być bezpieczny,” dodał, odnosząc się do ewentualnej ucieczki ludzkości na inny świat.
Buterin powołał się na sondaż z sierpnia 2022 r.. W nim ponad 4270 badaczy uczenia maszynowego oszacowało na 5-10% szansę, że AI zabije ludzkość. Chociaż twierdzenia te mogą wydawać się „ekstremalne”, Buterin zwrócił uwagę, że istnieją sposoby, by ludzie mogli przetrwać i zachować kontrolę.
Zobacz także: Naftowe mocarstwo już nie będzie rozliczać się w dolarach. Koniec dominacji USD?
Jakie rozwiązanie może nas uratować?
Proponuje on integrację interfejsów mózg-komputer (BCI), aby ludzie mieli większą kontrolę nad potężnymi formami obliczeń i poznania opartymi na AI. BCI to ścieżka komunikacji między aktywnością elektryczną mózgu a zewnętrznym urządzeniem, takim jak komputer czy sztuczna kończyna.
To podejście zmniejszyłoby dwukierunkową pętlę komunikacyjną między człowiekiem a maszyną z sekund do milisekund. Buterin sugeruje, że ta droga byłaby „bezpieczniejsza”, ponieważ ludzie mogliby uczestniczyć w każdej decyzji podjętej przez maszynę AI. „Możemy zmniejszyć motywację do przeniesienia odpowiedzialności za planowanie wysokiego poziomu na AI. Tym samym zmniejszyć szansę, że sztuczna inteligencja zrobi coś zupełnie niezgodnego z wartościami ludzkimi samodzielnie.”
Wskazuje także na „aktywną ludzką intencję” jako sposób na kierowanie AI w kierunku korzystnym dla ludzkości, ponieważ maksymalizacja zysku nie zawsze prowadzi ludzi do najbardziej pożądanych ścieżek.
Może Cię również zainteresować: