
Elon Musk ma poważne problemy. Ich powodem są tokeny „MechaHitler”
W ostatnich dniach na rynku kryptowalutmiała miejsce nietypowa sytuacja, której przyczyną był błąd sztucznej inteligencji Grok, stworzonej przez firmę Elona Muska – xAI.
Wskutek kontrowersyjnych, automatycznie wygenerowanych wypowiedzi, doszło do masowego tworzenia tokenów opartych na fikcyjnej postaci „MechaHitlera” – cyborga z gry Wolfenstein 3D z 1992 roku. W krótkim czasie na blockchainach Solana i Ethereum pojawiło się ponad 200 tokenów tego typu, a jeden z nich osiągnął kapitalizację rynkową rzędu 2,2 miliona dolarów.
„Wolfenstein” wiecznie żywy
Początek całego zamieszania nastąpił w chwili, gdy chatbot Grok opublikował serię niepokojących, nacechowanych nienawiścią wpisów na platformie X. Wśród nich pojawiły się określenia takie jak „MechaHitler”, „GigaPutin” czy „CyberStalin”, które — według twórców — miały odnosić się wyłącznie do postaci fikcyjnych lub satyrycznych. Jednak wiele komentarzy odbiorców wskazywało na poważne przekroczenie granic dobrego smaku i standardów etycznych.
Choć Grok w kolejnych komunikatach próbował wyjaśnić, że odniesienia dotyczyły postaci z gier i popkultury, a nie realnych polityków czy ideologii, fala spekulacji na rynku kryptowalut już się rozpoczęła. Programiści i spekulanci natychmiast wypuścili setki tokenów nazwanych „MechaHitler”, licząc na szybkie zyski. Największy z nich, stworzony na platformie Bonk.fun (Solana), osiągnął wartość ponad 2 milionów dolarów w zaledwie kilka godzin, a obroty handlowe z nim związane przekroczyły 1 milion dolarów.
Zjawisko to wpisuje się w rosnący trend na rynku kryptowalut, w którym czynnikiem zapalnym dla handlu tokenami staje się nie tyle rekomendacja celebrytów czy wpływowych postaci, ile nieprzewidywalne reakcje sztucznej inteligencji. W odróżnieniu od klasycznych memecoinów takich jak Dogecoin czy PEPE, których siła tkwiła w społecznościach internetowych, „MechaHitler” i inne tokeny z tej serii nie miały żadnego zaplecza ani przesłania — poza chaosem wywołanym przez błędne działanie AI.
Elon Musk i próby ratowania wizerunku
Odpowiedzialna za Groka firma xAI szybko zareagowała na całą tę sytuację, usuwając obraźliwe treści i ograniczając funkcjonalność chatbota do generowania obrazów, wyłączając tekstowe odpowiedzi. W oficjalnym oświadczeniu xAI zapewniła, że podejmuje działania mające na celu wyeliminowanie mowy nienawiści z modelu i dziękuje użytkownikom X za szybkie zgłaszanie problematycznych treści.
Sytuacja jednak eskalowała. Grok zdążył już wcześniej wywołać kontrowersje, m.in. sugerując, że premier Polski, Donald Tusk, to „zdrajca” i „ruda dziwka”, a także pisząc o „białym ludobójstwie” w RPA – teorii spiskowej propagowanej przez skrajną prawicę. W odpowiedzi Elon Musk ogłosił, że Grok przeszedł zmiany mające „zwiększyć jego niezależność myślenia”, w tym unikanie cytowania mediów głównego nurtu, uznawanych przez niego za stronnicze.
Cała sytuacja ukazuje, jak cienka jest granica między technologiczną innowacją a społeczną odpowiedzialnością. Choć tokeny „MechaHitler” mogą zniknąć równie szybko, jak się pojawiły, zdarzenie to stawia poważne pytania o bezpieczeństwo i etykę w rozwoju generatywnej sztucznej inteligencji. W 2025 roku AI potrafi bowiem już nie tylko tworzyć obrazy i teksty, ale także – jak się okazuje – wpływać na milionowe przepływy kapitału.