Wczoraj po południu rynki finansowe błyskawicznie zdyskontowały inforamcję o rzekomych wybuchach w okolicy Pentagonu. Informacja z prędkością błyskawica rozniosła się po mediach społecznościowych trafiając na czołówki istotnych, czołowych portali informacyjnych. Nie trzeba było długo czekać na reakcję. Inwestorzy nie wiedząc co się stało zaczęli wyprzedawać akcje i pozbywali się dolarów. Na szczęście na czas przyszło sprostowanie – nic takieog nie miało miejsca, a Pentagon w oficjalnym komunikacie zaprzeczył by jakikolwiek wybuch blisko dowództwa amerykańskiej armii miał miejsce.
Deep fake atakuje
Zdjęcie przedstawiające eksplozję w pobliżu Pentagonu budzi obawy co do zdolności sztucznej inteligencji do tworzenia dezinformacji. Fałszywy obraz przedstawiający dużą eksplozję w pobliżu Pentagonu został udostępniony w mediach społecznościowych w poniedziałek, powodując co prawda chwilowe ale dynamiczne spadek na giełdzie. W kilka minut lawina kont w mediach społecznościowych, w tym nawet zweryfikowane konta, udostępniły fałszywe zdjęcie potęgując zamieszanie. Wobec tego niektórzy analitycy mediów społecznościowych błyskawicznie zwrócili uwagę na kilka znaczących problemów z obrazem.
Jak go zdemaskowano?
Po pierwsze nie było żadnych innych świadków z pierwszej ręki, którzy mogliby potwierdzić wydarzenie. Chociaż rzecz miała rzekomo mieć miejsce w bardzo ruchliwym miejscu jak Pentagon. Na tą chwilę to jeden z koronnych argumentów blokujących różnego rodzaju fejki. Także sam budynek wygląda zauważalnie inaczej niż Pentagon. Można to szybko weryfikować za pomocą narzędzi takich jak Google Street View. Przy czym służby wywiadowcze mają potężniejsze narzędzia. Inne szczegóły – także dziwnie wyglądający pływający słup latarni i czarny słup wystający z chodnika, były kolejną wskazówką, że obraz nie był de facto tym, czym się wydawał. Sztuczna inteligencja wciąż ma trudności z odtwarzaniem lokalizacji bez wprowadzania przypadkowych do otoczenia.
Jak rozpoznać obrazy generowane przez AI?
Istnieje wiele generatywnych narzędzi sztucznej inteligencji jak Dall-e 2, czy słynny Midjourney i Stable Diffusion. Wszystkie one mogą tworzyć realistyczne obrazy. Są szkolone poprzez przeglądanie dużych ilości rzeczywistych obrazów. Uczą się więc podobnie do dzieci – wraz z upływem czasu stając się coraz doskonalsze. Nieutannie jednak wypełniają luki własną interpretacją otoczenia – gdy brakuje im ważnych danych. Może to skutkować tym, że ludzie mają np. dodatkowe kończyny, niewyraźne twarze czy wiecej palców dłoni.
Spiskowe teorie
W sieci wręcz roi się od teorii mających wskazywać sprawców tego zamieszania. Od rosyjskich hakerów po prywatne firmy eksperymentujace z reakcjami społeczeństwa. Pewne jest, że rynki finansowe to miejsce w którym kto pierwszy posiada informacje – często wygrywa. Zdarzenia nieoczekiwane, rzadkie mają tendencję by powodować błyskawiczne spadki notowań – krachy. Nowojorska giełda bardzo szybko zareagowała na pierwsze przecieki fejkowych informacji. Co prawda wielu inwestorom czy traderom trudno odmówić inteligencji ale gdy w grę wchodzi załamanie notowań – emocje przejmują kontrolę.
Kto ma czas by w otoczeniu dynamicznych spadków analizować czy informacja jest fejkiem, czy może prawdą? Jak przekonać sprzedających, których nie widzi że mylą się gdy sprzedają? Czy dziwnie położona latarnia na zdjęciu świadczy o tym, że jest to psikus ze strony AI? A może odrapana elewacja budynku? Czy brak świadków? Na to wszystko nie ma czasu, gdy rozpoczyna się spirala spadkowa. Spadki powstrzymać może wówczas oczywiście masowa fala zleceń kupna. Na szczęście wczorajszą informację szybko zweryfikowano, przede wszystkim dzięki temu, że dotyczyła ona incydentu w pobliży Pentagonu. Trudno byłoby władzom ukryć ewentualny wybuch. Co jednak jeśli kolejny taki news dotyczył będzie bardziej wysublimowanego miejsca? Wchodzimy w nową erę – epokę precyzyjnej, zaplanowanej dezinformacji na niespotykaną skalę.
Może Cię zainteresuje: