Szef dzwoni na Zoomie i prosi o wykonanie ważnego przelewu. Nadchodzi era oszustw przy użyciu technologii deepfake

Bloomberg: technologia deepfake, która wykorzystuje sztuczną inteligencję (AI) do tworzenia niesamowicie realistycznych filmów i nagrań audio, staje się najnowszą bronią w coraz większym arsenale cyberprzestępców. Eksperci ds. cyberbezpieczeństwa mówią jasno: musimy przygotować się na prawdziwą falę prób wyłudzeń wykorzystujących materiały stworzone przez AI.

Technologia deepfake zamieni internet z powrotem w Dziki Zachód

W 2019 r. dyrektor generalny jednego z brytyjskich dostawców energii padł ofiarą oszustwa głosowego z wykorzystaniem deepfake, w wyniku którego dokonał on niefortunnego przelewu w wysokości 220 000 euro. Prezes głównej, zlokalizowanej w Niemczech spółki miał podczas połączenia poprosić go o przetransferowanie takiej właśnie sumy do węgierskiego dostawcy. Euler Hermes, ubezpieczyciel firmy nie podaje szczegółów, ale przyznaje: suma ubezpieczeniowa została w tym przypadku wypłacona w całości.

Incydent ten, choć szokujący, jedynie dotyka powierzchni oceanu potencjalnych zagrożeń stwarzanych przez deepfakes. Prezes spółki z branży bezpieczeństwa IT CyberArk Software, Udi Mokady, został niedawno skonfrontowany w dobrej wierze przez jednego ze swoich pracowników z zaskakującym wideo przedstawiającym jego samego, a dokładnie jego własnego doppelgangera wygenerowanego przez sztuczną inteligencję. Wyglądał dokładnie jak on sam: casualowo z kapturem na głowie i jego własnym głosem. Przerażające?

Udi Mokady, deepfake stworzony przez pracownika firmy, źródło: CyberArk Soft

Korzystając z potężnych procesorów graficznych, dużej ilości danych i narzędzi sztucznej inteligencji, pracownik ów z powodzeniem stworzył wiarygodną replikę Mokady. Jego praca, która zajęła zaledwie kilka dni, mogłaby zostać potencjalnie odtworzona przez kogoś z ograniczoną wiedzą techniczną w ciągu zaledwie kilku tygodni.

Jeszcze bardziej niepokojące jest pojawienie się dynamicznie rozwijającego się podziemnego rynku tego typu usług. Mandiant, firma zajmująca się cyberbezpieczeństwem, odkryła niedawno reklamy na forach hakerskich oferujące usługi deepfake w formacie wideo po rosyjski i po angielsku w cenie już za 20 dolarów za minutę. Spadająca stawka sprawia, że technologia ta znajduje się w zasięgu ręki nie tylko znanych, dobrze sfinansowanych grup cyberprzestępczych, ale niemalże każdej osoby o złych zamiarach i głową na karku.

W miarę jak produkcja deepfake w czasie rzeczywistym staje się coraz bardziej masowa, zagrożenia rosną wykładniczo. Technologia nie ogranicza się już wyłącznie do wcześniej nagranych materiałów wideo, lecz pozwala także na podszywanie się pod inne osoby na żywo. Może to oznaczać, że cyberprzestępcy zaczną organizować lub dołączać do konferencji live podszywając się pod zaufane osoby, wyciągając od niczego niepodejrzewających ofiar wrażliwe dane, informacje i pieniądze.

Zobacz też: Amerykańska agencja antynarkotykowa DEA przelała 55 tys. USDT prosto do kieszeni oszusta. Wszyscy popełniamy jeden ważny błąd

Białe kapelusze kontra czarne kapelusze

Jedną pozytywną stroną tego ewoluującego krajobrazu zagrożeń jest zwiększona świadomość i wysiłki zmierzające do ograniczenia globalnego ryzyka. Platformy takie jak konferencja hakerska DefCon odgrywają istotną rolę w rozpowszechnianiu wiedzy na temat potencjalnych zagrożeń związanych z nowymi technologiami.

Sama świadomość może jednak nie wystarczyć. Potrzeba rozwiązań technologicznych, w tym opartych na sztucznej inteligencji wykrywaczy deepfake i podpisów cyfrowych dla połączeń wideo. Jak mówi przysłowie branżowe, w cyberbezpieczeństwie podobnie jak w medycynie zawsze trwa zabawa z zagrożeniami w kotka i myszkę, jednak tym razem niebezpieczeństwa wzrastają w bezprecedensowo szybkim tempie.

Ostateczna walka rozegra się pomiędzy programistami działającymi w dobrej wierze (tzw. nawiązującymi do skojarzeń z westernów „białymi kapeluszami”) a czarnymi charakterami (w tychże westernach złoczyńcy nosili czarne kapelusze).

Może Cię zainteresować:

AIBloombergdeepfakeoszustwophishingsztuczna inteligencja
Komentarze (0)
Dodaj komentarz