Inteligentne zagrożenia: Jak AI zmieni oblicze cyberbezpieczeństwa w 2025 roku?

Narzędzia oparte na AI mogą zwiększyć skalę i kaliber scamu, dezinformacji i innych zagrożeń, jeśli dostaną się w niepowołane ręce. To dał nam do zrozumienia rok 2024.

W ciągu ostatniego roku sztuczna inteligencja nadała nowy rytm wyścigowi zbrojeń w sektorze cyberbezpieczeństwa. W roku 2025 na pewno nie zwolni tempa. Będzie to miało istotne konsekwencje dla zespołów zajmujących się cyberbezpieczeństwem oraz dla zwykłych użytkowników sieci. Choć z jednej strony sztuczna inteligencja pomaga tym, którzy stoją po stronie bezpieczeństwa, hakerzy nie tracą czasu i również starają się być na bieżąco z najnowszymi zdobyczami AI.

Na początku roku 2024 brytyjskie centrum cyberbezpieczeństwa narodowego (National Cyber Security Centre, NCSC) ostrzegało, że sztuczna inteligencja już teraz jest wykorzystywana przez osoby o nieuczciwych zamiarach. Prognozowało, że liczba ataków w ciągu 2 lat z pewnością wzrośnie. Zagrożenie jest tym poważniejsze w kontekście inżynierii społecznej. W tym obszarze generatywna sztuczna inteligencja (GenAI) może pomagać hakerom tworzyć przekonujące kampanie w językach lokalnych.

Cybersecurity and AI: What does 2025 have in store?
fot. materiały partnera

Choć ten trend będzie się utrzymywał w roku 202, sztuczna inteligencja będzie również wykorzystywana do:

  • Obejścia mechanizmów uwierzytelnienia: Technologia deepfake w służbie oszustów pozwoli im podszywać się pod klientów podczas kontroli obejmującej selfie lub nagranie wideo, na przykład podczas tworzenia nowych kont i uzyskiwania dostępu do nich.
  • Przejęcie maila służbowego (BEC): To kolejna odsłona inżynierii społecznej, tym razem jednak chodzi o to, by przekonać odbiorcę w danej firmie do przelania środków na konto kontrolowane przez hakera. Deepfake’owe nagrania dźwiękowe i wideo mogą posłużyć do podszywania się pod kierownictwo, na przykład podczas rozmów telefonicznych i spotkań online.
  • Scamy polegające na przyjęciu cudzej tożsamości: Duże modele językowe w formacie open source również oferują hakerom spore możliwości. Taki model można wyszkolić na danych ze zhakowanych lub publicznie dostępnych kont w mediach społecznościowych, by następnie podszywać się pod ofiary wirtualnego porwania lub dokonywać innych oszustw, które mają na celu wyłudzenie pieniędzy od znajomych i rodziny „ofiary”.
  • Scamy influencerskie: Generatywna sztuczna inteligencja może też zostać wykorzystana przez scammerów do tworzenia fałszywych lub zduplikowanych kont w mediach społecznościowych. Oszuści chcą w ten sposób podszywać się pod celebrytów, influencerów i inne znane osobistości. Deepfake’owe nagranie zwabi fanów, którzy bez protestów przekażą swoje dane osobowe, a nawet pieniądze. To dość prosty sposób na scam inwestycyjny lub kryptowalutowy. W końcu niedawno świat obiegła wiadomość o kobiecie, która przekazała oszustowi sporą sumę pieniędzy, przekonana, że rozmawia z Bradem Pittem. Aktor podobno prosił o środki na leczenie. Jak widać, rok 2025 nie kazał nam długo czekać na pierwsze scamy.
  • Dezinformacja: Organizacje, rządy i inne grupy mogą wykorzystywać generatywną AI do tworzenia fałszywych treści skonstruowanych tak, by nabrać użytkowników mediów społecznościowych i przekonać ich do subskrybowania fałszywych kont. Użytkownicy następnie pełnią funkcję nieświadomych propagatorów działań influencerów, w efekcie działając skuteczniej i dyskretniej niż zwykłe, znane dotąd farmy trolli.

Łamanie haseł: Narzędzia oparte na sztucznej inteligencji mogą w ciągu kilku sekund zdemaskować dane uwierzytelniające całej grupy użytkowników. Tym samym ułatwiając dostęp do sieci i danych firmowych oraz do kont klientów. Wielokrotnie słyszeliśmy o wyciekach danych w organizacjach, które uważaliśmy za dobrze chronione, np. w bankach.

fot. materiały partnera

Sztuczna inteligencja a prywatność. Czy jest się czego bać w roku 2025? 

Sztuczna inteligencja będzie nie tylko użytecznym narzędziem w rękach hakerów. Może też sama w sobie prowadzić do zwiększonego ryzyka wycieków danych. Duże modele językowe wymagają ogromnych ilości tekstu i materiału graficznego, by mieć na czym trenować. Czasami zdarza się, zupełnym przypadkiem, że w ten sposób do modelu trafią dane wrażliwe: biometryczne, zdrowotne czy finansowe. W niektórych przypadkach media społecznościowe czy inne firmy mogą zmienić zapisy regulaminów, dopuszczając wykorzystanie danych klienta do trenowania modeli.

Gdy dane zostaną już zaciągnięte przez sztuczną inteligencję, mogą stanowić ryzyko dla ich właściciela. Gdy system zostanie zhakowany lub jeśli informacje zostaną przesłane dalej za pośrednictwem aplikacji GenAI. Istnieją też obawy, że pracownicy firm mogą nieświadomie udostępniać dane wrażliwe, wpisując prompty do narzędzi opartych na generatywnej sztucznej inteligencji. Według jednej z przeprowadzonych w zeszłym roku ankiet, jedna piąta brytyjskich firm przypadkowo naraziła dane wrażliwe na ryzyko wycieku, gdy pracownicy korzystali z narzędzi GenAI.

AI w służbie bezpieczeństwa

Dobra wiadomość jest taka, że sztuczna inteligencja będzie odgrywała coraz większą role w pracy zespołów do spraw cyberbezpieczeństwa. Stanie się częścią nowych produktów i usług. Korzystając z dotychczasowego dorobku AI, nowe rozwiązania pomogą nam:

  • Generować syntetyczne dane do szkolenia użytkowników, zespołów do spraw bezpieczeństwa, a nawet rozwiązań AI 
  • Streszczać długie i zawiłe raporty dotyczące zagrożeń w sferze cyberbezpieczeństwa i usprawniać podejmowanie decyzji w przypadku incydentów
  • Wzmocnić produktywność pracowników odpowiedzialnych za bezpieczeństwo i ochronę danych, zapewniając kontekst i priorytet alertów i automatyzując procedury dochodzenia i reagowania na incydenty
  • Skanować duże partie danych pod kątem podejrzanych zachowań
  • Podnosić kompetencje zespołów IT dzięki funkcji „copilot”, wbudowanej w różne produkty, by zmniejszyć prawdopodobieństwo błędnej konfiguracji

Decydenci w obszarach bezpieczeństwa IT muszą jednak zrozumieć ograniczenia sztucznej inteligencji i znaczenie ludzkiego doświadczenia w procesie decyzyjnym. W roku 2025 ważniejsza niż kiedykolwiek będzie równowaga, która pozwoli zminimalizować ryzyko halucynacji, degradacji modelu i innych potencjalnie negatywnych konsekwencji. Sztuczna inteligencja nie jest panaceum na wszystkie bolączki technologii i biznesu. Naprawdę przydatna jest dopiero w połączeniu z innymi narzędziami i technikami.

Dziękujemy, że przeczytałeś/aś nasz artykuł do końca. Obserwuj nas w Wiadomościach Google i bądź na bieżąco!
Kryptowaluty bezpiecznie kupisz lub sprzedasz w sieci kantorów i bitomatów FlyingAtom
Zostaw komentarz

Twój adres e-mail nie będzie opublikowany.