Zautomatyzowane cyberataki wykorzystujące sztuczną inteligencję: gdy maszyny stają się cyberprzestępcami

KREDYT WZROKU:
Image credit
iStock

Zautomatyzowane cyberataki wykorzystujące sztuczną inteligencję: gdy maszyny stają się cyberprzestępcami

Zautomatyzowane cyberataki wykorzystujące sztuczną inteligencję: gdy maszyny stają się cyberprzestępcami

Tekst podtytułu
Moc sztucznej inteligencji (AI) i uczenia maszynowego (ML) jest wykorzystywana przez hakerów, aby uczynić cyberataki bardziej skutecznymi i zabójczymi.
    • Autor:
    • nazwisko autora
      Foresight Quantumrun
    • 30 września 2022 r.

    Podsumowanie spostrzeżeń

    Sztuczna inteligencja (AI) i uczenie maszynowe (ML) są coraz częściej wykorzystywane w cyberbezpieczeństwie, zarówno do ochrony systemów, jak i do przeprowadzania cyberataków. Ich zdolność do uczenia się na podstawie danych i zachowań umożliwia im identyfikację luk w zabezpieczeniach systemu, ale także utrudnia śledzenie źródła tych algorytmów. Ten ewoluujący krajobraz sztucznej inteligencji w cyberprzestępczości budzi obawy wśród ekspertów IT, wymaga zaawansowanych strategii obronnych i może prowadzić do znaczących zmian w podejściu rządów i firm do cyberbezpieczeństwa.

    Zautomatyzowane cyberataki z wykorzystaniem kontekstu AI

    Sztuczna inteligencja i ML zachowują zdolność do automatyzacji prawie wszystkich zadań, w tym uczenia się na podstawie powtarzalnych zachowań i wzorców, dzięki czemu stanowią potężne narzędzie do identyfikowania luk w zabezpieczeniach systemu. Co ważniejsze, sztuczna inteligencja i uczenie maszynowe utrudniają wskazanie osoby lub podmiotu stojącego za algorytmem.

    W 2022 r. podczas obrad Podkomisji ds. Cyberbezpieczeństwa Senatu Sił Zbrojnych Stanów Zjednoczonych Eric Horvitz, dyrektor naukowy Microsoftu, określił wykorzystanie sztucznej inteligencji (AI) do automatyzacji cyberataków jako „ofensywną sztuczną inteligencję”. Podkreślił, że trudno jest określić, czy cyberatak jest oparty na sztucznej inteligencji. Podobnie uczenie maszynowe (ML) jest wykorzystywane do wspomagania cyberataków; ML służy do nauki powszechnie używanych słów i strategii tworzenia haseł w celu lepszego ich hakowania. 

    Ankieta przeprowadzona przez firmę Darktrace zajmującą się bezpieczeństwem cybernetycznym wykazała, że ​​zespoły zarządzające IT są coraz bardziej zaniepokojone potencjalnym wykorzystaniem sztucznej inteligencji w cyberprzestępstwach, a 96 procent respondentów wskazało, że już badają możliwe rozwiązania. Eksperci ds. bezpieczeństwa IT zauważają zmianę metod cyberataków z oprogramowania ransomware i phishingu na bardziej złożone złośliwe oprogramowanie, które jest trudne do wykrycia i odparcia. Potencjalnym ryzykiem cyberprzestępczości wykorzystującej sztuczną inteligencję jest wprowadzenie uszkodzonych lub zmanipulowanych danych w modelach uczenia maszynowego.

    Atak ML może mieć wpływ na oprogramowanie i inne technologie opracowywane obecnie w celu obsługi przetwarzania w chmurze i brzegowej sztucznej inteligencji. Niewystarczające dane szkoleniowe mogą również wzmacniać błędy algorytmów, takie jak nieprawidłowe oznaczanie grup mniejszościowych lub wpływanie na predykcyjne działania policji w celu ukierunkowania na marginalizowane społeczności. Sztuczna inteligencja może wprowadzać do systemów subtelne, ale katastrofalne informacje, co może mieć długotrwałe konsekwencje.

    Zakłócający wpływ

    Badanie przeprowadzone przez naukowców z Georgetown University na temat łańcucha cyberzabójstw (lista kontrolna zadań wykonywanych w celu przeprowadzenia udanego cyberataku) wykazało, że określone strategie ofensywne mogą odnieść korzyści z uczenia maszynowego. Metody te obejmują spearphishing (oszustwa e-mailowe skierowane do określonych osób i organizacji), wykrywanie słabych punktów w infrastrukturze IT, dostarczanie złośliwego kodu do sieci oraz unikanie wykrycia przez systemy cyberbezpieczeństwa. Uczenie maszynowe może również zwiększyć szanse powodzenia ataków socjotechnicznych, w których ludzie są oszukiwani w celu ujawnienia poufnych informacji lub wykonania określonych działań, takich jak transakcje finansowe. 

    Ponadto łańcuch cyberzabójstw może zautomatyzować niektóre procesy, w tym: 

    • Zaawansowany nadzór — autonomiczne skanery gromadzące informacje z sieci docelowych, w tym z połączonych z nimi systemów, zabezpieczeń i ustawień oprogramowania. 
    • Ogromne uzbrojenie — narzędzia AI identyfikujące słabości w infrastrukturze i tworzące kod do infiltracji tych luk. To zautomatyzowane wykrywanie może również dotyczyć określonych ekosystemów cyfrowych lub organizacji. 
    • Dostarczanie lub hakowanie — narzędzia sztucznej inteligencji wykorzystujące automatyzację do phishingu spearphishingu i inżynierii społecznej skierowane do tysięcy osób. 

    Od 2023 r. pisanie złożonego kodu będzie nadal domeną programistów, ale eksperci uważają, że wkrótce maszyny również nabędą tę umiejętność. AlphaCode firmy DeepMind jest wybitnym przykładem takich zaawansowanych systemów sztucznej inteligencji. Pomaga programistom analizując duże ilości kodu w celu uczenia się wzorców i generowania zoptymalizowanych rozwiązań kodowych

    Implikacje zautomatyzowanych cyberataków z wykorzystaniem sztucznej inteligencji

    Szersze implikacje zautomatyzowanych cyberataków z wykorzystaniem sztucznej inteligencji mogą obejmować: 

    • Firmy zwiększają swoje budżety na obronę cybernetyczną w celu opracowania zaawansowanych rozwiązań cybernetycznych do wykrywania i powstrzymywania zautomatyzowanych cyberataków.
    • Cyberprzestępcy badają metody uczenia maszynowego w celu tworzenia algorytmów, które mogą potajemnie atakować systemy korporacyjne i sektora publicznego.
    • Zwiększona liczba incydentów cyberataków, które są dobrze zorganizowane i wymierzone w wiele organizacji jednocześnie.
    • Ofensywne oprogramowanie sztucznej inteligencji wykorzystywane do przejmowania kontroli nad bronią wojskową, maszynami i centrami dowodzenia infrastrukturą.
    • Ofensywne oprogramowanie sztucznej inteligencji wykorzystywane do infiltracji, modyfikowania lub wykorzystywania systemów firmy w celu zniszczenia infrastruktury publicznej i prywatnej. 
    • Niektóre rządy potencjalnie reorganizują cyfrową obronę swojego krajowego sektora prywatnego pod kontrolą i ochroną odpowiednich krajowych agencji ds. cyberbezpieczeństwa.

    Pytania do rozważenia

    • Jakie są inne potencjalne konsekwencje cyberataków wykorzystujących sztuczną inteligencję?
    • Jak inaczej firmy mogą przygotować się na takie ataki?

    Referencje informacyjne

    W celu uzyskania tego wglądu odniesiono się do następujących popularnych i instytucjonalnych powiązań:

    Centrum bezpieczeństwa i nowych technologii Automatyzacja cyberataków