Automatiserede cyberangreb ved hjælp af kunstig intelligens: Når maskiner bliver cyberkriminelle

BILLEDKREDIT:
Image credit
iStock

Automatiserede cyberangreb ved hjælp af kunstig intelligens: Når maskiner bliver cyberkriminelle

Automatiserede cyberangreb ved hjælp af kunstig intelligens: Når maskiner bliver cyberkriminelle

Underoverskriftstekst
Kraften i kunstig intelligens (AI) og maskinlæring (ML) bliver udnyttet af hackere til at gøre cyberangreb mere effektive og dødelige.
    • Forfatter:
    • Forfatter navn
      Quantumrun Foresight
    • September 30, 2022

    Oversigt over indsigt

    Kunstig intelligens (AI) og maskinlæring (ML) bliver i stigende grad brugt i cybersikkerhed, både til at beskytte systemer og til at udføre cyberangreb. Deres evne til at lære af data og adfærd gør dem i stand til at identificere systemsårbarheder, men gør det også svært at spore kilden bag disse algoritmer. Dette udviklende landskab af kunstig intelligens inden for cyberkriminalitet vækker bekymring blandt it-eksperter, kræver avancerede forsvarsstrategier og kan føre til betydelige ændringer i, hvordan regeringer og virksomheder griber cybersikkerhed an.

    Automatiserede cyberangreb ved hjælp af AI-kontekst

    Kunstig intelligens og ML opretholder evnen til at automatisere næsten alle opgaver, herunder at lære af gentagne adfærd og mønstre, hvilket gør et kraftfuldt værktøj til at identificere sårbarheder i et system. Endnu vigtigere, AI og ML gør det udfordrende at udpege en person eller en enhed bag en algoritme.

    I 2022 henviste Eric Horvitz, Microsofts videnskabelige officer, Eric Horvitz til brugen af ​​kunstig intelligens (AI) til at automatisere cyberangreb til at automatisere cyberangreb som "offensiv AI". Han fremhævede, at det er svært at afgøre, om et cyberangreb er AI-drevet. På samme måde bliver maskinlæring (ML) brugt til at hjælpe cyberangreb; ML bruges til at lære almindeligt anvendte ord og strategier til at skabe adgangskoder for at hacke dem bedre. 

    En undersøgelse foretaget af cybersikkerhedsfirmaet Darktrace opdagede, at it-ledelsesteams i stigende grad er bekymrede over den potentielle brug af kunstig intelligens til cyberkriminalitet, hvor 96 procent af de adspurgte angiver, at de allerede undersøger mulige løsninger. IT-sikkerhedseksperter mærker et skift i cyberangrebsmetoder fra ransomware og phishing til mere kompleks malware, som er svære at opdage og aflede. Mulig risiko for AI-aktiveret cyberkriminalitet er introduktionen af ​​korrupte eller manipulerede data i ML-modeller.

    Et ML-angreb kan påvirke software og andre teknologier, der i øjeblikket udvikles til at understøtte cloud computing og edge AI. Utilstrækkelige træningsdata kan også forstærke algoritmeforstyrrelser, såsom forkert tagging af minoritetsgrupper eller påvirke prædiktiv politiarbejde til at målrette mod marginaliserede samfund. Kunstig intelligens kan introducere subtil, men katastrofal information i systemer, hvilket kan have langvarige konsekvenser.

    Forstyrrende påvirkning

    En undersøgelse foretaget af forskere fra Georgetown University om cyberdræbningskæden (en tjekliste over opgaver udført for at iværksætte et vellykket cyberangreb) viste, at specifikke offensive strategier kunne drage fordel af ML. Disse metoder omfatter spearphishing (e-mail-svindel rettet mod specifikke personer og organisationer), lokalisering af svagheder i it-infrastrukturer, levering af ondsindet kode i netværk og undgåelse af opdagelse af cybersikkerhedssystemer. Maskinlæring kan også øge chancerne for, at sociale ingeniørangreb lykkes, hvor folk bliver bedraget til at afsløre følsomme oplysninger eller udføre specifikke handlinger som f.eks. finansielle transaktioner. 

    Derudover kan cyberdræbningskæden automatisere nogle processer, herunder: 

    • Omfattende overvågning - autonome scannere, der indsamler information fra målnetværk, inklusive deres tilsluttede systemer, forsvar og softwareindstillinger. 
    • Enorme våbendannelse - AI-værktøjer, der identificerer svagheder i infrastrukturen og skaber kode til at infiltrere disse smuthuller. Denne automatiserede detektion kan også målrette mod specifikke digitale økosystemer eller organisationer. 
    • Levering eller hacking - AI-værktøjer, der bruger automatisering til at udføre spearphishing og social engineering for at målrette tusindvis af mennesker. 

    Fra 2023 er skrivning af kompleks kode stadig inden for menneskelige programmørers område, men eksperter mener, at det ikke vil vare længe, ​​før maskiner også opnår denne færdighed. DeepMinds AlphaCode er et fremtrædende eksempel på sådanne avancerede AI-systemer. Det hjælper programmører ved at analysere store mængder kode for at lære mønstre og generere optimerede kodeløsninger​

    Implikationer af automatiserede cyberangreb ved hjælp af AI

    Bredere implikationer af automatiserede cyberangreb ved hjælp af kunstig intelligens kan omfatte: 

    • Virksomheder, der uddyber deres cyberforsvarsbudgetter for at udvikle avancerede cyberløsninger til at opdage og stoppe automatiserede cyberangreb.
    • Cyberkriminelle studerer ML-metoder til at skabe algoritmer, der i hemmelighed kan invadere virksomheders og offentlige systemer.
    • Øgede tilfælde af cyberangreb, der er velorganiserede og retter sig mod flere organisationer på én gang.
    • Offensiv AI-software brugt til at overtage kontrollen over militære våben, maskiner og infrastrukturkommandocentre.
    • Stødende AI-software, der bruges til at infiltrere, ændre eller udnytte en virksomheds systemer til at nedbryde offentlige og private infrastrukturer. 
    • Nogle regeringer omorganiserer potentielt det digitale forsvar af deres private private sektor under kontrol og beskyttelse af deres respektive nationale cybersikkerhedsagenturer.

    Spørgsmål at overveje

    • Hvad er de andre potentielle konsekvenser af AI-aktiverede cyberangreb?
    • Hvordan kan virksomheder ellers forberede sig på sådanne angreb?

    Indsigtsreferencer

    Følgende populære og institutionelle links blev refereret til denne indsigt:

    Center for sikkerhed og ny teknologi Automatisering af cyberangreb