Automatisierte Cyberangriffe mit KI: Wenn Maschinen zu Cyberkriminellen werden

IMAGE CREDIT:
Bildnachweis
iStock

Automatisierte Cyberangriffe mit KI: Wenn Maschinen zu Cyberkriminellen werden

Automatisierte Cyberangriffe mit KI: Wenn Maschinen zu Cyberkriminellen werden

Untertiteltext
Die Leistungsfähigkeit der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML) wird von Hackern ausgenutzt, um Cyberangriffe effektiver und tödlicher zu machen.
    • Autor:
    • Autorenname
      Quantumrun-Vorausschau
    • 30. September 2022

    Zusammenfassung der Einblicke

    Künstliche Intelligenz (KI) und maschinelles Lernen (ML) werden in der Cybersicherheit zunehmend eingesetzt, sowohl zum Schutz von Systemen als auch zur Durchführung von Cyberangriffen. Ihre Fähigkeit, aus Daten und Verhaltensweisen zu lernen, ermöglicht es ihnen, Systemschwachstellen zu identifizieren, macht es aber auch schwierig, die Quelle hinter diesen Algorithmen zu ermitteln. Diese sich entwickelnde KI-Landschaft in der Cyberkriminalität gibt bei IT-Experten Anlass zur Sorge, erfordert fortschrittliche Verteidigungsstrategien und kann zu erheblichen Veränderungen in der Herangehensweise von Regierungen und Unternehmen an die Cybersicherheit führen.

    Automatisierte Cyberangriffe mit KI-Kontext

    Künstliche Intelligenz und ML behalten die Fähigkeit bei, nahezu alle Aufgaben zu automatisieren, einschließlich des Lernens aus sich wiederholenden Verhaltensweisen und Mustern, und machen sie zu einem leistungsstarken Werkzeug zur Identifizierung von Schwachstellen in einem System. Noch wichtiger ist, dass KI und ML es schwierig machen, eine Person oder eine Entität hinter einem Algorithmus zu identifizieren.

    Im Jahr 2022 bezeichnete Eric Horvitz, wissenschaftlicher Leiter von Microsoft, während des Unterausschusses für Cybersicherheit des US-Senats für Streitkräfte den Einsatz künstlicher Intelligenz (KI) zur Automatisierung von Cyberangriffen als „offensive KI“. Er betonte, dass es schwierig sei festzustellen, ob ein Cyberangriff KI-gesteuert sei. Ebenso wird maschinelles Lernen (ML) zur Unterstützung von Cyberangriffen eingesetzt; ML wird verwendet, um häufig verwendete Wörter und Strategien zum Erstellen von Passwörtern zu erlernen, um diese besser zu knacken. 

    Eine Umfrage des Cybersicherheitsunternehmens Darktrace ergab, dass IT-Managementteams zunehmend besorgt über den möglichen Einsatz von KI bei Cyberkriminalität sind. 96 Prozent der Befragten gaben an, dass sie bereits nach möglichen Lösungen suchen. IT-Sicherheitsexperten spüren eine Verlagerung der Cyberangriffsmethoden von Ransomware und Phishing hin zu komplexerer Malware, die schwer zu erkennen und abzuwehren ist. Ein mögliches Risiko KI-gestützter Cyberkriminalität ist die Einführung beschädigter oder manipulierter Daten in ML-Modellen.

    Ein ML-Angriff kann sich auf Software und andere Technologien auswirken, die derzeit zur Unterstützung von Cloud Computing und Edge-KI entwickelt werden. Unzureichende Trainingsdaten können auch Algorithmusverzerrungen verstärken, wie z. B. die falsche Kennzeichnung von Minderheitengruppen oder die Beeinflussung der prädiktiven Polizeiarbeit, um auf marginalisierte Gemeinschaften abzuzielen. Künstliche Intelligenz kann subtile, aber katastrophale Informationen in Systeme einschleusen, die langfristige Folgen haben können.

    Störende Wirkung

    Eine Studie von Forschern der Georgetown University über die Cyber-Kill-Chain (eine Checkliste von Aufgaben, die ausgeführt werden, um einen erfolgreichen Cyberangriff zu starten) zeigte, dass bestimmte offensive Strategien von ML profitieren könnten. Zu diesen Methoden gehören Spearphishing (E-Mail-Betrug, der sich an bestimmte Personen und Organisationen richtet), das Aufspüren von Schwachstellen in IT-Infrastrukturen, das Einschleusen von bösartigem Code in Netzwerke und das Vermeiden der Erkennung durch Cybersicherheitssysteme. Maschinelles Lernen kann auch die Erfolgschancen von Social-Engineering-Angriffen erhöhen, bei denen Menschen dazu verleitet werden, vertrauliche Informationen preiszugeben oder bestimmte Aktionen wie Finanztransaktionen durchzuführen. 

    Darüber hinaus kann die Cyber ​​Kill Chain einige Prozesse automatisieren, darunter: 

    • Umfassende Überwachung – autonome Scanner, die Informationen aus Zielnetzwerken sammeln, einschließlich ihrer verbundenen Systeme, Abwehrmechanismen und Softwareeinstellungen. 
    • Umfangreiche Bewaffnung – KI-Tools identifizieren Schwachstellen in der Infrastruktur und erstellen Code, um diese Schlupflöcher zu infiltrieren. Diese automatisierte Erkennung kann auch auf bestimmte digitale Ökosysteme oder Organisationen abzielen. 
    • Lieferung oder Hacking – KI-Tools, die Automatisierung verwenden, um Spearphishing und Social Engineering auszuführen, um Tausende von Menschen anzusprechen. 

    Im Jahr 2023 liegt das Schreiben komplexer Codes immer noch in der Hand menschlicher Programmierer, doch Experten gehen davon aus, dass es nicht mehr lange dauern wird, bis auch Maschinen diese Fähigkeit erwerben werden. AlphaCode von DeepMind ist ein prominentes Beispiel für solch fortschrittliche KI-Systeme. Es unterstützt Programmierer durch die Analyse großer Codemengen, um Muster zu lernen und optimierte Codelösungen zu generieren

    Auswirkungen automatisierter Cyberangriffe mit KI

    Zu den weiteren Auswirkungen automatisierter Cyberangriffe mit KI können gehören: 

    • Unternehmen, die ihre Budgets für die Cyberabwehr vertiefen, um fortschrittliche Cyberlösungen zu entwickeln, um automatisierte Cyberangriffe zu erkennen und zu stoppen.
    • Cyberkriminelle untersuchen ML-Methoden, um Algorithmen zu erstellen, die heimlich in Unternehmenssysteme und Systeme des öffentlichen Sektors eindringen können.
    • Erhöhte Vorfälle von Cyberangriffen, die gut orchestriert sind und auf mehrere Organisationen gleichzeitig abzielen.
    • Offensive KI-Software, die verwendet wird, um die Kontrolle über militärische Waffen, Maschinen und Infrastruktur-Kommandozentralen zu erlangen.
    • Offensive KI-Software, die verwendet wird, um die Systeme eines Unternehmens zu infiltrieren, zu modifizieren oder auszunutzen, um öffentliche und private Infrastrukturen lahmzulegen. 
    • Einige Regierungen reorganisieren möglicherweise die digitale Verteidigung ihres inländischen Privatsektors unter der Kontrolle und dem Schutz ihrer jeweiligen nationalen Cybersicherheitsbehörden.

    Fragen zu berücksichtigen

    • Was sind die anderen möglichen Folgen von KI-gestützten Cyberangriffen?
    • Wie können sich Unternehmen sonst auf solche Angriffe vorbereiten?

    Insight-Referenzen

    Für diesen Einblick wurde auf die folgenden beliebten und institutionellen Links verwiesen:

    Zentrum für Sicherheit und aufstrebende Technologie Automatisierung von Cyberangriffen