התקפות סייבר אוטומטיות באמצעות AI: כאשר מכונות הופכות לפושעי סייבר

אשראי תמונה:
אשראי תמונה
iStock

התקפות סייבר אוטומטיות באמצעות AI: כאשר מכונות הופכות לפושעי סייבר

התקפות סייבר אוטומטיות באמצעות AI: כאשר מכונות הופכות לפושעי סייבר

טקסט כותרות משנה
הכוח של בינה מלאכותית (AI) ולמידת מכונה (ML) מנוצל על ידי האקרים כדי להפוך מתקפות סייבר ליעילות וקטלניות יותר.
    • מְחַבֵּר:
    • שם היוצר
      Quantumrun Foresight
    • ספטמבר 30, 2022

    סיכום תובנה

    בינה מלאכותית (AI) ולמידת מכונה (ML) נמצאות יותר ויותר בשימוש באבטחת סייבר, הן להגנה על מערכות והן לביצוע התקפות סייבר. היכולת שלהם ללמוד מנתונים והתנהגויות מאפשרת להם לזהות פגיעויות במערכת, אך גם מקשה על המעקב אחר המקור מאחורי האלגוריתמים הללו. הנוף המתפתח הזה של AI בפשעי סייבר מעורר דאגות בקרב מומחי IT, דורש אסטרטגיות הגנה מתקדמות, ועשוי להוביל לשינויים משמעותיים באופן שבו ממשלות וחברות מתייחסות לאבטחת סייבר.

    התקפות סייבר אוטומטיות באמצעות הקשר AI

    בינה מלאכותית ו-ML שומרים על היכולת לבצע אוטומציה של כמעט כל המשימות, כולל למידה מהתנהגות ודפוסים חוזרים ונשנים, מה שהופך כלי רב עוצמה לזיהוי נקודות תורפה במערכת. חשוב מכך, AI ו-ML הופכים את זה למאתגר לאתר אדם או ישות מאחורי אלגוריתם.

    בשנת 2022, במהלך ועדת המשנה לשירותים מזוינים של הסנאט האמריקני בנושא אבטחת סייבר, אריק הורביץ, הקצין המדעי הראשי של מיקרוסופט, התייחס לשימוש בבינה מלאכותית (AI) לאוטומציה של מתקפות סייבר כ"AI פוגעני". הוא הדגיש שקשה לקבוע אם מתקפת סייבר מונעת בינה מלאכותית. באופן דומה, למידת מכונה (ML) משמשת כדי לסייע בהתקפות סייבר; ML משמש ללימוד מילים ואסטרטגיות נפוצות ביצירת סיסמאות כדי לפרוץ אותן טוב יותר. 

    סקר של חברת אבטחת הסייבר Darktrace גילה שצוותי ניהול IT מודאגים יותר ויותר מהשימוש הפוטנציאלי של AI בפשעי סייבר, כאשר 96 אחוז מהנשאלים ציינו שהם כבר חוקרים פתרונות אפשריים. מומחי אבטחת IT מרגישים שינוי בשיטות התקפת סייבר מתוכנות כופר ודיוג לתוכנות זדוניות מורכבות יותר שקשה לזהות ולהסטות. סיכון אפשרי לפשעי סייבר המאפשרים בינה מלאכותית הוא הכנסת נתונים פגומים או מניפולציות במודלים של ML.

    התקפת ML יכולה להשפיע על תוכנה וטכנולוגיות אחרות המפותחות כעת כדי לתמוך במחשוב ענן ובינה מלאכותית. נתוני הכשרה לא מספיקים יכולים גם לאכוף מחדש הטיות אלגוריתמים כמו תיוג שגוי של קבוצות מיעוט או השפעה על שיטור חזוי כדי להתמקד בקהילות שוליות. בינה מלאכותית יכולה להכניס מידע עדין אך הרסני למערכות, אשר עשויות להיות לה השלכות ארוכות טווח.

    השפעה משבשת

    מחקר שנערך על ידי חוקרי אוניברסיטת ג'ורג'טאון על שרשרת הרג הסייבר (רשימת משימות שבוצעו להפעלת מתקפת סייבר מוצלחת) הראה שאסטרטגיות התקפיות ספציפיות יכולות להפיק תועלת מ-ML. שיטות אלו כוללות spearphishing (הונאות דואר אלקטרוני המופנות כלפי אנשים וארגונים ספציפיים), איתור חולשות בתשתיות IT, אספקת קוד זדוני לרשתות והימנעות מזיהוי על ידי מערכות אבטחת סייבר. למידת מכונה יכולה גם להגדיל את הסיכויים להצלחת התקפות הנדסה חברתית, שבהן אנשים מוטעים לחשוף מידע רגיש או לבצע פעולות ספציפיות כמו עסקאות פיננסיות. 

    בנוסף, שרשרת הריגת הסייבר יכולה להפוך כמה תהליכים לאוטומטיים, כולל: 

    • מעקב מקיף - סורקים אוטונומיים אוספים מידע מרשתות יעד, כולל המערכות המחוברות שלהם, הגנות והגדרות תוכנה. 
    • נשק ענק - כלי בינה מלאכותית המזהים חולשות בתשתית ויוצרים קוד כדי לחדור לפרצות אלו. זיהוי אוטומטי זה יכול גם למקד למערכות אקולוגיות או ארגונים דיגיטליים ספציפיים. 
    • מסירה או פריצה - כלי בינה מלאכותית המשתמשים באוטומציה לביצוע spearphishing והנדסה חברתית למיקוד לאלפי אנשים. 

    נכון לשנת 2023, כתיבת קוד מורכב עדיין בתחום של מתכנתים אנושיים, אך מומחים מאמינים כי לא יעבור זמן רב עד שגם מכונות ירכשו את המיומנות הזו. ה-AlphaCode של DeepMind הוא דוגמה בולטת למערכות AI מתקדמות כאלה. זה מסייע למתכנתים על ידי ניתוח כמויות גדולות של קוד כדי ללמוד תבניות ולייצר פתרונות קוד אופטימליים

    השלכות של התקפות סייבר אוטומטיות באמצעות AI

    השלכות רחבות יותר של התקפות סייבר אוטומטיות באמצעות AI עשויות לכלול: 

    • חברות המעמיקות את תקציבי הגנת הסייבר שלהן כדי לפתח פתרונות סייבר מתקדמים לאיתור ולעצירת התקפות סייבר אוטומטיות.
    • פושעי סייבר הלומדים שיטות ML ליצירת אלגוריתמים שיכולים לפלוש בסתר למערכות ארגוניות וציבוריות.
    • התגברות התקריות של התקפות סייבר שמתוזמרות היטב ומכוונות למספר ארגונים בבת אחת.
    • תוכנת AI התקפית המשמשת כדי להשתלט על כלי נשק, מכונות ומרכזי פיקוד צבאיים.
    • תוכנת AI פוגענית המשמשת כדי לחדור, לשנות או לנצל מערכות של חברה כדי להפיל תשתיות ציבוריות ופרטיות. 
    • חלק מהממשלות עשויות לארגן מחדש את ההגנות הדיגיטליות של המגזר הפרטי המקומי שלהן תחת שליטה והגנה של סוכנויות אבטחת הסייבר הלאומיות שלהן.

    שאלות שכדאי לקחת בחשבון

    • מהן ההשלכות הפוטנציאליות האחרות של התקפות סייבר התומכות בבינה מלאכותית?
    • איך עוד חברות יכולות להתכונן להתקפות כאלה?

    הפניות לתובנות

    הקישורים הפופולריים והמוסדיים הבאים קיבלו התייחסות לתובנה זו:

    המרכז לאבטחה וטכנולוגיה מתפתחת אוטומציה של התקפות סייבר