ავტომატური კიბერშეტევები ხელოვნური ინტელექტის გამოყენებით: როდესაც მანქანები ხდებიან კიბერკრიმინალები

სურათის კრედიტი:
გამოსახულება საკრედიტო
iStock

ავტომატური კიბერშეტევები ხელოვნური ინტელექტის გამოყენებით: როდესაც მანქანები ხდებიან კიბერკრიმინალები

ავტომატური კიბერშეტევები ხელოვნური ინტელექტის გამოყენებით: როდესაც მანქანები ხდებიან კიბერკრიმინალები

ქვესათაური ტექსტი
ხელოვნური ინტელექტის (AI) და მანქანათმცოდნეობის (ML) ძალას იყენებენ ჰაკერები, რათა კიბერშეტევები უფრო ეფექტური და ლეტალური გახდეს.
    • ავტორი:
    • ავტორის სახელი
      Quantumrun Foresight
    • სექტემბერი 30, 2022

    Insight რეზიუმე

    ხელოვნური ინტელექტი (AI) და მანქანათმცოდნეობა (ML) სულ უფრო ხშირად გამოიყენება კიბერუსაფრთხოებაში, როგორც სისტემების დასაცავად, ასევე კიბერშეტევების განსახორციელებლად. მათი უნარი, ისწავლონ მონაცემებიდან და ქცევებიდან, საშუალებას აძლევს მათ ამოიცნონ სისტემის დაუცველობა, მაგრამ ასევე ართულებს ამ ალგორითმების მიღმა წყაროს მიკვლევას. AI-ის განვითარებადი ლანდშაფტი კიბერდანაშაულში იწვევს შეშფოთებას IT ექსპერტებს შორის, მოითხოვს მოწინავე თავდაცვის სტრატეგიებს და შეიძლება გამოიწვიოს მნიშვნელოვანი ცვლილებები, თუ როგორ უახლოვდებიან მთავრობები და კომპანიები კიბერუსაფრთხოებას.

    ავტომატური კიბერშეტევები ხელოვნური ინტელექტის კონტექსტის გამოყენებით

    ხელოვნური ინტელექტი და ML ინარჩუნებენ თითქმის ყველა ამოცანის ავტომატიზაციის უნარს, მათ შორის სწავლის განმეორებით ქცევასა და შაბლონებზე, რაც ქმნის მძლავრ ინსტრუმენტს სისტემის დაუცველობის იდენტიფიცირებისთვის. რაც მთავარია, AI და ML რთულს ხდის ალგორითმის მიღმა პირის ან ერთეულის განსაზღვრას.

    2022 წელს, აშშ-ს სენატის შეიარაღებული სერვისების ქვეკომიტეტის დროს კიბერუსაფრთხოებაზე, ერიკ ჰორვიცმა, მაიკროსოფტის მთავარმა სამეცნიერო ოფიცერმა, მოიხსენია ხელოვნური ინტელექტის (AI) გამოყენება კიბერთავდასხმების ავტომატიზაციისთვის, როგორც „შეტევითი AI“. მან ხაზგასმით აღნიშნა, რომ ძნელია იმის დადგენა, არის თუ არა კიბერშეტევა ხელოვნური ინტელექტის საფუძველზე. ანალოგიურად, მანქანური სწავლება (ML) გამოიყენება კიბერშეტევების დასახმარებლად; ML გამოიყენება საყოველთაოდ გამოყენებული სიტყვებისა და სტრატეგიების შესასწავლად პაროლების შესაქმნელად მათი უკეთ გატეხვის მიზნით. 

    კიბერუსაფრთხოების ფირმა Darktrace-ის მიერ ჩატარებულმა გამოკითხვამ აჩვენა, რომ IT მენეჯმენტის გუნდები სულ უფრო მეტად არიან შეშფოთებულნი კიბერდანაშაულში ხელოვნური ინტელექტის პოტენციური გამოყენების გამო, გამოკითხულთა 96 პროცენტმა აღნიშნა, რომ ისინი უკვე იკვლევენ შესაძლო გადაწყვეტილებებს. IT უსაფრთხოების ექსპერტები გრძნობენ გადასვლას კიბერთავდასხმის მეთოდებში გამოსასყიდიდან და ფიშინგიდან უფრო რთულ მავნე პროგრამებზე, რომელთა აღმოჩენა და გადატანა რთულია. ხელოვნური ინტელექტის ჩართული კიბერდანაშაულის შესაძლო რისკი არის კორუმპირებული ან მანიპულირებული მონაცემების შეყვანა ML მოდელებში.

    ML შეტევას შეუძლია გავლენა მოახდინოს პროგრამულ უზრუნველყოფასა და სხვა ტექნოლოგიებზე, რომლებიც ამჟამად შემუშავებულია ღრუბლოვანი გამოთვლების მხარდასაჭერად და Edge AI. არასაკმარისი ტრენინგის მონაცემებმა ასევე შეიძლება განაახლოს ალგორითმის მიკერძოება, როგორიცაა უმცირესობების ჯგუფების არასწორად მონიშვნა ან გავლენის მოხდენა პროგნოზირებულ პოლიციაზე მარგინალიზებული თემების მიმართ. ხელოვნურ ინტელექტს შეუძლია სისტემებში დახვეწილი, მაგრამ დამღუპველი ინფორმაციის შეტანა, რასაც შეიძლება ჰქონდეს ხანგრძლივი შედეგები.

    დამრღვევი გავლენა

    ჯორჯთაუნის უნივერსიტეტის მკვლევარების მიერ ჩატარებულმა კვლევამ კიბერმკვლელობის ჯაჭვზე (დავალებების ჩამონათვალი, რომლებიც შესრულებულია წარმატებული კიბერთავდასხმის დასაწყებად) აჩვენა, რომ კონკრეტული შეტევითი სტრატეგიები შეიძლება ისარგებლოს ML-ისგან. ეს მეთოდები მოიცავს spearphishing-ს (ელ. ფოსტის თაღლითები, რომლებიც მიმართულია კონკრეტული ადამიანებისა და ორგანიზაციების მიმართ), IT ინფრასტრუქტურის სისუსტეების დადგენა, მავნე კოდის მიწოდება ქსელებში და კიბერუსაფრთხოების სისტემების მიერ აღმოჩენის თავიდან აცილება. მანქანათმცოდნეობას ასევე შეუძლია გაზარდოს სოციალური ინჟინერიის თავდასხმების წარმატების შანსები, როდესაც ადამიანები მოტყუებულნი არიან მგრძნობიარე ინფორმაციის გამოვლენაში ან კონკრეტულ ქმედებებში, როგორიცაა ფინანსური ტრანზაქციები. 

    გარდა ამისა, კიბერ მკვლელობის ჯაჭვს შეუძლია ზოგიერთი პროცესის ავტომატიზაცია, მათ შორის: 

    • ვრცელი მეთვალყურეობა - ავტონომიური სკანერები, რომლებიც აგროვებენ ინფორმაციას სამიზნე ქსელებიდან, მათ შორის დაკავშირებული სისტემების, თავდაცვითი და პროგრამული უზრუნველყოფის პარამეტრების ჩათვლით. 
    • უზარმაზარი შეიარაღება - ხელოვნური ინტელექტის ინსტრუმენტები, რომლებიც იდენტიფიცირებენ ინფრასტრუქტურის სისუსტეებს და ქმნიან კოდს ამ ხარვეზების შესაღწევად. ამ ავტომატიზირებულ გამოვლენას ასევე შეუძლია მიმართოს კონკრეტულ ციფრულ ეკოსისტემებს ან ორგანიზაციებს. 
    • მიწოდება ან ჰაკერობა - ხელოვნური ინტელექტის ინსტრუმენტები, რომლებიც იყენებენ ავტომატიზაციას სპირფიშინგისა და სოციალური ინჟინერიის შესასრულებლად ათასობით ადამიანის სამიზნე. 

    2023 წლის მდგომარეობით, რთული კოდის წერა ჯერ კიდევ ადამიანური პროგრამისტების სფეროშია, მაგრამ ექსპერტები თვლიან, რომ დიდი დრო არ იქნება, სანამ მანქანებიც შეიძენენ ამ უნარს. DeepMind's AlphaCode არის ასეთი მოწინავე AI სისტემების თვალსაჩინო მაგალითი. ის ეხმარება პროგრამისტებს დიდი რაოდენობით კოდის გაანალიზებით, რომ ისწავლონ შაბლონები და შექმნან ოპტიმიზირებული კოდის გადაწყვეტილებები.

    ავტომატური კიბერშეტევების შედეგები ხელოვნური ინტელექტის გამოყენებით

    ხელოვნური ინტელექტის გამოყენებით ავტომატური კიბერშეტევების უფრო ფართო შედეგები შეიძლება მოიცავდეს: 

    • კომპანიები გაღრმავებენ კიბერ თავდაცვის ბიუჯეტებს, რათა განავითარონ მოწინავე კიბერ გადაწყვეტილებები ავტომატური კიბერშეტევების აღმოსაჩენად და შესაჩერებლად.
    • კიბერკრიმინალები სწავლობენ ML მეთოდებს, რათა შექმნან ალგორითმები, რომლებსაც შეუძლიათ ფარულად შეიჭრას კორპორატიული და საჯარო სექტორის სისტემები.
    • გაიზარდა კიბერთავდასხმების ინციდენტები, რომლებიც კარგად არის ორგანიზებული და მიზნად ისახავს რამდენიმე ორგანიზაციას ერთდროულად.
    • შეტევითი AI პროგრამული უზრუნველყოფა, რომელიც გამოიყენება სამხედრო იარაღზე, მანქანებზე და ინფრასტრუქტურის მართვის ცენტრებზე კონტროლის დასაკავებლად.
    • შეურაცხმყოფელი ხელოვნური ინტელექტის პროგრამული უზრუნველყოფა, რომელიც გამოიყენება კომპანიის სისტემებში შეღწევისთვის, შესაცვლელად ან ექსპლუატაციისთვის, საჯარო და კერძო ინფრასტრუქტურის დასანგრევად. 
    • ზოგიერთი მთავრობა პოტენციურად ახდენს შიდა კერძო სექტორის ციფრული დაცვის რეორგანიზაციას მათი შესაბამისი ეროვნული კიბერუსაფრთხოების სააგენტოების კონტროლისა და დაცვის ქვეშ.

    კითხვები გასათვალისწინებელია

    • რა სხვა პოტენციური შედეგები მოჰყვება ხელოვნურ ინტელექტის ჩართულ კიბერთავდასხმებს?
    • სხვაგვარად როგორ შეუძლიათ კომპანიებს მოემზადონ ასეთი თავდასხმებისთვის?

    Insight ცნობები

    შემდეგი პოპულარული და ინსტიტუციური ბმულები იყო მითითებული ამ ინფორმაციისათვის:

    უსაფრთხოებისა და განვითარებადი ტექნოლოგიების ცენტრი კიბერ შეტევების ავტომატიზაცია