Combattimento algoritmico: i robot assassini sono il nuovo volto della guerra moderna?

CREDITO IMMAGINE:
Immagine di credito
iStock

Combattimento algoritmico: i robot assassini sono il nuovo volto della guerra moderna?

Combattimento algoritmico: i robot assassini sono il nuovo volto della guerra moderna?

Testo del sottotitolo
Le armi e i sistemi bellici di oggi potrebbero presto evolversi da semplici equipaggiamenti a entità autonome.
    • Autore:
    • Nome dell'autore
      Preveggenza quantistica
    • Gennaio 10, 2023

    I paesi continuano a ricercare sistemi di guerra artificialmente intelligenti (AI) anche se all'interno della società civile è aumentata la resistenza contro armi letali e autonome. 

    Contesto di combattimento algoritmico

    Le macchine utilizzano algoritmi (un insieme di istruzioni matematiche) per risolvere problemi che imitano l'intelligenza umana. La guerra algoritmica prevede lo sviluppo di sistemi basati sull'intelligenza artificiale in grado di gestire autonomamente armi, tattiche e persino intere operazioni militari. Le macchine che controllano autonomamente i sistemi d'arma hanno aperto nuovi dibattiti sul ruolo che le macchine autonome dovrebbero svolgere nella guerra e sulle sue implicazioni etiche. 

    Secondo il diritto internazionale umanitario, qualsiasi macchina (armata o non armata) dovrebbe essere sottoposta a severi controlli prima di essere utilizzata, in particolare se destinata a causare danni a persone o edifici. Ciò si estende ai sistemi di intelligenza artificiale in fase di sviluppo per diventare alla fine autoapprendenti e autocorrettivi, il che potrebbe portare queste macchine a sostituire i sistemi di armi controllati dall'uomo nelle operazioni militari.

    Nel 2017, Google ha ricevuto un forte contraccolpo da parte dei suoi dipendenti quando si è scoperto che la società stava lavorando con il Dipartimento della Difesa degli Stati Uniti per sviluppare sistemi di apprendimento automatico da utilizzare nell'esercito. Gli attivisti erano preoccupati che la creazione di robot militari possibilmente auto-evolutivi potesse violare le libertà civili o portare a un falso riconoscimento del bersaglio. L'uso della tecnologia di riconoscimento facciale nelle forze armate è aumentato (già nel 2019) per creare un database di terroristi o persone di interesse presi di mira. I critici hanno espresso la preoccupazione che il processo decisionale guidato dall'intelligenza artificiale possa portare a risultati disastrosi se l'intervento umano viene compromesso. Tuttavia, la maggior parte dei membri delle Nazioni Unite è favorevole a vietare i sistemi di armi autonomi letali (LAWS) a causa della possibilità per queste entità di diventare canaglia.

    Impatto dirompente

    Il calo del reclutamento militare sperimentato da molte nazioni occidentali - una tendenza che si è approfondita negli anni 2010 - è un fattore chiave che contribuisce all'adozione di soluzioni militari automatizzate. Un altro fattore che guida l'adozione di queste tecnologie è il loro potenziale per semplificare e automatizzare le operazioni sul campo di battaglia, portando a maggiori efficienze di combattimento e costi operativi inferiori. Alcune parti interessate dell'industria militare hanno anche affermato che i sistemi e gli algoritmi militari controllati dall'intelligenza artificiale possono ridurre le vittime umane fornendo informazioni accurate e in tempo reale che possono aumentare la precisione dei sistemi schierati in modo che colpiscano gli obiettivi previsti. 

    Se nei teatri di tutto il mondo vengono dispiegati più sistemi di armi militari controllati dall'IA, nelle zone di conflitto potrebbe essere dispiegato meno personale umano, riducendo le vittime militari nei teatri di guerra. I produttori di armi guidate dall'intelligenza artificiale possono includere contromisure come kill switch in modo che questi sistemi possano essere disabilitati immediatamente se si verifica un errore.  

    Implicazioni delle armi controllate dall'IA 

    Le implicazioni più ampie delle armi autonome dispiegate dai militari di tutto il mondo possono includere:

    • Armi autonome dispiegate al posto dei fanti, riducendo i costi di guerra e le vittime dei soldati.
    • La maggiore applicazione della forza militare da parte di nazioni selezionate con maggiore accesso a risorse autonome o meccanizzate, poiché la riduzione o l'eliminazione delle vittime delle truppe può ridurre al minimo la resistenza pubblica interna di un paese a fare la guerra in terre straniere.
    • Un'escalation dei budget per la difesa tra le nazioni per la supremazia militare dell'IA come guerre future potrebbe essere decisa dalla velocità decisionale e dalla sofisticazione delle future armi e forze armate controllate dall'IA. 
    • Aumentare la collaborazione tra umani e macchine, dove i dati verranno forniti istantaneamente ai soldati umani, consentendo loro di adattare tattiche e strategie di battaglia in tempo reale.
    • Paesi che sfruttano sempre più le risorse dei loro settori tecnologici privati ​​per rafforzare le loro capacità di difesa dell'IA. 
    • Uno o più trattati globali promossi dalle Nazioni Unite che vietano o limitano l'uso di armi autonome. Tali politiche saranno probabilmente ignorate dai migliori eserciti del mondo.

    Domande da commentare

    • Pensi che il combattimento algoritmico gioverà agli umani arruolati nell'esercito?
    • Credi che ci si possa fidare dei sistemi di intelligenza artificiale progettati per la guerra o dovrebbero essere ridotti o banditi a titolo definitivo?

    Riferimenti di approfondimento

    I seguenti collegamenti popolari e istituzionali sono stati referenziati per questa intuizione:

    Comitato internazionale della Croce Rossa Spostando la narrazione: non armi, ma tecnologie di guerra
    Revisione della difesa indiana Guerra algoritmica: il mondo sta aspettando