Algoritminen sodankäynti: Ovatko tappajarobotit nykyaikaisen sodankäynnin uudet kasvot?

KUVAKrediitti:
Kuva pistetilanne
iStock

Algoritminen sodankäynti: Ovatko tappajarobotit nykyaikaisen sodankäynnin uudet kasvot?

Algoritminen sodankäynti: Ovatko tappajarobotit nykyaikaisen sodankäynnin uudet kasvot?

Alaotsikon teksti
Nykypäivän ase- ja sodankäyntijärjestelmät saattavat pian kehittyä pelkistä laitteista itsenäisiksi kokonaisuuksiksi.
    • Kirjoittaja:
    • tekijän nimi
      Quantumrun Foresight
    • Tammikuu 10, 2023

    Maat jatkavat keinotekoisesti älykkäiden (AI) sodankäyntijärjestelmien tutkimusta, vaikka kansalaisyhteiskunnan vastustus tappavia, autonomisia aseita vastaan ​​on lisääntynyt. 

    Algoritminen sodankäynnin konteksti

    Koneet käyttävät algoritmeja (joukko matemaattisia ohjeita) ratkaistakseen ongelmia, jotka jäljittelevät ihmisen älykkyyttä. Algoritminen sodankäynti sisältää tekoälyllä varustettujen järjestelmien kehittämisen, jotka voivat itsenäisesti hallita aseita, taktiikoita ja jopa kokonaisia ​​sotilasoperaatioita. Asejärjestelmiä itsenäisesti ohjaavat koneet ovat avanneet uusia keskusteluja autonomisten koneiden roolista sodankäynnissä ja sen eettisistä vaikutuksista. 

    Kansainvälisen humanitaarisen oikeuden mukaan jokaiselle koneelle (riippumatta siitä, onko se aseistettu tai ei-asetettu) on suoritettava tiukat tarkastukset ennen niiden käyttöönottoa, erityisesti jos niiden on tarkoitus aiheuttaa vahinkoa ihmisille tai rakennuksille. Tämä ulottuu tekoälyjärjestelmiin, joita kehitetään siten, että niistä tulee lopulta itseoppivia ja itsekorjautuvia, mikä saattaa johtaa siihen, että nämä koneet korvaavat ihmisen ohjaamia asejärjestelmiä sotilasoperaatioissa.

    Vuonna 2017 Google sai työntekijöilleen ankaran vastareaktion, kun havaittiin, että yritys oli yhteistyössä Yhdysvaltain puolustusministeriön kanssa kehittääkseen koneoppimisjärjestelmiä armeijassa käytettäviksi. Aktivistit olivat huolissaan siitä, että mahdollisesti itsekehittyvien armeijarobottien luominen voi loukata kansalaisvapauksia tai johtaa väärään kohteen tunnistamiseen. Kasvojentunnistusteknologian käyttö armeijassa on lisääntynyt (jo vuonna 2019) tietokannan luomiseksi kohteena olevista terroristeista tai kiinnostuneista henkilöistä. Kriitikot ovat ilmaisseet huolensa siitä, että tekoälyyn perustuva päätöksenteko voi johtaa tuhoisiin tuloksiin, jos ihmisen väliintulo vaarantuu. Useimmat Yhdistyneiden Kansakuntien jäsenet kannattavat kuitenkin tappavien autonomisten asejärjestelmien (LAWS) kieltämistä, koska nämä tahot voivat toimia roistoina.

    Häiritsevä vaikutus

    Monien länsimaiden kokemat laskevat sotilaallisten rekrytointiluvut – trendi, joka syveni 2010-luvulla – ovat keskeinen tekijä automatisoitujen sotilasratkaisujen käyttöönotossa. Toinen näiden tekniikoiden käyttöönottoa edistävä tekijä on niiden mahdollisuudet tehostaa ja automatisoida taistelukenttäoperaatioita, mikä lisää sodankäynnin tehokkuutta ja alentaa käyttökustannuksia. Jotkut sotateollisuuden sidosryhmät ovat myös väittäneet, että tekoälyohjatut sotilaalliset järjestelmät ja algoritmit voivat vähentää ihmisuhrien määrää tarjoamalla reaaliaikaista ja tarkkaa tietoa, joka voi lisätä käytettyjen järjestelmien tarkkuutta, jotta ne iskevät aiottuihin kohteisiin. 

    Jos enemmän tekoälyohjattuja sotilaallisia asejärjestelmiä käytetään teattereihin maailmanlaajuisesti, vähemmän ihmisiä voidaan lähettää konfliktialueille, mikä vähentää sotilaallisten uhrien määrää sodan teattereissa. Tekoälyohjattujen aseiden valmistajat voivat sisältää vastatoimia, kuten tappokytkimiä, jotta nämä järjestelmät voidaan sammuttaa välittömästi virheen sattuessa.  

    Tekoälyohjattujen aseiden vaikutukset 

    Armeijan maailmanlaajuisesti käyttämien autonomisten aseiden laajempia seurauksia voivat olla:

    • Autonomisia aseita käytetään jalkasotilaiden tilalle, mikä vähentää sodankäyntikustannuksia ja sotilaiden uhreja.
    • Se, että valikoidut valtiot käyttävät enemmän sotilaallista voimaa, joilla on paremmat mahdollisuudet käyttää autonomisia tai koneellisia resursseja, koska joukkojen uhrien vähentäminen tai poistaminen voi minimoida maan sisäisen julkisen vastarinnan sotaa vastaan ​​vieraissa maissa.
    • Puolustusbudjettien eskaloituminen kansojen välillä sotilaallisen tekoälyn ylivallan vuoksi tulevissa sodissa saattaa määräytyä tulevaisuuden tekoälyohjattujen aseiden ja armeijan päätöksenteon nopeuden ja kehittyneisyyden perusteella. 
    • Lisääntyvä kumppanuus ihmisten ja koneiden välillä, jossa tiedot toimitetaan välittömästi ihmissotilaille, jolloin he voivat säätää taistelutaktiikoita ja strategioita reaaliajassa.
    • Maat hyödyntävät yhä enemmän yksityisten teknologia-alojensa resursseja vahvistaakseen tekoälyn puolustuskykyään. 
    • YK:ssa edistetään yhtä tai useampaa maailmanlaajuista sopimusta, joka kieltää tai rajoittaa autonomisten aseiden käyttöä. Maailman huippuarmeijat jättävät tällaisen politiikan todennäköisesti huomiotta.

    Kommentoitavia kysymyksiä

    • Luuletko, että algoritmiset sodankäynnit hyödyttävät armeijaan värvättyjä ihmisiä?
    • Uskotko, että sodankäyntiin suunniteltuihin tekoälyjärjestelmiin voidaan luottaa, vai pitäisikö niitä rajoittaa tai kieltää kokonaan?

    Insight-viittauksia

    Tässä oivalluksessa viitattiin seuraaviin suosittuihin ja institutionaalisiin linkkeihin: