Algoritminen sodankäynti: Ovatko tappajarobotit nykyaikaisen sodankäynnin uudet kasvot?
Algoritminen sodankäynti: Ovatko tappajarobotit nykyaikaisen sodankäynnin uudet kasvot?
Algoritminen sodankäynti: Ovatko tappajarobotit nykyaikaisen sodankäynnin uudet kasvot?
- Kirjoittaja:
- Tammikuu 10, 2023
Maat jatkavat keinotekoisesti älykkäiden (AI) sodankäyntijärjestelmien tutkimusta, vaikka kansalaisyhteiskunnan vastustus tappavia, autonomisia aseita vastaan on lisääntynyt.
Algoritminen sodankäynnin konteksti
Koneet käyttävät algoritmeja (joukko matemaattisia ohjeita) ratkaistakseen ongelmia, jotka jäljittelevät ihmisen älykkyyttä. Algoritminen sodankäynti sisältää tekoälyllä varustettujen järjestelmien kehittämisen, jotka voivat itsenäisesti hallita aseita, taktiikoita ja jopa kokonaisia sotilasoperaatioita. Asejärjestelmiä itsenäisesti ohjaavat koneet ovat avanneet uusia keskusteluja autonomisten koneiden roolista sodankäynnissä ja sen eettisistä vaikutuksista.
Kansainvälisen humanitaarisen oikeuden mukaan jokaiselle koneelle (riippumatta siitä, onko se aseistettu tai ei-asetettu) on suoritettava tiukat tarkastukset ennen niiden käyttöönottoa, erityisesti jos niiden on tarkoitus aiheuttaa vahinkoa ihmisille tai rakennuksille. Tämä ulottuu tekoälyjärjestelmiin, joita kehitetään siten, että niistä tulee lopulta itseoppivia ja itsekorjautuvia, mikä saattaa johtaa siihen, että nämä koneet korvaavat ihmisen ohjaamia asejärjestelmiä sotilasoperaatioissa.
Vuonna 2017 Google sai työntekijöilleen ankaran vastareaktion, kun havaittiin, että yritys oli yhteistyössä Yhdysvaltain puolustusministeriön kanssa kehittääkseen koneoppimisjärjestelmiä armeijassa käytettäviksi. Aktivistit olivat huolissaan siitä, että mahdollisesti itsekehittyvien armeijarobottien luominen voi loukata kansalaisvapauksia tai johtaa väärään kohteen tunnistamiseen. Kasvojentunnistusteknologian käyttö armeijassa on lisääntynyt (jo vuonna 2019) tietokannan luomiseksi kohteena olevista terroristeista tai kiinnostuneista henkilöistä. Kriitikot ovat ilmaisseet huolensa siitä, että tekoälyyn perustuva päätöksenteko voi johtaa tuhoisiin tuloksiin, jos ihmisen väliintulo vaarantuu. Useimmat Yhdistyneiden Kansakuntien jäsenet kannattavat kuitenkin tappavien autonomisten asejärjestelmien (LAWS) kieltämistä, koska nämä tahot voivat toimia roistoina.
Häiritsevä vaikutus
Monien länsimaiden kokemat laskevat sotilaallisten rekrytointiluvut – trendi, joka syveni 2010-luvulla – ovat keskeinen tekijä automatisoitujen sotilasratkaisujen käyttöönotossa. Toinen näiden tekniikoiden käyttöönottoa edistävä tekijä on niiden mahdollisuudet tehostaa ja automatisoida taistelukenttäoperaatioita, mikä lisää sodankäynnin tehokkuutta ja alentaa käyttökustannuksia. Jotkut sotateollisuuden sidosryhmät ovat myös väittäneet, että tekoälyohjatut sotilaalliset järjestelmät ja algoritmit voivat vähentää ihmisuhrien määrää tarjoamalla reaaliaikaista ja tarkkaa tietoa, joka voi lisätä käytettyjen järjestelmien tarkkuutta, jotta ne iskevät aiottuihin kohteisiin.
Jos enemmän tekoälyohjattuja sotilaallisia asejärjestelmiä käytetään teattereihin maailmanlaajuisesti, vähemmän ihmisiä voidaan lähettää konfliktialueille, mikä vähentää sotilaallisten uhrien määrää sodan teattereissa. Tekoälyohjattujen aseiden valmistajat voivat sisältää vastatoimia, kuten tappokytkimiä, jotta nämä järjestelmät voidaan sammuttaa välittömästi virheen sattuessa.
Tekoälyohjattujen aseiden vaikutukset
Armeijan maailmanlaajuisesti käyttämien autonomisten aseiden laajempia seurauksia voivat olla:
- Autonomisia aseita käytetään jalkasotilaiden tilalle, mikä vähentää sodankäyntikustannuksia ja sotilaiden uhreja.
- Se, että valikoidut valtiot käyttävät enemmän sotilaallista voimaa, joilla on paremmat mahdollisuudet käyttää autonomisia tai koneellisia resursseja, koska joukkojen uhrien vähentäminen tai poistaminen voi minimoida maan sisäisen julkisen vastarinnan sotaa vastaan vieraissa maissa.
- Puolustusbudjettien eskaloituminen kansojen välillä sotilaallisen tekoälyn ylivallan vuoksi tulevissa sodissa saattaa määräytyä tulevaisuuden tekoälyohjattujen aseiden ja armeijan päätöksenteon nopeuden ja kehittyneisyyden perusteella.
- Lisääntyvä kumppanuus ihmisten ja koneiden välillä, jossa tiedot toimitetaan välittömästi ihmissotilaille, jolloin he voivat säätää taistelutaktiikoita ja strategioita reaaliajassa.
- Maat hyödyntävät yhä enemmän yksityisten teknologia-alojensa resursseja vahvistaakseen tekoälyn puolustuskykyään.
- YK:ssa edistetään yhtä tai useampaa maailmanlaajuista sopimusta, joka kieltää tai rajoittaa autonomisten aseiden käyttöä. Maailman huippuarmeijat jättävät tällaisen politiikan todennäköisesti huomiotta.
Kommentoitavia kysymyksiä
- Luuletko, että algoritmiset sodankäynnit hyödyttävät armeijaan värvättyjä ihmisiä?
- Uskotko, että sodankäyntiin suunniteltuihin tekoälyjärjestelmiin voidaan luottaa, vai pitäisikö niitä rajoittaa tai kieltää kokonaan?
Insight-viittauksia
Tässä oivalluksessa viitattiin seuraaviin suosittuihin ja institutionaalisiin linkkeihin: