Algoritmisk krigskamp: Er dræberrobotter det nye ansigt for moderne krigsførelse?

BILLEDKREDIT:
Image credit
iStock

Algoritmisk krigskamp: Er dræberrobotter det nye ansigt for moderne krigsførelse?

Algoritmisk krigskamp: Er dræberrobotter det nye ansigt for moderne krigsførelse?

Underoverskriftstekst
Nutidens våben og krigsførelsessystemer kan snart udvikle sig fra blot udstyr til autonome enheder.
    • Forfatter:
    • Forfatter navn
      Quantumrun Foresight
    • Januar 10, 2023

    Lande fortsætter med at forske i kunstigt intelligente (AI) krigssystemer, selvom modstanden er steget i civilsamfundet mod dødelige, autonome våben. 

    Algoritmisk krigskamp kontekst

    Maskiner bruger algoritmer (et sæt matematiske instruktioner) til at løse problemer, der efterligner menneskelig intelligens. Algoritmisk krigskamp involverer udviklingen af ​​AI-drevne systemer, der selvstændigt kan styre våben, taktik og endda hele militære operationer. Maskiner, der autonomt kontrollerer våbensystemer, har åbnet nye debatter om den rolle, autonome maskiner bør spille i krigsførelse og dens etiske implikationer. 

    I henhold til international humanitær lov skal enhver maskine (uanset om den er våbenbevæbnet eller ikke-våbenbeskyttet) gennemgå strenge gennemgange, før de indsættes, især hvis de er beregnet til at forårsage skade på personer eller bygninger. Dette strækker sig til AI-systemer, der udvikles for i sidste ende at blive selvlærende og selvkorrigerende, hvilket kan føre til, at disse maskiner erstatter menneskekontrollerede våbensystemer i militære operationer.

    I 2017 modtog Google alvorlige modreaktioner fra sine medarbejdere, da det blev opdaget, at virksomheden arbejdede sammen med det amerikanske forsvarsministerium om at udvikle maskinlæringssystemer til brug i militæret. Aktivister var bekymrede for, at skabelse af muligvis selvudviklende militærrobotter kan krænke borgerlige frihedsrettigheder eller føre til falsk genkendelse af mål. Brugen af ​​ansigtsgenkendelsesteknologi i militæret er steget (så tidligt som i 2019) for at skabe en database over målrettede terrorister eller personer af interesse. Kritikere har udtrykt bekymring for, at AI-drevet beslutningstagning kan føre til katastrofale resultater, hvis menneskelig indgriben kompromitteres. De fleste FN-medlemmer går dog ind for at forbyde dødelige autonome våbensystemer (LAWS) på grund af muligheden for, at disse enheder kan blive slyngler.

    Forstyrrende påvirkning

    Faldende militærrekrutteringstal, som mange vestlige nationer oplever - en tendens, der blev uddybet i løbet af 2010'erne - er en nøglefaktor, der bidrager til vedtagelsen af ​​automatiserede militære løsninger. En anden faktor, der driver adoptionen af ​​disse teknologier, er deres potentiale til at strømline og automatisere slagmarksoperationer, hvilket fører til øget krigskampeffektivitet og lavere driftsomkostninger. Nogle interessenter i den militære industri har også hævdet, at AI-kontrollerede militære systemer og algoritmer kan sænke menneskelige tab ved at levere real-time og nøjagtige oplysninger, der kan øge nøjagtigheden af ​​de indsatte systemer, så de rammer deres tilsigtede mål. 

    Hvis flere AI-kontrollerede militære våbensystemer sættes ind i teatre verden over, kan færre menneskeligt personale blive indsat i konfliktzoner, hvilket sænker militære ofre i krigsteatre. Producenterne af AI-drevne våben kan inkludere modforanstaltninger såsom kill switches, så disse systemer kan deaktiveres med det samme, hvis der opstår en fejl.  

    Implikationer af AI-kontrollerede våben 

    De bredere implikationer af, at autonome våben bliver indsat af militære verden over kan omfatte:

    • Autonome våben bliver indsat i stedet for fodsoldater, hvilket reducerer omkostningerne til krigsførelse og tab af soldater.
    • Den større anvendelse af militær magt af udvalgte nationer med større adgang til autonome eller mekaniserede aktiver, da reduktion eller eliminering af troppeofre kan minimere et lands indenlandske offentlige modstand mod at føre krig i fremmede lande.
    • En eskalering af forsvarsbudgetter mellem nationer for militær AI-overherredømme efterhånden som fremtidige krige kan afgøres af beslutningstagningshastigheden og sofistikeringen af ​​fremtidige AI-kontrollerede våben og militære. 
    • Øget partnerskab mellem mennesker og maskiner, hvor data øjeblikkeligt vil blive leveret til menneskelige soldater, så de kan justere kamptaktikker og strategier i realtid.
    • Lande udnytter i stigende grad ressourcerne i deres private teknologisektorer for at styrke deres AI-forsvarskapaciteter. 
    • En eller flere globale traktater, der fremmes i FN, der forbyder eller begrænser brugen af ​​autonome våben. Sådanne politikker vil sandsynligvis blive ignoreret af verdens bedste militære.

    Spørgsmål at kommentere på

    • Tror du, at algoritmisk krigskamp vil gavne mennesker, der er indrulleret i militæret?
    • Tror du, at man kan stole på AI-systemer, der er designet til krigsførelse, eller skal de indskrænkes eller forbydes direkte?

    Indsigtsreferencer

    Følgende populære og institutionelle links blev refereret til denne indsigt:

    Den Internationale Røde Kors Komité Skifter fortællingen: ikke våben, men krigsteknologier