Guerra algorítmica: ¿Son los robots asesinos la nueva cara de la guerra moderna?

CREDITO DE IMAGEN:
Crédito de la imagen
iStock

Guerra algorítmica: ¿Son los robots asesinos la nueva cara de la guerra moderna?

Guerra algorítmica: ¿Son los robots asesinos la nueva cara de la guerra moderna?

Subtítulo de texto
Los sistemas de armas y de guerra actuales podrían evolucionar pronto de meros equipos a entidades autónomas.
    • Escrito por:
    • Nombre del autor
      Previsión Quantumrun
    • Enero 10, 2023

    Los países continúan investigando sistemas de guerra con inteligencia artificial (IA) a pesar de que ha aumentado la resistencia dentro de la sociedad civil contra las armas letales y autónomas. 

    Contexto de guerra algorítmica

    Las máquinas usan algoritmos (un conjunto de instrucciones matemáticas) para resolver problemas que imitan la inteligencia humana. La guerra algorítmica implica el desarrollo de sistemas impulsados ​​por IA que pueden gestionar de forma autónoma armas, tácticas e incluso operaciones militares completas. Las máquinas que controlan de forma autónoma los sistemas de armas han abierto nuevos debates sobre el papel que deben desempeñar las máquinas autónomas en la guerra y sus implicaciones éticas. 

    De acuerdo con el derecho internacional humanitario, cualquier máquina (ya sea armada o no armada) debe someterse a revisiones estrictas antes de desplegarse, especialmente si está destinada a causar daños a personas o edificios. Esto se extiende a los sistemas de IA que se están desarrollando para que eventualmente se conviertan en autoaprendizajes y autocorrecciones, lo que puede llevar a que estas máquinas reemplacen los sistemas de armas controlados por humanos en las operaciones militares.

    En 2017, Google recibió una fuerte reacción de sus empleados cuando se descubrió que la empresa estaba trabajando con el Departamento de Defensa de los Estados Unidos para desarrollar sistemas de aprendizaje automático para su uso en el ejército. A los activistas les preocupaba que la creación de robots militares que posiblemente evolucionaran solos pudiera violar las libertades civiles o dar lugar a un falso reconocimiento de objetivos. El uso de la tecnología de reconocimiento facial en el ejército ha aumentado (desde 2019) para crear una base de datos de terroristas o personas de interés objetivo. Los críticos han expresado su preocupación de que la toma de decisiones impulsada por la IA pueda conducir a resultados desastrosos si la intervención humana se ve comprometida. Sin embargo, la mayoría de los miembros de las Naciones Unidas están a favor de prohibir los sistemas letales de armas autónomas (LAWS) debido a la posibilidad de que estas entidades se vuelvan deshonestas.

    Impacto disruptivo

    La caída de las cifras de reclutamiento militar que experimentan muchas naciones occidentales, una tendencia que se profundizó durante la década de 2010, es un factor clave que contribuye a la adopción de soluciones militares automatizadas. Otro factor que impulsa la adopción de estas tecnologías es su potencial para agilizar y automatizar las operaciones en el campo de batalla, lo que lleva a una mayor eficiencia en la guerra y menores costos operativos. Algunas partes interesadas de la industria militar también han afirmado que los sistemas y algoritmos militares controlados por IA pueden reducir las bajas humanas al proporcionar información precisa y en tiempo real que puede aumentar la precisión de los sistemas desplegados para que alcancen sus objetivos previstos. 

    Si se despliegan más sistemas de armas militares controlados por IA en los escenarios de todo el mundo, se desplegará menos personal humano en las zonas de conflicto, lo que reducirá las bajas militares en los escenarios de guerra. Los fabricantes de armas impulsadas por IA pueden incluir contramedidas como interruptores de apagado para que estos sistemas puedan desactivarse inmediatamente si ocurre un error.  

    Implicaciones de las armas controladas por IA 

    Las implicaciones más amplias del despliegue de armas autónomas por parte de los militares en todo el mundo pueden incluir:

    • Se está desplegando armamento autónomo en lugar de soldados de a pie, lo que reduce los costos de guerra y las bajas de soldados.
    • La mayor aplicación de la fuerza militar por parte de naciones selectas con mayor acceso a activos autónomos o mecanizados, ya que la reducción o eliminación de bajas de tropas puede minimizar la resistencia pública interna de un país a librar una guerra en tierras extranjeras.
    • Una escalada de los presupuestos de defensa entre las naciones para la supremacía militar de la IA, ya que las guerras futuras pueden decidirse por la velocidad de toma de decisiones y la sofisticación de las futuras armas y fuerzas armadas controladas por la IA. 
    • Aumentar la asociación entre humanos y máquinas, donde los datos se proporcionarán instantáneamente a los soldados humanos, lo que les permitirá ajustar las tácticas y estrategias de batalla en tiempo real.
    • Los países aprovechan cada vez más los recursos de sus sectores tecnológicos privados para reforzar sus capacidades de defensa de IA. 
    • Uno o más tratados globales que se están promoviendo en las Naciones Unidas prohibiendo o limitando el uso de armas autónomas. Tales políticas probablemente serán ignoradas por los principales militares del mundo.

    Preguntas para comentar

    • ¿Crees que la guerra algorítmica beneficiará a los humanos alistados en el ejército?
    • ¿Cree que se puede confiar en los sistemas de inteligencia artificial diseñados para la guerra, o deberían reducirse o prohibirse por completo?

    Referencias de información

    Se hizo referencia a los siguientes enlaces populares e institucionales para esta perspectiva:

    Revisión de la defensa india Guerra algorítmica: el mundo está esperando