Armas letales autónomas, la inteligencia artificial al servicio de los sistemas militares

Armas letales autónomas, la inteligencia artificial al servicio de los sistemas militares; implicaciones éticas, jurídicas y doctrinales, beneficios y más.

Definición, concepto, que significan

Las armas letales autónomas son un tipo de robot militar autónomo que puede buscar y atacar objetivos de forma independiente según las restricciones y descripciones programadas. A las LAWS (por sus siglas en inglés) también se denominan a sistemas de armas autónomas letales , robots autónomos letales (LAR), armas robóticas o robots asesinos . Pueden operar en el aire, en la tierra, en el agua, debajo del agua o en el espacio. La autonomía de los sistemas actuales a partir de 2018 está restringida en el sentido de que un humano da el comando final para atacar, aunque hay excepciones con ciertos sistemas «defensivos».

Campañas de prohibición

Robots asesinos. Es una frase que es a la vez aterradora, pero también una que la mayoría de la gente considera como todavía en el ámbito de la ciencia ficción. Sin embargo, las armas construidas con inteligencia artificial (IA), armas que podrían identificar, atacar y matar a una persona por su cuenta, se están moviendo rápidamente de la ciencia ficción a la realidad.

Hasta la fecha, no existen armas que puedan dirigirse específicamente a las personas. Pero hay armas que pueden rastrear los misiles entrantes o localizar las señales del radar del enemigo, y estas armas pueden atacar de forma autónoma estas amenazas no humanas sin ninguna persona involucrada en la decisión final. Los expertos predicen que en pocos años, si no antes, esta tecnología será lo suficientemente avanzada como para usarla en contra de las personas.

En los últimos años, los delegados de las Naciones Unidas han debatido si considerar la posibilidad de prohibir los robots asesinos, más formalmente conocidos como sistemas de armas autónomas letales . Esta semana, los delegados se reunieron nuevamente para considerar si más reuniones el próximo año podrían llevar a algo más tangible: una declaración política o una prohibición total.

Mientras tanto, aquellos que en realidad serían responsables del diseño de LAWS, los investigadores y desarrolladores de inteligencia artificial y robótica, han pasado estos años pidiendo a la ONU que negocie un tratado que prohíba las LAWS. Más específicamente, casi 4,000 investigadores de inteligencia artificial y robótica solicitaron una prohibición de Armas letales autónomos en 2015 ; en 2017, 137 CEOs de compañías de AI solicitaron a la ONU que prohibiera las LAWS ; y en 2018, 240 organizaciones relacionadas con la IA y cerca de 3,100 personas dieron un paso más en ese llamado y se comprometieron a no participar en el desarrollo de LAWS .

Y los investigadores de AI tienen muchas razones para su consenso de que el mundo debería buscar una prohibición de las armas autónomas letales. El principio de estos es que los expertos en inteligencia artificial suelen reconocer lo peligrosas y desestabilizadoras que podrían ser estas armas.

Las armas podrían ser hackeadas. Las armas podrían caer en manos de los «malos actores». Las armas pueden no ser tan «inteligentes» como pensamos y, sin saberlo, apuntar a civiles inocentes. Debido a que los materiales necesarios para construir las armas son baratos y fáciles de obtener, las potencias militares podrían producir estas armas en masa, aumentando la probabilidad de proliferación y asesinatos en masa. Las armas podrían permitir asesinatos o, alternativamente, podrían convertirse en armas de opresión, permitiendo a los dictadores y caudillos someter a su gente.

Pero quizás el mayor riesgo que plantea LAWS, es el potencial de iniciar una carrera de armamentos global de IA.

Por ahora, los gobiernos insisten en que se asegurarán de que las pruebas, la validación y la verificación de estas armas sean obligatorias. Sin embargo, estas armas no solo son tecnológicamente novedosas, sino que también son transformadoras; Han sido descritos como la tercera revolución en la guerra, después de pólvora y armas nucleares. Las Armas letales autonónomas tienen el potencial de convertirse en el tipo de armas más poderosas que el mundo ha visto.

Ya existen diversos grados de autonomía en los sistemas de armas en todo el mundo, y los niveles de autonomía y las capacidades avanzadas de IA en armas están aumentando rápidamente. Si un país comenzara el desarrollo sustancial de un programa LAWS, o incluso si otros países lo perciben como un programa sustancial, una carrera de armamentos de la IA probablemente sería inminente.

Durante una carrera de armamentos, los países y los laboratorios de IA sentirán una presión creciente para encontrar atajos en torno a las precauciones de seguridad. Una vez que eso sucede, cada amenaza mencionada anteriormente es incluso más probable, si no inevitable.

Ser autónomo como arma

Ser «autónomo» tiene diferentes significados en diferentes campos de estudio. En ingeniería puede referirse a la capacidad de la máquina para operar sin la participación humana. En filosofía puede referirse a un individuo que es moralmente independiente. En ciencia política puede referirse a la capacidad de un área de autogobierno . En términos de desarrollo de armas militares, la identificación de un arma como autónoma no es tan clara como en otras áreas. El estándar específico que conlleva el concepto de autonomía puede variar enormemente entre los diferentes académicos, naciones y organizaciones.

Los estudiosos como Peter Asaro y Mark Gubrud están tratando de establecer un umbral más bajo y juzgar a los sistemas de armas como autónomos. Creen que cualquier sistema de armas que sea capaz de liberar una fuerza letal sin la operación, decisión o confirmación de un supervisor humano puede considerarse autónomo. Según Gubrud, un sistema de armas que funcione parcial o totalmente sin intervención humana se considera autónomo. Argumenta que un sistema de armas no necesita ser capaz de tomar decisiones completamente por sí mismo para que pueda llamarse autónomo. En su lugar, debe tratarse como autónomo mientras se involucre activamente en una o varias partes del «proceso de preparación», desde encontrar el objetivo hasta finalmente disparar.

Otras organizaciones, sin embargo, están estableciendo el estándar del sistema de armas autónomas en una posición más alta. El Ministerio de Defensa (Reino Unido) define los sistemas de armas autónomas como «sistemas que son capaces de comprender la intención y la dirección de un nivel superior. A partir de esta comprensión y su percepción de su entorno, dicho sistema puede tomar las medidas adecuadas para lograr una decisión. Sin embargo, es posible que este compromiso humano con el sistema aún esté presente. Aunque la actividad general de una aeronave no tripulada autónoma será predecibles, las acciones individuales pueden no serlo «.

Como resultado, la composición del tratado entre estados requiere un etiquetado comúnmente aceptado de lo que constituye exactamente un arma autónoma.

Sistemas defensivos automáticos

El arma letal de activación automática más antigua es la mina terrestre , utilizada desde al menos el siglo XVII, y las minas navales , utilizada desde al menos el siglo XVIII. Las minas antipersonales están prohibidas en muchos países por el Tratado de Ottawa de 1997 , sin incluir a los Estados Unidos, Rusia y gran parte de Asia y Medio Oriente.

Algunos ejemplos actuales de LAWS son sistemas de protección activa automatizados «duros» , como un arma guiada por radar para defender a los buques que han estado en uso desde la década de 1970 (por ejemplo, el US Phalanx CIWS ). Dichos sistemas pueden identificar y atacar de forma autónoma los misiles, cohetes, disparos de artillería, aviones y buques de superficie que se aproximen de acuerdo con los criterios establecidos por el operador humano. Existen sistemas similares para tanques, como el Russian Arena , el Trofeo israelí y el AMAP-ADS alemán . Varios tipos de armas de centinela estacionarias , que pueden disparar a humanos y vehículos, se utilizan en Corea del Sur e Israel. Muchos sistemas de defensa de misiles , tales como Iron Dome , también tiene capacidades de focalización autónomas. Las torretas automáticas instaladas en vehículos militares se llaman estaciones de armas remotas .

La razón principal para no tener un «humano en el circuito» en estos sistemas es la necesidad de una respuesta rápida. En general, se han utilizado para proteger al personal y las instalaciones contra los proyectiles entrantes.

Sistemas ofensivos autónomos

Los sistemas con un mayor grado de autonomía incluirían drones o vehículos aéreos de combate no tripulados , por ejemplo: «El prototipo de drones de combate propulsados ​​por jets propulsados ​​por jets de BAE Systems puede llevar a un futuro sistema de aire ofensivo que puede buscar, identificar y localizar a los enemigos de manera autónoma, pero solo puede interactuar con un objetivo cuando lo autorice el comando de la misión. También puede defenderse contra los aviones enemigos «(Heyns 2013, §45). El drone Northrop Grumman X-47B puede despegar y aterrizar en portaaviones (demostrado en 2014); está programado para desarrollarse en un sistema de vigilancia y ataque aéreo no tripulado lanzado por un transportista (UCLASS).

De acuerdo con The Economist , a medida que la tecnología avanza, las aplicaciones futuras de vehículos submarinos no tripulados podrían incluir la remoción de minas, la colocación de minas y la conexión de sensores antisubmarinos en aguas disputadas, patrullar con sonar activo, reabastecer submarinos tripulados y convertirse en plataformas de misiles de bajo costo. En 2018, la Revisión de la Postura Nuclear de los Estados Unidos alegó que Rusia está desarrollando un «nuevo torpedo autónomo intercontinental, con armas nucleares, propulsado por energía nuclear, submarino» llamado » Estado 6 «.

La Federación de Rusia está desarrollando activamente, se dice, misiles artificialmente inteligentes , drones , vehículos no tripulados , robots militares y robots médicos.

El ministro israelí Ayoub Kara declaró en 2017 que Israel está desarrollando robots militares, incluidos algunos tan pequeños como moscas.

En 2018, científicos chinos informaron al South China Morning Post que China está desarrollando grandes submarinos autónomos adecuados para el reconocimiento, la colocación de minas y los «ataques suicidas» contra buques enemigos, programados para su despliegue a principios de 2020.

En octubre de 2018, Zeng Yi, un alto ejecutivo de la firma de defensa china Norinco , pronunció un discurso en el que dijo que «en los futuros campos de batalla no habrá gente luchando» y que el uso de armas autónomas letales en la guerra es «inevitable».

Cuestiones éticas y legales

Estándar utilizado en la política estadounidense

La política actual de los EE. UU. Establece: «Los sistemas de armas … autónomos deben diseñarse para permitir a los comandantes y operadores ejercer los niveles adecuados de juicio humano sobre el uso de la fuerza». Sin embargo, la política requiere que los sistemas de armas autónomos que matan a las personas o utilicen la fuerza cinética, seleccionando y comprometiendo a los objetivos sin mayor intervención humana, estén certificados como compatibles con los «niveles apropiados» y otras normas, no que tales sistemas de armas no puedan cumplirlos. Están prohibidas los Cazadores-asesinos «semi-autónomos» que identifican y atacan de forma autónoma a los objetivos y que ni siquiera requieren certificación. El subsecretario de Defensa, Robert Work, dijo en 2016 que el Departamento de Defensa «no delegaría autoridad letal a una máquina para tomar una decisión», pero podría necesitar reconsiderarlo ya que los «regímenes autoritarios» pueden hacerlo. En octubre de 2016, el presidente Barack Obama declaró que al principio de su carrera desconfiaba de un futuro en el que un presidente de los EE. UU. Que hiciera uso de la guerra con aviones no tripulados pudiera «llevar a cabo guerras perpetuas en todo el mundo, y muchas de ellas encubiertas, sin Cualquier responsabilidad o debate democrático «.

Violaciones probables de ética y actos internacionales

Stuart Russell, profesor de ciencias de la computación de la Universidad de California, Berkeley, expresó que la preocupación que tiene con LAWS es que no es ético e inhumano. El principal problema con este sistema es que es difícil distinguir entre combatientes y no combatientes.

Existe una preocupación (por ejemplo, Sharkey 2012) sobre si las armas letales autónomas violarían el Derecho Internacional Humanitario , especialmente el principio de distinción, que requiere la capacidad de discriminar a los combatientes de los no combatientes, y el principio de proporcionalidad , que requiere que el daño a los civiles sea proporcional a El objetivo militar. Esta preocupación se invoca a menudo como una razón para prohibir por completo a los «robots asesinos», pero es dudoso que esta preocupación pueda ser un argumento en contra de las LAWS que no violan el Derecho Internacional Humanitario.

Se dice que las leyes difuminan los límites de quién es responsable de un asesinato en particular , pero Thomas Simpson y Vincent Müller argumentan que pueden facilitar el registro de quién dio qué comando.

Leer también: Historia resumida de la inteligencia artificial, cronología; Argumentos a favor del control de armas

This post is also available in: Español