Las armas autónomas letales ( LAW, por sus siglas en inglés ) son un tipo de sistema militar autónomo que puede buscar y atacar objetivos de forma independiente según las restricciones y descripciones programadas. [1] leyes también se conocen como sistemas letales autónomas de armas (leyes), sistemas de armas autónomas (AWS), armas robóticas , robots asesinos o slaughterbots . [2] Las LEYES pueden operar en el aire, en tierra, en el agua, bajo el agua o en el espacio. La autonomía de los sistemas actuales a partir de 2018[actualizar] fue restringido en el sentido de que un humano da la orden final para atacar, aunque hay excepciones con ciertos sistemas "defensivos".
Ser autónomo como arma
Ser "autónomo" tiene diferentes significados en diferentes campos de estudio. En ingeniería, puede referirse a la capacidad de la máquina para funcionar sin intervención humana. En filosofía, puede referirse a que un individuo es moralmente independiente. En ciencias políticas puede referirse a la capacidad de autogobierno de un área . En términos de desarrollo de armas militares, la identificación de un arma como autónoma no es tan clara como en otras áreas. [1] El estándar específico implicado en el concepto de autonomía puede variar enormemente entre diferentes académicos, naciones y organizaciones.
Varias personas tienen muchas definiciones de lo que constituye un arma autónoma letal. Heather Roff, escritora de la Facultad de Derecho de la Universidad Case Western Reserve , describe los sistemas de armas autónomos como "sistemas de armas armadas, capaces de aprender y adaptar su 'funcionamiento en respuesta a circunstancias cambiantes en el entorno en el que [se] despliegan', como así como capaces de tomar decisiones de despido por sí mismos ". [3] Esta definición de sistemas de armas autónomos es un umbral bastante alto en comparación con las definiciones de estudiosos como las definiciones de Peter Asaro y Mark Gubrud que se ven a continuación.
Académicos como Peter Asaro y Mark Gubrud están tratando de establecer el umbral más bajo y juzgar más sistemas de armas como autónomos. Creen que cualquier sistema de armas que sea capaz de liberar una fuerza letal sin la operación, decisión o confirmación de un supervisor humano puede considerarse autónomo. Según Gubrud, un sistema de armas que funciona parcial o totalmente sin intervención humana se considera autónomo. Sostiene que un sistema de armas no necesita poder tomar decisiones completamente por sí mismo para ser llamado autónomo. En cambio, debe tratarse como autónomo siempre que participe activamente en una o varias partes del "proceso de preparación", desde la búsqueda del objetivo hasta el disparo final. [4] [5]
Sin embargo, otras organizaciones están estableciendo el estándar del sistema de armas autónomas en una posición más alta. El Ministerio de Defensa (Reino Unido) define los sistemas de armas autónomos como "sistemas que son capaces de comprender la intención y la dirección de nivel superior. A partir de esta comprensión y su percepción de su entorno, dicho sistema puede tomar las medidas adecuadas para lograr un objetivo deseado. Es capaz de decidir un curso de acción, a partir de una serie de alternativas, sin depender de la supervisión y el control humanos; sin embargo, tal participación humana con el sistema aún puede estar presente. Si bien la actividad general de una aeronave autónoma no tripulada será predecibles, las acciones individuales pueden no serlo ". [6]
Como resultado, la composición de un tratado entre estados requiere un etiquetado comúnmente aceptado de lo que constituye exactamente un arma autónoma. [7]
Sistemas defensivos automáticos
El arma letal activada automáticamente más antigua es la mina terrestre , utilizada desde al menos el siglo XVII, y las minas navales , utilizada desde al menos el siglo XVIII. Las minas antipersonal están prohibidas en muchos países por el Tratado de Ottawa de 1997 , sin incluir Estados Unidos, Rusia y gran parte de Asia y Oriente Medio.
Algunos ejemplos actuales de LEY son los sistemas de protección activa automatizados "duros" , como los sistemas CIWS guiados por radar utilizados para defender barcos que han estado en uso desde la década de 1970 (por ejemplo, el Phalanx CIWS de EE . UU .). Dichos sistemas pueden identificar y atacar de forma autónoma misiles, cohetes, fuego de artillería, aeronaves y embarcaciones de superficie que se aproximen de acuerdo con los criterios establecidos por el operador humano. Existen sistemas similares para tanques, como el Russian Arena , el israelí Trophy y el alemán AMAP-ADS . En Corea del Sur e Israel se utilizan varios tipos de armas centinela estacionarias , que pueden disparar contra humanos y vehículos. Muchos sistemas de defensa antimisiles , como Iron Dome , también tienen capacidades de focalización autónomas. Las torretas automáticas instaladas en vehículos militares se denominan estaciones de armas remotas .
La principal razón para no tener un "humano en el circuito" en estos sistemas es la necesidad de una respuesta rápida. Por lo general, se han utilizado para proteger al personal y las instalaciones contra proyectiles entrantes.
Sistemas ofensivos autónomos
Los sistemas con un mayor grado de autonomía incluirían drones o vehículos aéreos de combate no tripulados , por ejemplo: "El prototipo de dron de combate desarmado de BAE Systems Taranis propulsado a chorro puede conducir a un Future Combat Air System que puede buscar, identificar y localizar enemigos de forma autónoma, pero puede sólo se enfrenta a un objetivo cuando lo autoriza el mando tipo misión. También puede defenderse de las aeronaves enemigas "(Heyns 2013, §45). El dron Northrop Grumman X-47B puede despegar y aterrizar en portaaviones (demostrado en 2014); está previsto que se convierta en un sistema de ataque y vigilancia aerotransportada lanzado por un transportista no tripulado (UCLASS).
Según The Economist , a medida que avanza la tecnología, las aplicaciones futuras de los vehículos submarinos no tripulados podrían incluir remoción de minas, colocación de minas, redes de sensores antisubmarinos en aguas en disputa, patrullaje con sonar activo, reabastecimiento de submarinos tripulados y convertirse en plataformas de misiles de bajo costo. [8] En 2018, la Revisión de la Postura Nuclear de EE. UU . Alegó que Rusia está desarrollando un "nuevo torpedo submarino autónomo intercontinental, con armas nucleares, de propulsión nuclear" llamado " Estado 6 ". [9]
La Federación de Rusia está desarrollando activamente misiles de inteligencia artificial , [10] drones , [11] vehículos no tripulados , robots militares y robots médicos. [12] [13] [14] [15]
El ministro israelí Ayoob Kara declaró en 2017 que Israel está desarrollando robots militares, incluidos algunos tan pequeños como moscas. [16] [17]
En octubre de 2018, Zeng Yi, alto ejecutivo de la firma de defensa china Norinco , pronunció un discurso en el que dijo que "en futuros campos de batalla, no habrá gente peleando" y que el uso de armas letales autónomas en la guerra es " inevitable." [18] En 2019, el secretario de Defensa de Estados Unidos, Mark Esper, arremetió contra China por vender drones capaces de acabar con la vida sin supervisión humana. [19]
El ejército británico desplegó nuevos vehículos no tripulados y robots militares en 2019. [20]
La Marina de los Estados Unidos está desarrollando flotas "fantasma" de barcos no tripulados . [21]
Cuestiones éticas y legales
Estándar utilizado en la política de EE. UU.
La política estadounidense actual establece: "Los sistemas de armas autónomos ... se diseñarán para permitir que los comandantes y operadores ejerzan los niveles adecuados de juicio humano sobre el uso de la fuerza". [22] Sin embargo, la política requiere que los sistemas de armas autónomos que matan personas o usan la fuerza cinética, seleccionando y atacando objetivos sin más intervención humana, sean certificados como compatibles con "niveles apropiados" y otras normas, no que tales sistemas de armas no puedan cumplir con estos normas y, por lo tanto, están prohibidas. [23] Los cazadores-asesinos "semiautónomos" que identifican y atacan de forma autónoma objetivos ni siquiera requieren certificación. [23] El subsecretario de Defensa, Robert Work, dijo en 2016 que el Departamento de Defensa "no delegaría autoridad letal a una máquina para tomar una decisión", pero podría tener que reconsiderar esto ya que los "regímenes autoritarios" pueden hacerlo. [24] En octubre de 2016, el presidente Barack Obama declaró que al principio de su carrera desconfiaba de un futuro en el que un presidente de EE. UU. Haciendo uso de la guerra con drones podría "llevar a cabo guerras perpetuas en todo el mundo, y muchas de ellas encubiertas, sin cualquier rendición de cuentas o debate democrático ". [25] [26] En los EE. UU., La inteligencia artificial relacionada con la seguridad ha estado bajo el ámbito de la Comisión de Seguridad Nacional sobre Inteligencia Artificial desde 2018. [27] [28] El 31 de octubre de 2019, el Departamento de Defensa de Estados Unidos de Innovación en Defensa La Junta publicó el borrador de un informe que describe cinco principios para la IA armada y hace 12 recomendaciones para el uso ético de la inteligencia artificial por parte del Departamento de Defensa que garantizaría que un operador humano siempre pueda mirar dentro de la 'caja negra' y comprender la proceso de la cadena de muerte. Una de las principales preocupaciones es cómo se implementará el informe. [29]
Posibles violaciones a la ética y actos internacionales
Stuart Russell , profesor de informática de la Universidad de California, Berkeley, declaró que la preocupación que tiene con LAWS es que su opinión es que no es ético e inhumano. El principal problema de este sistema es que es difícil distinguir entre combatientes y no combatientes. [30]
Algunos (egg Noel Sharkey 2012) están preocupados sobre si las LEYES violarían el derecho internacional humanitario , especialmente el principio de distinción, que requiere la capacidad de discriminar entre combatientes y no combatientes, y el principio de proporcionalidad , que requiere que se dañe a los civiles. es proporcional al objetivo militar. [31] Esta preocupación se invoca a menudo como una razón para prohibir los "robots asesinos" por completo, pero es dudoso que esta preocupación pueda ser un argumento en contra de las LEYES que no violan el Derecho Internacional Humanitario. [32] [33] [34]
Algunos dicen que las LEYES difuminan los límites de quién es responsable de un asesinato en particular, [35] pero Thomas Simpson y Vincent Müller argumentan que pueden facilitar el registro de quién dio qué comando. [36] Del mismo modo, Steven Umbrello , Phil Torres y Angelo F. De Bellis argumentan que si las capacidades técnicas de los LAW son al menos tan precisas como las de los soldados humanos, entonces, dadas las deficiencias psicológicas de los soldados humanos en la guerra, solo estos tipos de ética Deben utilizarse las LEYES. Asimismo, proponen utilizar el enfoque de diseño sensible al valor como un marco potencial para diseñar estas leyes en consonancia con los valores humanos y el Derecho Internacional Humanitario . [33]
Campañas para prohibir las LEYES
La posibilidad de las LEY ha generado un debate significativo, especialmente sobre el riesgo de que los "robots asesinos" deambulen por la tierra, en un futuro cercano o lejano. El grupo Campaign to Stop Killer Robots se formó en 2013. En julio de 2015, más de 1.000 expertos en inteligencia artificial firmaron una carta advirtiendo de la amenaza de una carrera armamentista de inteligencia artificial y pidiendo la prohibición de las armas autónomas . La carta fue presentado en Buenos Aires en la 24ª Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI-15) y fue co-firmado por Stephen Hawking , Elon Musk , Steve Wozniak , Noam Chomsky , Skype co-fundador Jaan Tallin y Google DeepMind co fundadora Demis Hassabis , entre otros. [37] [38]
Según PAX For Peace (una de las organizaciones fundadoras de The Campaign to Stop Killer Robots), las armas totalmente automatizadas (FAW) reducirán el umbral de ir a la guerra a medida que los soldados son retirados del campo de batalla y el público se aleja de experimentar la guerra. dar a los políticos y otros responsables de la toma de decisiones más espacio para decidir cuándo y cómo ir a la guerra. [39] Advierten que una vez desplegados, los FAW dificultarán el control democrático de la guerra, algo sobre lo que también advirtieron el autor de Kill Decision , una novela sobre el tema, y el especialista en TI Daniel Suárez : según él, podría volver a centralizar el poder. pocas manos al requerir que muy pocas personas vayan a la guerra. [39]
Hay sitios web [ aclaración necesaria ] que protestan por el desarrollo de LEYES presentando ramificaciones indeseables si continúa la investigación sobre el uso de la inteligencia artificial para la designación de armas. En estos sitios web, las noticias sobre cuestiones éticas y legales se actualizan constantemente para que los visitantes las rescaten con noticias recientes sobre reuniones internacionales y artículos de investigación relacionados con las LEYES. [40]
La Santa Sede ha pedido a la comunidad internacional que prohíba el uso de LAWS en varias ocasiones. En noviembre de 2018, el arzobispo Ivan Jurkovic , observador permanente de la Santa Sede ante las Naciones Unidas, afirmó que “para prevenir una carrera armamentista y el aumento de las desigualdades y la inestabilidad, es un deber imperativo actuar con prontitud: ahora es el es hora de evitar que LAWS se convierta en la realidad de la guerra de mañana ". A la Iglesia le preocupa que estos sistemas de armas tengan la capacidad de alterar irreversiblemente la naturaleza de la guerra, crear un desapego de la acción humana y poner en tela de juicio la humanidad de las sociedades. [41]
Al 29 de marzo de 2019[actualizar], la mayoría de los gobiernos representados en una reunión de la ONU para discutir el asunto favorecieron la prohibición de las LEYES. [42] Una minoría de gobiernos, incluidos los de Australia, Israel, Rusia, el Reino Unido y los Estados Unidos, se opusieron a la prohibición. [42]
Sin prohibición, pero regulación
Un tercer enfoque se centra en regular el uso de sistemas de armas autónomos en lugar de una prohibición. [43] El control de armas de la IA militar probablemente requerirá la institucionalización de nuevas normas internacionales incorporadas en especificaciones técnicas efectivas combinadas con monitoreo activo y diplomacia informal ('Track II') por parte de comunidades de expertos, junto con un proceso de verificación legal y política. [44] [45] [46] [47]
Ver también
- Carrera armamentista de inteligencia artificial
- Lista de robots militares ficticios
- Slaughterbots
Referencias
- ↑ a b Crootof, Rebecca (2015). "Los robots asesinos están aquí: implicaciones legales y políticas" . 36 Cardozo L. Rev : 1837 - a través de heinonline.org.
- ^ Johnson, Khari (31 de enero de 2020). "Andrew Yang advierte contra los 'slaughterbots' e insta a la prohibición mundial de las armas autónomas" . venturebeat.com . VentureBeat . Consultado el 31 de enero de 2020 .
- ^ Roff, Heather (2015). "Armas autónomas letales y proporcionalidad Jus Ad Bellum" .
- ^ Asaro, Peter (2012). "Sobre la prohibición de los sistemas de armas autónomos: derechos humanos, automatización y deshumanización de la toma de decisiones letales". Cruz Roja . 687 : 94.
- ^ "Autonomía sin misterio: ¿Dónde trazas la línea?" . 1.0 Humano . 2014-05-09 . Consultado el 8 de junio de 2018 .
- ^ "Sistemas de aeronaves no tripuladas (JDP 0-30.2)" . GOV.UK . Consultado el 8 de junio de 2018 .
- ^ Krishnan, Armin (2016). Taylor & Francis Group . www.taylorfrancis.com . doi : 10.4324 / 9781315591070 . ISBN 9781317109129. Consultado el 8 de junio de 2018 .
- ^ "Familiarizarse con la robótica militar" . The Economist . 25 de enero de 2018 . Consultado el 7 de febrero de 2018 .
- ^ "Estados Unidos dice que Rusia 'está desarrollando' torpedos submarinos con armas nucleares" . CNN . 2018 . Consultado el 7 de febrero de 2018 .
- ^ "Rusia está construyendo un misil que puede tomar sus propias decisiones" . 2017-07-20.
- ^ "Las armas digitales del fin del mundo de Rusia: los robots se preparan para la guerra - Rusia más allá" . 2017-05-31.
- ^ " ' Camarada de armas': Rusia está desarrollando una máquina de guerra librepensadora" . 2017-08-09.
- ^ "Rise of the Machines: una mirada a los últimos robots de combate de Rusia" . 2017-06-06.
- ^ "¿Terminator ha vuelto? Los rusos hacen grandes avances en inteligencia artificial" . 2016-02-10.
- ^ "Entrenador virtual para robots y drones desarrollado en Rusia" . 2017-05-15.
- ^ "Kara: no estaba revelando secretos de estado sobre los robots - Jerusalem Post" .
- ^ "Mini-armas nucleares e inspeccionar armas bot que se preparan para guerras futuras" . 2017-03-17.
- ^ Allen, Gregory. "Comprensión de la estrategia de inteligencia artificial de China" . Centro para una nueva seguridad estadounidense . Centro para una nueva seguridad estadounidense . Consultado el 11 de marzo de 2019 .
- ^ "¿China está exportando robots asesinos a Medio Oriente?" . Asia Times . 2019-11-28 . Consultado el 21 de diciembre de 2019 .
- ^ "Ejército británico desplegará operativamente nuevos robots en 2019 | Industria de noticias del ejército de seguridad de defensa global de marzo de 2019 | Ejército de industria de noticias global de seguridad de defensa 2019 | Año de noticias de archivo" .
- ^ "US Navy planea construir una flota fantasma no tripulada" .
- ^ Departamento de Defensa de EE. UU. (2012). "Directiva 3000.09, Autonomía en sistemas de armas" (PDF) . pag. 2.
- ^ a b Gubrud, Mark (abril de 2015). "Semiautónomos y solos: robots asesinos en la cueva de Platón" . Boletín de los científicos atómicos .
- ^ "Pentágono examina la amenaza del 'robot asesino'" . Boston Globe . 30 de marzo de 2016.
- ^ "Barack Obama en 5 días que dieron forma a su presidencia" . Intelligencer diario. 2016-10-03 . Consultado el 3 de enero de 2017 .
- ^ Devereaux, Ryan; Emmons, Alex (3 de octubre de 2016). "Obama se preocupa de que los futuros presidentes libren una guerra perpetua y encubierta con aviones no tripulados" . La intercepción . Consultado el 3 de enero de 2017 .
- ^ Stefanik, Elise M. (22 de mayo de 2018). "HR5356 - 115º Congreso (2017-2018): Ley de inteligencia artificial de la Comisión de Seguridad Nacional de 2018" . www.congress.gov . Consultado el 13 de marzo de 2020 .
- ^ Baum, Seth (30 de septiembre de 2018). "Contrarrestar la desinformación de la superinteligencia" . Información . 9 (10): 244. doi : 10.3390 / info9100244 . ISSN 2078-2489 .
- ^ Estados Unidos. Junta de Innovación de Defensa. Principios de la IA: recomendaciones sobre el uso ético de la inteligencia artificial por parte del Departamento de Defensa . OCLC 1126650738 .
- ^ Russell, Stuart (27 de mayo de 2015). "Adopte una postura sobre las armas de IA" . Revista Semanal Internacional de Ciencias . 521 .
- ^ Sharkey, Noel E. (junio de 2012). "La evitabilidad de la guerra de robots autónomos *" . Revista Internacional de la Cruz Roja . 94 (886): 787–799. doi : 10.1017 / S1816383112000732 . ISSN 1816-3831 .
- ^ Müller, Vincent C. (2016). "Los robots asesinos autónomos son probablemente una buena noticia" . Ashgate. págs. 67–81.
- ^ a b Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. (1 de marzo de 2020). "El futuro de la guerra: ¿podrían las armas autónomas letales hacer que los conflictos sean más éticos?" . AI y sociedad . 35 (1): 273–282. doi : 10.1007 / s00146-019-00879-x . hdl : 2318/1699364 . ISSN 1435-5655 . S2CID 59606353 .
- ^ Umbrello, Steven; Wood, Nathan Gabriel (20 de abril de 2021). "Sistemas autónomos de armas y la naturaleza contextual del estado fuera de combate" . Información . 12 (5): 216. doi : 10.3390 / info12050216 .
- ^ Nyagudi, Nyagudi Musandu (9 de diciembre de 2016). "Tesis de Doctorado en Filosofía en Informática Militar (OpenPhD #openphd): Se diseña y / o recesiva la autonomía letal de las armas" . Consultado el 6 de enero de 2017 .
- ^ Simpson, Thomas W; Müller, Vincent C. (2016). "Sólo guerra y asesinatos de robots" . Philosophical Quarterly . 66 (263): 302–22. doi : 10.1093 / pq / pqv075 .
- ^ "Musk, Hawking advierten de armas de inteligencia artificial" . Blogs de WSJ: dígitos . 2015-07-27 . Consultado el 28 de julio de 2015 .
- ^ Gibbs, Samuel (27 de julio de 2015). "Musk, Wozniak y Hawking instan a la prohibición de la IA de guerra y las armas autónomas" . The Guardian . Consultado el 28 de julio de 2015 .
- ^ a b "Decisiones mortales - 8 objeciones a los robots asesinos" (PDF) . pag. 10 . Consultado el 2 de diciembre de 2016 .
- ^ "Portada" . Prohibir las armas autónomas letales . 2017-11-10 . Consultado el 9 de junio de 2018 .
- ^ "La Santa Sede renueva el llamamiento para prohibir los robots asesinos" . Agencia Católica de Noticias . Consultado el 30 de noviembre de 2018 .
- ^ a b Gayle, Damien (29 de marzo de 2019). "Reino Unido, Estados Unidos y Rusia entre los que se oponen a la prohibición de los robots asesinos" . el guardián . Consultado el 30 de marzo de 2019 .
- ^ Bento, Lucas (2017). "No Mere Deodands: Responsabilidades humanas en el uso de sistemas inteligentes violentos en el derecho internacional público" . Depositario de Becas de Harvard . Consultado el 14 de septiembre de 2019 .
- ^ Geist, Edward Moore (15 de agosto de 2016). "Ya es demasiado tarde para detener la carrera de armamentos de la IA; debemos gestionarla en su lugar". Boletín de los científicos atómicos . 72 (5): 318–321. Código Bibliográfico : 2016BuAtS..72e.318G . doi : 10.1080 / 00963402.2016.1216672 . ISSN 0096-3402 . S2CID 151967826 .
- ^ Maas, Matthijs M. (6 de febrero de 2019). "¿Cuán viable es el control internacional de armas para la inteligencia artificial militar? Tres lecciones de las armas nucleares". Política de seguridad contemporánea . 40 (3): 285–311. doi : 10.1080 / 13523260.2019.1576464 . ISSN 1352-3260 . S2CID 159310223 .
- ^ Ekelhof, Merel (2019). "Más allá de la semántica de las armas autónomas: control humano significativo en funcionamiento" . Política global . 10 (3): 343–348. doi : 10.1111 / 1758-5899.12665 . ISSN 1758-5899 .
- ^ Umbrello, Steven (5 de abril de 2021). "Acoplamiento de niveles de abstracción en la comprensión del control humano significativo de armas autónomas: un enfoque de dos niveles" . Ética y Tecnología de la Información . doi : 10.1007 / s10676-021-09588-w . ISSN 1572-8439 .
Otras lecturas
- Heyns, Christof (2013), 'Informe del Relator Especial sobre ejecuciones extrajudiciales, sumarias o arbitrarias', Asamblea General de la ONU, Consejo de Derechos Humanos, 23 (3), A / HRC / 23/47.
- Krishnan, Armin (2009), Robots asesinos: legalidad y ética de las armas autónomas (Aldershot: Ashgate)
- Müller, Vincent C. (2016), 'Los robots asesinos autónomos son probablemente una buena noticia' , en Ezio Di Nucci y Filippo Santoni de Sio (eds.), Drones y responsabilidad: perspectivas legales, filosóficas y socio-técnicas sobre el uso de armas controladas, 67-81 (Londres: Ashgate).
- La campaña de Stuart Russell contra las LEYES
- Sharkey, Noel E (2012), 'Automatización de la guerra: lecciones aprendidas de los drones', Journal of Law, Information & Science , 21 (2).
- Simpson, Thomas W y Müller, Vincent C. (2016), 'Guerra justa y asesinatos de robots' , The Philosophical Quarterly 66 (263), 302–22.
- Singer, Peter (2009), Wired for war: La revolución y el conflicto de la robótica en el siglo XXI (Nueva York: Penguin)
- Departamento de Defensa de EE. UU. (2012), 'Directiva 3000.09, Autonomía en sistemas de armas'.
. - Departamento de Defensa de EE. UU. (2013), 'Hoja de ruta integrada de sistemas no tripulados FY2013-2038'. < http://www.defense.gov/pubs/DOD-USRM-2013.pdf%3E .
- Seminario sobre la ética de los sistemas de armas autónomos (2014) en UPenn < https://www.law.upenn.edu/institutes/cerl/conferences/ethicsofweapons/schedule-required-readings.php >