Una carrera de armamentos de inteligencia artificial militar es una competencia o carrera de armamentos entre dos o más estados para que sus fuerzas militares estén equipadas con la mejor inteligencia artificial (IA). Desde mediados de la década de 2010, muchos analistas han notado el surgimiento de una carrera armamentista global, la Carrera de Armamentos de la IA , entre grandes potencias para una mejor IA militar, coincidiendo con las crecientes tensiones geopolíticas y militares de la Segunda Guerra Fría y siendo impulsadas por ellas . [1] [2]
Carrera armamentista de IA | |||||||
---|---|---|---|---|---|---|---|
Parte de la era posterior a la Guerra Fría y la Segunda Guerra Fría | |||||||
![]() Un arma autónoma letal Corax de BAE Systems | |||||||
| |||||||
Principales competidores | |||||||
| |||||||
Comandantes y líderes | |||||||
| |||||||
Operaciones notables | |||||||
| |||||||
Costos |
Terminología
En términos más generales, cualquier competencia por una inteligencia artificial superior a veces se enmarca como una "carrera armamentista". [3] [4] La búsqueda del dominio de la IA militar se superpone con la búsqueda del dominio en otros sectores, especialmente cuando un país persigue ventajas tanto económicas como militares. [5]
Riesgos
Stephen Cave, del Leverhulme Center, argumenta que los riesgos de una carrera de IA son triples, con el primer riesgo potencialmente teniendo implicaciones geopolíticas, y los dos segundos definitivamente teniendo implicaciones geopolíticas. El primer riesgo es que incluso si no hubiera una carrera, la terminología que rodea a la carrera es peligrosa. La retórica en torno a la carrera de la IA y la importancia de ser el primero no fomenta el tipo de deliberación reflexiva con las partes interesadas que se requiere para producir tecnología de IA que sea la más ampliamente beneficiosa para la sociedad [6] y que podría inducir una carrera de forma autocumplida. [6] [7]
El segundo riesgo es la carrera de la IA en sí, ya sea que la gane un grupo o no. Debido a la retórica y la ventaja percibida de ser el primero en desarrollar tecnología avanzada de inteligencia artificial, surgen fuertes incentivos para tomar atajos en las consideraciones de seguridad que podrían dejar de lado aspectos importantes como el sesgo y la justicia. [6] En particular, la percepción de que otro equipo está al borde de una ruptura anima a otros equipos a tomar atajos y desplegar un sistema de IA que no está listo, lo que puede ser perjudicial para otros y para el grupo que posee el sistema de IA. [8] [7] Como advierte Paul Scharre en Foreign Policy , "Para cada país, el peligro real no es que se quede atrás de sus competidores en IA, sino que la percepción de una carrera hará que todos se apresuren a implementar sistemas de IA inseguros. . En su deseo de ganar, los países corren el riesgo de ponerse en peligro tanto como sus oponentes ". [7] Nick Bostrom y otros desarrollaron un modelo que proporciona más pruebas de ello. El modelo descubrió que un equipo que poseía más información sobre las capacidades de otros equipos provocaba más riesgos y atajos en el desarrollo de sistemas de IA. Además, cuanto mayor sea la enemistad entre los equipos, mayor será el riesgo de ignorar las precauciones y provocar un desastre de IA. [8] Otro peligro de una carrera armamentista de IA es el riesgo de perder el control de los sistemas de IA y el riesgo se agrava en el caso de una carrera hacia la inteligencia artificial general, que Cave señaló que puede presentar un riesgo existencial . [6]
El tercer riesgo de una carrera armamentista de IA es si la carrera la gana realmente un grupo. Un ejemplo de este riesgo es la consolidación del poder y la ventaja tecnológica en manos de un grupo. [6] Si un grupo logra una tecnología de IA superior "[i] s sólo es razonable concluir que las capacidades habilitadas por IA podrían usarse para amenazar nuestra infraestructura crítica, amplificar campañas de desinformación y librar la guerra". [9] : 1
La terminología de la carrera armamentista también se utiliza a veces en el contexto de la competencia por el dominio económico y el " poder blando "; por ejemplo, el 'Informe provisional' de noviembre de 2019 de la Comisión de Seguridad Nacional de Inteligencia Artificial de los Estados Unidos, al tiempo que enfatiza el papel de la diplomacia en la interacción con China y Rusia, adopta el lenguaje de una carrera armamentista competitiva. [10] Afirma que la superioridad militar-tecnológica de Estados Unidos es vital para el orden mundial existente [9] : 11 y enfatiza que la militarización actual de la IA por parte de EE. UU., Junto con la militarización de la IA por parte de China y Rusia, tiene fines geopolíticos. [9] : 1-2
Posturas hacia la inteligencia artificial militar
Rusia
El general ruso Viktor Bondarev , comandante en jefe de la fuerza aérea rusa, declaró que ya en febrero de 2017, Rusia estaba trabajando en misiles guiados por IA que podrían decidir cambiar de objetivo en pleno vuelo. [11] El Comité Industrial Militar de Rusia ha aprobado planes para derivar el 30 por ciento del poder de combate de Rusia de plataformas robóticas controladas a distancia y habilitadas por IA para 2030. [1] Los informes de los medios rusos patrocinados por el estado sobre los posibles usos militares de la IA aumentaron a mediados de 2017. [12] En mayo de 2017, el CEO del Grupo Kronstadt de Rusia, un contratista de defensa, declaró que "ya existen sistemas operativos de IA completamente autónomos que proporcionan los medios para que los clústeres de UAV cumplan misiones de forma autónoma, compartan tareas e interactúen ", y que es inevitable que algún día" enjambres de drones "sobrevolen las zonas de combate. [13] Rusia ha estado probando varios sistemas de combate autónomos y semiautónomos, como el módulo de combate de "red neuronal" de Kalashnikov , con una ametralladora, una cámara y una IA que sus creadores afirman que puede hacer sus propios juicios de objetivos sin Intervención humana. [14]
En septiembre de 2017, durante un discurso del Día Nacional del Conocimiento ante más de un millón de estudiantes en 16.000 escuelas rusas, el presidente ruso Vladimir Putin declaró: "La inteligencia artificial es el futuro, no solo para Rusia sino para toda la humanidad ... Quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo ". Putin también dijo que sería mejor evitar que un solo actor logre un monopolio, pero que si Rusia se convirtiera en el líder en inteligencia artificial, compartirían su "tecnología con el resto del mundo, como lo estamos haciendo ahora con la tecnología atómica y nuclear". . [15] [16] [17]
Rusia está estableciendo una serie de organizaciones dedicadas al desarrollo de la IA militar. En marzo de 2018, el gobierno ruso lanzó una agenda de inteligencia artificial de 10 puntos, que exige el establecimiento de un consorcio de inteligencia artificial y Big Data, un fondo para programas y algoritmos analíticos, un programa de capacitación y educación de inteligencia artificial respaldado por el estado, un laboratorio de inteligencia artificial dedicado. y un Centro Nacional de Inteligencia Artificial, entre otras iniciativas. [18] Además, Rusia creó recientemente una organización de investigación de defensa, aproximadamente equivalente a DARPA, dedicada a la autonomía y la robótica llamada Fundación para Estudios Avanzados, e inició una conferencia anual sobre "Robotización de las Fuerzas Armadas de la Federación Rusa". [19] [20]
El ejército ruso ha estado investigando una serie de aplicaciones de inteligencia artificial, con un gran énfasis en vehículos semiautónomos y autónomos. En una declaración oficial el 1 de noviembre de 2017, Viktor Bondarev, presidente del Comité de Defensa y Seguridad del Consejo de la Federación, declaró que "la inteligencia artificial podrá reemplazar a un soldado en el campo de batalla y a un piloto en la cabina de un avión" y luego señaló que "Se acerca el día en que los vehículos obtendrán inteligencia artificial". [21] Bondarev hizo estos comentarios muy cerca de la prueba exitosa de Nerehta, un vehículo terrestre ruso sin tripulación que, según se informa, "superó a los vehículos de combate [con tripulación] existentes". Rusia planea usar Nerehta como una plataforma de investigación y desarrollo para IA y algún día puede implementar el sistema en funciones de combate, recopilación de inteligencia o logística. [22] Según se informa, Rusia también ha construido un módulo de combate para vehículos terrestres sin tripulación que es capaz de identificación autónoma de objetivos y, potencialmente, participación de objetivos, y planea desarrollar un conjunto de sistemas autónomos habilitados para IA. [23] [24] [20]
Además, el ejército ruso planea incorporar IA en vehículos aéreos, navales y submarinos sin tripulación y actualmente está desarrollando capacidades de enjambre. [19] También está explorando usos innovadores de la inteligencia artificial para la teledetección y la guerra electrónica, incluidos los saltos de frecuencia adaptativos, las formas de onda y las contramedidas. [25] [26] Rusia también ha hecho un uso extensivo de las tecnologías de inteligencia artificial para la propaganda y la vigilancia nacionales, así como para las operaciones de información dirigidas contra los Estados Unidos y sus aliados. [27] [28] [20]
El gobierno ruso ha rechazado enérgicamente cualquier prohibición de los sistemas de armas autónomos letales , lo que sugiere que tal prohibición podría ignorarse. [29] [30]
porcelana
China está siguiendo una política estratégica de "fusión militar-civil" en IA para la supremacía tecnológica global. [9] [31] Según un informe de febrero de 2019 de Gregory C. Allen del Centro para una Nueva Seguridad Estadounidense , el liderazgo de China , incluido el líder supremo Xi Jinping , cree que estar a la vanguardia en tecnología de inteligencia artificial es fundamental para el futuro de la competencia mundial por el poder económico y militar. [5] Los oficiales militares chinos han dicho que su objetivo es incorporar tecnología de inteligencia artificial comercial para "reducir la brecha entre el ejército chino y las potencias avanzadas globales". [5] Los estrechos vínculos entre Silicon Valley y China, y la naturaleza abierta de la comunidad de investigación estadounidense, han hecho que la tecnología de inteligencia artificial más avanzada de Occidente esté fácilmente disponible para China; Además, la industria china tiene numerosos logros propios de IA de cosecha propia, como que Baidu aprobó un notable punto de referencia de capacidad de reconocimiento de voz en chino en 2015. [32] A partir de 2017, la hoja de ruta de Beijing apunta a crear una industria de IA de $ 150 mil millones por 2030. [33] Antes de 2013, las adquisiciones de defensa de China se limitaban principalmente a unos pocos conglomerados; sin embargo, a partir de 2017, China a menudo obtiene tecnología emergente sensible, como drones e inteligencia artificial, de empresas privadas de nueva creación. [34] Un estado chino se ha comprometido a invertir $ 5 mil millones en IA. Beijing ha comprometido $ 2 mil millones para un parque de desarrollo de inteligencia artificial. [35] El Japan Times informó en 2018 que la inversión privada china anual en IA es inferior a $ 7 mil millones por año. Las nuevas empresas de IA en China recibieron casi la mitad de la inversión global total en nuevas empresas de IA en 2017; los chinos solicitaron casi cinco veces más patentes de IA que los estadounidenses. [36]
China publicó un documento de posición en 2016 cuestionando la idoneidad del derecho internacional existente para abordar la eventualidad de armas totalmente autónomas, convirtiéndose en el primer miembro permanente del Consejo de Seguridad de la ONU en abordar el tema. [37] En 2018, Xi pidió una mayor cooperación internacional en la investigación básica de IA. [38] Los funcionarios chinos han expresado su preocupación de que la IA, como los drones, pueda conducir a una guerra accidental, especialmente en ausencia de normas internacionales. [39] En 2019, el exsecretario de Defensa de los Estados Unidos, Mark Esper, arremetió contra China por vender drones capaces de acabar con la vida sin supervisión humana. [40]
Estados Unidos
En 2014, el exsecretario de Defensa Chuck Hagel postuló la " Tercera estrategia de compensación " de que los rápidos avances en inteligencia artificial definirán la próxima generación de guerra. [41] Según la firma de análisis y ciencia de datos Govini, el Departamento de Defensa de EE . UU . Aumentó la inversión en inteligencia artificial, big data y computación en la nube de $ 5.6 mil millones en 2011 a $ 7.4 mil millones en 2016. [42] Sin embargo, el presupuesto civil de NSF para IA no experimentó ningún aumento en 2017. [33] Japan Times informó en 2018 que la inversión privada de los Estados Unidos es de alrededor de $ 70 mil millones por año. [36] El 'Informe provisional' de noviembre de 2019 de la Comisión de Seguridad Nacional de Inteligencia Artificial de los Estados Unidos confirmó que la IA es fundamental para la superioridad militar tecnológica de Estados Unidos. [9]
Estados Unidos tiene muchos programas militares de combate de IA, como el buque de guerra autónomo Sea Hunter , que está diseñado para operar durante períodos prolongados en el mar sin un solo miembro de la tripulación, e incluso para guiarse dentro y fuera del puerto. [14] A partir de 2017, una directiva temporal del Departamento de Defensa de los EE. UU. Requiere que un operador humano se mantenga informado cuando se trata de la eliminación de vidas humanas mediante sistemas de armas autónomos. [43] El 31 de octubre de 2019, la Junta de Innovación de Defensa del Departamento de Defensa de los Estados Unidos publicó el borrador de un informe recomendando principios para el uso ético de la inteligencia artificial por parte del Departamento de Defensa que garantizaría que un operador humano siempre pudiera mirar en la 'caja negra' y comprender el proceso de la cadena de muerte . Sin embargo, una preocupación importante es cómo se implementará el informe. [44]
Project Maven es un proyecto del Pentágono que implica el uso de aprendizaje automático y talento de ingeniería para distinguir personas y objetos en videos de drones, [45] aparentemente dando al gobierno comando y control en el campo de batalla en tiempo real, y la capacidad de rastrear, etiquetar y espiar objetivos sin humanos. intervención. Según se informa, no llega a actuar como un sistema de armas de IA capaz de disparar contra objetivos autodesignados. [46] El proyecto fue establecido en un memorando del Subsecretario de Defensa de EE. UU. El 26 de abril de 2017. [47] También conocido como Equipo Funcional Cruzado de Guerra Algorítmica, [48] lo es, según el Teniente General de las Naciones Unidas La Fuerza Aérea de Estados Unidos Jack Shanahan en noviembre de 2017, un proyecto "diseñado para ser ese proyecto piloto, ese pionero, esa chispa que enciende el frente de fuego de la inteligencia artificial en el resto del Departamento [de Defensa]". [49] Su jefe, el coronel del Cuerpo de Marines de los Estados Unidos Drew Cukor, dijo: "Las personas y las computadoras trabajarán simbióticamente para aumentar la capacidad de los sistemas de armas para detectar objetos". [50] En la segunda Cumbre de Defense One Tech en julio de 2017, Cukor también dijo que la inversión en un "proceso de flujo de trabajo deliberado" fue financiada por el Departamento [de Defensa] a través de sus "autoridades de adquisición rápida" durante aproximadamente "los próximos 36 meses ". [51]
Reino Unido
En 2015, el gobierno del Reino Unido se opuso a la prohibición de armas autónomas letales, afirmando que "el derecho internacional humanitario ya proporciona suficiente regulación para esta área", pero que todas las armas empleadas por las fuerzas armadas del Reino Unido estarían "bajo supervisión y control humanos". [52]
Israel
El dron anti-radar Harpy de Israel "dispara y olvida" está diseñado para ser lanzado por tropas terrestres y volar de forma autónoma sobre un área para encontrar y destruir un radar que se ajuste a criterios predeterminados. [53] También se espera que la aplicación de inteligencia artificial avance en sistemas terrestres sin tripulación y vehículos robóticos como el Guardium MK III y versiones posteriores. [54] Estos vehículos robóticos se utilizan en la defensa fronteriza.
Corea del Sur
La ametralladora surcoreana Super aEgis II , presentada en 2010, se utiliza tanto en Corea del Sur como en Oriente Medio. Puede identificar, rastrear y destruir un objetivo en movimiento a una distancia de 4 km. Si bien la tecnología puede funcionar teóricamente sin intervención humana, en la práctica se instalan salvaguardas para requerir entrada manual. Un fabricante de Corea del Sur afirma: "Nuestras armas no duermen, como deben hacerlo los humanos. Pueden ver en la oscuridad, como los humanos no pueden. Por lo tanto, nuestra tecnología cubre las brechas en la capacidad humana", y quieren "llegar a un lugar donde nuestro software puede discernir si un objetivo es amigo, enemigo, civil o militar ". [55]
Unión Europea
El Parlamento Europeo sostiene la posición de que los seres humanos deben tener poder de supervisión y toma de decisiones sobre las armas autónomas letales. [56] Sin embargo, depende de cada estado miembro de la Unión Europea determinar su postura sobre el uso de armas autónomas y las posturas mixtas de los estados miembros es quizás el mayor obstáculo para la capacidad de la Unión Europea para desarrollar armas autónomas. Algunos miembros como Francia, Alemania, Italia y Suecia están desarrollando armas autónomas letales. Algunos miembros siguen indecisos sobre el uso de armas militares autónomas y Austria incluso ha pedido que se prohíba el uso de tales armas. [57]
Algunos estados miembros de la UE han desarrollado y están desarrollando armas automatizadas. Alemania ha desarrollado un sistema de protección activa , el Active Defense System, que puede responder a una amenaza con total autonomía en menos de un milisegundo. [57] [58] Italia planea incorporar sistemas de armas autónomos en sus futuros planes militares. [57]
Tendencias
Según Siemens , el gasto militar mundial en robótica fue de 5.100 millones de dólares en 2010 y 7.500 millones de dólares en 2015. [59] [60]
China se convirtió en un actor destacado en la investigación de inteligencia artificial en la década de 2010. Según el Financial Times , en 2016, por primera vez, China publicó más artículos sobre inteligencia artificial que toda la Unión Europea. Cuando se limitó a la cantidad de artículos de IA en el 5% superior de los artículos citados, China superó a Estados Unidos en 2016, pero se quedó atrás de la Unión Europea. [33] El 23% de los investigadores que se presentaron en la conferencia de la Asociación Estadounidense para el Avance de la Inteligencia Artificial (AAAI) de 2017 eran chinos. [61] Eric Schmidt , ex presidente de Alphabet , ha pronosticado que China será el país líder en IA para 2025. [62]
País | en 2012 | en 2017 |
---|---|---|
nosotros | 41% | 34% |
porcelana | 10% | 23% |
Reino Unido | 5% | 5% |
Propuestas de regulación internacional
La regulación internacional de armas autónomas es un tema emergente para el derecho internacional. [63] El control de armas de AI probablemente requerirá la institucionalización de nuevas normas internacionales incorporadas en especificaciones técnicas efectivas combinadas con un monitoreo activo y diplomacia informal por parte de comunidades de expertos, junto con un proceso de verificación legal y política. [1] [2] Ya en 2007, académicos como el profesor de inteligencia artificial Noel Sharkey advirtieron sobre "una carrera armamentista emergente entre las naciones de alta tecnología para desarrollar submarinos autónomos, aviones de combate, acorazados y tanques que puedan encontrar sus propios objetivos y aplicar fuerza violenta sin la participación de decisiones humanas significativas ". [64] [65] En 2014, el especialista en inteligencia artificial Steve Omohundro advirtió que "ya se está llevando a cabo una carrera armamentista autónoma". [66] Miles Brundage, de la Universidad de Oxford, ha argumentado que una carrera armamentista de IA podría mitigarse de alguna manera a través de la diplomacia: "Vimos en las diversas carreras armamentistas históricas que la colaboración y el diálogo pueden generar dividendos". [67] Más de un centenar de expertos firmaron una carta abierta en 2017 pidiendo a la ONU que aborde el tema de las armas autónomas letales; [68] [69] sin embargo, en una sesión de noviembre de 2017 de la Convención de la ONU sobre ciertas armas convencionales (CCW), los diplomáticos no pudieron ponerse de acuerdo ni siquiera sobre cómo definir tales armas. [70] El embajador indio y presidente de la CCW declaró que el acuerdo sobre las reglas seguía siendo una perspectiva lejana. A partir de 2017, veintidós países han pedido una prohibición total de las armas autónomas letales. [71]
Muchos expertos creen que es probable que fracasen los intentos de prohibir por completo los robots asesinos. [72] Un informe de 2017 del Centro Belfer de Harvard predice que la IA tiene el potencial de ser tan transformadora como las armas nucleares. [67] [73] [74] El informe sostiene además que "Prevenir el uso militar ampliado de la IA es probablemente imposible" y que "se debe perseguir el objetivo más modesto de una gestión de tecnología segura y eficaz", como prohibir la instalación de un El cambio de AI hombre muerto a un arsenal nuclear. [74] Parte de la impracticabilidad es que detectar las violaciones de los tratados sería extremadamente difícil. [75] [76]
Otras reacciones a las armas autónomas
Un 2015 carta abierta pidiendo la prohibición de sistemas de armas automáticas letales ha sido firmado por decenas de miles de ciudadanos, incluidos los estudiosos como el físico Stephen Hawking , Tesla magnate Elon Musk , y de Apple 's Steve Wozniak . [70]
El profesor Noel Sharkey de la Universidad de Sheffield ha advertido que las armas autónomas caerán inevitablemente en manos de grupos terroristas como el Estado Islámico . [77]
Disociación
Muchas empresas de tecnología occidentales desconfían de estar asociadas demasiado estrechamente con el ejército estadounidense, por temor a perder el acceso al mercado chino. [32] Por otra parte, algunos investigadores, como DeepMind 's Demis Hassabis , se oponen ideológicamente a contribuir al trabajo militar. [78]
Por ejemplo, en junio de 2018, fuentes de la empresa en Google dijeron que la alta ejecutiva Diane Greene le dijo al personal que la empresa no haría un seguimiento del Proyecto Maven después de que el contrato actual expirara en marzo de 2019 [45].
Ver también
- Carrera de armamentos
- Inteligencia artificial
- Era posterior a la Guerra Fría
- Inteligencia artificial general
- Ética de la inteligencia artificial
- Guerra Fría
- Segunda Guerra Fría
- Carrera en el espacio
- Carrera de armamentos nucleares
- Riesgo existencial de la inteligencia artificial general
- Problema global
- Arma autónoma letal
- Robot militar
- Vehículo aéreo de combate no tripulado
Referencias
- ↑ a b Geist, Edward Moore (15 de agosto de 2016). "Ya es demasiado tarde para detener la carrera de armamentos de la IA; debemos gestionarla en su lugar". Boletín de los científicos atómicos . 72 (5): 318–321. Código Bibliográfico : 2016BuAtS..72e.318G . doi : 10.1080 / 00963402.2016.1216672 . ISSN 0096-3402 .
- ^ a b Maas, Matthijs M. (6 de febrero de 2019). "¿Cuán viable es el control internacional de armas para la inteligencia artificial militar? Tres lecciones de las armas nucleares". Política de seguridad contemporánea . 40 (3): 285–311. doi : 10.1080 / 13523260.2019.1576464 . ISSN 1352-3260 .
- ^ Roff, Heather M. (26 de abril de 2019). "El problema del marco: la" carrera armamentista "de la IA no es una". Boletín de los científicos atómicos . 75 (3): 95–98. Código bibliográfico : 2019BuAtS..75c..95R . doi : 10.1080 / 00963402.2019.1604836 . ISSN 0096-3402 .
- ^ "Para Google, una ventaja en la carrera armamentista de inteligencia artificial" . Fortuna . 2014 . Consultado el 11 de abril de 2020 .
- ^ a b c Allen, Gregory. "Comprensión de la estrategia de inteligencia artificial de China" . Centro para una nueva seguridad estadounidense . Centro para una nueva seguridad estadounidense . Consultado el 15 de marzo de 2019 .
- ^ a b c d e Cave, Stephen; ÓhÉigeartaigh, Seán S. (2018). "Una carrera de IA para una ventaja estratégica" . Actas de la Conferencia AAAI / ACM 2018 sobre inteligencia artificial, ética y sociedad - AIES '18 . Nueva York, Nueva York, EE.UU .: ACM Press: 2. doi : 10.1145 / 3278721.3278780 . ISBN 978-1-4503-6012-8.
- ^ a b c Scharre, Paul (18 de febrero de 2020). "Aplicaciones asesinas: los peligros reales de una carrera armamentista de IA" . Consultado el 15 de marzo de 2020 .
- ^ a b Armstrong, Stuart; Bostrom, Nick; Shulman, Carl (1 de agosto de 2015). "Corriendo hacia el precipicio: un modelo de desarrollo de inteligencia artificial". AI y sociedad . 31 (2): 201–206. doi : 10.1007 / s00146-015-0590-y . ISSN 0951-5666 .
- ^ a b c d e Informe provisional . Washington, DC: Comisión de Seguridad Nacional sobre Inteligencia Artificial. 2019.
- ^ Pascal, Tim Hwang, Alex. "La inteligencia artificial no es una carrera armamentista" . Política exterior . Consultado el 7 de abril de 2020 .
- ^ "Rusia está construyendo un misil que puede tomar sus propias decisiones" . Newsweek . 20 de julio de 2017 . Consultado el 24 de diciembre de 2017 .
- ^ "Por qué Elon Musk tiene razón sobre la amenaza que representa la inteligencia artificial rusa" . The Independent . 6 de septiembre de 2017 . Consultado el 24 de diciembre de 2017 .
- ^ "Rusia está desarrollando" enjambres autónomos de drones "que llama una parte inevitable de la guerra futura" . Newsweek . 15 de mayo de 2017 . Consultado el 24 de diciembre de 2017 .
- ^ a b Smith, Mark (25 de agosto de 2017). "¿La guerra del 'robot asesino' está más cerca de lo que pensamos?" . BBC News . Consultado el 24 de diciembre de 2017 .
- ^ "La inteligencia artificial impulsa una nueva carrera armamentista mundial" . CON CABLE . Consultado el 24 de diciembre de 2017 .
- ^ Clifford, Catherine (29 de septiembre de 2017). "De la misma manera que hubo una carrera de armamentos nucleares, habrá una carrera para construir IA, dice el ejecutivo de tecnología" . CNBC . Consultado el 24 de diciembre de 2017 .
- ^ Radina Gigova (2 de septiembre de 2017). "Quién piensa Vladimir Putin gobernará el mundo" . CNN . Consultado el 22 de marzo de 2020 .
- ^ "Así es como se está organizando el ejército ruso para desarrollar la IA" . Defensa uno . Consultado el 1 de mayo de 2020 .
- ^ a b "Red Robots Rising: Detrás del rápido desarrollo de los sistemas militares no tripulados rusos" . El puente estratégico . Consultado el 1 de mayo de 2020 .
- ^ a b c Servicio de Investigación del Congreso (2019). Inteligencia artificial y seguridad nacional (PDF) . Washington, DC: Inteligencia artificial y seguridad nacional.
Este artículo incorpora texto de esta fuente, que es de dominio público .
- ^ Bendett, Samuel (8 de noviembre de 2017). "¿Debería el ejército estadounidense temer a los robots asesinos de Rusia?" . El interés nacional . Consultado el 1 de mayo de 2020 .
- ^ "Rusia dice que desplegará un tanque robot que supera a los humanos" . Defensa uno . Consultado el 1 de mayo de 2020 .
- ^ Greene, Tristan (27 de julio de 2017). "Rusia está desarrollando misiles de IA para dominar la nueva carrera armamentista" . La próxima web . Consultado el 1 de mayo de 2020 .
- ^ Mizokami, Kyle (19 de julio de 2017). "Kalashnikov hará un robot asesino impulsado por IA" . Mecánica popular . Consultado el 1 de mayo de 2020 .
- ^ Dougherty, Jill; Jay, Molly. "Rusia intenta ser inteligente sobre la inteligencia artificial" . Wilson Quarterly .
- ^ "Combate ruso habilitado por IA: ¿Vienes a una ciudad cercana a ti?" . Guerra contra las rocas . 2019-07-31 . Consultado el 1 de mayo de 2020 .
- ^ Polyakova, Alina (15 de noviembre de 2018). "Armas de los débiles: Rusia y la guerra asimétrica impulsada por la IA" . Brookings . Consultado el 1 de mayo de 2020 .
- ^ Polyakova, Chris Meserole, Alina. "Guerras de desinformación" . Política exterior . Consultado el 1 de mayo de 2020 .
- ^ "Rusia rechaza la posible prohibición de los 'robots asesinos' de la ONU, dice un comunicado oficial" . Institución de Ingeniería y Tecnología . 1 de diciembre de 2017 . Consultado el 12 de enero de 2018 .
- ^ "Examen de las diversas dimensiones de las tecnologías emergentes en el ámbito de los sistemas de armas autónomos letales, Federación de Rusia, noviembre de 2017" (PDF) . Consultado el 12 de enero de 2018 .
- ^ "Tecnología, comercio y fusión militar-civil: búsqueda de China de inteligencia artificial, nuevos materiales y nueva energía | EE.UU.- CHINA | COMISIÓN DE REVISIÓN ECONÓMICA y DE SEGURIDAD" . www.uscc.gov . Consultado el 4 de abril de 2020 .
- ^ a b Markoff, John; Rosenberg, Matthew (3 de febrero de 2017). "El armamento inteligente de China se vuelve más inteligente" . The New York Times . Consultado el 24 de diciembre de 2017 .
- ^ a b c "China busca el dominio de la industria mundial de la IA" . Financial Times . 15 de octubre de 2017 . Consultado el 24 de diciembre de 2017 .
- ^ "China alista a las empresas emergentes en la carrera armamentista de alta tecnología" . Financial Times . 9 de julio de 2017 . Consultado el 24 de diciembre de 2017 .
- ^ Metz, Cade (12 de febrero de 2018). "Mientras China avanza sobre la inteligencia artificial, la Casa Blanca está en silencio" . The New York Times . Consultado el 14 de febrero de 2018 .
- ^ a b "La carrera de la inteligencia artificial se calienta" . The Japan Times . 1 de marzo de 2018 . Consultado el 5 de marzo de 2018 .
- ^ "Robots con armas: el auge de los sistemas de armas autónomos" . Snopes.com . 21 de abril de 2017 . Consultado el 24 de diciembre de 2017 .
- ^ Pecotic, Adrian (2019). "Quien predice el futuro ganará la carrera armamentista de IA" . Política exterior . Consultado el 16 de julio de 2019 .
- ^ Vincent, James (6 de febrero de 2019). "A China le preocupa que una carrera armamentista de IA pueda conducir a una guerra accidental" . The Verge . Consultado el 16 de julio de 2019 .
- ^ "¿China está exportando robots asesinos a Medio Oriente?" . Asia Times . 2019-11-28 . Consultado el 21 de diciembre de 2019 .
- ^ "EE.UU. corre el riesgo de perder la carrera armamentista de IA frente a China y Rusia" . CNN . 29 de noviembre de 2017 . Consultado el 24 de diciembre de 2017 .
- ^ Davenport, Christian (3 de diciembre de 2017). "Las guerras futuras pueden depender tanto de algoritmos como de municiones, dice el informe" . Washington Post . Consultado el 24 de diciembre de 2017 .
- ^ "El general estadounidense advierte sobre robots asesinos fuera de control" . CNN . 18 de julio de 2017 . Consultado el 24 de diciembre de 2017 .
- ^ Estados Unidos. Junta de Innovación de Defensa. Principios de la IA: recomendaciones sobre el uso ético de la inteligencia artificial por parte del Departamento de Defensa . OCLC 1126650738 .
- ^ a b "Google 'para finalizar' proyecto de inteligencia artificial del Pentágono" . BBC News . 2 de junio de 2018 . Consultado el 3 de junio de 2018 .
- ^ "Informe: Palantir se hizo cargo del Proyecto Maven, el programa de inteligencia artificial militar demasiado poco ético para Google" . La próxima web . 11 de diciembre de 2020 . Consultado el 17 de enero de 2020 .
- ^ Robert O. Work (26 de abril de 2017). "Establecimiento de un equipo interfuncional de guerra algorítmica (Proyecto Maven)" (PDF) . Consultado el 3 de junio de 2018 .
- ^ "Los empleados de Google dimiten en protesta contra el Proyecto Maven de la Fuerza Aérea" . Fedscoop . 14 de mayo de 2018 . Consultado el 3 de junio de 2018 .
- ^ Allen, Gregory C. (21 de diciembre de 2017). "Project Maven trae la IA a la lucha contra ISIS" . Boletín de los científicos atómicos . Consultado el 3 de junio de 2018 .
- ^ Ethan Baron (3 de junio de 2018). "Google retrocede del proyecto del Pentágono después del alboroto: informe" . Military.com . Mercury.com . Consultado el 3 de junio de 2018 .
- ^ Cheryl Pellerin (21 de julio de 2017). "Proyecto Maven para implementar algoritmos informáticos en zona de guerra antes de fin de año" . Noticias del Departamento de Defensa, Actividad de los medios de defensa. Departamento de Defensa de los Estados Unidos . Consultado el 3 de junio de 2018 .
- ^ Gibbs, Samuel (20 de agosto de 2017). "Elon Musk lidera 116 expertos que piden la prohibición total de los robots asesinos" . The Guardian . Consultado el 24 de diciembre de 2017 .
- ^ " ' Robots asesinos': las armas autónomas plantean un dilema moral | Mundo | Últimas noticias y perspectivas de todo el mundo | DW | 14.11.2017" . DW.COM . 14 de noviembre de 2017 . Consultado el 12 de enero de 2018 .
- ^ Slocombe, Geoff (2015). "Sistemas terrestres deshabitados (Ugs)". Reportero de Defensa de Asia-Pacífico . 41 (7): 28-29.
- ^ Parkin, Simon (16 de julio de 2015). "Robots asesinos: Los soldados que nunca duermen" . BBC . Consultado el 13 de enero de 2018 .
- ^ "Textos aprobados - Sistemas de armas autónomos - Miércoles 12 de septiembre de 2018" . www.europarl.europa.eu . Consultado el 30 de enero de 2021 .
- ^ a b c Haner, Justin; García, Denise (2019). "La carrera armamentista de la inteligencia artificial: tendencias y líderes mundiales en el desarrollo autónomo de armas" . Política global . 10 (3): 331–337. doi : 10.1111 / 1758-5899.12713 . ISSN 1758-5899 .
- ^ Boulanin, Vincent; Verbruggen, Maaike (2017). Mapeo del desarrollo de la autonomía en los sistemas de armas . https://www.sipri.org/sites/default/files/2017-11/siprireport_mapping_the_development_of_autonomy_in_weapon_systems_1117_1.pdf : SIPRI. doi : 10.13140 / rg.2.2.22719.41127 .Mantenimiento de CS1: ubicación ( enlace )
- ^ "Familiarizarse con la robótica militar" . The Economist . 25 de enero de 2018 . Consultado el 7 de febrero de 2018 .
- ^ "Sistemas autónomos: Infografía" . www.siemens.com . Archivado desde el original el 7 de febrero de 2018 . Consultado el 7 de febrero de 2018 .
- ^ a b Kopf, Dan (2018). "China está cerrando rápidamente el liderazgo de Estados Unidos en la investigación de la inteligencia artificial" . Cuarzo . Consultado el 7 de febrero de 2018 .
- ^ "La batalla por la supremacía digital" . The Economist . 2018 . Consultado el 19 de marzo de 2018 .
- ^ Bento, Lucas (2017). "No Mere Deodands: Responsabilidades humanas en el uso de sistemas inteligentes violentos en el derecho internacional público" . Depositario de Becas de Harvard . Consultado el 14 de septiembre de 2019 .
- ^ "Se necesita con urgencia la prohibición de los robots asesinos, dicen los científicos" . The Guardian . 13 de noviembre de 2017 . Consultado el 24 de diciembre de 2017 .
- ^ Sharkey, Noel (17 de agosto de 2007). "Noel Sharkey: las guerras de robots son una realidad" . The Guardian . Consultado el 11 de enero de 2018 .
- ^ Markoff, John (11 de noviembre de 2014). "Temiendo bombas que pueden elegir a quién matar" . The New York Times . Consultado el 11 de enero de 2018 .
- ^ a b "AI podría revolucionar la guerra tanto como las armas nucleares" . CON CABLE . Consultado el 24 de diciembre de 2017 .
- ^ Gibbs, Samuel (20 de agosto de 2017). "Elon Musk lidera 116 expertos que piden la prohibición total de los robots asesinos" . The Guardian . Consultado el 11 de enero de 2018 .
- ^ "Carta abierta a la Convención de las Naciones Unidas sobre ciertas armas convencionales" . Instituto del Futuro de la Vida . Consultado el 14 de enero de 2018 .
- ^ a b "La rebelión de las máquinas asesinas" . Asia Times . 24 de noviembre de 2017 . Consultado el 24 de diciembre de 2017 .
- ^ " 'Los robots no están tomando el control', dice el jefe del organismo de la ONU sobre armas autónomas" . The Guardian . 17 de noviembre de 2017 . Consultado el 14 de enero de 2018 .
- ^ "Lo siento, prohibir 'Killer Robots' simplemente no es práctico" . CON CABLE . 22 de agosto de 2017 . Consultado el 14 de enero de 2018 .
- ^ McFarland, Matt (14 de noviembre de 2017). " La película ' Slaughterbots' muestra los posibles horrores de los drones asesinos" . CNNMoney . Consultado el 14 de enero de 2018 .
- ^ a b Allen, Greg y Taniel Chan. "Inteligencia artificial y seguridad nacional". Informe. Escuela Kennedy de Harvard, Universidad de Harvard. Boston, MA (2017).
- ^ Antebi, Liran. "¿Quién detendrá a los robots?" Asuntos militares y estratégicos 5.2 (2013).
- ^ Shulman, C. y Armstrong, S. (julio de 2009). Control de armas y explosiones de inteligencia. En el VII Congreso Europeo de Informática y Filosofía (ECAP), Bellaterra, España, julio (págs. 2-4).
- ^ Wheeler, Brian (30 de noviembre de 2017). "Terroristas 'seguros' de conseguir robots asesinos" . BBC News . Consultado el 24 de diciembre de 2017 .
- ^ Metz, Cade (15 de marzo de 2018). "El Pentágono quiere la ayuda de Silicon Valley en IA" The New York Times . Consultado el 19 de marzo de 2018 .
Otras lecturas
- Paul Scharre, "Aplicaciones asesinas: los peligros reales de una carrera armamentista de inteligencia artificial", Asuntos Exteriores , vol. 98, no. 3 (mayo / junio de 2019), págs. 135–44. "Las tecnologías de inteligencia artificial de hoy son poderosas pero poco confiables. Los sistemas basados en reglas no pueden lidiar con circunstancias que sus programadores no anticiparon. Los sistemas de aprendizaje están limitados por los datos en los que fueron entrenados. Las fallas de inteligencia artificial ya han llevado a una tragedia. Funciones avanzadas de piloto automático en automóviles, aunque los ddsy se desempeñan bien en algunas circunstancias, han conducido automóviles sin previo aviso contra camiones, barreras de concreto y automóviles estacionados. En la situación incorrecta, los sistemas de IA pasan de superinteligentes a superdumb en un instante. Cuando un enemigo está tratando de manipular y piratear una IA sistema, los riesgos son aún mayores ". (pág. 140.)
- La Comisión de Seguridad Nacional de Inteligencia Artificial. (2019). Informe provisional . Washington, DC: Autor.