Ética de la inteligencia artificial


La ética de la inteligencia artificial es la rama de la ética de la tecnología específica de los sistemas de inteligencia artificial . [1] A veces se divide en una preocupación por el comportamiento moral de los humanos cuando diseñan, fabrican, usan y tratan sistemas artificialmente inteligentes, y una preocupación por el comportamiento de las máquinas, en la ética de las máquinas . También incluye el problema de una posible singularidad debido a la IA superinteligente .

Ética de los robots

El término "ética de los robots" (a veces "robótica") se refiere a la moralidad de cómo los humanos diseñan, construyen, usan y tratan a los robots. [2] La ética de los robots se cruza con la ética de la IA. Los robots son máquinas físicas, mientras que la IA puede ser solo software. [3] No todos los robots funcionan a través de sistemas de IA y no todos los sistemas de IA son robots. La ética de los robots considera cómo las máquinas pueden usarse para dañar o beneficiar a los humanos, su impacto en la autonomía individual y sus efectos en la justicia social.

Ética de la máquina

La ética de las máquinas (o moralidad de las máquinas) es el campo de investigación que se ocupa del diseño de agentes morales artificiales (AMA), robots u ordenadores artificialmente inteligentes que se comporten moralmente o como si fueran morales. [4] [5] [6] [7] Para explicar la naturaleza de estos agentes, se ha sugerido considerar ciertas ideas filosóficas, como las caracterizaciones estándar de agencia , agencia racional , agencia moral y agencia artificial, que son relacionados con el concepto de AMA. [8]

Isaac Asimov consideró el tema en la década de 1950 en su Yo, Robot . Ante la insistencia de su editor John W. Campbell Jr. , propuso las Tres Leyes de la Robótica para gobernar los sistemas artificialmente inteligentes. Gran parte de su trabajo se dedicó luego a probar los límites de sus tres leyes para ver dónde se romperían o dónde crearían un comportamiento paradójico o inesperado. Su trabajo sugiere que ningún conjunto de leyes fijas puede anticipar suficientemente todas las circunstancias posibles. [9] Más recientemente, los académicos y muchos gobiernos han desafiado la idea de que la inteligencia artificial en sí misma puede ser responsable. [10] Un panel convocado por el Reino Unido en 2010 revisó las leyes de Asimov para aclarar que la IA es responsabilidad de sus fabricantes o de su propietario / operador. [11]

En 2009, durante un experimento en el Laboratorio de Sistemas Inteligentes en la Ecole Polytechnique Fédérale de Lausanne en Suiza , los robots que estaban programados para cooperar entre sí (en la búsqueda de un recurso beneficioso y evitar uno venenoso) finalmente aprendieron a mentir a cada uno. otros en un intento por acaparar el recurso beneficioso. [12]

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando dichos robots tienen cierto grado de funciones autónomas. [13] La Marina de los Estados Unidos ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debería prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. [14] [15] El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio para analizar este tema. [16] Apuntan a programas como el Dispositivo de adquisición de lenguaje que puede emular la interacción humana.

Vernor Vinge ha sugerido que puede llegar un momento en el que algunas computadoras sean más inteligentes que los humanos. Él llama a esto " la Singularidad ". [17] Sugiere que puede ser algo o posiblemente muy peligroso para los humanos. [18] Esto es discutido por una filosofía llamada Singularitarismo . El Instituto de Investigación de Inteligencia Artificial ha sugerido la necesidad de construir una " IA amigable ", lo que significa que los avances que ya están ocurriendo con la IA también deberían incluir un esfuerzo para hacer que la IA sea intrínsecamente amigable y humana. [19]

Existe un debate sobre la creación de pruebas para ver si una IA es capaz de tomar decisiones éticas . Alan Winfield concluye que la prueba de Turing tiene fallas y que el requisito para que una IA pase la prueba es demasiado bajo. [20] Una prueba alternativa propuesta es la llamada Prueba Ética de Turing, que mejoraría la prueba actual al hacer que varios jueces decidan si la decisión de la IA es ética o no. [20]

En 2009, académicos y expertos técnicos asistieron a una conferencia organizada por la Asociación para el Avance de la Inteligencia Artificial para discutir el impacto potencial de los robots y las computadoras y el impacto de la hipotética posibilidad de que pudieran volverse autosuficientes y capaces de tomar sus propias decisiones. . Discutieron la posibilidad y el grado en que las computadoras y los robots podrían adquirir algún nivel de autonomía, y hasta qué punto podrían usar tales habilidades para posiblemente representar una amenaza o peligro. Señalaron que algunas máquinas han adquirido varias formas de semiautonomía, incluida la posibilidad de encontrar fuentes de energía por sí mismas y la posibilidad de elegir objetivos de forma independiente para atacar con armas. También señalaron que algunos virus informáticos pueden evadir la eliminación y han logrado "inteligencia de cucaracha". Señalaron que la autoconciencia como se describe en la ciencia ficción es probablemente poco probable, pero que existen otros peligros y trampas potenciales. [17]

Sin embargo, hay una tecnología en particular que realmente podría hacer realidad la posibilidad de robots con competencia moral. En un artículo sobre la adquisición de valores morales por parte de los robots, Nayef Al-Rodhan menciona el caso de los chips neuromórficos , que tienen como objetivo procesar información de manera similar a los humanos, de forma no lineal y con millones de neuronas artificiales interconectadas. [21] Los robots integrados con tecnología neuromórfica podrían aprender y desarrollar conocimientos de una manera exclusivamente humana. Inevitablemente, esto plantea la cuestión del entorno en el que dichos robots aprenderían sobre el mundo y de quién heredarían la moralidad, o si acaban desarrollando también 'debilidades' humanas: egoísmo, una actitud pro-supervivencia, vacilación, etc.

En Moral Machines: Teaching Robots Right from Wrong , [22] Wendell Wallach y Colin Allen concluyen que los intentos de enseñar a los robots lo correcto de lo incorrecto probablemente harán avanzar la comprensión de la ética humana al motivar a los humanos a abordar las lagunas en la teoría normativa moderna y proporcionar una plataforma para investigación experimental. Como ejemplo, ha introducido a los éticos normativos al controvertido tema de qué algoritmos de aprendizaje específicos utilizar en las máquinas. Nick Bostrom y Eliezer Yudkowsky han abogado por árboles de decisión (como ID3 ) sobre redes neuronales y algoritmos genéticos sobre la base de que los árboles de decisión obedecen a las normas sociales modernas de transparencia y previsibilidad (por ejemplo, stare decisis ), [23] mientras que Chris Santos-Lang argumentó en la dirección opuesta sobre la base de que se debe permitir que cambien las normas de cualquier época y que el fracaso natural para satisfacer plenamente estas normas particulares ha sido esencial para hacer que los humanos sean menos vulnerables a los " piratas informáticos " criminales . [24]

Según un informe de 2019 del Centro para la Gobernanza de la IA de la Universidad de Oxford, el 82% de los estadounidenses cree que los robots y la IA deben gestionarse con cuidado. Las preocupaciones citadas iban desde cómo se usa la inteligencia artificial en la vigilancia y en la difusión de contenido falso en línea (conocidas como falsificaciones profundas cuando incluyen imágenes de video manipuladas y audio generado con la ayuda de la inteligencia artificial) hasta ataques cibernéticos, infracciones a la privacidad de los datos, sesgo de contratación, vehículos autónomos y drones que no requieren un controlador humano. [25]

Principios éticos de la inteligencia artificial

En la revisión de 84 [26] lineamientos éticos para AI se encontraron 11 grupos de principios: transparencia, justicia y equidad, no maleficencia, responsabilidad, privacidad, beneficencia, libertad y autonomía, confianza, sustentabilidad, dignidad, solidaridad. [27]

Luciano Floridi y Josh Cowls crearon un marco ético de principios de IA establecido por cuatro principios de bioética ( beneficencia , no maleficencia , autonomía y justicia ) y un principio habilitante adicional de IA: la explicabilidad. [28]

Transparencia, responsabilidad y código abierto

Bill Hibbard sostiene que debido a que la IA tendrá un efecto tan profundo en la humanidad, los desarrolladores de IA son representantes de la humanidad futura y, por lo tanto, tienen la obligación ética de ser transparentes en sus esfuerzos. [29] Ben Goertzel y David Hart crearon OpenCog como un marco de código abierto para el desarrollo de IA. [30] OpenAI es una empresa de investigación de inteligencia artificial sin fines de lucro creada por Elon Musk , Sam Altman y otros para desarrollar una inteligencia artificial de código abierto beneficiosa para la humanidad. [31] Hay muchos otros desarrollos de IA de código abierto.

Desafortunadamente, hacer que el código sea de código abierto no lo hace comprensible, lo que según muchas definiciones significa que el código de IA no es transparente. El IEEE tiene un esfuerzo de estandarización sobre la transparencia de la IA. [32] El esfuerzo de IEEE identifica múltiples escalas de transparencia para diferentes usuarios. Además, existe la preocupación de que liberar toda la capacidad de la IA contemporánea a algunas organizaciones pueda ser un mal público, es decir, hacer más daño que bien. Por ejemplo, Microsoft ha expresado su preocupación por permitir el acceso universal a su software de reconocimiento facial, incluso para aquellos que pueden pagar por él. Microsoft publicó un blog extraordinario sobre este tema, solicitando una regulación gubernamental para ayudar a determinar qué se debe hacer. [33]

No solo las empresas, sino muchos otros investigadores y defensores de los ciudadanos recomiendan la regulación gubernamental como un medio para garantizar la transparencia y, a través de ella, la responsabilidad humana. Esta estrategia ha demostrado ser controvertida, ya que algunos temen que desacelere el ritmo de la innovación. Otros argumentan que la regulación conduce a una estabilidad sistémica más capaz de respaldar la innovación a largo plazo. [34] La OCDE , la ONU , la UE y muchos países están trabajando actualmente en estrategias para regular la IA y encontrar marcos legales apropiados. [35] [36] [37]

El 26 de junio de 2019, el Grupo de expertos de alto nivel en inteligencia artificial de la Comisión Europea (AI HLEG) publicó sus “Recomendaciones de política e inversión para una inteligencia artificial confiable”. [38] Este es el segundo entregable de AI HLEG, después de la publicación de abril de 2019 de las "Directrices éticas para una inteligencia artificial confiable". Las recomendaciones de junio de AI HLEG cubren cuatro temas principales: los seres humanos y la sociedad en general, la investigación y el mundo académico, el sector privado y el sector público. La Comisión Europea afirma que "las recomendaciones del HLEG reflejan una apreciación tanto de las oportunidades de las tecnologías de IA para impulsar el crecimiento económico, la prosperidad y la innovación, como de los riesgos potenciales involucrados" y afirma que la UE tiene como objetivo liderar la formulación de políticas que gobiernen la IA. internacionalmente. [39]

Sesgos en los sistemas de IA

"> Reproducir medios
La vicepresidenta de Estados Unidos, Kamala Harris, habla sobre los prejuicios raciales en la inteligencia artificial.

La IA se ha vuelto cada vez más inherente a los sistemas de reconocimiento facial y de voz . Algunos de estos sistemas tienen aplicaciones comerciales reales y afectan directamente a las personas. Estos sistemas son vulnerables a los sesgos y errores introducidos por sus creadores humanos. Además, los datos utilizados para entrenar estos sistemas de inteligencia artificial en sí mismos pueden tener sesgos. [40] [41] [42] [43] Por ejemplo, los algoritmos de reconocimiento facial hechos por Microsoft, IBM y Face ++ tenían sesgos cuando se trataba de detectar el género de las personas; [44] Estos sistemas de inteligencia artificial pudieron detectar el género de los hombres blancos con mayor precisión que el género de los hombres de piel más oscura. Además, un estudio de 2020 revisó los sistemas de reconocimiento de voz de Amazon, Apple, Google, IBM y Microsoft y descubrió que tienen tasas de error más altas al transcribir las voces de las personas negras que las de las personas blancas. [45] Además, Amazon terminó su uso de la contratación y el reclutamiento de IA porque el algoritmo favorecía a los candidatos masculinos sobre las femeninas. Esto se debió a que el sistema de Amazon se entrenó con datos recopilados durante un período de 10 años que provinieron principalmente de candidatos masculinos. [46]

El sesgo puede introducirse en los algoritmos de muchas formas. Por ejemplo, Friedman y Nissenbaum identifican tres categorías de sesgo en los sistemas informáticos: sesgo existente, sesgo técnico y sesgo emergente. [47] En una rama muy influyente de la IA conocida como "procesamiento del lenguaje natural", pueden surgir problemas del "corpus de texto", el material de origen que utiliza el algoritmo para aprender sobre las relaciones entre diferentes palabras. [48]

Grandes empresas como IBM, Google, etc. han realizado esfuerzos para investigar y abordar estos sesgos. [49] [50] [51] Una solución para abordar el sesgo es crear documentación para los datos utilizados para entrenar sistemas de IA. [52] [53]

Es probable que el problema del sesgo en el aprendizaje automático se vuelva más significativo a medida que la tecnología se extienda a áreas críticas como la medicina y el derecho, y a medida que más personas sin una comprensión técnica profunda tengan la tarea de implementarla. Algunos expertos advierten que el sesgo algorítmico ya es omnipresente en muchas industrias y que casi nadie está haciendo un esfuerzo por identificarlo o corregirlo. [54] Existen algunas herramientas de código abierto [55] de la sociedad civil que buscan crear más conciencia sobre la IA sesgada.

Amenaza a la dignidad humana

Joseph Weizenbaum argumentó en 1976 que la tecnología de inteligencia artificial no debería usarse para reemplazar a personas en posiciones que requieren respeto y cuidado, como:

  • Un representante de servicio al cliente (la tecnología de inteligencia artificial ya se utiliza hoy en día para los sistemas de respuesta de voz interactivos basados ​​en teléfonos )
  • Un terapeuta (como lo propuso Kenneth Colby en la década de 1970)
  • Una niñera para ancianos (como informó Pamela McCorduck en su libro La quinta generación )
  • Un soldado
  • Un juez
  • Un oficial de policía

Weizenbaum explica que necesitamos auténticos sentimientos de empatía de las personas en estos puestos. Si las máquinas los reemplazan, nos encontraremos alienados, devaluados y frustrados, porque el sistema artificialmente inteligente no podría simular la empatía. La inteligencia artificial, si se usa de esta manera, representa una amenaza para la dignidad humana. Weizenbaum sostiene que el hecho de que estemos considerando la posibilidad de máquinas en estas posiciones sugiere que hemos experimentado una "atrofia del espíritu humano que proviene de pensar en nosotros mismos como computadoras". [56]

Pamela McCorduck responde que, hablando en nombre de las mujeres y las minorías, "Prefiero arriesgarme con una computadora imparcial", señalando que hay condiciones en las que preferiríamos tener jueces y policías automatizados que no tengan ninguna agenda personal. [56] Sin embargo, Kaplan y Haenlein enfatizan que los sistemas de inteligencia artificial son tan inteligentes como los datos utilizados para entrenarlos, ya que, en esencia, no son más que elegantes máquinas de ajuste de curvas; El uso de la inteligencia artificial para respaldar un fallo judicial puede ser muy problemático si los fallos anteriores muestran un sesgo hacia ciertos grupos, ya que esos sesgos se formalizan y arraigan, lo que los hace aún más difíciles de detectar y combatir. [57] El fundador de AI, John McCarthy, se opone al tono moralizador de la crítica de Weizenbaum. "Cuando moralizar es vehemente y vago, invita al abuso autoritario", escribe.

Bill Hibbard [58] escribe que "la dignidad humana requiere que luchemos por eliminar nuestra ignorancia de la naturaleza de la existencia, y la IA es necesaria para ese esfuerzo".

Responsabilidad por vehículos autónomos

A medida que el uso generalizado de automóviles autónomos se vuelve cada vez más inminente, se deben abordar los nuevos desafíos que plantean los vehículos totalmente autónomos. [59] [60] Recientemente, [ ¿cuándo? ] ha habido un debate sobre la responsabilidad legal de la parte responsable si estos coches sufren accidentes. [61] [62] En un informe en el que un automóvil sin conductor golpeó a un peatón, el conductor estaba dentro del automóvil, pero los controles estaban completamente en la mano de las computadoras. Esto llevó a un dilema sobre quién tuvo la culpa del accidente. [63]

En otro incidente el 19 de marzo de 2018, Elaine Herzberg fue atropellada y asesinada por un Uber autónomo en Arizona. En este caso, el automóvil automatizado fue capaz de detectar automóviles y ciertos obstáculos para poder navegar de manera autónoma por la calzada, pero no pudo anticipar un peatón en medio de la calzada. Esto planteó la cuestión de si el conductor, el peatón, la compañía de automóviles o el gobierno deberían ser responsables de su muerte. [64]

Actualmente, los autos autónomos se consideran semiautónomos, lo que requiere que el conductor preste atención y esté preparado para tomar el control si es necesario. [65] [ Verificación fallida ] Por lo tanto, corresponde a los gobiernos regular al conductor que confía demasiado en las características autónomas. además, enséñeles que estas son solo tecnologías que, si bien son convenientes, no son un sustituto completo. Antes de que los automóviles autónomos se utilicen ampliamente, estos problemas deben abordarse mediante nuevas políticas. [66] [67] [68]

Armamento de la inteligencia artificial

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando se les da cierto grado de autonomía. [13] [69] El 31 de octubre de 2019, la Junta de Innovación de Defensa del Departamento de Defensa de los Estados Unidos publicó el borrador de un informe recomendando principios para el uso ético de la inteligencia artificial por parte del Departamento de Defensa que garantizaría que un operador humano siempre fuera capaz de mirar dentro de la 'caja negra' y comprender el proceso de la cadena de muerte. Sin embargo, una preocupación importante es cómo se implementará el informe. [70] La Marina de los Estados Unidos ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debería prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. [71] [15] Algunos investigadores afirman que los robots autónomos podrían ser más humanos, ya que podrían tomar decisiones con mayor eficacia. [72]

En esta última década, ha habido una intensa investigación en el poder autónomo con la capacidad de aprender utilizando las responsabilidades morales asignadas. "Los resultados pueden usarse al diseñar futuros robots militares, para controlar tendencias no deseadas para asignar responsabilidades a los robots". [73] Desde un punto de vista consecuencialista , existe la posibilidad de que los robots desarrollen la capacidad de tomar sus propias decisiones lógicas sobre a quién matar y es por eso que debería haber un marco moral establecido que la IA no pueda anular. [74]

Ha habido una protesta reciente con respecto a la ingeniería de armas de inteligencia artificial que han incluido ideas de una toma de control de la humanidad por parte de un robot. Las armas de IA presentan un tipo de peligro diferente al de las armas controladas por humanos. Muchos gobiernos han comenzado a financiar programas para desarrollar armas de IA. La Marina de los Estados Unidos anunció recientemente planes para desarrollar armas autónomas de drones , en paralelo con anuncios similares de Rusia y Corea, respectivamente. Debido al potencial de que las armas de IA se vuelvan más peligrosas que las armas operadas por humanos, Stephen Hawking y Max Tegmark firmaron una petición de "El futuro de la vida" [75] para prohibir las armas de IA. El mensaje publicado por Hawking y Tegmark afirma que las armas de IA representan un peligro inmediato y que se requieren acciones para evitar desastres catastróficos en el futuro cercano. [76]

"Si cualquier potencia militar importante sigue adelante con el desarrollo de armas de IA, una carrera armamentista global es virtualmente inevitable, y el punto final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikovs del mañana", dice la petición, que incluye Skype co -el fundador Jaan Tallinn y el profesor de lingüística del MIT Noam Chomsky como partidarios adicionales contra el armamento de IA. [77]

El físico y astrónomo Royal Sir Martin Rees ha advertido sobre casos catastróficos como "robots tontos que se vuelven rebeldes o una red que desarrolla una mente propia". Huw Price , un colega de Rees en Cambridge, ha expresado una advertencia similar de que los humanos podrían no sobrevivir cuando la inteligencia "escapa a las limitaciones de la biología". Estos dos profesores crearon el Centro para el Estudio del Riesgo Existencial en la Universidad de Cambridge con la esperanza de evitar esta amenaza a la existencia humana. [76]

Con respecto al potencial de que los sistemas más inteligentes que los humanos se empleen militarmente, el Open Philanthropy Project escribe que estos escenarios "parecen potencialmente tan importantes como los riesgos relacionados con la pérdida de control", pero la investigación que investiga el impacto social a largo plazo de la IA ha gastado relativamente poco tiempo. poco tiempo para esta preocupación: "esta clase de escenarios no ha sido un foco importante para las organizaciones que han sido más activas en este espacio, como el Instituto de Investigación de Inteligencia de Máquina (MIRI) y el Instituto del Futuro de la Humanidad (FHI), y parece haber menos análisis y debate sobre ellos ". [78]

Muchos investigadores han argumentado que, a través de una "explosión de inteligencia", una IA que se mejora a sí misma podría volverse tan poderosa que los humanos no podrían evitar que logre sus objetivos. [79] En su artículo "Ethical Issues in Advanced Artificial Intelligence" y el libro posterior Superintelligence: Paths, Dangers, Strategies , el filósofo Nick Bostrom sostiene que la inteligencia artificial tiene la capacidad de provocar la extinción humana. Afirma que la superinteligencia general sería capaz de una iniciativa independiente y de hacer sus propios planes y, por lo tanto, podría considerarse más apropiadamente como un agente autónomo. Dado que los intelectos artificiales no necesitan compartir nuestras tendencias motivacionales humanas, correspondería a los diseñadores de la superinteligencia especificar sus motivaciones originales. Debido a que una IA superinteligente podría lograr casi cualquier resultado posible y frustrar cualquier intento de evitar la implementación de sus objetivos, podrían surgir muchas consecuencias no deseadas incontroladas . Podría matar a todos los demás agentes, persuadirlos de que cambien su comportamiento o bloquear sus intentos de interferencia. [80]

Sin embargo, en lugar de abrumar a la raza humana y llevarnos a nuestra destrucción, Bostrom también ha afirmado que la superinteligencia puede ayudarnos a resolver muchos problemas difíciles como enfermedades, pobreza y destrucción ambiental, y podría ayudarnos a “mejorar” nosotros mismos. [81]

La enorme complejidad de los sistemas de valores humanos hace que sea muy difícil hacer que las motivaciones de la IA sean amigables con los humanos. [79] [80] A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajustan a un marco ético dado pero no al "sentido común". Según Eliezer Yudkowsky , hay pocas razones para suponer que una mente diseñada artificialmente tendría tal adaptación. [82] Investigadores de IA como Stuart J. Russell , [83] Bill Hibbard , [58] Roman Yampolskiy , [84] Shannon Vallor , [85] Steven Umbrello [86] y Luciano Floridi [87] han propuesto estrategias de diseño para desarrollar máquinas beneficiosas.

Hay muchas organizaciones interesadas en la política y la ética de la IA, tanto públicas y gubernamentales como corporativas y sociales.

Amazon , Google , Facebook , IBM y Microsoft han establecido una asociación sin fines de lucro para formular las mejores prácticas sobre tecnologías de inteligencia artificial, promover la comprensión del público y servir como plataforma sobre inteligencia artificial. Apple se unió en enero de 2017. Los miembros corporativos harán contribuciones financieras y de investigación al grupo, mientras se relacionan con la comunidad científica para incorporar académicos a la junta. [88]

El IEEE elaboró ​​una Iniciativa Global sobre Ética de Sistemas Autónomos e Inteligentes que ha estado creando y revisando pautas con la ayuda de la opinión pública, y acepta como miembros a muchos profesionales de dentro y fuera de su organización.

Tradicionalmente, las sociedades han utilizado al gobierno para garantizar que se respete la ética a través de la legislación y la vigilancia. En la actualidad, los gobiernos nacionales, así como las organizaciones gubernamentales y no gubernamentales transnacionales realizan muchos esfuerzos para garantizar que la IA se aplique de forma ética.

Iniciativas intergubernamentales:

  • La Comisión Europea cuenta con un Grupo de expertos de alto nivel en inteligencia artificial. El 8 de abril de 2019, publicó sus 'Directrices éticas para la inteligencia artificial confiable'. [89] La Comisión Europea también cuenta con una unidad de innovación y excelencia en robótica e inteligencia artificial, que publicó un libro blanco sobre excelencia y confianza en la innovación en inteligencia artificial el 19 de febrero de 2020. [90]
  • La OCDE estableció un Observatorio de políticas de IA de la OCDE. [91]

Iniciativas gubernamentales:

  • En los Estados Unidos, la administración Obama elaboró ​​una hoja de ruta para la política de inteligencia artificial. [92] La administración Obama publicó dos importantes libros blancos sobre el futuro y el impacto de la IA. En 2019, la Casa Blanca, a través de un memorando ejecutivo conocido como la "Iniciativa de IA estadounidense", instruyó al NIST (Instituto Nacional de Estándares y Tecnología) para que comenzara a trabajar en el Compromiso Federal de los Estándares de IA (febrero de 2019). [93]
  • En enero de 2020, en los Estados Unidos, la Administración Trump publicó un proyecto de orden ejecutiva emitida por la Oficina de Gestión y Presupuesto (OMB) sobre "Orientación para la regulación de aplicaciones de inteligencia artificial" ("Memorando de IA de la OMB"). La orden enfatiza el necesitan invertir en aplicaciones de inteligencia artificial, aumentar la confianza del público en la inteligencia artificial, reducir las barreras para el uso de la inteligencia artificial y mantener la tecnología de inteligencia artificial estadounidense competitiva en un mercado global. Los avances de la tecnología de IA estadounidense parecen ser el foco y la prioridad. Además, se alienta incluso a las entidades federales a utilizar la orden para eludir las leyes y reglamentos estatales que un mercado pueda considerar demasiado onerosos de cumplir. [94]
  • El Computing Community Consortium (CCC) intervino con un borrador de informe de más de 100 páginas [95] - Una hoja de ruta comunitaria de 20 años para la investigación de inteligencia artificial en los EE . UU. [96]
  • El Centro de Seguridad y Tecnología Emergente asesora a los legisladores estadounidenses sobre las implicaciones de seguridad de las tecnologías emergentes como la IA.

Iniciativas académicas:

  • Hay tres institutos de investigación en la Universidad de Oxford que se centran principalmente en la ética de la IA. El Instituto del Futuro de la Humanidad que se centra tanto en la seguridad de la IA [97] como en la gobernanza de la IA. [98] El Instituto de Ética en IA, dirigido por John Tasioulas , cuyo objetivo principal, entre otros, es promover la ética de la IA como un campo propio en comparación con los campos relacionados con la ética aplicada. El Oxford Internet Institute , dirigido por Luciano Floridi , se centra en la ética de las tecnologías de inteligencia artificial y las TIC a corto plazo. [99]
  • El AI Now Institute en NYU es un instituto de investigación que estudia las implicaciones sociales de la inteligencia artificial. Su investigación interdisciplinaria se centra en los temas sesgo e inclusión, trabajo y automatización, derechos y libertades, seguridad e infraestructura civil. [100]
  • El Instituto de Ética y Tecnologías Emergentes (IEET) investiga los efectos de la IA sobre el desempleo, [101] [102] y la política.
  • El Instituto de Ética en Inteligencia Artificial (IEAI) de la Universidad Técnica de Múnich, dirigido por Christoph Lütge, lleva a cabo investigaciones en varios dominios como la movilidad, el empleo, la salud y la sostenibilidad. [103]

La película The Thirteenth Floor sugiere un futuro en el que las consolas de juegos de computadora crean mundos simulados con habitantes sensibles con fines de entretenimiento. La película The Matrix sugiere un futuro en el que las especies dominantes en el planeta Tierra son máquinas sensibles y la humanidad es tratada con el mayor especiesismo . El cuento " The Planck Dive " sugiere un futuro en el que la humanidad se ha convertido en un software que se puede duplicar y optimizar y la distinción relevante entre los tipos de software es sensible y no sensible. La misma idea se puede encontrar en el Holograma de Emergencia Médica de Starship Voyager , que es una copia aparentemente sensible de un subconjunto reducido de la conciencia de su creador, el Dr. Zimmerman , quien, por los mejores motivos, ha creado el sistema para brindar servicios médicos. asistencia en caso de emergencias. Las películas Bicentennial Man y AI tratan sobre la posibilidad de robots sensibles que podrían amar. Yo, Robot, exploré algunos aspectos de las tres leyes de Asimov. Todos estos escenarios intentan prever posibles consecuencias poco éticas de la creación de computadoras sensibles. [104]

La ética de la inteligencia artificial es uno de los varios temas centrales de la serie de juegos Mass Effect de BioWare . [105] Explora el escenario de una civilización que crea IA accidentalmente a través de un rápido aumento en el poder computacional a través de una red neuronal a escala global . Este evento provocó un cisma ético entre aquellos que sentían que era apropiado otorgar derechos orgánicos a los Geth recién sintientes y aquellos que continuaron viéndolos como maquinaria desechable y lucharon por destruirlos. Más allá del conflicto inicial, la complejidad de la relación entre las máquinas y sus creadores es otro tema en curso a lo largo de la historia.

Con el tiempo, los debates han tendido a centrarse cada vez menos en la posibilidad y más en la deseabilidad , [106] como se enfatizó en los debates "Cosmista" y "Terran" iniciados por Hugo de Garis y Kevin Warwick . Un cosmista, según Hugo de Garis, en realidad busca construir sucesores más inteligentes para la especie humana.

Los expertos de la Universidad de Cambridge han argumentado que la IA se presenta en la ficción y la no ficción de manera abrumadora como racialmente blanca, de manera que distorsiona las percepciones de sus riesgos y beneficios. [107]

  • Adquisición de IA
  • Sesgo algorítmico
  • Conciencia artificial
  • Inteligencia artificial general (AGI)
  • Ética informática
  • El altruismo efectivo, el futuro a largo plazo y los riesgos catastróficos globales
  • Riesgo existencial de la inteligencia artificial general
  • Compatible con humanos
  • Leyes de la robótica
  • Filosofía de la inteligencia artificial
  • Regulación de la inteligencia artificial
  • Roboética
  • Gobernanza robótica
  • Superinteligencia: caminos, peligros, estrategias
Investigadores
  • Timnit Gebru
  • Joy Buolamwini
  • Alison Adam
  • Seth Baum
  • Nick Bostrom
  • Joanna Bryson
  • Kate Crawford
  • Kate querida
  • Luciano Floridi
  • Anja Kaspersen
  • Ray Kurzweil
  • Catherine Malabou
  • Ajung Moon
  • Vincent C. Müller
  • Peter Norvig
  • Steve Omohundro
  • Stuart J. Russell
  • Anders Sandberg
  • Mariarosaria Taddeo
  • John Tasioulas
  • Steven Umbrello
  • Roman Yampolskiy
  • Eliezer Yudkowsky
Organizaciones
  • Centro de Inteligencia Artificial Compatible con los Humanos
  • Centro de seguridad y tecnología emergente
  • Centro de Estudio del Riesgo Existencial
  • Instituto del Futuro de la Humanidad
  • Instituto del Futuro de la Vida
  • Instituto de Investigación de Inteligencia Artificial
  • Asociación sobre IA
  • Centro de Leverhulme para el futuro de la inteligencia
  • Instituto de Ética y Tecnologías Emergentes
  • Instituto de Internet de Oxford

  1. ^ Müller, Vincent C. (30 de abril de 2020). "Ética de la Inteligencia Artificial y la Robótica" . Enciclopedia de Filosofía de Stanford . Archivado desde el original el 10 de octubre de 2020 . Consultado el 26 de septiembre de 2020 .
  2. ^ Veruggio, Gianmarco (2011). "La hoja de ruta de la Roboética". EURON Roboethics Atelier . Scuola di Robotica: 2. CiteSeerX  10.1.1.466.2810 .
  3. ^ Müller, Vincent C. (2020), "Ethics of Artificial Intelligence and Robotics" , en Zalta, Edward N. (ed.), The Stanford Encyclopedia of Philosophy (invierno de 2020 ed.), Metaphysics Research Lab, Stanford University , recuperado en 2021 -03-18
  4. ^ Anderson. "Ética de la máquina" . Archivado desde el original el 28 de septiembre de 2011 . Consultado el 27 de junio de 2011 .
  5. ^ Anderson, Michael; Anderson, Susan Leigh, eds. (Julio de 2011). Ética de la máquina . Prensa de la Universidad de Cambridge . ISBN 978-0-521-11235-2.
  6. ^ Anderson, M .; Anderson, SL (julio de 2006). "Introducción de los editores invitados: ética de la máquina". Sistemas inteligentes IEEE . 21 (4): 10-11. doi : 10.1109 / mis.2006.70 . S2CID  9570832 .
  7. ^ Anderson, Michael; Anderson, Susan Leigh (15 de diciembre de 2007). "Ética de la máquina: creando un agente ético inteligente". Revista AI . 28 (4): 15. doi : 10.1609 / aimag.v28i4.2065 .
  8. ^ Boyles, Robert James M. (2017). "Postes indicadores filosóficos para marcos de agentes morales artificiales" . Suri . 6 (2): 92–109.
  9. ^ Asimov, Isaac (2008). Yo, Robot . Nueva York: Bantam. ISBN 978-0-553-38256-3.
  10. ^ Bryson, Joanna; Diamantis, Mihailis; Grant, Thomas (septiembre de 2017). "Del, para y por el pueblo: la laguna jurídica de las personas sintéticas" . Inteligencia artificial y derecho . 25 (3): 273-291. doi : 10.1007 / s10506-017-9214-9 .
  11. ^ "Principios de la robótica" . EPSRC del Reino Unido. Septiembre de 2010. Archivado desde el original el 1 de abril de 2018 . Consultado el 10 de enero de 2019 .
  12. ^ Los robots en evolución aprenden a mentirse unos a otros. Archivado el 28 de agosto de 2009en la Wayback Machine , Popular Science, 18 de agosto de 2009.
  13. ^ a b Convocatoria para el debate sobre robots asesinos. Archivado el 7 de agosto de 2009 en la Wayback Machine . Por Jason Palmer, reportero de ciencia y tecnología, BBC News, 3 de agosto de 2009.
  14. ^ Informe financiado por Science New Navy advierte de robots de guerra que van a "Terminator" Archivado el 28 de julio de 2009en la Wayback Machine , por Jason Mick (Blog), dailytech.com, 17 de febrero de 2009.
  15. ^ a b Informe de la Marina advierte sobre el levantamiento de robots, sugiere una fuerte brújula moral. Archivado el 4 de junio de 2011 en la Wayback Machine , por Joseph L. Flatley engadget.com, 18 de febrero de 2009.
  16. ^ Panel presidencial AAAI sobre futuros estudios de IA a largo plazo 2008-2009 Archivado el 28 de agosto de 2009 en la Wayback Machine , Asociación para el avance de la inteligencia artificial, consultado el 26 de julio de 2009.
  17. ^ a b Markoff, John (25 de julio de 2009). "Los científicos se preocupan por las máquinas pueden ser más inteligentes que el hombre" . The New York Times . Archivado desde el original el 25 de febrero de 2017 . Consultado el 24 de febrero de 2017 .
  18. ^ La singularidad tecnológica venidera: cómo sobrevivir en la era post-humana Archivado 2007-01-01 en Wayback Machine , por Vernor Vinge, Departamento de Ciencias Matemáticas, Universidad Estatal de San Diego, (c) 1993 por Vernor Vinge.
  19. ^ Artículo en Asimovlaws.com Archivado el 24 de mayo de 2012 en Wayback Machine , julio de 2004, consultado el 27 de julio de 2009.
  20. ^ a b Winfield, AF; Michael, K .; Pitt, J .; Evers, V. (marzo de 2019). "Ética de la máquina: el diseño y la gobernanza de la IA ética y los sistemas autónomos [escaneando el problema]" . Actas del IEEE . 107 (3): 509–517. doi : 10.1109 / JPROC.2019.2900622 . ISSN  1558-2256 . Archivado desde el original el 2 de noviembre de 2020 . Consultado el 21 de noviembre de 2020 .
  21. ^ Al-Rodhan, Nayef (7 de diciembre de 2015). "El Código Moral" . Archivado desde el original el 5 de marzo de 2017 . Consultado el 4 de marzo de 2017 .
  22. ^ Wallach, Wendell; Allen, Colin (noviembre de 2008). Máquinas morales: enseñar a los robots lo correcto de lo incorrecto . Estados Unidos: Oxford University Press . ISBN 978-0-19-537404-9.
  23. ^ Bostrom, Nick ; Yudkowsky, Eliezer (2011). "La ética de la inteligencia artificial" (PDF) . Manual de Cambridge de Inteligencia Artificial . Cambridge Press . Archivado (PDF) desde el original el 4 de marzo de 2016 . Consultado el 22 de junio de 2011 .
  24. ^ Santos-Lang, Chris (2002). "Ética de las inteligencias artificiales" . Archivado desde el original el 25 de diciembre de 2014 . Consultado el 4 de enero de 2015 .
  25. ^ Howard, Ayanna. "La regulación de la IA - ¿Deberían preocuparse las organizaciones? | Ayanna Howard" . Revisión de la gestión Sloan del MIT . Archivado desde el original el 14 de agosto de 2019 . Consultado el 14 de agosto de 2019 .
  26. ^ Jobin, Anna; Ienca, Marcello; Vayena, Effy (2 de septiembre de 2020). "El panorama global de las directrices éticas de la IA". Naturaleza . 1 (9): 389–399. arXiv : 1906.11668 . doi : 10.1038 / s42256-019-0088-2 . S2CID  201827642 .
  27. ^ Jobin, Anna; Ienca, Marcello; Vayena, Effy (2 de septiembre de 2020). "El panorama global de las directrices éticas de la IA". Naturaleza . 1 (9): 389–399. arXiv : 1906.11668 . doi : 10.1038 / s42256-019-0088-2 . S2CID  201827642 .
  28. ^ Floridi, Luciano; Cowls, Josh (2 de julio de 2019). "Un marco unificado de cinco principios para la IA en la sociedad". Revisión de la ciencia de datos de Harvard . 1 . doi : 10.1162 / 99608f92.8cd550d1 .
  29. ^ AI de código abierto. Archivado el 4 de marzo de 2016 en la Wayback Machine Bill Hibbard. Actas de 2008 de la Primera Conferencia sobre Inteligencia Artificial General, eds. Pei Wang, Ben Goertzel y Stan Franklin.
  30. ^ OpenCog: un marco de software para la inteligencia general artificial integradora. Archivado el 4 de marzo de 2016 en la Wayback Machine. David Hart y Ben Goertzel. Actas de 2008 de la Primera Conferencia sobre Inteligencia Artificial General, eds. Pei Wang, Ben Goertzel y Stan Franklin.
  31. ^ Dentro de OpenAI, el salvaje plan de Elon Musk para liberar la inteligencia artificial Archivado el27 de abril de 2016en la Wayback Machine Cade Metz, cableado el 27 de abril de 2016.
  32. ^ "P7001 - Transparencia de los sistemas autónomos" . P7001 - Transparencia de los sistemas autónomos . IEEE. Archivado desde el original el 10 de enero de 2019 . Consultado el 10 de enero de 2019 ..
  33. ^ Thurm, Scott (13 de julio de 2018). "MICROSOFT CONVOCA A UN REGLAMENTO FEDERAL DE RECONOCIMIENTO FACIAL" . Cableado . Archivado desde el original el 9 de mayo de 2019 . Consultado el 10 de enero de 2019 .
  34. ^ Bastin, Roland; Wantz, Georges (junio de 2017). "El Reglamento General de Protección de Datos Innovación entre industrias" (PDF) . Revista interior . Deloitte. Archivado (PDF) desde el original el 10 de enero de 2019 . Consultado el 10 de enero de 2019 .
  35. ^ "La cumbre de inteligencia artificial de la ONU tiene como objetivo abordar la pobreza, los 'grandes desafíos ' de la humanidad " . Noticias de la ONU . 2017-06-07. Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  36. ^ "Inteligencia artificial - Organización para la Cooperación y el Desarrollo Económicos" . www.oecd.org . Archivado desde el original el 22 de julio de 2019 . Consultado el 26 de julio de 2019 .
  37. ^ Anónimo (14 de junio de 2018). "La Alianza Europea de la IA" . Mercado Único Digital - Comisión Europea . Archivado desde el original el 1 de agosto de 2019 . Consultado el 26 de julio de 2019 .
  38. ^ Grupo de expertos de alto nivel de la Comisión Europea sobre IA (2019-06-26). "Recomendaciones de política e inversión para una Inteligencia Artificial de confianza" . Dar forma al futuro digital de Europa - Comisión Europea . Archivado desde el original el 26 de febrero de 2020 . Consultado el 16 de marzo de 2020 .
  39. ^ "Resumen de la política tecnológica de la UE: resumen de julio de 2019" . Centro para la Democracia y la Tecnología . Archivado desde el original el 9 de agosto de 2019 . Consultado el 9 de agosto de 2019 .
  40. ^ Sociedad, ética de DeepMind y (2018-03-14). "El caso de algoritmos más justos - DeepMind Ethics & Society" . Medio . Archivado desde el original el 22 de julio de 2019 . Consultado el 22 de julio de 2019 .
  41. ^ "5 fuentes inesperadas de sesgo en inteligencia artificial" . TechCrunch . Archivado desde el original el 18 de marzo de 2021 . Consultado el 22 de julio de 2019 .
  42. ^ Caballero, Will. "El jefe de inteligencia artificial de Google dice que olvide los robots asesinos de Elon Musk y, en su lugar, preocúpese por el sesgo en los sistemas de inteligencia artificial" . Revisión de tecnología del MIT . Archivado desde el original el 4 de julio de 2019 . Consultado el 22 de julio de 2019 .
  43. ^ Villasenor, John (3 de enero de 2019). "Inteligencia artificial y sesgo: cuatro desafíos clave" . Brookings . Archivado desde el original el 22 de julio de 2019 . Consultado el 22 de julio de 2019 .
  44. ^ Lohr, Steve (9 de febrero de 2018). "El reconocimiento facial es preciso, si eres un hombre blanco" . The New York Times . Archivado desde el original el 9 de enero de 2019 . Consultado el 29 de mayo de 2019 .
  45. ^ Koenecke, Allison; Nam, Andrew; Lake, Emily; Nudell, Joe; Quartey, Minnie; Mengesha, Sion; Toups, Connor; Rickford, John R .; Jurafsky, Dan; Goel, Sharad (7 de abril de 2020). "Disparidades raciales en el reconocimiento automático de voz" . Actas de la Academia Nacional de Ciencias . 117 (14): 7684–7689. doi : 10.1073 / pnas.1915768117 . PMC  7149386 . PMID  32205437 .
  46. ^ "Amazon elimina la herramienta secreta de reclutamiento de inteligencia artificial que mostraba prejuicios contra las mujeres" . Reuters . 2018-10-10. Archivado desde el original el 27 de mayo de 2019 . Consultado el 29 de mayo de 2019 .
  47. ^ Friedman, Batya; Nissenbaum, Helen (julio de 1996). "Sesgo en los sistemas informáticos". Transacciones ACM sobre sistemas de información (TOIS) . 14 (3): 330–347. doi : 10.1145 / 230538.230561 . S2CID  207195759 .
  48. ^ "Eliminando sesgos en IA" . techxplore.com . Archivado desde el original el 25 de julio de 2019 . Consultado el 26 de julio de 2019 .
  49. ^ Olson, Parmy. "DeepMind de Google tiene una idea para detener la IA sesgada" . Forbes . Consultado el 26 de julio de 2019 .
  50. ^ "Equidad de aprendizaje automático | Equidad de ML" . Desarrolladores de Google . Archivado desde el original el 10 de agosto de 2019 . Consultado el 26 de julio de 2019 .
  51. ^ "AI y sesgo - IBM Research - EE . UU . " . www.research.ibm.com . Archivado desde el original el 17 de julio de 2019 . Consultado el 26 de julio de 2019 .
  52. ^ Bender, Emily M .; Friedman, Batya (diciembre de 2018). "Declaraciones de datos para el procesamiento del lenguaje natural: hacia la mitigación del sesgo del sistema y posibilitando una mejor ciencia" . Transacciones de la Asociación de Lingüística Computacional . 6 : 587–604. doi : 10.1162 / tacl_a_00041 .
  53. ^ Gebru, Timnit; Morgenstern, Jamie; Vecchione, Briana; Vaughan, Jennifer Wortman; Wallach, Hanna ; Daumé III, Hal; Crawford, Kate (2018). "Hojas de datos para conjuntos de datos". arXiv : 1803.09010 [ cs.DB ].
  54. ^ Caballero, Will. "El jefe de inteligencia artificial de Google dice que olvide los robots asesinos de Elon Musk y, en su lugar, preocúpese por el sesgo en los sistemas de inteligencia artificial" . Revisión de tecnología del MIT . Archivado desde el original el 4 de julio de 2019 . Consultado el 26 de julio de 2019 .
  55. ^ "Copia archivada" . Archivado desde el original el 31 de octubre de 2020 . Consultado el 28 de octubre de 2020 .CS1 maint: copia archivada como título ( enlace )
  56. ↑ a b Joseph Weizenbaum , citado en McCorduck 2004 , págs. 356, 374–376[ se necesita cita completa ]
  57. ^ Kaplan, Andreas; Haenlein, Michael (enero de 2019). "Siri, Siri, en mi mano: ¿Quién es la más bella del país? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Horizontes de negocios . 62 (1): 15-25. doi : 10.1016 / j.bushor.2018.08.004 .
  58. ^ a b Hibbard, Bill (17 de noviembre de 2015). "Inteligencia Artificial Ética". arXiv : 1411,1373 [ cs.AI ].
  59. ^ Davies, Alex (29 de febrero de 2016). "El coche autónomo de Google provocó su primer accidente" . Cableado . Archivado desde el original el 7 de julio de 2019 . Consultado el 26 de julio de 2019 .
  60. ^ Levin, Sam; Wong, Julia Carrie (19 de marzo de 2018). "Uber autónomo mata a una mujer de Arizona en el primer accidente fatal que involucra a un peatón" . The Guardian . Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  61. ^ "¿Quién es el responsable cuando un automóvil autónomo tiene un accidente?" . Futurismo . Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  62. ^ Radio, Negocios; Política, Derecho y Público; Podcasts; América, Norte. "Accidentes automovilísticos autónomos: ¿quién, o qué, tiene la culpa?" . Universia Knowledge @ Wharton . Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  63. ^ Delbridge, Emily. "Coches sin conductor enloquecidos" . El equilibrio . Archivado desde el original el 29 de mayo de 2019 . Consultado el 29 de mayo de 2019 .
  64. ^ Stilgoe, Jack (2020), "¿Quién mató a Elaine Herzberg?" , ¿Quién impulsa la innovación? , Cham: Springer International Publishing, págs. 1–6, doi : 10.1007 / 978-3-030-32320-2_1 , ISBN 978-3-030-32319-6, archivado desde el original el 18 de marzo de 2021 , consultado el 11 de noviembre de 2020
  65. ^ Maxmen, Amy (octubre de 2018). "Los dilemas de los vehículos autónomos revelan que las elecciones morales no son universales" . Naturaleza . 562 (7728): 469–470. Código Bibliográfico : 2018Natur.562..469M . doi : 10.1038 / d41586-018-07135-0 . PMID  30356197 .
  66. ^ "Normativa para vehículos autónomos" . GOV.UK . Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  67. ^ "Conducción automatizada: acción legislativa y reglamentaria - CyberWiki" . cyberlaw.stanford.edu . Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  68. ^ "Vehículos autónomos | Legislación aprobada de vehículos autónomos" . www.ncsl.org . Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  69. ^ Robot Three-Way presagia un futuro autónomo Archivado el 7 de noviembre de 2012 en la Wayback Machine , por David Axe wired.com, 13 de agosto de 2009.
  70. ^ Estados Unidos. Junta de Innovación de Defensa. Principios de la IA: recomendaciones sobre el uso ético de la inteligencia artificial por parte del Departamento de Defensa . OCLC  1126650738 .
  71. ^ Nuevo informe financiado por la Marina advierte sobre robots de guerra que se convertirán en "Terminator". Archivado el 28 de julio de 2009en la Wayback Machine , por Jason Mick (Blog), dailytech.com, 17 de febrero de 2009.
  72. ^ Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. (marzo de 2020). "El futuro de la guerra: ¿podrían las armas autónomas letales hacer que los conflictos sean más éticos?" . AI y sociedad . 35 (1): 273–282. doi : 10.1007 / s00146-019-00879-x . hdl : 2318/1699364 . ISSN  0951-5666 . S2CID  59606353 . Archivado desde el original el 18 de marzo de 2021 . Consultado el 11 de noviembre de 2020 .
  73. ^ Hellström, Thomas (junio de 2013). "Sobre la responsabilidad moral de los robots militares". Ética y Tecnología de la Información . 15 (2): 99–107. doi : 10.1007 / s10676-012-9301-2 . S2CID  15205810 . ProQuest  1372020233 .
  74. ^ Mitra, Ambarish. "Podemos entrenar a la IA para identificar el bien y el mal, y luego usarla para enseñarnos moralidad" . Cuarzo . Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  75. ^ "Principios de IA" . Instituto del Futuro de la Vida . Archivado desde el original el 11 de diciembre de 2017 . Consultado el 26 de julio de 2019 .
  76. ^ a b Zach Musgrave y Bryan W. Roberts (14 de agosto de 2015). "Por qué la inteligencia artificial puede ser armada con demasiada facilidad - el Atlántico" . El Atlántico . Archivado desde el original el 11 de abril de 2017 . Consultado el 6 de marzo de 2017 .
  77. ^ Cat Zakrzewski (27 de julio de 2015). "Musk, Hawking advierten de armas de inteligencia artificial" . WSJ . Archivado desde el original el 28 de julio de 2015 . Consultado el 4 de agosto de 2017 .
  78. ^ GiveWell (2015). Riesgos potenciales de la inteligencia artificial avanzada (Informe). Archivado desde el original el 12 de octubre de 2015 . Consultado el 11 de octubre de 2015 .
  79. ^ a b Muehlhauser, Luke y Louie Helm. 2012. "Explosión de inteligencia y ética de las máquinas". Archivado el 7 de mayo de 2015 en Wayback Machine . En Singularity Hypotheses: A Scientific and Philosophical Assessment, editado por Amnon Eden, Johnny Søraker, James H. Moor y Eric Steinhart. Berlín: Springer.
  80. ^ a b Bostrom, Nick. 2003. "Problemas éticos en inteligencia artificial avanzada" Archivado el 8 de octubre de 2018 en la Wayback Machine . En Aspectos cognitivos, emocionales y éticos de la toma de decisiones en humanos y en inteligencia artificial, editado por Iva Smit y George E. Lasker, 12-17. Vol. 2. Windsor, ON: Instituto Internacional de Estudios Avanzados en Investigación de Sistemas / Cibernética.
  81. ^ Umbrello, Steven; Baum, Seth D. (1 de junio de 2018). "Evaluación de la nanotecnología futura: los impactos sociales netos de la fabricación atómicamente precisa" . Futuros . 100 : 63–73. doi : 10.1016 / j.futures.2018.04.007 . hdl : 2318/1685533 . ISSN  0016-3287 . Archivado desde el original el 9 de mayo de 2019 . Consultado el 29 de noviembre de 2020 .
  82. ^ Yudkowsky, Eliezer. 2011. "Sistemas de valor complejo en IA amigable" Archivado el 29 de septiembre de 2015 en la Wayback Machine . En Schmidhuber, Thórisson y Looks 2011, 388–393.
  83. ^ Russell, Stuart (8 de octubre de 2019). Compatibilidad humana: la inteligencia artificial y el problema del control . Estados Unidos: Viking. ISBN 978-0-525-55861-3. OCLC  1083694322 .
  84. ^ Yampolskiy, Roman V. (1 de marzo de 2020). "Impredecibilidad de la IA: sobre la imposibilidad de predecir con precisión todas las acciones de un agente más inteligente" . Revista de Inteligencia y Conciencia Artificial . 07 (1): 109-118. doi : 10.1142 / S2705078520500034 . ISSN  2705-0785 . Archivado desde el original el 18 de marzo de 2021 . Consultado el 29 de noviembre de 2020 .
  85. ^ Wallach, Wendell; Vallor, Shannon (2020-09-17), "Moral Machines: From Value Alignment to Embodied Virtue" , Ethics of Artificial Intelligence , Oxford University Press, págs. 383–412, doi : 10.1093 / oso / 9780190905033.003.0014 , ISBN 978-0-19-090503-3, archivado desde el original el 8 de diciembre de 2020 , consultado el 29 de noviembre de 2020
  86. ^ Umbrello, Steven (2019). "Coordinación beneficiosa de la inteligencia artificial mediante un enfoque de diseño sensible al valor" . Big Data y Computación Cognitiva . 3 (1): 5. doi : 10,3390 / bdcc3010005 . Archivado desde el original el 23 de octubre de 2020 . Consultado el 29 de noviembre de 2020 .
  87. ^ Floridi, Luciano; Capuchas, Josh; King, Thomas C .; Taddeo, Mariarosaria (2020). "Cómo diseñar IA para el bien social: siete factores esenciales" . Ética de la ciencia y la ingeniería . 26 (3): 1771-1796. doi : 10.1007 / s11948-020-00213-5 . ISSN  1353-3452 . PMC  7286860 . PMID  32246245 . Archivado desde el original el 18 de marzo de 2021.
  88. ^ Fiegerman, Seth (28 de septiembre de 2016). "Facebook, Google, Amazon crean un grupo para aliviar las preocupaciones de la IA" . CNNMoney .
  89. ^ "Directrices éticas para una IA de confianza" . Dar forma al futuro digital de Europa - Comisión Europea . Comisión Europea. 2019-04-08. Archivado desde el original el 20 de febrero de 2020 . Consultado el 20 de febrero de 2020 .
  90. ^ https://ec.europa.eu/digital-single-market/en/news/white-paper-artificial-intelligence-european-approach-excellence-and-trust
  91. ^ https://www.oecd.ai/
  92. ^ "Hoja de ruta de la administración Obama para la política de inteligencia artificial" . Harvard Business Review . 2016-12-21. ISSN  0017-8012 . Archivado desde el original el 22 de enero de 2021 . Consultado el 16 de marzo de 2021 .
  93. ^ "Acelerando el liderazgo de Estados Unidos en inteligencia artificial - la Casa Blanca" . trumpwhitehouse.archives.gov . Archivado desde el original el 25 de febrero de 2021 . Consultado el 16 de marzo de 2021 .
  94. ^ "Solicitud de Comentarios sobre un Borrador de Memorando a los Jefes de Departamentos y Agencias Ejecutivos," Orientación para la Regulación de Aplicaciones de Inteligencia Artificial " " . Registro Federal . 2020-01-13. Archivado desde el original el 25 de noviembre de 2020 . Consultado el 28 de noviembre de 2020 .
  95. ^ "La CCC ofrece el borrador de la hoja de ruta de la IA a 20 años; busca comentarios" . HPCwire . 2019-05-14. Archivado desde el original el 18 de marzo de 2021 . Consultado el 22 de julio de 2019 .
  96. ^ "Solicitar comentarios sobre el borrador: una hoja de ruta comunitaria de 20 años para la investigación de la IA en los EE. UU.» Blog CCC " . Archivado desde el original el 14 de mayo de 2019 . Consultado el 22 de julio de 2019 .
  97. ^ Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (3 de mayo de 2018). "¿Cuándo superará la IA el rendimiento humano? Evidencia de expertos en IA". arXiv : 1705.08807 [ cs.AI ].
  98. ^ "China quiere dar forma al futuro global de la inteligencia artificial" . Revisión de tecnología del MIT . Archivado desde el original el 20 de noviembre de 2020 . Consultado el 29 de noviembre de 2020 .
  99. ^ Floridi, Luciano; Capuchas, Josh; Beltrametti, Monica; Chatila, Raja; Chazerand, Patrice; Dignum, Virginia; Luetge, Christoph; Madelin, Robert; Pagallo, Ugo; Rossi, Francesca; Schafer, Burkhard (1 de diciembre de 2018). "AI4People: un marco ético para una buena sociedad de IA: oportunidades, riesgos, principios y recomendaciones" . Mentes y Máquinas . 28 (4): 689–707. doi : 10.1007 / s11023-018-9482-5 . ISSN  1572-8641 . PMC  6404626 . PMID  30930541 . Archivado desde el original el 18 de marzo de 2021. |access-date=requiere |url=( ayuda )
  100. ^ "Se lanza un nuevo Instituto de Investigación en Inteligencia Artificial" . 2017-11-20. Archivado desde el original el 18 de septiembre de 2020 . Consultado el 21 de febrero de 2021 .
  101. ^ Hughes, James J .; LaGrandeur, Kevin, eds. (15 de marzo de 2017). Sobrevivir a la era de las máquinas: tecnología inteligente y transformación del trabajo humano . Cham, Suiza. ISBN 978-3-319-51165-8. OCLC  976407024 . Archivado desde el original el 18 de marzo de 2021 . Consultado el 29 de noviembre de 2020 .
  102. ^ Danaher, John. Automatización y utopía: el florecimiento humano en un mundo sin trabajo . Cambridge, Massachusetts. ISBN 978-0-674-24220-3. OCLC  1114334813 .
  103. ^ "Se inauguró oficialmente el Instituto TUM de Ética en Inteligencia Artificial" . www.tum.de . Archivado desde el original el 10 de diciembre de 2020 . Consultado el 29 de noviembre de 2020 .
  104. ^ Cave, Stephen; Dihal, Kanta; Dillon, Sarah, eds. (14 de febrero de 2020). Narrativas de IA: una historia del pensamiento imaginativo sobre máquinas inteligentes (Primera ed.). Oxford. ISBN 978-0-19-258604-9. OCLC  1143647559 . Archivado desde el original el 18 de marzo de 2021 . Consultado el 11 de noviembre de 2020 .
  105. ^ Jerreat-Poole, Adam (1 de febrero de 2020). "Enfermo, lento, Cyborg: Crip Futurity en Mass Effect" . Estudios de juegos . 20 . ISSN  1604-7982 . Archivado desde el original el 9 de diciembre de 2020 . Consultado el 11 de noviembre de 2020 .
  106. ^ Cerqui, Daniela; Warwick, Kevin (2008), "Rediseño de la humanidad: el surgimiento de los cyborgs, ¿una meta deseable?" , Filosofía y diseño , Dordrecht: Springer Países Bajos, págs. 185–195, doi : 10.1007 / 978-1-4020-6591-0_14 , ISBN 978-1-4020-6590-3, archivado desde el original el 18 de marzo de 2021 , consultado el 11 de noviembre de 2020
  107. ^ Cave, Stephen; Dihal, Kanta (6 de agosto de 2020). "La blancura de la IA". Filosofía y Tecnología . 33 (4): 685–703. doi : 10.1007 / s13347-020-00415-6 .

  • Ética de la inteligencia artificial y la robótica en la Enciclopedia de Filosofía de Stanford
  • Russell, S .; Hauert, S .; Altman, R .; Veloso, M. (mayo de 2015). "Robótica: Ética de la inteligencia artificial". Naturaleza . 521 (7553): 415–418. Código Bibliográfico : 2015Natur.521..415. . doi : 10.1038 / 521415a . PMID  26017428 . S2CID  4452826 .
  • BBC News: Juegos que cobran vida propia
  • ¿Quién le teme a los robots? , un artículo sobre el miedo de la humanidad a la inteligencia artificial.
  • Una breve historia de la ética informática
  • Inventario global de directrices éticas de IA por Algorithmwatch
  • Hagendorff, Thilo (marzo de 2020). "La ética de la ética de la IA: una evaluación de las directrices". Mentes y Máquinas . 30 (1): 99-120. doi : 10.1007 / s11023-020-09517-8 . S2CID  72940833 .