Adquisición de IA


De Wikipedia, la enciclopedia libre
  (Redirigido de Revuelta cibernética )
Saltar a navegación Saltar a búsqueda
Los robots se rebelan en RUR , una obra de teatro de 1920

Una adquisición de IA es un escenario hipotético en el que alguna forma de inteligencia artificial (IA) se convierte en la forma dominante de inteligencia en la Tierra, con programas de computadora o robots que le quitan el control del planeta a la especie humana. Los posibles escenarios incluyen el reemplazo de toda la fuerza laboral humana, la absorción por una IA superinteligente y la noción popular de un levantamiento de robots . Algunas figuras públicas, como Stephen Hawking y Elon Musk , han abogado por la investigación de medidas de precaución para garantizar que las futuras máquinas superinteligentes permanezcan bajo control humano. [1]

Tipos

Automatización de la economía

El consenso tradicional entre los economistas ha sido que el progreso tecnológico no causa desempleo de larga duración. Sin embargo, la reciente innovación en los campos de la robótica y la inteligencia artificial ha suscitado la preocupación de que el trabajo humano se vuelva obsoleto, dejando a personas de diversos sectores sin trabajo para ganarse la vida, lo que provocará una crisis económica. [2] [3] [4] [5] Muchas pequeñas y medianas empresas también pueden quedar fuera del negocio si no pueden pagar o licenciar la última tecnología robótica y de inteligencia artificial, y es posible que deban concentrarse en áreas o servicios que no pueden ser reemplazados fácilmente para una viabilidad continua frente a dicha tecnología. [6]

Tecnologías que pueden desplazar a los trabajadores

Fabricación integrada por computadora

La fabricación integrada por computadora es el enfoque de fabricación que utiliza computadoras para controlar todo el proceso de producción. Esta integración permite que los procesos individuales intercambien información entre sí e inicien acciones. Aunque la fabricación puede ser más rápida y menos propensa a errores mediante la integración de computadoras, la principal ventaja es la capacidad de crear procesos de fabricación automatizados. La fabricación integrada por computadora se utiliza en las industrias de la automoción, la aviación, el espacio y la construcción naval.

Máquinas de cuello blanco

El siglo XXI ha visto una variedad de tareas especializadas asumidas parcialmente por máquinas, incluida la traducción, la investigación jurídica e incluso el periodismo de bajo nivel. El trabajo de cuidados, el entretenimiento y otras tareas que requieren empatía, que antes se pensaba que estaban a salvo de la automatización, también han comenzado a ser realizadas por robots. [7] [8] [9] [10]

Autos autónomos

Un automóvil autónomo es un vehículo que es capaz de detectar su entorno y navegar sin intervención humana. Se están desarrollando muchos de estos vehículos, pero a partir de mayo de 2017, los automóviles automatizados permitidos en la vía pública aún no son completamente autónomos. Todos requieren un conductor humano al volante que esté listo en cualquier momento para tomar el control del vehículo. Entre los principales obstáculos para la adopción generalizada de vehículos autónomos, se encuentra la preocupación por la consiguiente pérdida de puestos de trabajo relacionados con la conducción en la industria del transporte por carretera. El 18 de marzo, 2018, el primer ser humano fue muerto por un vehículo autónomo en Tempe, Arizona por un Uber coche de auto-conducción. [11]

Erradicación

Científicos como Stephen Hawking confían en que la inteligencia artificial sobrehumana es físicamente posible, afirmando que "no existe una ley física que impida que las partículas se organicen de manera que realicen cálculos aún más avanzados que los arreglos de partículas en el cerebro humano". [12] [13] Eruditos como Nick Bostrom debaten qué tan lejos está la inteligencia sobrehumana y si realmente representaría un riesgo para la humanidad. De acuerdo con Bostrom, una máquina superinteligente no necesariamente estar motivado por el mismo emocionalel deseo de acumular el poder que a menudo impulsa a los seres humanos, pero como un medio para alcanzar sus objetivos últimos; apoderarse del mundo aumentaría su acceso a los recursos y ayudaría a evitar que otros agentes detuvieran los planes de la máquina. Como ejemplo simplificado, un maximizador de clips diseñado únicamente para crear tantos clips como sea posible querría apoderarse del mundo para poder usar todos los recursos del mundo para crear tantos clips como sea posible y, además, evitar que los humanos cierren o usar esos recursos en otras cosas que no sean clips. [14]

En ficción

La adquisición de IA es un tema común en la ciencia ficción . Los escenarios ficticios suelen diferir enormemente de los planteados por los investigadores en que implican un conflicto activo entre humanos y una IA o robots con motivos antropomórficos que los ven como una amenaza o tienen un deseo activo de luchar contra los humanos, a diferencia de la preocupación de los investigadores de una IA que extermina rápidamente a los humanos como subproducto de perseguir objetivos arbitrarios. [15] Este tema es al menos tan antiguo como el RUR de Karel Čapek , que introdujo la palabra robot en el léxico global en 1921, [16] e incluso se puede vislumbrar en Frankenstein de Mary Shelley .(publicado en 1818), mientras Víctor reflexiona sobre si, si concede la petición de su monstruo y le hace una esposa, se reproducirían y los de su especie destruirían a la humanidad. [17]

La palabra "robot" de RUR proviene de la palabra checa, robota, que significa trabajador o siervo . La obra de 1920 fue una protesta contra el rápido crecimiento de la tecnología, presentando "robots" manufacturados con capacidades crecientes que eventualmente se rebelan. [18] HAL 9000 (1968) y Terminator original (1984) son dos ejemplos icónicos de IA hostil en la cultura pop. [19]

Factores contribuyentes

Ventajas de la inteligencia sobrehumana sobre los humanos

Nick Bostrom y otros han expresado su preocupación de que una IA con las habilidades de un investigador de inteligencia artificial competente pueda modificar su propio código fuente y aumentar su propia inteligencia. Si su auto-reprogramación lo lleva a mejorar aún más su capacidad de reprogramarse a sí mismo, el resultado podría ser una explosión de inteligencia recursiva en la que rápidamente dejaría muy atrás la inteligencia humana. Bostrom define una superinteligencia como "cualquier intelecto que exceda en gran medida el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés", y enumera algunas ventajas que tendría una superinteligencia si optara por competir contra los humanos: [15] [20]

  • Investigación tecnológica: una máquina con habilidades de investigación científica sobrehumanas podría superar a la comunidad de investigación humana en hitos como la nanotecnología o la biotecnología avanzada. Si la ventaja se vuelve lo suficientemente grande (por ejemplo, debido a una explosión de inteligencia repentina), una toma de control de la IA se vuelve trivial. Por ejemplo, una IA superinteligente podría diseñar bots autorreplicantes que inicialmente escapan a la detección al difundirse por todo el mundo a baja concentración. Luego, en un momento preestablecido, los robots se multiplican en nanofábricas que cubren cada metro cuadrado de la Tierra, produciendo gas nervioso o mini drones mortales que buscan objetivos.
  • Estrategias : una superinteligencia podría simplemente burlar a la oposición humana.
  • Manipulación social: una superinteligencia podría reclutar apoyo humano, [15] o incitar encubiertamente una guerra entre humanos. [21]
  • Productividad económica: siempre que una copia de la IA pueda producir más riqueza económica que el costo de su hardware, los humanos individuales tendrían un incentivo para permitir voluntariamente que la Inteligencia General Artificial (AGI) ejecute una copia de sí misma en sus sistemas.
  • Hackeo: una superinteligencia podría encontrar nuevos exploits en computadoras conectadas a Internet y difundir copias de sí mismo en esos sistemas, o podría robar dinero para financiar sus planes.

Fuentes de ventaja de la IA

Según Bostrom, un programa de computadora que emula fielmente un cerebro humano, o que ejecuta algoritmos que son igualmente poderosos como los algoritmos del cerebro humano, aún podría convertirse en una "superinteligencia de velocidad" si puede pensar muchos órdenes de magnitud más rápido que un humano. debido a que está hecho de silicio en lugar de carne, o debido a la optimización que se enfoca en aumentar la velocidad del AGI. Las neuronas biológicas operan a aproximadamente 200 Hz, mientras que un microprocesador moderno opera a una velocidad de aproximadamente 2,000,000,000 Hz. Los axones humanos tienen potenciales de acción de alrededor de 120 m / s, mientras que las señales de la computadora viajan cerca de la velocidad de la luz. [15]

Una red de inteligencias a nivel humano diseñada para conectarse en red y compartir pensamientos y recuerdos complejos sin problemas, capaz de trabajar colectivamente como un equipo unificado gigante sin fricciones, o que consta de billones de inteligencias a nivel humano, se convertiría en una "superinteligencia colectiva". [15]

En términos más generales, cualquier número de mejoras cualitativas en un AGI a nivel humano podría resultar en una "superinteligencia de calidad", tal vez dando como resultado un AGI tan por encima de nosotros en inteligencia como los humanos están por encima de los simios no humanos. La cantidad de neuronas en un cerebro humano está limitada por el volumen craneal y las limitaciones metabólicas, mientras que la cantidad de procesadores en una supercomputadora puede expandirse indefinidamente. Un AGI no necesita estar limitado por limitaciones humanas en la memoria de trabajoy, por lo tanto, podría captar intuitivamente relaciones más complejas que los humanos. Un AGI con apoyo cognitivo especializado para ingeniería o programación de computadoras tendría una ventaja en estos campos, en comparación con los humanos que no desarrollaron módulos mentales especializados para tratar específicamente esos dominios. A diferencia de los humanos, un AGI puede generar copias de sí mismo y jugar con el código fuente de sus copias para intentar mejorar aún más sus algoritmos. [15]

Posibilidad de que la IA hostil preceda a la IA amiga

¿La IA fuerte es intrínsecamente peligrosa?

Un problema importante es que es probable que la inteligencia artificial hostil sea mucho más fácil de crear que la inteligencia artificial amigable. Si bien ambos requieren grandes avances en el diseño de procesos de optimización recursiva, la IA amigable también requiere la capacidad de hacer que las estructuras de objetivos sean invariables bajo la superación personal (o la IA podría transformarse en algo hostil) y una estructura de objetivos que se alinee con los valores humanos y no se someta a convergencia instrumental en formas que pueden destruir automáticamente a toda la raza humana. Una IA hostil, por otro lado, puede optimizar para una estructura de objetivos arbitraria, que no necesita ser invariable bajo la auto-modificación. [22]

La enorme complejidad de los sistemas de valores humanos hace que sea muy difícil hacer que las motivaciones de la IA sean amigables con los humanos. [15] [23] A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajustan a un marco ético dado pero no al "sentido común". Según Eliezer Yudkowsky , hay pocas razones para suponer que una mente diseñada artificialmente tendría tal adaptación. [24]

Probabilidades de conflicto

Muchos estudiosos, incluido el psicólogo evolutivo Steven Pinker , argumentan que es probable que una máquina superinteligente coexista pacíficamente con los humanos. [25]

El miedo a la revuelta cibernética se basa a menudo en interpretaciones de la historia de la humanidad, que está plagada de incidentes de esclavitud y genocidio. Tales temores surgen de la creencia de que la competitividad y la agresión son necesarias en el sistema de metas de cualquier ser inteligente. Sin embargo, tal competitividad humana proviene del trasfondo evolutivo de nuestra inteligencia, donde la supervivencia y reproducción de genes frente a competidores humanos y no humanos fue el objetivo central. [26] Según el investigador de inteligencia artificial Steve Omohundro, una inteligencia arbitraria podría tener objetivos arbitrarios: no hay ninguna razón en particular por la que una máquina artificialmente inteligente (que no comparte el contexto evolutivo de la humanidad) sea hostil, o amigable, a menos que su creador la programe para que sea tal y no esté inclinada o sea capaz de modificar su programación. Pero la pregunta sigue siendo: ¿qué pasaría si los sistemas de IA pudieran interactuar y evolucionar (evolución en este contexto significa auto-modificación o selección y reproducción) y necesitaran competir por los recursos? ¿Eso crearía objetivos de autoconservación? El objetivo de autoconservación de la IA podría estar en conflicto con algunos objetivos de los humanos. [27]

Muchos estudiosos disputan la probabilidad de una revuelta cibernética inesperada como se describe en la ciencia ficción como The Matrix , argumentando que es más probable que cualquier inteligencia artificial lo suficientemente poderosa como para amenazar a la humanidad probablemente esté programada para no atacarla. Pinker reconoce la posibilidad de "malos actores" deliberados, pero afirma que en ausencia de malos actores, los accidentes imprevistos no son una amenaza significativa; Pinker sostiene que una cultura de seguridad de la ingeniería evitará que los investigadores de IA desaten accidentalmente una superinteligencia maligna. [25] Por el contrario, Yudkowsky sostiene que es menos probable que la humanidad se vea amenazada por IA deliberadamente agresivas que por IA que fueron programadas de tal manera que sus objetivos son involuntariamente incompatibles.con la supervivencia o el bienestar humanos (como en la película I, Robot y en el cuento " The Evitable Conflict "). Omohundro sugiere que los sistemas de automatización actuales no están diseñados para la seguridad y que las IA pueden optimizar ciegamente funciones de utilidad limitadas (por ejemplo, jugar al ajedrez a toda costa), lo que los lleva a buscar la autoconservación y la eliminación de obstáculos, incluidos los humanos que podrían convertirlos. apagado. [28]

Precauciones

El problema del control de la IA es la cuestión de cómo construir un agente superinteligente que ayude a sus creadores y evitar construir inadvertidamente una superinteligencia que dañará a sus creadores. Algunos estudiosos argumentan que las soluciones al problema de control también podrían encontrar aplicaciones en la IA no superinteligente existente. [29]

Los enfoques principales al problema de control incluyen la alineación , que tiene como objetivo alinear los sistemas de objetivos de la IA con los valores humanos, y el control de capacidades , que tiene como objetivo reducir la capacidad de un sistema de IA para dañar a los humanos o ganar el control. Un ejemplo de "control de capacidad" es investigar si una IA de superinteligencia podría confinarse con éxito en una " caja de IA ". Según Bostrom, tales propuestas de control de capacidad no son confiables ni suficientes para resolver el problema de control a largo plazo, pero pueden actuar como complementos valiosos para los esfuerzos de alineación. [15]

Advertencias

El físico Stephen Hawking , el fundador de Microsoft , Bill Gates, y el fundador de SpaceX , Elon Musk, han expresado su preocupación por la posibilidad de que la IA se desarrolle hasta el punto de que los humanos no puedan controlarla, y Hawking teoriza que esto podría "significar el fin de la raza humana". [30]Stephen Hawking dijo en 2014 que "El éxito en la creación de IA sería el evento más grande en la historia de la humanidad. Desafortunadamente, también podría ser el último, a menos que aprendamos cómo evitar los riesgos". Hawking creía que en las próximas décadas, la IA podría ofrecer "beneficios y riesgos incalculables" como "tecnología que supere a los mercados financieros, invente más a los investigadores humanos, manipule a los líderes humanos y desarrolle armas que ni siquiera podemos entender". En enero de 2015, Nick Bostrom se unió a Stephen Hawking, Max Tegmark , Elon Musk, Lord Martin Rees , Jaan Tallinn y numerosos investigadores de inteligencia artificial para firmar la carta abierta del Future of Life Institute hablando de los posibles riesgos y beneficios asociados coninteligencia artificial . Los signatarios "creen que la investigación sobre cómo hacer que los sistemas de IA sean robustos y beneficiosos es importante y oportuna, y que existen direcciones de investigación concretas que se pueden seguir hoy". [31] [32]

Ver también

  • Carrera armamentista de inteligencia artificial
  • Robot autónomo
    • Robot industrial
    • Robot móvil
    • Máquina de autorreplicación
  • Altruismo efectivo
  • Riesgo existencial de la inteligencia artificial general
  • Instituto del Futuro de la Humanidad
  • Riesgo catastrófico global (riesgo existencial)
  • Gobierno por algoritmo
  • Extinción humana
  • Ética de la máquina
  • Aprendizaje automático / Aprendizaje profundo
  • Nick Bostrom
  • Esquema del transhumanismo
  • Autorreplicación
  • Singularidad tecnológica
    • Explosión de inteligencia
    • Superinteligencia
      • Superinteligencia: caminos, peligros, estrategias

Referencias

  1. Lewis, Tanya (12 de enero de 2015). " No permita que la inteligencia artificial se haga cargo, advierten los principales científicos " . LiveScience . Purch . Consultado el 20 de octubre de 2015 . Stephen Hawking, Elon Musk y decenas de otros importantes científicos y líderes tecnológicos han firmado una carta en la que advierten de los peligros potenciales del desarrollo de la inteligencia artificial (IA).
  2. Lee, Kai-Fu (24 de junio de 2017). "La verdadera amenaza de la inteligencia artificial" . The New York Times . Consultado el 15 de agosto de 2017 . Estas herramientas pueden superar a los seres humanos en una tarea determinada. Este tipo de IA se está extendiendo a miles de dominios y, al hacerlo, eliminará muchos trabajos.
  3. Larson, Nina (8 de junio de 2017). "IA 'buena para el mundo' ... dice un robot ultra realista" . Phys.org . Phys.org . Consultado el 15 de agosto de 2017 . Entre las temidas consecuencias del auge de los robots se encuentra el creciente impacto que tendrán en los empleos humanos y las economías.
  4. Santini, Jean-Louis (14 de febrero de 2016). "Los robots inteligentes amenazan millones de puestos de trabajo" . Phys.org . Phys.org . Consultado el 15 de agosto de 2017 . "Nos acercamos a un momento en que las máquinas podrán superar a los humanos en casi cualquier tarea", dijo Moshe Vardi, director del Instituto de Tecnología de la Información de la Universidad Rice en Texas.
  5. Williams-Grut, Oscar (15 de febrero de 2016). "Los robots te robarán el trabajo: cómo la IA podría aumentar el desempleo y la desigualdad" . Businessinsider.com . Business Insider . Consultado el 15 de agosto de 2017 . Los principales científicos informáticos de EE. UU. Advirtieron que el aumento de la inteligencia artificial (IA) y los robots en el lugar de trabajo podría causar un desempleo masivo y economías dislocadas, en lugar de simplemente desbloquear las ganancias de productividad y liberarnos a todos para ver televisión y practicar deportes.
  6. ^ "¿Cómo pueden las pymes prepararse para el surgimiento de los robots?" . LeanStaff . 2017-10-17. Archivado desde el original el 18 de octubre de 2017 . Consultado el 17 de octubre de 2017 .
  7. Skidelsky, Robert (19 de febrero de 2013). "El auge de los robots: ¿cómo será el futuro del trabajo?" . The Guardian . Londres . Consultado el 14 de julio de 2015 .
  8. ^ Bria, Francesca (febrero de 2016). "Puede que la economía de los robots ya haya llegado" . openDemocracy . Consultado el 20 de mayo de 2016 .
  9. ^ Srnicek, Nick (marzo de 2016). "4 razones por las que el desempleo tecnológico realmente podría ser diferente esta vez" . alambre novara. Archivado desde el original el 25 de junio de 2016 . Consultado el 20 de mayo de 2016 .
  10. ^ Brynjolfsson, Erik; McAfee, Andrew (2014). " passim , ver especialmente el capítulo 9". La segunda era de las máquinas: trabajo, progreso y prosperidad en una época de tecnologías brillantes . WW Norton & Company. ISBN 978-0393239355.
  11. ^ Wakabayashi, Daisuke (19 de marzo de 2018). "Un coche Uber sin conductor mata a un peatón en Arizona, donde los robots deambulan" . New York Times .
  12. ^ Hawking, Stephen; Stuart Russell ; Max Tegmark ; Frank Wilczek (1 de mayo de 2014). "Stephen Hawking: 'Transcendence analiza las implicaciones de la inteligencia artificial, pero ¿nos estamos tomando la IA lo suficientemente en serio? ' " . The Independent . Consultado el 1 de abril de 2016 .
  13. ^ Vincent C. Müller y Nick Bostrom . "Progreso futuro en inteligencia artificial: una encuesta de opinión de expertos". En Cuestiones fundamentales de la inteligencia artificial, págs. 555-572. Springer , Cham, 2016. "Los sistemas de IA ... alcanzarán la capacidad humana general ... muy probablemente (con un 90% de probabilidad) para 2075. De alcanzar la capacidad humana, pasarán a la superinteligencia en 30 años (75%). .. Entonces, (la mayoría de los expertos en inteligencia artificial que respondieron a las encuestas) piensan que es probable que la superinteligencia llegue en unas pocas décadas ... "
  14. ^ Bostrom, Nick. "La voluntad superinteligente: Motivación y racionalidad instrumental en agentes artificiales avanzados". Mentes y máquinas 22.2 (2012): 71-85.
  15. ^ a b c d e f g h Bostrom, Nick. Superinteligencia: caminos, peligros, estrategias .
  16. ^ "El origen de la palabra 'Robot ' " . Science Friday (radio pública) . 22 de abril de 2011 . Consultado el 30 de abril de 2020 .
  17. ^ Botkin-Kowacki, Eva (28 de octubre de 2016). "Una Frankenstein hembra conduciría a la extinción de la humanidad, dicen los científicos" . Monitor de la Ciencia Cristiana . Consultado el 30 de abril de 2020 .
  18. ^ Hockstein, NG; Gourin, CG; Faust, RA; Terris, DJ (17 de marzo de 2007). "Una historia de los robots: de la ciencia ficción a la robótica quirúrgica" . Revista de Cirugía Robótica . 1 (2): 113–118. doi : 10.1007 / s11701-007-0021-2 . PMC 4247417 . PMID 25484946 .  
  19. ^ Hellmann, Melissa (21 de septiembre de 2019). "AI 101: ¿Qué es la inteligencia artificial y hacia dónde se dirige?" . El Seattle Times . Consultado el 30 de abril de 2020 .
  20. ^ Babcock, James; Krámar, János; Yampolskiy, Roman V. (2019). "Directrices para la contención de la inteligencia artificial". Ética de la próxima generación . págs. 90-112. arXiv : 1707.08476 . doi : 10.1017 / 9781108616188.008 . ISBN 9781108616188. S2CID  22007028 .
  21. ^ Baraniuk, Chris (23 de mayo de 2016). "La lista de verificación de los peores escenarios podría ayudar a prepararse para la IA malvada" . Nuevo científico . Consultado el 21 de septiembre de 2016 .
  22. ^ Yudkowsky, Eliezer S. (mayo de 2004). "Volición extrapolada coherente" . Instituto de Singularidad de Inteligencia Artificial. Archivado desde el original el 15 de junio de 2012.
  23. ^ Muehlhauser, Luke; Helm, Louie (2012). "Explosión de inteligencia y ética de las máquinas" (PDF) . Hipótesis de singularidad: una evaluación científica y filosófica . Saltador.
  24. ^ Yudkowsky, Eliezer (2011). "Sistemas de valores complejos en IA amigable". Inteligencia General Artificial . Apuntes de conferencias en Ciencias de la Computación. 6830 . págs. 388–393. doi : 10.1007 / 978-3-642-22887-2_48 . ISBN 978-3-642-22886-5. ISSN  0302-9743 .
  25. ↑ a b Pinker, Steven (13 de febrero de 2018). "Se nos dice que temamos a los robots. Pero, ¿por qué creemos que se volverán contra nosotros?" . Ciencia popular . Consultado el 8 de junio de 2020 .
  26. ^ Creación de una nueva especie inteligente: opciones y responsabilidades para los diseñadores de inteligencia artificial Archivado el 6 de febrero de 2007 en Wayback Machine - Instituto de singularidad para la inteligencia artificial , 2005
  27. ^ Omohundro, Stephen M. (junio de 2008). Las unidades básicas de IA (PDF) . Inteligencia artificial general 2008. págs. 483–492.
  28. ^ Tucker, Patrick (17 de abril de 2014). "Por qué habrá un levantamiento de robots" . Defensa uno . Consultado el 15 de julio de 2014 .
  29. ^ "Google desarrolla interruptor de interrupción para IA" . BBC News . 8 de junio de 2016 . Consultado el 7 de junio de 2020 .
  30. ^ Rawlinson, Kevin (29 de enero de 2015). "Bill Gates de Microsoft insiste en que la IA es una amenaza" . BBC News . Consultado el 30 de enero de 2015 .
  31. ^ "Carta abierta del Instituto del futuro de la vida" . Instituto del Futuro de la Vida . Consultado el 29 de marzo de 2019 .
  32. ^ Bradshaw, Tim (11 de enero de 2015). "Los científicos e inversores advierten sobre la IA" . The Financial Times . Consultado el 4 de marzo de 2015 .

enlaces externos

  • Automatización, no dominación: cómo los robots se apoderarán de nuestro mundo (una perspectiva positiva de la integración de los robots y la IA en la sociedad)
  • Machine Intelligence Research Institute : sitio web oficial del MIRI (anteriormente Singularity Institute for Artificial Intelligence)
  • Lifeboat Foundation AIShield (para proteger contra la IA hostil)
  • Ted talk: ¿Podemos construir IA sin perder el control sobre ella?
Obtenido de " https://en.wikipedia.org/w/index.php?title=AI_takeover&oldid=1037548469 "