El Machine Intelligence Research Institute ( MIRI ), anteriormente el Singularity Institute for Artificial Intelligence ( SIAI ), es un instituto de investigación sin fines de lucro centrado desde 2005 en identificar y gestionar los posibles riesgos existenciales de la inteligencia artificial general . El trabajo de MIRI se ha centrado en un enfoque de IA amigable para el diseño de sistemas y en predecir la tasa de desarrollo tecnológico.
Formación | 2000 |
---|---|
Tipo | Instituto de investigación sin fines de lucro |
Propósito | Investigación sobre la inteligencia artificial amigable y el problema del control de la IA |
Localización | |
Gente clave | Eliezer Yudkowsky |
Sitio web | inteligencia |
Historia
En 2000, Eliezer Yudkowsky fundó el Singularity Institute for Artificial Intelligence con financiación de Brian y Sabine Atkins, con el objetivo de acelerar el desarrollo de la inteligencia artificial (IA). [1] [2] [3] Sin embargo, Yudkowsky comenzó a preocuparse de que los sistemas de inteligencia artificial desarrollados en el futuro pudieran volverse superinteligentes y presentar riesgos para la humanidad, [1] y en 2005 el instituto se mudó a Silicon Valley y comenzó a enfocarse en formas para identificar y gestionar esos riesgos, que en ese momento fueron ignorados en gran medida por los científicos en el campo. [2]
A partir de 2006, el Instituto organizó la Cumbre de Singularidad para discutir el futuro de la IA, incluidos sus riesgos, inicialmente en cooperación con la Universidad de Stanford y con financiación de Peter Thiel . El San Francisco Chronicle describió la primera conferencia como una "fiesta de presentación en el Área de la Bahía de la filosofía inspirada en la tecnología llamada transhumanismo". [4] [5] En 2011, sus oficinas eran cuatro apartamentos en el centro de Berkeley. [6] En diciembre de 2012, el instituto vendió su nombre, dominio web y Singularity Summit a Singularity University , [7] y al mes siguiente tomó el nombre de "Machine Intelligence Research Institute". [8]
En 2014 y 2015, creció el interés público y científico en los riesgos de la IA, aumentando las donaciones para financiar la investigación en MIRI y organizaciones similares. [3] [9] : 327
En 2019, Open Philanthropy recomendó una subvención de apoyo general de aproximadamente $ 2.1 millones durante dos años para MIRI. [10] En abril de 2020, Open Philanthropy complementó esto con una subvención de $ 7,7 millones durante dos años. [11] [12]
En 2021, Vitalik Buterin donó varios millones de dólares en Ethereum a MIRI. [13]
Investigación y enfoque
El enfoque de MIRI para identificar y gestionar los riesgos de la IA, dirigido por Yudkowsky, aborda principalmente cómo diseñar una IA amigable, cubriendo tanto el diseño inicial de los sistemas de IA como la creación de mecanismos para garantizar que los sistemas de IA en evolución sigan siendo amigables. [3] [14] [15]
Los investigadores del MIRI abogan por el trabajo temprano de seguridad como medida de precaución. [16] Sin embargo, los investigadores de MIRI han expresado su escepticismo sobre las opiniones de defensores de la singularidad como Ray Kurzweil de que la superinteligencia está "a la vuelta de la esquina". [14] MIRI ha financiado el trabajo de predicción a través de una iniciativa llamada AI Impacts, que estudia instancias históricas de cambio tecnológico discontinuo y ha desarrollado nuevas medidas del poder computacional relativo de los seres humanos y el hardware informático. [17]
MIRI se alinea con los principios y objetivos del movimiento de altruismo efectivo . [18]
Obras del personal de MIRI
- Graves, Matthew (8 de noviembre de 2017). "Por qué deberíamos preocuparnos por la superinteligencia artificial" . Escéptico . La sociedad de los escépticos . Consultado el 28 de julio de 2018 .
- LaVictoire, Patrick; Fallenstein, Benja; Yudkowsky, Eliezer ; Bárász, Mihály; Christiano, Paul; Herreshoff, Marcello (2014). "Programa de equilibrio en el dilema del prisionero a través del teorema de Löb" . Interacción multiagente sin coordinación previa: artículos del taller AAAI-14 . Publicaciones AAAI.
- Soares, Nate; Levinstein, Benjamin A. (2017). "Engañando a la muerte en Damasco" (PDF) . Taller formal de epistemología (FEW) . Consultado el 28 de julio de 2018 .
- Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer ; Armstrong, Stuart (2015). "Corrigibilidad" . Talleres de AAAI: Talleres en la Vigésimo Novena Conferencia de AAAI sobre Inteligencia Artificial, Austin, TX, del 25 al 26 de enero de 2015 . Publicaciones AAAI.
- Soares, Nate; Fallenstein, Benja (2015). "Alineación de la superinteligencia con los intereses humanos: una agenda de investigación técnica" (PDF) . En Miller, James; Yampolskiy, Roman; Armstrong, Stuart; et al. (eds.). La singularidad tecnológica: gestionar el viaje . Saltador.
- Yudkowsky, Eliezer (2008). "La inteligencia artificial como factor positivo y negativo en el riesgo global" (PDF) . En Bostrom, Nick ; Ćirković, Milán (eds.). Riesgos catastróficos globales . Prensa de la Universidad de Oxford. ISBN 978-0199606504.
- Taylor, Jessica (2016). "Cuantilizadores: una alternativa más segura a los maximizadores para una optimización limitada" . Talleres en la XXX Conferencia AAAI sobre Inteligencia Artificial .
- Yudkowsky, Eliezer (2011). "Sistemas de valor complejos en IA amigable" (PDF) . Inteligencia artificial general: 4ª Conferencia Internacional, AGI 2011, Mountain View, CA, EE. UU., 3 al 6 de agosto de 2011 . Berlín: Springer.
Ver también
- Instituto Allen de Inteligencia Artificial
- Instituto del Futuro de la Humanidad
- Instituto de Ética y Tecnologías Emergentes
Referencias
- ^ a b "MIRI: Inteligencia artificial: el peligro de las buenas intenciones - Instituto del futuro de la vida" . Instituto del Futuro de la Vida . 11 de octubre de 2015. Archivado desde el original el 28 de agosto de 2018 . Consultado el 28 de agosto de 2018 .
- ^ a b Khatchadourian, Raffi. "La invención del día del juicio final" . The New Yorker . Archivado desde el original el 29 de abril de 2019 . Consultado el 28 de agosto de 2018 .
- ^ a b c Waters, Richard (31 de octubre de 2014). "Inteligencia artificial: máquina v hombre" . Financial Times . Archivado desde el original el 27 de agosto de 2018 . Consultado el 27 de agosto de 2018 .
- ^ Abate, Tom (2006). "¿Más inteligente que tú?" . Crónica de San Francisco . Archivado desde el original el 11 de febrero de 2011 . Consultado el 12 de octubre de 2015 .
- ^ Abate, Tom (2007). "La reunión pública reexaminará el futuro de la inteligencia artificial" . Crónica de San Francisco . Archivado desde el original el 14 de enero de 2016 . Consultado el 12 de octubre de 2015 .
- ^ Kaste, Martin (11 de enero de 2011). "La singularidad: ¿la última invención de la humanidad?" . Todas las cosas consideradas, NPR . Archivado desde el original el 28 de agosto de 2018 . Consultado el 28 de agosto de 2018 .
- ^ "Comunicado de prensa: Singularity University adquiere el Singularity Summitt" . Universidad de la Singularidad . 9 de diciembre de 2012. Archivado desde el original el 27 de abril de 2019 . Consultado el 28 de agosto de 2018 .
- ^ "Comunicado de prensa: ahora somos el" Instituto de Investigación de Inteligencia de Máquina "(MIRI) - Instituto de Investigación de Inteligencia de Máquina" . Instituto de Investigación en Inteligencia de Máquina . 30 de enero de 2013. Archivado desde el original el 23 de septiembre de 2018 . Consultado el 28 de agosto de 2018 .
- ^ Tegmark, Max (2017). Life 3.0: Ser humano en la era de la inteligencia artificial . Estados Unidos: Knopf . ISBN 978-1-101-94659-6.
- ^ "Instituto de Investigación de Inteligencia de Máquina - Soporte General (2019)" . Proyecto de Filantropía Abierta . 2019-03-29. Archivado desde el original el 8 de octubre de 2019 . Consultado el 8 de octubre de 2019 .
- ^ "Instituto de Investigación de Inteligencia de Máquina - Soporte General (2020)" . Proyecto de Filantropía Abierta. Archivado desde el original el 13 de abril de 2020.
- ^ Bensinger, Rob (27 de abril de 2020). "¡La mayor subvención de MIRI hasta la fecha!" . MIRI. Archivado desde el original el 27 de abril de 2020 . Consultado el 27 de abril de 2020 .
- ^ https://www.forbes.com/sites/ninabambysheva/2021/05/12/ethereums-co-founder-vitalik-buterin-donates-over-1-billion-to-india-covid-relief-fund-and -otras-organizaciones-benéficas /
- ^ a b LaFrance, Adrienne (2015). "Construyendo robots con mejor moral que los humanos" . El Atlántico . Archivado desde el original el 19 de agosto de 2015 . Consultado el 12 de octubre de 2015 .
- ^ Russell, Stuart ; Norvig, Peter (2009). Inteligencia artificial: un enfoque moderno . Prentice Hall. ISBN 978-0-13-604259-4.
- ^ Sathian, Sanjena (4 de enero de 2016). "Los filósofos más importantes de nuestro tiempo residen en Silicon Valley" . OZY . OZY. Archivado desde el original el 29 de julio de 2018 . Consultado el 28 de julio de 2018 .
- ^ Hsu, Jeremy (2015). "Asegurarse de que el rápido aumento de la IA no sea una sorpresa" . Descubrir . Archivado desde el original el 12 de octubre de 2015 . Consultado el 12 de octubre de 2015 .
- ^ "IA y altruismo efectivo" . Instituto de Investigación en Inteligencia de Máquina . 2015-08-28. Archivado desde el original el 8 de octubre de 2019 . Consultado el 8 de octubre de 2019 .
Otras lecturas
- Russell, Stuart; Dewey, Daniel; Tegmark, Max (invierno de 2015). "Prioridades de investigación para la inteligencia artificial robusta y beneficiosa". Revista AI . 36 (4): 6. arXiv : 1602.03506 . Código bibliográfico : 2016arXiv160203506R .
enlaces externos
- Página web oficial