Eliezer Shlomo Yudkowsky (nacido el 11 de septiembre de 1979) es un teórico y escritor estadounidense de inteligencia artificial (IA) más conocido por popularizar la idea de la inteligencia artificial amigable . [1] [2] Es cofundador [3] e investigador del Instituto de Investigación de Inteligencia de Máquinas (MIRI), una organización de investigación privada sin fines de lucro con sede en Berkeley, California . [4] Su trabajo en la perspectiva de un fugitivo explosión de inteligencia era una influencia sobre Nick Bostrom 's super-inteligencia: Caminos, Peligros, estrategias . [5]
Eliezer Yudkowsky | |
---|---|
Nació | |
Nacionalidad | americano |
Organización | Instituto de Investigación de Inteligencia Artificial |
Conocido por | Creando el término inteligencia artificial amigable Investigación sobre seguridad en IA Escritura de racionalidad Fundador de LessWrong |
Sitio web | yudkowsky |
Trabajar en seguridad de inteligencia artificial
Aprendizaje de objetivos e incentivos en sistemas de software
Las opiniones de Yudkowsky sobre los desafíos de seguridad que plantean las generaciones futuras de sistemas de inteligencia artificial se discuten en el libro de texto de pregrado en inteligencia artificial, Stuart Russell y Peter Norvig 's Artificial Intelligence: A Modern Approach . Al señalar la dificultad de especificar formalmente objetivos de propósito general a mano, Russell y Norvig citan la propuesta de Yudkowsky de que los sistemas autónomos y adaptativos se diseñen para aprender el comportamiento correcto a lo largo del tiempo:
Yudkowsky (2008) [6] entra en más detalles sobre cómo diseñar una IA amigable . Afirma que la amabilidad (un deseo de no dañar a los humanos) debe diseñarse desde el principio, pero que los diseñadores deben reconocer que sus propios diseños pueden tener fallas y que el robot aprenderá y evolucionará con el tiempo. Por lo tanto, el desafío es de diseño de mecanismos: diseñar un mecanismo para la evolución de la IA bajo un sistema de controles y contrapesos, y dar a los sistemas funciones de utilidad que seguirán siendo amigables frente a tales cambios. [1]
En respuesta a la preocupación de la convergencia instrumental , donde los sistemas autónomos de toma de decisiones con objetivos mal diseñados tendrían incentivos predeterminados para maltratar a los humanos, Yudkowsky y otros investigadores de MIRI han recomendado que se trabaje para especificar agentes de software que converjan en comportamientos predeterminados seguros incluso cuando su los objetivos están mal especificados. [7] [2]
Pronóstico de capacidades
En el escenario de explosión de inteligencia propuesto por IJ Good , los sistemas de IA que se mejoran a sí mismos de forma recursiva pasan rápidamente de la inteligencia general subhumana a la superinteligente . El libro de 2014 de Nick Bostrom Superintelligence: Paths, Dangers, Strategies esboza el argumento de Good en detalle, al tiempo que cita un escrito de Yudkowsky sobre el riesgo de que la antropomorfización de los sistemas avanzados de inteligencia artificial haga que las personas malinterpreten la naturaleza de una explosión de inteligencia. "La IA podría dar un salto aparentemente brusco en la inteligencia simplemente como resultado del antropomorfismo, la tendencia humana a pensar en 'idiota del pueblo' y 'Einstein' como los extremos de la escala de inteligencia, en lugar de puntos casi indistinguibles en la escala de mentes. -en general." [1] [3] [6] [8]
En Inteligencia artificial: un enfoque moderno , los autores Stuart Russell y Peter Norvig plantean la objeción de que existen límites conocidos para la resolución inteligente de problemas a partir de la teoría de la complejidad computacional ; Si existen fuertes límites sobre la eficacia con la que los algoritmos pueden resolver diversas tareas informáticas, es posible que la explosión de inteligencia no sea posible. [1]
Escritura de racionalidad
Entre 2006 y 2009, Yudkowsky y Robin Hanson fueron los principales contribuyentes de Overcoming Bias , un blog de ciencias sociales y cognitivas patrocinado por el Future of Humanity Institute de la Universidad de Oxford. En febrero de 2009, Yudkowsky fundó LessWrong , un "blog comunitario dedicado a refinar el arte de la racionalidad humana". [9] [10] Overcoming Bias ha funcionado desde entonces como el blog personal de Hanson.
Más de 300 publicaciones de blog de Yudkowsky sobre filosofía y ciencia (escritas originalmente en LessWrong y Overcoming Bias ) fueron lanzadas como un libro electrónico titulado Rationality: From AI to Zombies por el Machine Intelligence Research Institute (MIRI) en 2015. [11] MIRI también ha publicado Inadequate Equilibria , el libro electrónico de 2017 de Yudkowsky sobre el tema de las ineficiencias sociales. [12]
Yudkowsky también ha escrito varias obras de ficción. Su fanfiction novela, Harry Potter y los métodos de la racionalidad , utiliza elementos de la trama de JK Rowling 's Harry Potter serie para ilustrar los temas de la ciencia. [9] [13] El neoyorquino describió Harry Potter y los métodos de la racionalidad como un recuento del original de Rowling "en un intento de explicar la magia de Harry a través del método científico". [14]
Vida personal
Yudkowsky es autodidacta [15] y no asistió a la escuela secundaria ni a la universidad. [16] Se crió en el judaísmo ortodoxo. [17]
Publicaciones académicas
- Yudkowsky, Eliezer (2007). "Niveles de organización en inteligencia general" (PDF) . Inteligencia General Artificial . Berlín: Springer.
- Yudkowsky, Eliezer (2008). "Sesgos cognitivos que potencialmente afectan el juicio de los riesgos globales" (PDF) . En Bostrom, Nick ; Ćirković, Milán (eds.). Riesgos catastróficos globales . Prensa de la Universidad de Oxford. ISBN 978-0199606504.
- Yudkowsky, Eliezer (2008). "La inteligencia artificial como factor positivo y negativo en el riesgo global" (PDF) . En Bostrom, Nick ; Ćirković, Milán (eds.). Riesgos catastróficos globales . Prensa de la Universidad de Oxford. ISBN 978-0199606504.
- Yudkowsky, Eliezer (2011). "Sistemas de valor complejos en IA amigable" (PDF) . Inteligencia artificial general: 4ª Conferencia Internacional, AGI 2011, Mountain View, CA, EE. UU., 3 al 6 de agosto de 2011 . Berlín: Springer.
- Yudkowsky, Eliezer (2012). "Inteligencia artificial amigable". En Edén, Ammón; Moro, James; Søraker, John; et al. (eds.). Hipótesis de singularidad: una evaluación científica y filosófica . Colección Frontiers. Berlín: Springer. pp. 181 -195. doi : 10.1007 / 978-3-642-32560-1_10 . ISBN 978-3-642-32559-5.
- Bostrom, Nick ; Yudkowsky, Eliezer (2014). "La ética de la inteligencia artificial" (PDF) . En franco, Keith; Ramsey, William (eds.). El Manual de Cambridge de Inteligencia Artificial . Nueva York: Cambridge University Press. ISBN 978-0-521-87142-6.
- LaVictoire, Patrick; Fallenstein, Benja; Yudkowsky, Eliezer; Bárász, Mihály; Christiano, Paul; Herreshoff, Marcello (2014). "Programa de equilibrio en el dilema del prisionero a través del teorema de Löb" . Interacción multiagente sin coordinación previa: artículos del taller AAAI-14 . Publicaciones AAAI.
- Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (2015). "Corrigibilidad" (PDF) . Talleres de AAAI: Talleres en la Vigésimo Novena Conferencia de AAAI sobre Inteligencia Artificial, Austin, TX, del 25 al 26 de enero de 2015 . Publicaciones AAAI.
Ver también
- Caja de IA
- Inteligencia artificial amigable
- Carta abierta sobre inteligencia artificial
Referencias
- ^ a b c d Russell, Stuart ; Norvig, Peter (2009). Inteligencia artificial: un enfoque moderno . Prentice Hall. ISBN 978-0-13-604259-4.
- ^ a b Leighton, Jonathan (2011). La batalla por la compasión: ética en un universo apático . Algora. ISBN 978-0-87586-870-7.
- ^ a b Dowd, Maureen. "Cruzada de mil millones de dólares de Elon Musk para detener el Apocalipsis de la IA" . Feria de la vanidad . Consultado el 28 de julio de 2018 .
- ^ Kurzweil, Ray (2005). La singularidad está cerca . Nueva York: pingüino vikingo. ISBN 978-0-670-03384-3.
- ^ Ford, Paul (11 de febrero de 2015). "Nuestro miedo a la inteligencia artificial" . Revisión de tecnología del MIT . Consultado el 9 de abril de 2019 .
- ^ a b Yudkowsky, Eliezer (2008). "La inteligencia artificial como factor positivo y negativo en el riesgo global" (PDF) . En Bostrom, Nick ; Ćirković, Milán (eds.). Riesgos catastróficos globales . Prensa de la Universidad de Oxford. ISBN 978-0199606504.
- ^ Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (2015). "Corrigibilidad" . Talleres de AAAI: Talleres en la Vigésimo Novena Conferencia de AAAI sobre Inteligencia Artificial, Austin, TX, del 25 al 26 de enero de 2015 . Publicaciones AAAI.
- ^ Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias . ISBN 978-0199678112.
- ^ a b Miller, James (2012). Aumento de la singularidad . BenBella Books, Inc. ISBN 978-1936661657.
- ^ Miller, James (28 de julio de 2011). "Puedes aprender a ser más racional" . Business Insider . Consultado el 25 de marzo de 2014 .
- ^ Miller, James D. "Rifts in Rationality - New Rambler Review" . newramblerreview.com . Consultado el 28 de julio de 2018 .
- ^ Instituto de Investigación en Inteligencia de Máquina . "Equilibrios inadecuados: dónde y cómo se atascan las civilizaciones" .
- ^ "'Harry Potter' y la clave de la inmortalidad" , Daniel Snyder, The Atlantic
- ^ Packer, George (2011). "Sin muerte, sin impuestos: el futurismo libertario de un multimillonario de Silicon Valley" . El neoyorquino : 54 . Consultado el 12 de octubre de 2015 .
- ^ Matthews, Dylan; Pinkerton, Byrd (19 de junio de 2019). "Él cofundó Skype. Ahora está gastando su fortuna en detener la peligrosa IA" . Vox .
- ^ Saperstein, Gregory (9 de agosto de 2012). "5 minutos con un visionario: Eliezer Yudkowsky" .
- ^ Yudkowsky, Eliezer (4 de octubre de 2007). "Evitando los verdaderos puntos débiles de tu creencia" .
enlaces externos
- Página web oficial
- Racionalidad: de la IA a los zombis (libro completo en línea)