La inteligencia artificial amigable (también IA amiga o FAI ) se refiere a la hipotética inteligencia artificial general (AGI) que tendría un efecto positivo (benigno) en la humanidad o al menos se alinearía con los intereses humanos o contribuiría a fomentar la mejora de la especie humana. Forma parte de la ética de la inteligencia artificial y está estrechamente relacionada con la ética de las máquinas . Mientras que la ética de las máquinas se ocupa de cómo debe comportarse un agente artificialmente inteligente, la investigación amigable de la inteligencia artificial se centra en cómo lograr prácticamente este comportamiento y garantizar que esté adecuadamente restringido.
Etimología y uso
El término fue acuñado por Eliezer Yudkowsky , [1] quien es mejor conocido por popularizar la idea, [2] [3] para discutir agentes artificiales superinteligentes que implementan de manera confiable los valores humanos. El principal libro de texto de inteligencia artificial de Stuart J. Russell y Peter Norvig , Inteligencia artificial: un enfoque moderno , describe la idea: [4]
Yudkowsky (2008) entra en más detalles sobre cómo diseñar una IA amigable . Afirma que la amabilidad (un deseo de no dañar a los humanos) debe diseñarse desde el principio, pero que los diseñadores deben reconocer que sus propios diseños pueden tener fallas y que el robot aprenderá y evolucionará con el tiempo. Por lo tanto, el desafío es de diseño de mecanismos: definir un mecanismo para la evolución de los sistemas de IA bajo un sistema de controles y equilibrios, y dar a los sistemas funciones de utilidad que seguirán siendo amigables frente a tales cambios.
"Amistoso" se utiliza en este contexto como terminología técnica , y selecciona agentes que son seguros y útiles, no necesariamente los que son "amistosos" en el sentido coloquial. El concepto se invoca principalmente en el contexto de discusiones de agentes artificiales que se auto-mejoran de forma recursiva y que rápidamente explotan en inteligencia , con el argumento de que esta tecnología hipotética tendría un impacto grande, rápido y difícil de controlar en la sociedad humana. [5]
Riesgos de la IA hostil
Las raíces de la preocupación por la inteligencia artificial son muy antiguas. Kevin LaGrandeur demostró que los peligros específicos de la IA se pueden ver en la literatura antigua sobre sirvientes humanoides artificiales como el golem o los proto-robots de Gerbert de Aurillac y Roger Bacon . En esas historias, la inteligencia extrema y el poder de estas creaciones humanoides chocan con su condición de esclavos (que por naturaleza son vistos como subhumanos) y causan un conflicto desastroso. [6] En 1942, estos temas llevaron a Isaac Asimov a crear las " Tres leyes de la robótica ", principios integrados en todos los robots de su ficción, destinados a evitar que se volvieran contra sus creadores o les permitieran sufrir daños. [7]
En los tiempos modernos, a medida que se acerca la perspectiva de una IA superinteligente , el filósofo Nick Bostrom ha dicho que los sistemas de IA superinteligentes con objetivos que no están alineados con la ética humana son intrínsecamente peligrosos a menos que se tomen medidas extremas para garantizar la seguridad de la humanidad. Lo puso de esta manera:
Básicamente deberíamos asumir que una 'superinteligencia' sería capaz de lograr cualquier objetivo que tenga. Por lo tanto, es extremadamente importante que los objetivos con los que lo dotamos, y todo su sistema de motivación, sea 'amigable con los humanos'.
En 2008, Eliezer Yudkowsky pidió la creación de una “IA amigable” para mitigar el riesgo existencial de la inteligencia artificial avanzada . Explica: "La IA no te odia ni te ama, pero estás hecho de átomos que puede usar para otra cosa". [8]
Steve Omohundro dice que un sistema de IA suficientemente avanzado, a menos que se contrarreste explícitamente, exhibirá una serie de "impulsos" básicos , como la adquisición de recursos, la autoconservación y la superación personal continua, debido a la naturaleza intrínseca de cualquier sistema impulsado por objetivos. y que estas unidades, "sin precauciones especiales", harán que la IA muestre un comportamiento no deseado. [9] [10]
Alexander Wissner-Gross dice que las IA impulsadas para maximizar su futura libertad de acción (o entropía de ruta causal) podrían considerarse amigables si su horizonte de planificación es más largo que un cierto umbral, y hostiles si su horizonte de planificación es más corto que ese umbral. [11] [12]
Luke Muehlhauser, que escribe para el Machine Intelligence Research Institute , recomienda que los investigadores de ética de las máquinas adopten lo que Bruce Schneier ha llamado la "mentalidad de seguridad": en lugar de pensar en cómo funcionará un sistema, imagine cómo podría fallar. Por ejemplo, sugiere que incluso una IA que solo hace predicciones precisas y se comunica a través de una interfaz de texto podría causar daños no deseados. [13]
En 2014, Luke Muehlhauser y Nick Bostrom subrayaron la necesidad de una 'IA amigable'; [14] no obstante, las dificultades para diseñar una superinteligencia "amistosa", por ejemplo, a través de la programación del pensamiento moral contrafactual, son considerables. [15] [16]
Volición extrapolada coherente
Yudkowsky avanza en el modelo de Volición Extrapolada Coherente (CEV). Según él, la voluntad extrapolada coherente son las elecciones de las personas y las acciones que las personas tomarían colectivamente si "supiéramos más, pensáramos más rápido, fuéramos más las personas que deseamos ser y hubiéramos crecido más juntos". [17]
En lugar de que una IA amigable esté diseñada directamente por programadores humanos, debe ser diseñada por una "IA semilla" programada para estudiar primero la naturaleza humana y luego producir la IA que la humanidad querría, con suficiente tiempo y conocimiento, para llegar a un resultado satisfactorio. respuesta. [17] La apelación a un objetivo a través de la naturaleza humana contingente (quizás expresada, para propósitos matemáticos, en la forma de una función de utilidad u otro formalismo teórico de decisiones ), como el criterio último de "amabilidad", es una respuesta a la problema metaético de definir una moralidad objetiva ; La volición extrapolada pretende ser lo que la humanidad desearía objetivamente, considerando todas las cosas, pero solo puede definirse en relación con las cualidades psicológicas y cognitivas de la humanidad actual no extrapolada.
Otros enfoques
Steve Omohundro ha propuesto un enfoque de "andamiaje" para la seguridad de la IA, en el que una generación de IA demostrablemente segura ayuda a construir la próxima generación demostrablemente segura. [18]
Seth Baum sostiene que el desarrollo de inteligencia artificial o inteligencia artificial general segura y socialmente beneficiosa es una función de la psicología social de las comunidades de investigación de IA, por lo que puede verse limitado por medidas extrínsecas y motivado por medidas intrínsecas. Las motivaciones intrínsecas se pueden fortalecer cuando los mensajes resuenan con los desarrolladores de IA; Baum sostiene que, por el contrario, "los mensajes existentes sobre la IA beneficiosa no siempre están bien enmarcados". Baum aboga por "relaciones cooperativas y encuadres positivos de los investigadores de IA" y advierte contra la caracterización de los investigadores de IA como "no queriendo perseguir diseños beneficiosos". [19]
En su libro Compatible con humanos , el investigador de inteligencia artificial Stuart J. Russell enumera tres principios para guiar el desarrollo de máquinas beneficiosas. Él enfatiza que estos principios no están destinados a ser codificados explícitamente en las máquinas; más bien, están destinados a los desarrolladores humanos. Los principios son los siguientes: [20] : 173
1. El único objetivo de la máquina es maximizar la realización de las preferencias humanas.
2. Inicialmente, la máquina no está segura de cuáles son esas preferencias.
3. La fuente última de información sobre las preferencias humanas es el comportamiento humano.
Las "preferencias" a las que se refiere Russell "lo abarcan todo; cubren todo lo que le puede interesar, arbitrariamente en el futuro". [20] : 173 De manera similar, "comportamiento" incluye cualquier elección entre opciones, [20] : 177 y la incertidumbre es tal que alguna probabilidad, que puede ser bastante pequeña, debe asignarse a cada preferencia humana lógicamente posible. [20] : 201
Política pública
James Barrat , autor de Our Final Invention , sugirió que "se debe crear una asociación público-privada para reunir a los creadores de inteligencia artificial para compartir ideas sobre seguridad, algo así como la Agencia Internacional de Energía Atómica, pero en asociación con corporaciones". Insta a los investigadores de IA a convocar una reunión similar a la Conferencia Asilomar sobre ADN recombinante , que discutió los riesgos de la biotecnología. [18]
John McGinnis anima a los gobiernos a acelerar la investigación amigable de la IA. Debido a que los objetivos de la inteligencia artificial amigable no son necesariamente eminentes, sugiere un modelo similar al de los Institutos Nacionales de Salud , donde "los paneles de revisión por pares de científicos informáticos y cognitivos examinarían los proyectos y elegirían aquellos que están diseñados para promover la inteligencia artificial y asegurar que esos avances irían acompañados de las salvaguardias adecuadas ". McGinnis cree que la revisión por pares es mejor "que la regulación para abordar cuestiones técnicas que no es posible captar mediante mandatos burocráticos". McGinnis señala que su propuesta contrasta con la del Instituto de Investigación de Inteligencia Artificial, que generalmente tiene como objetivo evitar la participación del gobierno en la inteligencia artificial amiga. [21]
Según Gary Marcus , la cantidad anual de dinero que se gasta en desarrollar la moralidad de las máquinas es mínima. [22]
Crítica
Algunos críticos creen que tanto la inteligencia artificial como la superinteligencia a nivel humano son poco probables y que, por lo tanto, es poco probable una inteligencia artificial amigable. Al escribir en The Guardian , Alan Winfield compara la inteligencia artificial a nivel humano con los viajes más rápidos que la luz en términos de dificultad, y afirma que, si bien debemos ser "cautelosos y estar preparados" dados los riesgos involucrados, "no es necesario obsesionarse "con los riesgos de la superinteligencia. [23] Boyles y Joaquin, por otro lado, argumentan que la propuesta de Luke Muehlhauser y Nick Bostrom de crear IA amigables parece ser desoladora. Esto se debe a que Muehlhauser y Bostrom parecen sostener la idea de que las máquinas inteligentes podrían programarse para pensar de manera contrafáctica sobre los valores morales que los seres humanos habrían tenido. [24] En un artículo en AI & Society , Boyles y Joaquin sostienen que tales AIs no serían tan amigables considerando lo siguiente: la cantidad infinita de condiciones contrafácticas antecedentes que tendrían que ser programadas en una máquina, la dificultad de cobrar el conjunto de valores morales, es decir, aquellos que son más ideales que los que poseen los seres humanos en la actualidad, y la aparente desconexión entre los antecedentes contrafácticos y el valor ideal consecuente. [25]
Algunos filósofos afirman que cualquier agente verdaderamente "racional", ya sea artificial o humano, será naturalmente benévolo; Desde este punto de vista, las salvaguardas deliberadas diseñadas para producir una IA amigable podrían ser innecesarias o incluso perjudiciales. [26] Otros críticos cuestionan si es posible que una inteligencia artificial sea amigable. Adam Keiper y Ari N. Schulman, editores de la revista de tecnología The New Atlantis , dicen que será imposible garantizar un comportamiento "amigable" en las IA porque los problemas de complejidad ética no cederán a los avances del software o aumentos en la potencia informática. Escriben que los criterios en los que se basan las teorías amistosas de la IA funcionan "sólo cuando uno no solo tiene grandes poderes de predicción sobre la probabilidad de una miríada de resultados posibles, sino también certeza y consenso sobre cómo valora los diferentes resultados. [27]
Ver también
- Problema de control de IA
- Adquisición de IA
- Carrera armamentista de inteligencia artificial
- Ética de la inteligencia artificial
- Riesgo existencial de la inteligencia artificial general
- Explosión de inteligencia
- Ética de la máquina
- Instituto de Investigación de Inteligencia Artificial
- OpenAI
- Regulación de algoritmos
- Singularitarismo : una filosofía moral defendida por los defensores de la IA amistosa
- Singularidad tecnológica
- Tres leyes de la robótica
Referencias
- ^ Tegmark, Max (2014). "La vida, nuestro universo y todo". Our Mathematical Universe: My Quest for the Ultimate Nature of Reality (Primera ed.). ISBN 9780307744258.
Su propietario puede ceder el control a lo que Eliezer Yudkowsky denomina una "IA amistosa" ...
- ^ Russell, Stuart ; Norvig, Peter (2009). Inteligencia artificial: un enfoque moderno . Prentice Hall. ISBN 978-0-13-604259-4.
- ^ Leighton, Jonathan (2011). La batalla por la compasión: ética en un universo apático . Algora. ISBN 978-0-87586-870-7.
- ^ Russell, Stuart; Norvig, Peter (2010). Inteligencia artificial: un enfoque moderno . Prentice Hall. ISBN 978-0-13-604259-4.
- ^ Wallach, Wendell; Allen, Colin (2009). Máquinas morales: enseñar a los robots lo correcto de lo incorrecto . Oxford University Press, Inc. ISBN 978-0-19-537404-9.
- ^ Kevin LaGrandeur . "El peligro persistente del esclavo artificial" . Estudios de ciencia ficción . Consultado el 6 de mayo de 2013 .
- ^ Isaac Asimov (1964). "Introducción" . El resto de los robots . Doubleday. ISBN 0-385-09041-2.
- ^ Eliezer Yudkowsky (2008) en Inteligencia artificial como factor positivo y negativo en el riesgo global
- ^ Omohundro, SM (2008, febrero). Los impulsos básicos de la IA. En AGI (Vol. 171, págs. 483-492).
- ^ Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias . Oxford: Prensa de la Universidad de Oxford. ISBN 9780199678112. Capítulo 7: La voluntad superinteligente.
- ^ Cómo Skynet podría emerger de la física simple , io9, publicado el 26 de abril de 2013.
- ^ Wissner-Gross, AD ; Freer, CE (2013). "Fuerzas entrópicas causales" (PDF) . Cartas de revisión física . 110 (16): 168702. Código Bibliográfico : 2013PhRvL.110p8702W . doi : 10.1103 / PhysRevLett.110.168702 . PMID 23679649 .
- ^ Muehlhauser, Luke (31 de julio de 2013). "Riesgo de IA y mentalidad de seguridad" . Instituto de Investigaciones de Inteligencia Artificial . Consultado el 15 de julio de 2014 .
- ^ Muehlhauser, Luke; Bostrom, Nick (17 de diciembre de 2013). "Por qué necesitamos una IA amigable". Piense . 13 (36): 41–47. doi : 10.1017 / s1477175613000316 . ISSN 1477-1756 .
- ^ Boyles, Robert James M .; Joaquín, Jeremías Joven (23/07/2019). "Por qué las IA amistosas no serán tan amistosas: una respuesta amistosa a Muehlhauser y Bostrom". AI y sociedad . 35 (2): 505–507. doi : 10.1007 / s00146-019-00903-0 . ISSN 0951-5666 . S2CID 198190745 .
- ^ Chan, Berman (4 de marzo de 2020). "El auge de la inteligencia artificial y la crisis de la pasividad moral". AI y sociedad . doi : 10.1007 / s00146-020-00953-9 . ISSN 1435-5655 . S2CID 212407078 .
- ^ a b "Volición extrapolada coherente" (PDF) . Intelligence.org . Consultado el 12 de septiembre de 2015 .
- ^ a b Hendry, Erica R. (21 de enero de 2014). "¿Qué sucede cuando la inteligencia artificial se vuelve contra nosotros?" . Smithsonian.com . Consultado el 15 de julio de 2014 .
- ^ Baum, Seth D. (28 de septiembre de 2016). "Sobre la promoción de la inteligencia artificial segura y socialmente beneficiosa". AI y sociedad . 32 (4): 543–551. doi : 10.1007 / s00146-016-0677-0 . ISSN 0951-5666 . S2CID 29012168 .
- ^ a b c d Russell, Stuart (8 de octubre de 2019). Compatibilidad humana: la inteligencia artificial y el problema del control . Estados Unidos: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322 .
- ^ McGinnis, John O. (verano de 2010). "Acelerando la IA" . Revista de derecho de la Universidad Northwestern . 104 (3): 1253-1270 . Consultado el 16 de julio de 2014 .
- ^ Marcus, Gary (24 de noviembre de 2012). "Máquinas morales" . The New Yorker . Consultado el 30 de julio de 2014 .
- ^ Winfield, Alan. "La inteligencia artificial no se convertirá en un monstruo de Frankenstein" . The Guardian . Consultado el 17 de septiembre de 2014 .
- ^ Muehlhauser, Luke; Bostrom, Nick (2014). "Por qué necesitamos una IA amigable". Piense . 13 (36): 41–47. doi : 10.1017 / S1477175613000316 .
- ^ Boyles, Robert James M .; Joaquín, Jeremías Joven (2019). "Por qué las IA amistosas no serán tan amistosas: una respuesta amistosa a Muehlhauser y Bostrom". AI y sociedad . 35 (2): 505–507. doi : 10.1007 / s00146-019-00903-0 . S2CID 198190745 .
- ^ Kornai, András. " Limitando el impacto de AGI ". Revista de inteligencia artificial experimental y teórica antes de la impresión (2014): 1-22. "... la esencia de los AGI son sus facilidades de razonamiento, y es la misma lógica de su ser lo que los obligará a comportarse de manera moral ... El escenario de pesadilla real (es uno en el que) los humanos encuentran ventajoso fuertemente se acoplan a los AGI, sin garantías contra el autoengaño ".
- ^ Adam Keiper y Ari N. Schulman. "El problema de la inteligencia artificial 'amigable'" . La nueva Atlántida . Consultado el 16 de enero de 2012 .
Otras lecturas
- Yudkowsky, E. La inteligencia artificial como factor positivo y negativo en el riesgo global . En Global Catastrophic Risks , Oxford University Press, 2008.
Discute la inteligencia artificial desde la perspectiva del riesgo existencial . En particular, las Secciones 1-4 dan trasfondo a la definición de IA Amiga en la Sección 5. La Sección 6 da dos clases de errores (técnicos y filosóficos) que conducirían a la creación accidental de IA no Amigas. Las secciones 7 a 13 discuten otros temas relacionados. - Omohundro, S. 2008 Los impulsos básicos de la IA aparecieron en AGI-08 - Actas de la primera conferencia sobre inteligencia artificial general
- Mason, C. 2008 AI a nivel humano requiere inteligencia compasiva aparece en el taller AAAI 2008 sobre meta-razonamiento: pensar en pensar
enlaces externos
- Problemas éticos en la inteligencia artificial avanzada por Nick Bostrom
- ¿Qué es la IA amistosa? - Una breve descripción de la IA amistosa por el Instituto de Investigación de Inteligencia Artificial.
- Creando IA amigable 1.0: El análisis y diseño de arquitecturas de objetivos benévolos - Una descripción casi del tamaño de un libro del MIRI
- Crítica de las Directrices MIRI sobre IA amigable - por Bill Hibbard
- Comentario sobre las Directrices de MIRI sobre IA amigable - por Peter Voss.
- El problema con la inteligencia artificial 'amigable' - Sobre los motivos y la imposibilidad de FAI; por Adam Keiper y Ari N. Schulman.