De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

Superintelligence: Paths, Dangers, Strategies es un libro de 2014 del filósofo sueco Nick Bostrom de la Universidad de Oxford . Argumenta que si los cerebros de las máquinas superan a los humanos en inteligencia general, entonces esta nueva superinteligencia podría reemplazar a los humanos como la forma de vida dominante en la Tierra. Las máquinas suficientemente inteligentes podrían mejorar sus propias capacidades más rápido que los científicos informáticos humanos, [2] y el resultado podría ser una catástrofe existencial para los humanos. [3]

El libro de Bostrom se ha traducido a muchos idiomas.

Sinopsis [ editar ]

Se desconoce si la inteligencia artificial a nivel humano llegará en cuestión de años, a finales de este siglo, o no hasta los siglos futuros. Independientemente de la escala de tiempo inicial, una vez que se desarrolle la inteligencia de la máquina a nivel humano, un sistema "superinteligente" que "excede en gran medida el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés", lo más probable es que lo siga sorprendentemente rápido. Tal superinteligencia sería muy difícil de controlar o restringir.

Si bien los objetivos finales de las superinteligencias pueden variar mucho, una superinteligencia funcional generará espontáneamente, como subobjetivos naturales, " objetivos instrumentales " como la autoconservación y la integridad del contenido del objetivo, la mejora cognitiva y la adquisición de recursos. Por ejemplo, un agente cuyo único objetivo final es resolver la hipótesis de Riemann (una famosa conjetura matemática sin resolver ) podría crear y actuar sobre un subobjetivo de transformar toda la Tierra en alguna forma de computronio.(material hipotético optimizado para el cálculo) para ayudar en el cálculo. La superinteligencia resistiría proactivamente cualquier intento externo de apagar la superinteligencia o evitar que se complete su subobjetivo. Para prevenir tal catástrofe existencial , es necesario resolver con éxito el " problema del control de la IA " para la primera superinteligencia. La solución podría implicar inculcar a la superinteligencia objetivos que sean compatibles con la supervivencia y el bienestar humanos. Resolver el problema de control es sorprendentemente difícil porque la mayoría de los objetivos, cuando se traducen en código implementable por máquina, conducen a consecuencias imprevistas e indeseables.

El búho en la portada del libro alude a una analogía que Bostrom llama la "Fábula inacabada de los gorriones". [4] Un grupo de gorriones decide encontrar un polluelo de búho y criarlo como su sirviente. [5]Se imaginan ansiosamente "lo fácil que sería la vida" si tuvieran un búho para ayudar a construir sus nidos, defender a los gorriones y liberarlos para una vida de ocio. Los gorriones inician la difícil búsqueda de un huevo de búho; sólo "Scronkfinkle", un "gorrión tuerto con un temperamento irritable", sugiere pensar en la complicada cuestión de cómo domesticar al búho antes de traerlo "entre nosotros". Los otros gorriones objetan; la búsqueda de un huevo de búho ya será bastante difícil por sí sola: "¿Por qué no conseguir primero el búho y trabajar los detalles más tarde?" Bostrom afirma que "no se sabe cómo termina la historia", pero dedica su libro a Scronkfinkle. [4] [6]

Recepción [ editar ]

El libro ocupó el puesto 17 en la lista del New York Times de libros de ciencia más vendidos en agosto de 2014. [7] En el mismo mes, el magnate empresarial Elon Musk llegó a los titulares al estar de acuerdo con el libro en que la inteligencia artificial es potencialmente más peligrosa que las armas nucleares. [8] [9] [10] El trabajo de Bostrom sobre superinteligencia también ha influido en la preocupación de Bill Gates por los riesgos existenciales que enfrenta la humanidad durante el próximo siglo. [11] [12] En una entrevista realizada en marzo de 2015 por el director ejecutivo de Baidu , Robin Li , Gates dijo que "recomendaría encarecidamente" Superintelligence. [13] Según el New Yorker , los filósofos Peter Singer y Derek Parfit lo han "recibido como una obra de importancia". [6]

El editor científico del Financial Times descubrió que los escritos de Bostrom "a veces se desvían hacia un lenguaje opaco que traiciona su experiencia como profesor de filosofía", pero demuestra de manera convincente que el riesgo de la superinteligencia es lo suficientemente grande como para que la sociedad debería comenzar a pensar ahora en formas de dotar de inteligencia artificial en el futuro. con valores positivos. [2] Una revisión en The Guardian señaló que "incluso las máquinas más sofisticadas creadas hasta ahora son inteligentes sólo en un sentido limitado" y que "las expectativas de que la IA pronto superaría a la inteligencia humana se desvanecieron por primera vez en la década de 1960", pero los hallazgos comunes terreno con Bostrom al advertir que "sería poco aconsejable descartar la posibilidad por completo". [3]

Algunos de los colegas de Bostrom sugieren que la guerra nuclear presenta una mayor amenaza para la humanidad que la superinteligencia, al igual que la perspectiva futura de la militarización de la nanotecnología y la biotecnología . [3] The Economist declaró que "Bostrom se ve obligado a dedicar gran parte del libro a discutir especulaciones basadas en conjeturas plausibles ... pero el libro es valioso. Las implicaciones de introducir una segunda especie inteligente en la Tierra son lo suficientemente amplias como para merecer pensar mucho, incluso si la perspectiva de hacerlo realmente parece remota ". [14] Ronald Bailey escribió en la Razón libertariaque Bostrom presenta un caso sólido de que resolver el problema del control de la IA es la "tarea esencial de nuestra época". [15] Según Tom Chivers de The Daily Telegraph , el libro es difícil de leer, pero no obstante gratificante. [5] Un crítico del Journal of Experimental & Theoretical Artificial Intelligence rompió con otros al afirmar que "el estilo de escritura del libro es claro" y elogió el libro por evitar la "jerga demasiado técnica". [16] Un crítico de Philosophy consideró que Superintelligence era "más realista" que The Singularity is Near de Ray Kurzweil . [17]

Ver también [ editar ]

  • Instituto del Futuro de la Humanidad
  • Compatible con humanos
  • El precipicio: riesgo existencial y el futuro de la humanidad

Referencias [ editar ]

  1. ^ "Sueco superinteligente capturado por OUP" . El librero . 21 de noviembre de 2013.
  2. ↑ a b Cookson, Clive (13 de julio de 2014). "Superinteligencia: caminos, peligros, estrategias, por Nick Bostrom" . The Financial Times . Consultado el 30 de julio de 2014 .
  3. ↑ a b c Henderson, Caspar (17 de julio de 2014). "Superinteligencia de Nick Bostrom y un viaje duro hacia el futuro de James Lovelock - revisión" . The Guardian . Consultado el 30 de julio de 2014 .
  4. ↑ a b Adams, Tim (12 de junio de 2016). "Nick Bostrom: 'Somos como niños pequeños jugando con una bomba ' " . El observador . Consultado el 29 de marzo de 2020 .
  5. ↑ a b Chivers, Tom (10 de agosto de 2014). "Superinteligencia de Nick Bostrom, reseña: 'una lectura difícil ' " . El telégrafo . Consultado el 16 de agosto de 2014 .
  6. ↑ a b Khatchadourian, Raffi (2015). "La invención del día del juicio final" . The New Yorker . Consultado el 29 de marzo de 2020 .
  7. ^ "Libros de ciencia más vendidos" . The New York Times . 8 de septiembre de 2014 . Consultado el 9 de noviembre de 2014 .
  8. ^ Dean, James (5 de agosto de 2014). "La inteligencia artificial 'puede acabar con la raza humana ' " . The Times . Consultado el 5 de agosto de 2014 .
  9. ^ Augenbraun, Eliene (4 de agosto de 2014). "Elon Musk tuitea La inteligencia artificial puede ser" más peligrosa que las armas nucleares " " . CBC News . Consultado el 5 de agosto de 2014 .
  10. ^ Bratton, Benjamin H. (23 de febrero de 2015). "Salida AI: más allá de la prueba de Turing" . The New York Times . Consultado el 4 de marzo de 2015 .
  11. ^ Mack, Eric (28 de enero de 2015). "Bill Gates dice que debería preocuparse por la inteligencia artificial" . Forbes . Consultado el 19 de febrero de 2015 .
  12. ^ Lumby, Andrew (28 de enero de 2015). "Bill Gates está preocupado por el auge de las máquinas" . The Fiscal Times . Consultado el 19 de febrero de 2015 .
  13. ^ Kaiser Kuo (31 de marzo de 2015). "El CEO de Baidu, Robin Li, entrevista a Bill Gates y Elon Musk en el Foro de Boao, 29 de marzo de 2015" . YouTube . Consultado el 8 de abril de 2015 .
  14. ^ "Engranajes inteligentes" . The Economist . 9 de agosto de 2014 . Consultado el 9 de agosto de 2014 .
  15. ^ Bailey, Ronald (12 de septiembre de 2014). "¿Destruirán las máquinas superinteligentes a la humanidad?" . Razón . Consultado el 16 de septiembre de 2014 .
  16. ^ Thomas, Joel (julio de 2015). "En defensa de la filosofía: una revisión de Nick Bostrom" . Revista de Inteligencia Artificial Experimental y Teórica . 28 (6): 1089–1094. doi : 10.1080 / 0952813X.2015.1055829 .
  17. ^ Richmond, Sheldon (08 de julio de 2015). "Superinteligencia: caminos, peligros, estrategias". Filosofía . 91 (1): 125-130. doi : 10.1017 / S0031819115000340 .