Una superinteligencia es un agente hipotético que posee una inteligencia que supera con creces la de las mentes humanas más brillantes y talentosas . La "superinteligencia" también puede referirse a una propiedad de los sistemas de resolución de problemas (p. Ej., Traductores de idiomas superinteligentes o asistentes de ingeniería) independientemente de que estas competencias intelectuales de alto nivel estén incorporadas o no en agentes que actúan en el mundo. Una superinteligencia puede o no ser creada por una explosión de inteligencia y asociada con una singularidad tecnológica .
El filósofo de la Universidad de Oxford, Nick Bostrom, define la superinteligencia como "cualquier intelecto que supere en gran medida el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés". [1] El programa Fritz no alcanza a ser superinteligente, aunque es mucho mejor que los humanos en el ajedrez, porque Fritz no puede superar a los humanos en otras tareas. [2] Siguiendo a Hutter y Legg, Bostrom trata a la superinteligencia como el dominio general en el comportamiento orientado a objetivos, dejando abierto si una superinteligencia artificial o humana poseería capacidades como la intencionalidad (cf. el argumento de la habitación china ) o la conciencia en primera persona ( cf. el duro problema de la conciencia ).
Los investigadores tecnológicos no están de acuerdo sobre la probabilidad de que se supere la inteligencia humana actual . Algunos argumentan que los avances en inteligencia artificial (IA) probablemente resultarán en sistemas de razonamiento general que carecen de limitaciones cognitivas humanas. Otros creen que los humanos evolucionarán o modificarán directamente su biología para lograr una inteligencia radicalmente mayor. Varios escenarios de estudios de futuros combinan elementos de ambas posibilidades, lo que sugiere que es probable que los humanos interactúen con las computadoras o carguen sus mentes en las computadoras de una manera que permita una amplificación sustancial de la inteligencia.
Algunos investigadores creen que la superinteligencia probablemente seguirá poco después del desarrollo de la inteligencia artificial general . Es probable que las primeras máquinas generalmente inteligentes tengan de inmediato una enorme ventaja en al menos algunas formas de capacidad mental, incluida la capacidad de recuerdo perfecto , una base de conocimientos muy superior y la capacidad de realizar múltiples tareas en formas que no son posibles para las entidades biológicas. Esto puede darles la oportunidad, ya sea como un solo ser o como una nueva especie, volverse mucho más poderosos que los humanos y desplazarlos. [1]
Varios científicos y pronosticadores abogan por dar prioridad a la investigación temprana sobre los posibles beneficios y riesgos de la mejora cognitiva humana y mecánica , debido al potencial impacto social de tales tecnologías. [3]
Viabilidad de la superinteligencia artificial
El filósofo David Chalmers sostiene que la inteligencia artificial general es un camino muy probable hacia la inteligencia sobrehumana. Chalmers se rompe esta afirmación hacia abajo en un argumento de que la IA puede lograr la equivalencia a la inteligencia humana, que puede ser extendido para superar la inteligencia humana, y que puede ser aún más amplificada a dominar por completo a través de los seres humanos tareas arbitrarias. [4]
Con respecto a la equivalencia a nivel humano, Chalmers sostiene que el cerebro humano es un sistema mecánico y, por lo tanto, debería ser emulable con materiales sintéticos. [5] También señala que la inteligencia humana fue capaz de evolucionar biológicamente, por lo que es más probable que los ingenieros humanos puedan recapitular esta invención. Los algoritmos evolutivos en particular deberían poder producir IA a nivel humano. [6] Con respecto a la extensión y amplificación de la inteligencia, Chalmers argumenta que las nuevas tecnologías de IA generalmente pueden mejorarse, y que esto es particularmente probable cuando la invención puede ayudar a diseñar nuevas tecnologías. [7]
Si la investigación sobre IA fuerte produjera un software suficientemente inteligente, sería capaz de reprogramarse y mejorarse a sí mismo, una característica llamada "superación personal recursiva". Entonces sería incluso mejor para mejorarse a sí mismo y podría continuar haciéndolo en un ciclo que aumenta rápidamente, lo que lleva a una superinteligencia. Este escenario se conoce como explosión de inteligencia . Tal inteligencia no tendría las limitaciones del intelecto humano y podría ser capaz de inventar o descubrir casi cualquier cosa.
Los componentes de la computadora ya superan ampliamente el rendimiento humano en velocidad. Bostrom escribe: "Las neuronas biológicas operan a una velocidad máxima de aproximadamente 200 Hz, siete órdenes de magnitud más lentas que un microprocesador moderno (~ 2 GHz)". [8] Además, las neuronas transmiten señales de picos a través de los axones a no más de 120 m / s, "mientras que los núcleos de procesamiento electrónico existentes pueden comunicarse ópticamente a la velocidad de la luz". Por lo tanto, el ejemplo más simple de superinteligencia puede ser una mente humana emulada que se ejecuta en un hardware mucho más rápido que el cerebro. Un razonador similar a un humano que pudiera pensar millones de veces más rápido que los humanos actuales tendría una ventaja dominante en la mayoría de las tareas de razonamiento, particularmente aquellas que requieren prisa o largas series de acciones.
Otra ventaja de las computadoras es la modularidad, es decir, se puede incrementar su tamaño o capacidad computacional. Un cerebro no humano (o humano modificado) podría volverse mucho más grande que un cerebro humano actual, como muchas supercomputadoras . Bostrom también plantea la posibilidad de una superinteligencia colectiva : un número suficientemente grande de sistemas de razonamiento separados, si se comunicaran y coordinaran lo suficientemente bien, podrían actuar en conjunto con capacidades mucho mayores que cualquier subo-agente.
También puede haber formas de mejorar cualitativamente el razonamiento humano y la toma de decisiones. Los humanos parecen diferir de los chimpancés en la forma en que pensamos más que en el tamaño o la velocidad del cerebro. [9] Los seres humanos superan a los animales no humanos en gran parte debido a capacidades de razonamiento nuevas o mejoradas, como la planificación a largo plazo y el uso del lenguaje . (Véase la evolución de la inteligencia humana y la cognición de los primates .) Si hay otras posibles mejoras en el razonamiento que tendrían un impacto igualmente grande, es más probable que se pueda construir un agente que supere a los humanos de la misma manera que los humanos superan a los chimpancés. [10]
Todas las ventajas anteriores son válidas para la superinteligencia artificial, pero no está claro cuántas son válidas para la superinteligencia biológica. Las limitaciones fisiológicas limitan la velocidad y el tamaño de los cerebros biológicos de muchas formas que son inaplicables a la inteligencia de las máquinas. Como tal, los escritores sobre superinteligencia han prestado mucha más atención a los escenarios de IA superinteligentes. [11]
Viabilidad de la superinteligencia biológica
Carl Sagan sugirió que el advenimiento de las cesáreas y la fertilización in vitro pueden permitir a los humanos desarrollar cabezas más grandes, lo que resulta en mejoras a través de la selección natural en el componente hereditario de la inteligencia humana . [15] Por el contrario, Gerald Crabtree ha argumentado que la disminución de la presión de selección está dando como resultado una reducción lenta y de siglos de la inteligencia humana , y que es probable que este proceso continúe en el futuro. No hay consenso científico sobre ninguna de las dos posibilidades, y en ambos casos el cambio biológico sería lento, especialmente en relación con las tasas de cambio cultural.
La cría selectiva , los nootrópicos , NSI-189 , los IMAO , la modulación epigenética y la ingeniería genética podrían mejorar la inteligencia humana más rápidamente. Bostrom escribe que si llegamos a comprender el componente genético de la inteligencia, el diagnóstico genético previo a la implantación podría usarse para seleccionar embriones con hasta 4 puntos de ganancia de CI (si se selecciona un embrión de dos), o con ganancias mayores. (por ejemplo, hasta 24,3 puntos de CI ganados si se selecciona un embrión entre 1000). Si este proceso se repite durante muchas generaciones, las ganancias podrían ser de un orden de magnitud mayor. Bostrom sugiere que la obtención de nuevos gametos a partir de células madre embrionarias podría usarse para iterar el proceso de selección muy rápidamente. [16] Una sociedad bien organizada de humanos de alta inteligencia de este tipo podría potencialmente lograr una superinteligencia colectiva . [17]
Alternativamente, la inteligencia colectiva podría construirse organizando mejor a los humanos en los niveles actuales de inteligencia individual. Varios escritores han sugerido que la civilización humana, o algún aspecto de ella (por ejemplo, Internet o la economía), está comenzando a funcionar como un cerebro global con capacidades que superan con creces a los agentes que la componen. Sin embargo, si esta superinteligencia basada en sistemas se basa en gran medida en componentes artificiales, puede calificar como una IA más que como un superorganismo basado en la biología . [18] Un mercado de predicción a veces se considera un ejemplo de un sistema de inteligencia colectiva en funcionamiento, que consta únicamente de humanos (asumiendo que los algoritmos no se utilizan para informar decisiones). [19]
Un último método de amplificación de la inteligencia sería mejorar directamente los seres humanos individuales, en lugar de mejorar su dinámica social o reproductiva. Esto podría lograrse utilizando nootrópicos , terapia génica somática o interfaces cerebro-computadora . Sin embargo, Bostrom expresa escepticismo sobre la escalabilidad de los dos primeros enfoques y argumenta que diseñar una interfaz cyborg superinteligente es un problema completo de IA . [20]
Evolución con posible integración de NI, TI e IA
En 2005 Alexei Eryomin en la monografía "Noogénesis y teoría del intelecto" [13] propuso un nuevo concepto de noogénesis en la comprensión de la evolución de los sistemas de inteligencia. La evolución de las capacidades intelectuales puede ocurrir con la participación simultánea de inteligencias naturales (biológicas) (IN), avances modernos en tecnología de la información (TI) y logros científicos futuros en el campo de la inteligencia artificial (IA).
Evolución de la velocidad de interacción entre componentes de sistemas de inteligencia
La primera persona en medir la velocidad (en el rango de 24,6 a 38,4 metros por segundo) a la que se transporta la señal a lo largo de una fibra nerviosa en 1849 fue Helmholtz . [21] [22] Hasta la fecha, las tasas medidas de velocidad de conducción nerviosa son de 0,5 a 120 m / s. La velocidad del sonido y la velocidad de la luz se determinaron a principios del siglo XVII. En el siglo XXI, quedó claro que determinan principalmente las velocidades de los portadores de señales-información físicas, entre los sistemas inteligentes y sus componentes: sonido (voz y audio) ~ 300 m / s, electrón-cuántico ~ m / s (la velocidad de las ondas radioelectromagnéticas, corriente eléctrica, luz, óptica, telecomunicaciones).
Evolución de los componentes de los sistemas de inteligencia.
En 1906 Santiago Ramón y Cajal llamó la atención de los científicos sobre la importancia central de la neurona y estableció la doctrina de la neurona , que establece que el sistema nervioso está formado por células individuales discretas. [23] Según datos modernos, hay aproximadamente 86 mil millones de neuronas en el cerebro de un ser humano adulto. [24]
En el proceso de evolución, la población humana era de unos 70 millones en 2000 a. C., unos 300 millones a principios del siglo I d. C., unos mil millones en 1930 d. C., 6 mil millones en 2000 y 7,7 mil millones en la actualidad mundial . Según los modelos matemáticos de Sergey Kapitsa , la población humana puede llegar a 12.5 - 14 mil millones antes de finales de 2200. [13]
Evolución de los vínculos entre los componentes de los sistemas de inteligencia.
Sinapsis - del griego synapsis (συνάψις), que significa "conjunción", a su vez de συνάπτεὶν (συν ("juntos") y ἅπτειν ("sujetar")) - fue introducido en 1897 por Charles Sherrington . [25] La relevancia de las mediciones en esta dirección se confirma tanto por investigaciones modernas e integrales de cooperación como por conexiones de información, genética y cultural, [26] debido a las estructuras a nivel neuronal del cerebro, [27] y la importancia de cooperación en el desarrollo de la civilización. En este sentido, AL Eryomin analizó los datos conocidos sobre la evolución del número de conexiones para la cooperación en sistemas inteligentes. [14] Se puede considerar que las conexiones, los contactos entre objetos biológicos, aparecieron con una multicelularidad de ~ 3 a 3,5 mil millones de años. [28] El sistema de conexiones de alta velocidad de células especializadas que transmiten información usando señales eléctricas, el sistema nervioso, en toda la historia de la vida apareció solo en una rama evolutiva importante: en animales multicelulares ( Metazoa ) y apareció en el período Ediacara. (hace unos 635-542 millones de años). [29] Durante la evolución (filogenia), el número de conexiones entre neuronas aumentó de una a ~ 7000 conexiones sinópticas de cada neurona con otras neuronas del cerebro humano. Se ha estimado que el cerebro de un niño de tres años tiene aproximadamentede sinapsis (1 billón). En el desarrollo individual (ontogénesis), el número de sinapsis disminuye con la edad a ~. [30] Según otros datos, el número estimado de sinapsis neocorticales en el cerebro masculino y femenino disminuye durante la vida humana de ~ a ~ . [31]
El número de contactos humanos es difícil de calcular, pero el " número de Dunbar " ~ 150 conexiones humanas estables con otras personas se fija en la ciencia, el límite cognitivo asumido del número de personas con las que es posible mantener relaciones sociales estables, [ 32] según otros autores - el rango de 100-290. Se han identificado en el cerebro estructuras responsables de la interacción social. [33] Con la aparición del Homo sapiens hace unos 50-300 mil años, la relevancia de la cooperación, su evolución en la población humana, aumentó cuantitativamente. Si hace 2000 años había 0.1 mil millones de personas en la Tierra, hace 100 años - mil millones, a mediados del siglo XX - 3 mil millones, [13] y ahora, la humanidad - 7,7 mil millones. Por lo tanto, el número total de "conexiones estables" entre personas, relaciones sociales dentro de la población, se puede estimar mediante un número ~. " [14]
Parámetro | Resultados de las medidas (límites) | |
---|---|---|
Número de componentes de sistemas intelectuales | ~ - | |
Número de enlaces entre componentes | ~ - | |
Velocidad de interacción entre componentes (m / s) | ~ - |
Pronósticos
La mayoría de los investigadores de IA encuestados esperan que las máquinas eventualmente puedan rivalizar con los humanos en inteligencia, aunque hay poco consenso sobre cuándo es probable que esto suceda. En la conferencia AI @ 50 de 2006 , el 18% de los asistentes informaron que esperaban que las máquinas fueran capaces de "simular el aprendizaje y todos los demás aspectos de la inteligencia humana" para 2056; El 41% de los asistentes esperaba que esto sucediera en algún momento después de 2056; y el 41% esperaba que las máquinas nunca alcanzaran ese hito. [34]
En una encuesta de los 100 autores más citados en IA (en mayo de 2013, según la búsqueda académica de Microsoft), el año medio en el que los encuestados esperaban máquinas "que pudieran realizar la mayoría de las profesiones humanas al menos tan bien como un ser humano típico" ( suponiendo que no ocurra una catástrofe global ) con un 10% de confianza es 2024 (media 2034, desviación estándar 33 años), con un 50% de confianza es 2050 (media 2072, desviación estándar 110 años) y con un 90% de confianza es 2070 ( media 2168, desviación estándar 342 años). Estas estimaciones excluyen al 1,2% de los encuestados que dijeron que ningún año alcanzaría el 10% de confianza, al 4,1% que dijo "nunca" por un 50% de confianza y al 16,5% que dijo "nunca" por un 90% de confianza. Los encuestados asignaron una probabilidad media del 50% a la posibilidad de que la superinteligencia de la máquina se invente dentro de los 30 años posteriores a la invención de la inteligencia de la máquina aproximadamente a nivel humano. [35]
Consideraciones de diseño
Bostrom expresó su preocupación por los valores para los que debería diseñarse una superinteligencia. Comparó varias propuestas: [36]
- La propuesta de la volición extrapolada coherente (CEV) es que debería tener los valores en los que convergerían los seres humanos.
- La propuesta de la rectitud moral (MR) es que debe valorar la rectitud moral.
- La propuesta de permisibilidad moral (MP) es que debería valorar permanecer dentro de los límites de la permisibilidad moral (y de lo contrario tener valores CEV).
Bostrom aclara estos términos:
en lugar de implementar la voluntad extrapolada coherente de la humanidad, uno podría intentar construir una IA con el objetivo de hacer lo que es moralmente correcto, confiando en las capacidades cognitivas superiores de la IA para descubrir qué acciones se ajustan a esa descripción. Podemos llamar a esta propuesta "justicia moral" (MR) ... MR también parece tener algunas desventajas. Se basa en la noción de “moralmente correcto”, un concepto notoriamente difícil, con el que los filósofos se han enfrentado desde la antigüedad sin llegar todavía a un consenso en cuanto a su análisis. Escoger una explicación errónea de "rectitud moral" podría resultar en resultados que serían moralmente muy incorrectos ... El camino para dotar a una IA con cualquiera de estos conceptos [morales] podría implicar darle una habilidad lingüística general (comparable, al menos, a la de un adulto humano normal). Esta capacidad general de comprender el lenguaje natural podría utilizarse para comprender lo que se entiende por "moralmente correcto". Si la IA pudiera captar el significado, podría buscar acciones que encajen ... [36]
Se podría tratar de preservar la idea básica del modelo de RM mientras se reduce su exigencia centrándose en la permisibilidad moral : la idea es que podríamos dejar que la IA persiga la VCE de la humanidad siempre que no actúe de formas moralmente inadmisibles. [36]
En respuesta a Bostrom, Santos-Lang expresó su preocupación de que los desarrolladores puedan intentar comenzar con un solo tipo de superinteligencia. [37]
Amenaza potencial para la humanidad
Se ha sugerido que si los sistemas de IA se vuelven superinteligentes rápidamente, pueden tomar acciones imprevistas o superar a la humanidad. [38] Los investigadores han argumentado que, a través de una "explosión de inteligencia", una IA que se mejora a sí misma podría volverse tan poderosa como para ser imparable por los humanos. [39]
Con respecto a los escenarios de extinción humana, Bostrom (2002) identifica la superinteligencia como una posible causa:
Cuando creamos la primera entidad superinteligente, podríamos cometer un error y darle metas que la lleven a aniquilar a la humanidad, asumiendo que su enorme ventaja intelectual le da el poder para hacerlo. Por ejemplo, podríamos elevar erróneamente un subobjetivo al estado de superobjetivo. Le decimos que resuelva un problema matemático, y cumple al convertir toda la materia del sistema solar en un dispositivo de cálculo gigante, matando en el proceso a la persona que hizo la pregunta.
En teoría, dado que una IA superinteligente podría lograr casi cualquier resultado posible y frustrar cualquier intento de evitar la implementación de sus objetivos, podrían surgir muchas consecuencias incontroladas e involuntarias . Podría matar a todos los demás agentes, persuadirlos de que cambien su comportamiento o bloquear sus intentos de interferencia. [40] Eliezer Yudkowsky ilustra tal convergencia instrumental de la siguiente manera: "La IA no te odia, ni te ama, pero estás hecho de átomos que puede usar para otra cosa". [41]
Esto presenta el problema del control de la IA : cómo construir un agente inteligente que ayude a sus creadores, mientras se evita construir inadvertidamente una superinteligencia que dañará a sus creadores. El peligro de no diseñar correctamente el control "la primera vez" es que una superinteligencia puede tomar el poder sobre su entorno y evitar que los humanos lo apaguen. Dado que una IA superinteligente probablemente tendrá la capacidad de no temer a la muerte y, en cambio, considerarla una situación evitable que se puede predecir y evitar simplemente desactivando el botón de encendido. [42] Las posibles estrategias de control de la IA incluyen "control de capacidad" (que limita la capacidad de una IA para influir en el mundo) y "control motivacional" (construir una IA cuyos objetivos estén alineados con los valores humanos).
Bill Hibbard aboga por la educación pública sobre la superinteligencia y el control público sobre el desarrollo de la superinteligencia. [43]
Ver también
- Adquisición de IA
- Cerebro artificial
- Carrera armamentista de inteligencia artificial
- Altruismo efectivo
- Ética de la inteligencia artificial
- Riesgo existencial
- Instituto del Futuro de la Humanidad
- Futuro de la robótica
- Agente inteligente
- Ética de la máquina
- Instituto de Investigación de Inteligencia Artificial
- Aprendizaje automático
- Noogénesis
- Esquema de la inteligencia artificial
- Posthumanismo
- Autorreplicación
- Máquina de autorreplicación
- Superinteligencia: caminos, peligros, estrategias
Citas
- ↑ a b Bostrom 2014 , Capítulo 2.
- ^ Bostrom 2014 , p. 22.
- ^ Legg 2008 , págs. 135-137.
- ^ Chalmers 2010 , p. 7.
- ^ Chalmers 2010 , p. 7-9.
- ^ Chalmers 2010 , p. 10-11.
- ^ Chalmers 2010 , p. 11-13.
- ^ Bostrom 2014 , p. 59.
- ^ Yudkowsky, Eliezer (2013). Microeconomía de explosión de inteligencia (PDF) (Informe técnico). Instituto de Investigación en Inteligencia de Máquina . pag. 35. 2013-1.
- ^ Bostrom 2014 , págs. 56-57.
- ^ Bostrom 2014 , págs. 52, 59-61.
- ^ Eryomin AL Las leyes de la evolución de la mente // Séptima teleconferencia internacional sobre "Problemas reales de la ciencia moderna". Tomsk, 2012. - pág. 133-134.
- ^ a b c d e Eryomin AL Noogénesis y teoría del intelecto . Krasnodar, 2005. - 356 p. ( ISBN 5-7221-0671-2 )
- ^ a b c d Eryomin AL, Zibarev EV (2020) Trabajo intelectual: fisiología, higiene, medicina: investigación fundamental retrospectiva y moderna. Salud ocupacional y ecología industrial 60 (12) 951-957.
- ^ Sagan, Carl (1977). Los dragones del Edén . Casa al azar.
- ^ Bostrom 2014 , págs. 37-39.
- ^ Bostrom 2014 , p. 39.
- ^ Bostrom 2014 , págs. 48-49.
- ^ Watkins, Jennifer H. (2007), Prediction Markets as an Aggregation Mechanism for Collective Intelligence
- ^ Bostrom 2014 , págs. 36-37, 42, 47.
- ^ Vorläufiger Bericht über die Fortpflanzungs-Geschwindigkeit der Nervenreizung . En: Archiv für Anatomie, Physiologie und wissenschaftliche Medicin. Jg. 1850, Veit & Comp., Berlín 1850, S. 71–73. MPIWG Berlín
- ^ Glynn, Ian (2010). Elegancia en la ciencia . Oxford: Prensa de la Universidad de Oxford. págs. 147-150. ISBN 978-0-19-957862-7.
- ^ El Premio Nobel de Fisiología o Medicina 1906.
- ^ Suzana Herculano-Houzel La ventaja humana: una nueva comprensión de cómo nuestro cerebro se volvió notable. MIT Press, 2016. 256 págs.
- ^ Foster, M .; Sherrington, CS (1897). Libro de texto de fisiología, volumen 3 (7ª ed.). Londres: Macmillan. pag. 929.
- ^ Voorhees B., Read D., Gabora L. Identidad, parentesco y evolución de la cooperación. Antropología actual. 2020; 2: 194-218.
- ^ Rilling, JK et al. Una base neuronal para la cooperación social. Neurona. 2002; 35: 395-405.
- ^ Grosberg RK, Strathmann RR La evolución de la multicelularidad: ¿una transición menor importante? Annu Rev Ecol Evol Syst. 2007; 38: 621–654.
- ^ Budd GE Evolución animal temprana y los orígenes de los sistemas nerviosos. Transacciones filosóficas de la Royal Society B: Ciencias biológicas. 2015; 370 (1684): 20150037.
- ^ Drachman DA ¿Tenemos cerebro de sobra? Neurología. 2005; 64 (12): 2004–5.
- ^ Nguyen T. Número total de sinapsis en el neocórtex humano adulto. Revista de pregrado de modelado matemático: uno + dos. 2010; 3 (1): 26.
- ^ Dunbar, tamaño del neocórtex de RIM como restricción en el tamaño del grupo en primates. Revista de evolución humana. 1992; 22 (6): 469–493.
- ^ Walbrin J. y col. Respuestas neuronales a interacciones sociales observadas visualmente. Neuropsicología. 2018; 112: 31-39.
- ^ Maker, Meg Houston (13 de julio de 2006). "AI @ 50: Primera encuesta" . Archivado desde el original el 13 de mayo de 2014.
- ^ Müller y Bostrom 2016 , págs. 3-4, 6, 9-12.
- ↑ a b c Bostrom , 2014 , págs. 209-221.
- ^ Santos-Lang 2014 , págs. 16-19.
- ^ Bill Joy , Por qué el futuro no nos necesita . En: Revista Wired . Véase también singularidad tecnológica . Nick Bostrom 2002 Cuestiones éticas en inteligencia artificial avanzada
- ^ Muehlhauser, Luke y Louie Helm. 2012. "Inteligencia Explosión y Ética de las Máquinas". En Singularity Hypotheses: A Scientific and Philosophical Assessment, editado por Amnon Eden, Johnny Søraker, James H. Moor y Eric Steinhart. Berlín: Springer.
- ^ Bostrom, Nick. 2003. "Cuestiones éticas en inteligencia artificial avanzada". En Aspectos cognitivos, emocionales y éticos de la toma de decisiones en humanos y en inteligencia artificial, editado por Iva Smit y George E. Lasker, 12-17. Vol. 2. Windsor, ON: Instituto Internacional de Estudios Avanzados en Investigación de Sistemas / Cibernética.
- ^ Eliezer Yudkowsky (2008) en Inteligencia artificial como factor positivo y negativo en el riesgo global
- ^ Russell, Stuart (17 de mayo de 2016). "¿Deberíamos temer a los robots súper inteligentes?" . Scientific American . 314 (6): 58–59. Código Bibliográfico : 2016SciAm.314f..58R . doi : 10.1038 / scientificamerican0616-58 . ISSN 0036-8733 . PMID 27196844 .
- ^ Hibbard 2002 , págs. 155-163.
Bibliografía
- Bostrom, Nick (2002), "Existential Risks" , Journal of Evolution and Technology , 9 , consultado el 2007-08-07
- Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias . Prensa de la Universidad de Oxford.
- Chalmers, David (2010). "La singularidad: un análisis filosófico" (PDF) . Revista de estudios de la conciencia . 17 : 7-65.
- Hibbard, Bill (2002). Máquinas superinteligentes . Kluwer Academic / Plenum Publishers.
- Legg, Shane (2008). Machine Super Intelligence (PDF) (PhD). Departamento de Informática, Universidad de Lugano . Consultado el 19 de septiembre de 2014 .
- Müller, Vincent C .; Bostrom, Nick (2016). "Progreso futuro en inteligencia artificial: una encuesta de opinión de expertos" . En Müller, Vincent C. (ed.). Aspectos fundamentales de la inteligencia artificial . Saltador. págs. 553–571.
- Santos-Lang, Christopher (2014). "Nuestra responsabilidad de gestionar la diversidad evaluativa" (PDF) . ACM SIGCAS Informática y Sociedad . 44 (2): 16-19. doi : 10.1145 / 2656870.2656874 .
enlaces externos
- Bill Gates se une a Stephen Hawking en Temores de una amenaza venidera de "Superintelligence"
- ¿Destruirán las máquinas superinteligentes a la humanidad?
- El cofundador de Apple tiene un presentimiento sobre la superinteligencia artificial