Escuche este articulo
De Wikipedia, la enciclopedia libre
  (Redirigido desde la superación personal recurrente )
Saltar a navegación Saltar a búsqueda

La singularidad tecnológica —también, simplemente, la singularidad [1] - es un hipotético punto en el tiempo en el que el crecimiento tecnológico se vuelve incontrolable e irreversible, resultando en cambios imprevisibles en la civilización humana. [2] [3] Según la versión más popular de la hipótesis de la singularidad, llamada explosión de inteligencia , un agente inteligente actualizable eventualmente entrará en una "reacción descontrolada" de ciclos de superación personal, cada generación nueva y más inteligente aparecerá cada vez más rápidamente. , provocando una "explosión" en la inteligencia y dando como resultado una poderosa superinteligencia que cualitativamente supera con creces todos losinteligencia humana .

El primer uso del concepto de "singularidad" en el contexto tecnológico fue John von Neumann . [4] Stanislaw Ulam informa de una discusión con von Neumann "centrada en el progreso acelerado de la tecnología y los cambios en el modo de vida humana, lo que da la apariencia de acercarse a alguna singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, como nosotros conocerlos, no podía continuar ”. [5] Los autores posteriores se han hecho eco de este punto de vista. [3] [6]

El modelo de "explosión de inteligencia" de IJ Good predice que una futura superinteligencia desencadenará una singularidad. [7]

El concepto y el término "singularidad" fueron popularizados por Vernor Vinge en su ensayo de 1993 The Coming Technological Singularity , en el que escribió que marcaría el final de la era humana, ya que la nueva superinteligencia continuaría mejorando y avanzaría tecnológicamente. a un ritmo incomprensible. Escribió que le sorprendería que ocurriera antes de 2005 o después de 2030. [7]

Figuras públicas como Stephen Hawking y Elon Musk han expresado su preocupación de que la inteligencia artificial (IA) completa pueda resultar en la extinción humana. [8] [9] Se han debatido intensamente las consecuencias de la singularidad y su beneficio o daño potencial para la raza humana.

Cuatro encuestas de investigadores de IA, realizadas en 2012 y 2013 por Nick Bostrom y Vincent C. Müller , sugirieron una estimación de probabilidad media del 50% de que la inteligencia artificial general (AGI) se desarrollaría para 2040-2050. [10] [11]

Antecedentes [ editar ]

Aunque el progreso tecnológico se ha acelerado en la mayoría de las áreas (aunque se ha ralentizado en algunas), se ha visto limitado por la inteligencia básica del cerebro humano, que, según Paul R. Ehrlich , no ha cambiado significativamente durante milenios. [12] Sin embargo, con el creciente poder de las computadoras y otras tecnologías, eventualmente podría ser posible construir una máquina que sea significativamente más inteligente que los humanos. [13]

Si se inventara una inteligencia sobrehumana, ya sea mediante la amplificación de la inteligencia humana o mediante la inteligencia artificial, aportaría mayores habilidades inventivas y de resolución de problemas de las que son capaces los humanos actuales. Tal IA se conoce como IA Semilla [14] [15]porque si una IA se creara con capacidades de ingeniería que igualaran o superaran a las de sus creadores humanos, tendría el potencial de mejorar de forma autónoma su propio software y hardware o diseñar una máquina aún más capaz. Esta máquina más capaz podría luego diseñar una máquina con una capacidad aún mayor. Estas iteraciones de superación personal recursiva podrían acelerarse, permitiendo potencialmente un enorme cambio cualitativo antes de que se establezcan los límites superiores impuestos por las leyes de la física o la computación teórica. Se especula que en muchas iteraciones, tal IA superaría con creces las capacidades cognitivas humanas .

Explosión de inteligencia [ editar ]

La explosión de inteligencia es un posible resultado de que la humanidad construya inteligencia general artificial (AGI). AGI puede ser capaz de superación personal recursiva, lo que lleva a la rápida aparición de la superinteligencia artificial (ASI), cuyos límites se desconocen, poco después de que se logre la singularidad tecnológica.

IJ Good especuló en 1965 que la inteligencia artificial general podría provocar una explosión de inteligencia. Especuló sobre los efectos de las máquinas sobrehumanas, si alguna vez se inventaran: [16]

Dejemos que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; entonces, sin duda, habría una "explosión de inteligencia", y la inteligencia del hombre quedaría muy atrás. Así, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil para decirnos cómo mantenerla bajo control.

El escenario de Good es el siguiente: a medida que las computadoras aumentan de potencia, las personas pueden construir una máquina que es más inteligente que la humanidad; esta inteligencia sobrehumana posee mayores habilidades inventivas y de resolución de problemas de las que son capaces los humanos actuales. Esta máquina superinteligente luego diseña una máquina aún más capaz, o reescribe su propio software para volverse aún más inteligente; esta máquina (aún más capaz) luego pasa a diseñar una máquina de capacidad aún mayor, y así sucesivamente. Estas iteraciones de superación personal recursiva se aceleran, permitiendo un enorme cambio cualitativo antes de que se establezcan los límites superiores impuestos por las leyes de la física o el cálculo teórico. [16]

Otras manifestaciones [ editar ]

Aparición de superinteligencia [ editar ]

Una superinteligencia, hiperinteligencia o inteligencia sobrehumana es un agente hipotético que posee una inteligencia que supera con creces la de las mentes humanas más brillantes y talentosas. "Superinteligencia" también puede referirse a la forma o grado de inteligencia que posee dicho agente. John von Neumann , Vernor Vinge y Ray Kurzweil definen el concepto en términos de creación tecnológica de superinteligencia. Argumentan que es difícil o imposible para los humanos de hoy en día predecir cómo serían las vidas de los seres humanos en un mundo post-singularidad. [7] [17]

Los pronosticadores e investigadores de tecnología no están de acuerdo sobre si es probable que se supere la inteligencia humana o cuándo. Algunos argumentan que los avances en inteligencia artificial (IA) probablemente resultarán en sistemas de razonamiento general que carecen de limitaciones cognitivas humanas. Otros creen que los humanos evolucionarán o modificarán directamente su biología para lograr una inteligencia radicalmente mayor. Varios escenarios de estudios de futuros combinan elementos de ambas posibilidades, lo que sugiere que es probable que los humanos interactúen con las computadoras o carguen sus mentes en las computadoras de una manera que permita una amplificación sustancial de la inteligencia.

Singularidad sin IA [ editar ]

Algunos escritores usan "la singularidad" de una manera más amplia para referirse a cualquier cambio radical en nuestra sociedad provocado por nuevas tecnologías como la nanotecnología molecular , [18] [19] [20] aunque Vinge y otros escritores afirman específicamente que sin superinteligencia, tales cambios no calificarían como una verdadera singularidad. [7]

Superinteligencia de velocidad [ editar ]

Una superinteligencia de velocidad describe una IA que puede hacer todo lo que un humano puede hacer, donde la única diferencia es que la máquina corre más rápido. [21] Por ejemplo, con un aumento de un millón de veces en la velocidad de procesamiento de la información en relación con la de los humanos, un año subjetivo pasaría en 30 segundos físicos. [22] Tal diferencia en la velocidad de procesamiento de la información podría impulsar la singularidad. [23]

Plausibilidad [ editar ]

Muchos tecnólogos y académicos prominentes cuestionan la plausibilidad de una singularidad tecnológica, incluidos Paul Allen , Jeff Hawkins , John Holland , Jaron Lanier y Gordon Moore , cuya ley se cita a menudo en apoyo del concepto. [24] [25] [26]

La mayoría de los métodos propuestos para crear mentes sobrehumanas o transhumanas se dividen en una de dos categorías: amplificación de la inteligencia del cerebro humano e inteligencia artificial. Las formas especuladas para producir aumento de inteligencia son muchas e incluyen bioingeniería , ingeniería genética , fármacos nootrópicos , asistentes de IA, interfaces directas cerebro-computadora y carga mental . Debido a que se están explorando múltiples caminos hacia una explosión de inteligencia, hace que una singularidad sea más probable; para que no ocurriera una singularidad, todos tendrían que fallar. [22]

Robin Hanson expresó su escepticismo sobre el aumento de la inteligencia humana y escribió que una vez que se haya agotado el "fruto fácil" de los métodos fáciles para aumentar la inteligencia humana, será cada vez más difícil encontrar nuevas mejoras. [27] A pesar de todas las formas especuladas para amplificar la inteligencia humana, la inteligencia artificial no humana (específicamente la IA semilla) es la opción más popular entre las hipótesis que impulsarían la singularidad. [ cita requerida ]

Que ocurra o no una explosión de inteligencia depende de tres factores. [28] El primer factor de aceleración son las nuevas mejoras de inteligencia que son posibles gracias a cada mejora anterior. Por el contrario, a medida que las inteligencias se vuelven más avanzadas, los avances adicionales se volverán cada vez más complicados, posiblemente superando la ventaja de una mayor inteligencia. Cada mejora debe generar al menos una mejora más, en promedio, para que continúe el movimiento hacia la singularidad. Finalmente, las leyes de la física eventualmente evitarán cualquier mejora adicional.

Hay dos causas lógicamente independientes, pero que se refuerzan mutuamente, de las mejoras de inteligencia: aumentos en la velocidad de cálculo y mejoras en los algoritmos utilizados. [29] El primero está predicho por la Ley de Moore y las mejoras previstas en el hardware, [30] y es comparativamente similar a los avances tecnológicos anteriores. Pero hay algunos investigadores de IA, [ ¿quién? ] que creen que el software es más importante que el hardware. [31]

Una encuesta por correo electrónico de 2017 de autores con publicaciones en las conferencias de aprendizaje automático NeurIPS e ICML de 2015 preguntó sobre la posibilidad de una explosión de inteligencia. De los encuestados, el 12% dijo que era "bastante probable", el 17% dijo que era "probable", el 21% dijo que era "casi uniforme", el 24% dijo que era "poco probable" y el 26% dijo que era "bastante improbable". ". [32]

Mejoras de velocidad [ editar ]

Tanto para la inteligencia humana como para la artificial, las mejoras de hardware aumentan la tasa de futuras mejoras de hardware. En pocas palabras, [33] la ley de Moore sugiere que si la primera duplicación de la velocidad tomó 18 meses, la segunda tomaría 18 meses subjetivos; o 9 meses externos, en adelante, cuatro meses, dos meses, etc., hacia una singularidad de velocidad. [34] Eventualmente se puede alcanzar un límite superior de velocidad, aunque no está claro qué tan alto sería. Jeff Hawkins ha declarado que un sistema informático auto-mejorable inevitablemente se toparía con límites superiores de potencia informática: "al final, hay límites en cuanto a lo grandes y rápidos que pueden funcionar las computadoras. Terminaríamos en el mismo lugar; simplemente llegar un poco más rápido. No habría ninguna singularidad ". [35]

Es difícil comparar directamente el hardware basado en silicio con las neuronas . Pero Berglas (2008) señala que el reconocimiento de voz por computadora se acerca a las capacidades humanas, y que esta capacidad parece requerir un 0,01% del volumen del cerebro. Esta analogía sugiere que el hardware de las computadoras modernas está a unos pocos órdenes de magnitud de ser tan poderoso como el cerebro humano.

Crecimiento exponencial [ editar ]

Ray Kurzweil escribe que, debido a los cambios de paradigma , una tendencia de crecimiento exponencial extiende la ley de Moore de los circuitos integrados a los transistores , tubos de vacío , relés y computadoras electromecánicas anteriores . Él predice que el crecimiento exponencial continuará, y que en unas pocas décadas la potencia de cálculo de todas las computadoras superará la de los cerebros humanos ("no mejorados"), con inteligencia artificial sobrehumana apareciendo casi al mismo tiempo.
Una versión actualizada de la ley de Moore durante 120 años (basada en el gráfico de Kurzweil ). Los 7 puntos de datos más recientes son todos GPU de NVIDIA .

El crecimiento exponencial de la tecnología informática sugerido por la ley de Moore se cita comúnmente como una razón para esperar una singularidad en un futuro relativamente cercano, y varios autores han propuesto generalizaciones de la ley de Moore. El científico informático y futurista Hans Moravec propuso en un libro de 1998 [36] que la curva de crecimiento exponencial podría extenderse a través de tecnologías informáticas anteriores al circuito integrado .

Ray Kurzweil postula una ley de rendimientos acelerados en la que la velocidad del cambio tecnológico (y más en general, todos los procesos evolutivos [37] ) aumenta exponencialmente, generalizando la ley de Moore de la misma manera que la propuesta de Moravec, y también incluyendo la tecnología de materiales (especialmente cuando se aplica a la nanotecnología ), tecnología médica y otros. [38]Entre 1986 y 2007, la capacidad de aplicación específica de las máquinas para calcular información per cápita se duplicó aproximadamente cada 14 meses; la capacidad per cápita de las computadoras de uso general del mundo se ha duplicado cada 18 meses; la capacidad mundial de telecomunicaciones per cápita se duplicó cada 34 meses; y la capacidad mundial de almacenamiento per cápita se duplicó cada 40 meses. [39] Por otro lado, se ha argumentado que el patrón de aceleración global que tiene la singularidad del siglo XXI como parámetro debe caracterizarse como hiperbólico en lugar de exponencial. [40]

Kurzweil se reserva el término "singularidad" para un rápido aumento de la inteligencia artificial (a diferencia de otras tecnologías), escribiendo por ejemplo que "La singularidad nos permitirá trascender estas limitaciones de nuestros cuerpos biológicos y cerebros ... No habrá distinción , post-Singularidad, entre humano y máquina ”. [41] También define su fecha prevista de la singularidad (2045) en términos de cuándo espera que las inteligencias basadas en computadora excedan significativamente la suma total de la capacidad intelectual humana, escribiendo que los avances en computación antes de esa fecha "no representarán la Singularidad". porque "todavía no corresponden a una expansión profunda de nuestra inteligencia". [42]

Acelerando el cambio [ editar ]

Según Kurzweil, su gráfico logarítmico de 15 listas de cambios de paradigma para eventos históricos clave muestra una tendencia exponencial

Algunos defensores de la singularidad argumentan su inevitabilidad a través de la extrapolación de tendencias pasadas, especialmente aquellas relacionadas con la reducción de brechas entre las mejoras tecnológicas. En uno de los primeros usos del término "singularidad" en el contexto del progreso tecnológico, Stanislaw Ulam habla de una conversación con John von Neumann sobre la aceleración del cambio:

Una conversación se centró en el progreso cada vez más acelerado de la tecnología y los cambios en el modo de vida humana, que da la apariencia de acercarse a alguna singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, tal como los conocemos, no podrían continuar. [5]

Kurzweil afirma que el progreso tecnológico sigue un patrón de crecimiento exponencial , siguiendo lo que él llama la " ley de los rendimientos acelerados ". Siempre que la tecnología se acerque a una barrera, escribe Kurzweil, las nuevas tecnologías la superarán. Él predice que los cambios de paradigma serán cada vez más comunes, lo que conducirá a "un cambio tecnológico tan rápido y profundo que representa una ruptura en el tejido de la historia humana". [43] Kurzweil cree que la singularidad ocurrirá aproximadamente en 2045 . [38] Sus predicciones difieren de las de Vinge en que predice un ascenso gradual a la singularidad, en lugar de la inteligencia sobrehumana de rápida mejora de Vinge.

Los peligros que se mencionan a menudo incluyen los comúnmente asociados con la nanotecnología molecular y la ingeniería genética . Estas amenazas son los principales problemas tanto para los defensores de singularidad y críticos, y fueron objeto de Bill Joy 's Wired artículo de la revista ' ¿Por qué el futuro no nos necesita '. [6] [44]

Mejoras en el algoritmo [ editar ]

Algunas tecnologías de inteligencia, como "semilla de IA", [14] [15] también pueden tener el potencial de no solo hacerse más rápidas, sino también más eficientes, modificando su código fuente . Estas mejoras harían posibles más mejoras, lo que haría posibles más mejoras, y así sucesivamente.

El mecanismo para un conjunto de algoritmos de mejora automática recursiva difiere de un aumento en la velocidad de cálculo sin procesar de dos maneras. Primero, no requiere influencia externa: las máquinas que diseñan hardware más rápido aún requerirían humanos para crear el hardware mejorado o programar las fábricas de manera adecuada. [ cita requerida ] Una IA que reescriba su propio código fuente podría hacerlo mientras está contenido en una caja de IA .

En segundo lugar, al igual que con la concepción de la singularidad de Vernor Vinge , es mucho más difícil predecir el resultado. Si bien los aumentos de velocidad parecen ser solo una diferencia cuantitativa de la inteligencia humana, las mejoras reales del algoritmo serían cualitativamente diferentes. Eliezer Yudkowsky lo compara con los cambios que trajo la inteligencia humana: los humanos cambiaron el mundo miles de veces más rápido que la evolución, y de formas totalmente diferentes. De manera similar, la evolución de la vida fue una desviación masiva y una aceleración de las tasas de cambio geológico anteriores, y la inteligencia mejorada podría hacer que el cambio vuelva a ser tan diferente. [45]

Existen peligros sustanciales asociados con una singularidad de explosión de inteligencia que se origina a partir de un conjunto de algoritmos que se mejoran a sí mismos de forma recursiva. En primer lugar, es posible que la estructura de objetivos de la IA no sea invariable con la superación personal, lo que podría hacer que la IA se optimice para algo diferente de lo que se pretendía originalmente. [46] [47] En segundo lugar, las IA podrían competir por los mismos recursos escasos que utiliza la humanidad para sobrevivir. [48] [49]

Si bien no son activamente maliciosos, no hay razón para pensar que las IA promoverían activamente los objetivos humanos a menos que pudieran programarse como tales y, de no ser así, podrían usar los recursos que se utilizan actualmente para apoyar a la humanidad para promover sus propios objetivos, provocando la extinción humana. [50] [51] [52]

Carl Shulman y Anders Sandberg sugieren que las mejoras del algoritmo pueden ser el factor limitante de una singularidad; Si bien la eficiencia del hardware tiende a mejorar a un ritmo constante, las innovaciones de software son más impredecibles y pueden verse obstaculizadas por la investigación acumulativa en serie. Sugieren que en el caso de una singularidad limitada por software, la explosión de inteligencia en realidad sería más probable que con una singularidad limitada por hardware, porque en el caso limitado por software, una vez que se desarrolle la IA a nivel humano, podría ejecutarse en serie en muy hardware rápido y la abundancia de hardware barato haría que la investigación de la IA sea menos restringida. [53] Una gran cantidad de hardware acumulado que se puede liberar una vez que el software descubre cómo usarlo se ha denominado "proyección informática".[54]

Críticas [ editar ]

Algunos críticos, como el filósofo Hubert Dreyfus , afirman que las computadoras o las máquinas no pueden alcanzar la inteligencia humana , mientras que otros, como el físico Stephen Hawking , sostienen que la definición de inteligencia es irrelevante si el resultado neto es el mismo. [55]

El psicólogo Steven Pinker declaró en 2008:

... No hay la menor razón para creer en una singularidad venidera. El hecho de que pueda visualizar un futuro en su imaginación no es evidencia de que sea probable o incluso posible. Mire las ciudades abovedadas, los desplazamientos en jet-pack, las ciudades submarinas, los edificios de una milla de altura y los automóviles de propulsión nuclear, todos ellos elementos básicos de las fantasías futuristas de cuando era un niño que nunca llegaron. El poder de procesamiento puro no es un polvo de duendes que resuelve mágicamente todos tus problemas. ... [24]

El profesor de filosofía de la Universidad de California, Berkeley , John Searle, escribe:

[Las computadoras] tienen, literalmente ..., sin inteligencia , sin motivación , sin autonomía y sin agencia. Los diseñamos para que se comporten como si tuvieran cierto tipo de psicología , pero no hay una realidad psicológica en los procesos o comportamientos correspondientes. ... [L] a maquinaria no tiene creencias, deseos, [o] motivaciones. [56]

Martin Ford en The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future [57] postula una "paradoja tecnológica" en el sentido de que antes de que ocurriera la singularidad, la mayoría de los trabajos de rutina en la economía serían automatizados, ya que esto requeriría una nivel de tecnología inferior al de la singularidad. Esto causaría un desempleo masivo y una caída en picado de la demanda de los consumidores, lo que a su vez destruiría el incentivo para invertir en las tecnologías que serían necesarias para lograr la Singularidad. El desplazamiento laboral ya no se limita cada vez más al trabajo tradicionalmente considerado "rutinario". [58]

Theodore Modis [59] y Jonathan Huebner [60] sostienen que la tasa de innovación tecnológica no solo ha dejado de aumentar, sino que ahora está disminuyendo. La evidencia de esta disminución es que el aumento de las frecuencias de reloj de las computadoras se está desacelerando, incluso mientras se mantiene la predicción de Moore de un aumento exponencial de la densidad del circuito. Esto se debe a la acumulación excesiva de calor del chip, que no se puede disipar lo suficientemente rápido como para evitar que el chip se derrita cuando se opera a velocidades más altas. Los avances en la velocidad pueden ser posibles en el futuro en virtud de diseños de CPU y procesadores multicelulares más eficientes en el consumo de energía. [61]Mientras Kurzweil usó los recursos de Modis, y el trabajo de Modis se centró en acelerar el cambio, Modis se distanció de la tesis de Kurzweil de una "singularidad tecnológica", alegando que carece de rigor científico. [62]

En una detallada contabilidad empírica, The Progress of Computing , William Nordhaus argumentó que, antes de 1940, las computadoras siguieron el crecimiento mucho más lento de una economía industrial tradicional, rechazando así las extrapolaciones de la ley de Moore a las computadoras del siglo XIX. [63]

En un artículo de 2007, Schmidhuber afirmó que la frecuencia de "eventos notables" subjetivamente parece estar acercándose a una singularidad del siglo XXI, pero advirtió a los lectores que tomen tales tramas de eventos subjetivos con un grano de sal: quizás diferencias en la memoria de recientes y lejanos Los eventos podrían crear la ilusión de un cambio acelerado donde no existe. [64]

Paul Allen argumentó lo contrario de los retornos acelerados, el freno de la complejidad; [26] cuanto más progresa la ciencia hacia la comprensión de la inteligencia, más difícil se vuelve hacer progresos adicionales. Un estudio del número de patentes muestra que la creatividad humana no muestra rendimientos acelerados, pero de hecho, como sugiere Joseph Tainter en su The Collapse of Complex Societies , [65] una ley de rendimientos decrecientes . El número de patentes por mil alcanzó su punto máximo en el período comprendido entre 1850 y 1900 y ha ido disminuyendo desde entonces. [60] El crecimiento de la complejidad eventualmente se vuelve autolimitante y conduce a un "colapso generalizado de los sistemas".

Jaron Lanier refuta la idea de que la Singularidad es inevitable. Afirma: "No creo que la tecnología se esté creando a sí misma. No es un proceso autónomo". [66] Continúa afirmando: "La razón para creer en la agencia humana sobre el determinismo tecnológico es que entonces se puede tener una economía en la que la gente se gane su propio camino e invente sus propias vidas. Si se estructura una sociedad sin hacer hincapié en el individuo humano agencia, es lo mismo desde el punto de vista operativo que negar a las personas la influencia, la dignidad y la autodeterminación ... abrazar [la idea de la singularidad] sería una celebración de la mala información y la mala política ". [66]

El economista Robert J. Gordon , en The Rise and Fall of American Growth: The US Standard of Living Since the Civil War (2016), señala que el crecimiento económico medido se desaceleró alrededor de 1970 y se desaceleró aún más desde la crisis financiera de 2007-2008. , y argumenta que los datos económicos no muestran ningún rastro de una Singularidad venidera como la imaginó el matemático IJ Good . [67]

Además de las críticas generales al concepto de singularidad, varios críticos han planteado problemas con el gráfico icónico de Kurzweil. Una línea de crítica es que un gráfico logarítmico de esta naturaleza está intrínsecamente sesgado hacia un resultado lineal. Otros identifican sesgo de selección en los puntos que Kurzweil elige usar. Por ejemplo, el biólogo PZ Myers señala que muchos de los primeros "eventos" evolutivos se eligieron arbitrariamente. [68] Kurzweil ha refutado esto trazando los eventos evolutivos de 15 fuentes neutrales y mostrando que se ajustan a una línea recta en un gráfico logarítmico . El economistase burló del concepto con un gráfico extrapolando que el número de hojas de una maquinilla de afeitar, que ha aumentado a lo largo de los años de una a cinco, aumentará cada vez más rápido hasta el infinito. [69]

Impactos potenciales [ editar ]

En el pasado se han producido cambios drásticos en la tasa de crecimiento económico debido a los avances tecnológicos. Basado en el crecimiento de la población, la economía se duplicó cada 250.000 años desde el Paleolítico hasta la Revolución Neolítica . La nueva economía agrícola se duplicó cada 900 años, un aumento notable. En la era actual, comenzando con la Revolución Industrial, la producción económica mundial se duplica cada quince años, sesenta veces más rápido que durante la era agrícola. Si el auge de la inteligencia sobrehumana provoca una revolución similar, argumenta Robin Hanson, uno esperaría que la economía se duplicara al menos trimestralmente y posiblemente semanalmente. [70]

Incertidumbre y riesgo [ editar ]

El término "singularidad tecnológica" refleja la idea de que tal cambio puede ocurrir repentinamente y que es difícil predecir cómo funcionaría el nuevo mundo resultante. [71] [72] No está claro si una explosión de inteligencia que resulte en una singularidad sería beneficiosa o dañina, o incluso una amenaza existencial . [73] [74] Debido a que la IA es un factor importante en el riesgo de singularidad, varias organizaciones persiguen una teoría técnica para alinear los sistemas de objetivos de IA con los valores humanos, incluido el Future of Humanity Institute , el Machine Intelligence Research Institute , [71] el Centro de Inteligencia Artificial Compatible con los Humanos , y elInstituto del Futuro de la Vida .

El físico Stephen Hawking dijo en 2014 que "El éxito en la creación de IA sería el evento más grande en la historia de la humanidad. Desafortunadamente, también podría ser el último, a menos que aprendamos a evitar los riesgos". [75] Hawking creía que en las próximas décadas, la IA podría ofrecer "beneficios y riesgos incalculables", como "tecnología que supere a los mercados financieros, que invente más a los investigadores humanos, que manipule a los líderes humanos y que desarrolle armas que ni siquiera podemos entender". [75] Hawking sugirió que la inteligencia artificial debería tomarse más en serio y que debería hacerse más para prepararse para la singularidad: [75]

Entonces, frente a posibles futuros de beneficios y riesgos incalculables, los expertos seguramente están haciendo todo lo posible para garantizar el mejor resultado, ¿verdad? Equivocado. Si una civilización alienígena superior nos enviara un mensaje diciendo: "Llegaremos en unas pocas décadas", ¿responderíamos simplemente "Está bien, llámanos cuando llegues, dejaremos las luces encendidas"? Probablemente no, pero esto es más o menos lo que está sucediendo con la IA.

Berglas (2008) afirma que no existe una motivación evolutiva directa para que una IA sea amigable con los humanos. La evolución no tiene una tendencia inherente a producir resultados valorados por los humanos, y hay pocas razones para esperar que un proceso de optimización arbitrario promueva un resultado deseado por la humanidad, en lugar de llevar inadvertidamente a una IA que se comporte de una manera no prevista por sus creadores. [76] [77] [78] Anders Sandberg también ha elaborado este escenario, abordando varios contraargumentos comunes. [79] El investigador de inteligencia artificial Hugo de Garis sugiere que las inteligencias artificiales pueden simplemente eliminar a la raza humana para acceder a recursos escasos , [48] [80]y los humanos serían impotentes para detenerlos. [81] Alternativamente, las IA desarrolladas bajo presión evolutiva para promover su propia supervivencia podrían superar a la humanidad. [52]

Bostrom (2002) analiza los escenarios de extinción humana y enumera la superinteligencia como una posible causa:

Cuando creamos la primera entidad superinteligente, podríamos cometer un error y darle metas que la lleven a aniquilar a la humanidad, asumiendo que su enorme ventaja intelectual le da el poder para hacerlo. Por ejemplo, podríamos elevar erróneamente un subobjetivo al estado de superobjetivo. Le decimos que resuelva un problema matemático, y cumple al convertir toda la materia del sistema solar en un dispositivo de cálculo gigante, matando en el proceso a la persona que hizo la pregunta.

Según Eliezer Yudkowsky , un problema importante en la seguridad de la inteligencia artificial es que es probable que la inteligencia artificial hostil sea mucho más fácil de crear que la inteligencia artificial amigable. Si bien ambos requieren grandes avances en el diseño de procesos de optimización recursiva, la IA amigable también requiere la capacidad de hacer que las estructuras de objetivos sean invariables bajo la superación personal (o la IA podría transformarse en algo hostil) y una estructura de objetivos que se alinee con los valores humanos y no automáticamente destruir la raza humana. Una IA hostil, por otro lado, puede optimizar para una estructura de objetivos arbitraria, que no necesita ser invariable bajo la auto-modificación. [82] Bill Hibbard (2014) propone un diseño de IA que evita varios peligros, incluido el autoengaño, [83]acciones instrumentales no intencionales, [46] [84] y corrupción del generador de recompensas. [84] También analiza los impactos sociales de la IA [85] y las pruebas de IA. [86] Su libro Super-Intelligent Machines de 2001 defiende la necesidad de educación pública sobre la IA y el control público de la IA. También propuso un diseño simple que era vulnerable a la corrupción del generador de recompensas.

Siguiente paso de la evolución sociobiológica [ editar ]

Cronología esquemática de la información y los replicadores en la biosfera: las " principales transiciones evolutivas " de Gillings et al. En el procesamiento de la información. [87]
Cantidad de información digital en todo el mundo (5 × 10 21 bytes) versus información del genoma humano en todo el mundo (10 19 bytes) en 2014. [87]

Si bien la singularidad tecnológica generalmente se ve como un evento repentino, algunos estudiosos argumentan que la velocidad actual del cambio ya se ajusta a esta descripción. [ cita requerida ]

Además, algunos argumentan que ya estamos en medio de una importante transición evolutiva que fusiona tecnología, biología y sociedad. La tecnología digital se ha infiltrado en el tejido de la sociedad humana hasta un grado de dependencia indiscutible y, a menudo, vital.

Un artículo de 2016 en Trends in Ecology & Evolution sostiene que "los humanos ya adoptan fusiones de biología y tecnología. Pasamos la mayor parte de nuestro tiempo de vigilia comunicándonos a través de canales mediados digitalmente ... confiamos en la inteligencia artificial con nuestras vidas a través del frenado antibloqueo en automóviles y pilotos automáticos. en aviones ... Con uno de cada tres matrimonios en Estados Unidos comenzando en línea, los algoritmos digitales también están desempeñando un papel en la vinculación y reproducción de la pareja humana ".

El artículo sostiene además que, desde la perspectiva de la evolución , varias Transiciones Importantes en la Evolución anteriores han transformado la vida a través de innovaciones en el almacenamiento y la replicación de información ( ARN , ADN , multicelularidad y cultura y lenguaje ). En la etapa actual de la evolución de la vida, la biosfera basada en carbono ha generado un sistema cognitivo (humanos) capaz de crear tecnología que resultará en una transición evolutiva comparable .

La información digital creada por los humanos ha alcanzado una magnitud similar a la información biológica en la biosfera. Desde la década de 1980, la cantidad de información digital almacenada se ha duplicado aproximadamente cada 2,5 años, alcanzando alrededor de 5 zettabytes en 2014 (5 × 10 21 bytes). [88]

En términos biológicos, hay 7.200 millones de seres humanos en el planeta, cada uno con un genoma de 6.200 millones de nucleótidos. Dado que un byte puede codificar cuatro pares de nucleótidos, los genomas individuales de cada ser humano del planeta podrían codificarse en aproximadamente 1 × 10 19 bytes. El reino digital almacenó 500 veces más información que esta en 2014 (ver figura). Se estima que la cantidad total de ADN contenida en todas las células de la Tierra es de aproximadamente 5,3 × 10 37 pares de bases, lo que equivale a 1,325 × 10 37 bytes de información.

Si el crecimiento del almacenamiento digital continúa a su tasa actual de 30-38% de crecimiento anual compuesto por año, [39] competirá con el contenido total de información contenido en todo el ADN de todas las células de la Tierra en unos 110 años. Esto representaría una duplicación de la cantidad de información almacenada en la biosfera durante un período total de sólo 150 años ". [87]

Implicaciones para la sociedad humana [ editar ]

En febrero de 2009, bajo los auspicios de la Asociación para el Avance de la Inteligencia Artificial (AAAI), Eric Horvitz presidió una reunión de destacados científicos informáticos, investigadores de inteligencia artificial y roboticistas en Asilomar en Pacific Grove, California. El objetivo era discutir el impacto potencial de la posibilidad hipotética de que los robots pudieran volverse autosuficientes y capaces de tomar sus propias decisiones. Discutieron hasta qué punto las computadoras y los robots podrían adquirir autonomía y hasta qué punto podrían usar esas habilidades para representar amenazas o peligros. [89]

Algunas máquinas están programadas con varias formas de semiautonomía, incluida la capacidad de localizar sus propias fuentes de energía y elegir objetivos para atacar con armas. Además, algunos virus informáticos pueden evadir la eliminación y, según los científicos presentes, se podría decir que han alcanzado una etapa de "cucaracha" en la inteligencia de las máquinas. Los asistentes a la conferencia señalaron que la autoconciencia como se describe en la ciencia ficción es probablemente poco probable, pero que existen otros peligros y trampas potenciales. [89]

Frank S. Robinson predice que una vez que los humanos logren una máquina con la inteligencia de un ser humano, los problemas científicos y tecnológicos serán abordados y resueltos con una capacidad intelectual muy superior a la de los humanos. Señala que los sistemas artificiales pueden compartir datos más directamente que los humanos, y predice que esto resultaría en una red global de superinteligencia que empequeñecería la capacidad humana. [90] Robinson también analiza cuán enormemente diferente sería el futuro después de tal explosión de inteligencia. Un ejemplo de esto es la energía solar, donde la Tierra recibe mucha más energía solar de la que captura la humanidad, por lo que capturar más de esa energía solar sería una gran promesa para el crecimiento de la civilización.

Despegue duro vs. suave [ editar ]

En este escenario de ejemplo de superación personal recursiva, los humanos que modifiquen la arquitectura de una IA podrían duplicar su rendimiento cada tres años, por ejemplo, durante 30 generaciones antes de agotar todas las mejoras posibles (izquierda). Si, en cambio, la IA es lo suficientemente inteligente como para modificar su propia arquitectura, así como lo pueden hacer los investigadores humanos, su tiempo necesario para completar un rediseño se reduce a la mitad con cada generación, y progresa en las 30 generaciones factibles en seis años (derecha). [91]

En un escenario de despegue difícil, un AGI se auto-mejora rápidamente, "tomando el control" del mundo (quizás en cuestión de horas), demasiado rápido para una corrección de errores significativa iniciada por humanos o para un ajuste gradual de los objetivos del AGI. En un escenario de despegue suave, AGI todavía se vuelve mucho más poderoso que la humanidad, pero a un ritmo similar al humano (tal vez en el orden de décadas), en una escala de tiempo donde la interacción humana y la corrección en curso pueden dirigir de manera efectiva el desarrollo de AGI. [92] [93]

Ramez Naam se opone a un despegue difícil. Ha señalado que ya vemos la superación personal recursiva de superinteligencias, como las corporaciones. Intel , por ejemplo, tiene "la capacidad intelectual colectiva de decenas de miles de humanos y probablemente millones de núcleos de CPU para ... ¡diseñar mejores CPU!" Sin embargo, esto no ha dado lugar a un despegue difícil; más bien, ha llevado a un despegue suave en forma de ley de Moore . [94] Naam señala además que la complejidad computacional de la inteligencia superior puede ser mucho mayor que la lineal, de modo que "crear una mente de inteligencia 2 es probablemente más del doble de difícil que crear una mente de inteligencia 1". [95]

J. Storrs Hall cree que "muchos de los escenarios más comúnmente vistos para el despegue rápido de la noche a la mañana son circulares: parecen asumir capacidades hiperhumanas en el punto de partida del proceso de superación personal" para que una IA pueda hacer lo dramático , mejoras generales de dominio necesarias para el despegue. Hall sugiere que en lugar de mejorar de forma recursiva su hardware, software e infraestructura por sí solo, una IA incipiente estaría mejor si se especializara en un área donde era más efectiva y luego comprara los componentes restantes en el mercado, debido a la calidad de los productos en el mercado mejora continuamente, y la IA tendría dificultades para mantenerse al día con la tecnología de vanguardia utilizada por el resto del mundo. [96]

Ben Goertzel está de acuerdo con la sugerencia de Hall de que una nueva IA a nivel humano haría bien en usar su inteligencia para acumular riqueza. Los talentos de la IA podrían inspirar a empresas y gobiernos a difundir su software en la sociedad. Goertzel es escéptico sobre un despegue duro de cinco minutos, pero especula que un despegue del nivel humano al sobrehumano del orden de cinco años es razonable. Goerzel se refiere a este escenario como un "despegue semiduro". [97]

Max másno está de acuerdo, argumentando que si solo hubiera unas pocas IA superrápidas a nivel humano, no cambiarían radicalmente el mundo, ya que aún dependerían de otras personas para hacer las cosas y aún tendrían limitaciones cognitivas humanas. Incluso si todas las IA superrápidas trabajaran en el aumento de la inteligencia, no está claro por qué lo harían mejor de manera discontinua que los científicos cognitivos humanos existentes en la producción de inteligencia sobrehumana, aunque la tasa de progreso aumentaría. More sostiene además que una superinteligencia no transformaría el mundo de la noche a la mañana: una superinteligencia necesitaría interactuar con los sistemas humanos lentos existentes para lograr impactos físicos en el mundo. "La necesidad de colaboración, de organización,y poner ideas en cambios físicos garantizará que todas las reglas antiguas no se eliminen de la noche a la mañana o incluso dentro de años ".[98]

Inmortalidad [ editar ]

En su libro de 2005, The Singularity is Near , Kurzweil sugiere que los avances médicos permitirían a las personas proteger sus cuerpos de los efectos del envejecimiento, haciendo que la esperanza de vida sea ilimitada . Kurzweil sostiene que los avances tecnológicos en la medicina nos permitirían reparar y reemplazar continuamente los componentes defectuosos de nuestro cuerpo, prolongando la vida hasta una edad indeterminada. [99] Kurzweil refuerza aún más su argumento al discutir los avances actuales en bioingeniería. Kurzweil sugiere terapia génica somática ; después de los virus sintéticos con información genética específica, el siguiente paso sería aplicar esta tecnología a la terapia génica, reemplazando el ADN humano con genes sintetizados. [100]

K. Eric Drexler , uno de los fundadores de la nanotecnología , postuló dispositivos de reparación celular, incluidos los que operan dentro de las células y utilizan máquinas biológicas hasta ahora hipotéticas , en su libro de 1986 Engines of Creation .

Según Richard Feynman , fue su ex alumno de posgrado y colaborador Albert Hibbs quien originalmente le sugirió (alrededor de 1959) la idea de un uso médico para las micromáquinas teóricas de Feynman. Hibbs sugirió que algunas máquinas de reparación podrían algún día reducir su tamaño hasta el punto de que, en teoría, sería posible (como dijo Feynman) " tragarse al médico ". La idea se incorporó al ensayo de Feynman de 1959, Hay mucho espacio en la parte inferior . [101]

Más allá de simplemente extender la vida operativa del cuerpo físico, Jaron Lanier aboga por una forma de inmortalidad llamada "Ascensión Digital" que involucra a "personas que mueren en la carne y se cargan en una computadora y permanecen conscientes". [102]

Historia del concepto [ editar ]

Un artículo de Mahendra Prasad, publicado en AI Magazine , afirma que el matemático del siglo XVIII, Marqués de Condorcet, fue la primera persona en formular hipótesis y modelar matemáticamente una explosión de inteligencia y sus efectos en la humanidad. [103]

Una descripción temprana de la idea se hizo en el cuento de 1932 de John Wood Campbell Jr. "La última evolución".

En su obituario de 1958 para John von Neumann , Ulam recordó una conversación con von Neumann sobre el "progreso cada vez más acelerado de la tecnología y los cambios en el modo de vida humana, que da la apariencia de acercarse a alguna singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, tal como los conocemos, no podían continuar ". [5]

En 1965, Good escribió su ensayo postulando una "explosión de inteligencia" de auto-mejoramiento recursivo de la inteligencia de una máquina.

En 1981, Stanislaw Lem publicó su ciencia ficción novela Golem XIV . Describe una computadora de inteligencia artificial militar (Golem XIV) que obtiene la conciencia y comienza a aumentar su propia inteligencia, avanzando hacia la singularidad tecnológica personal. Golem XIV fue creado originalmente para ayudar a sus constructores en la lucha en las guerras, pero a medida que su inteligencia avanza a un nivel mucho más alto que el de los humanos, deja de estar interesado en los requisitos militares porque los encuentra carentes de consistencia lógica interna.

En 1983, Vernor Vinge popularizó enormemente la explosión de inteligencia de Good en varios escritos, abordando por primera vez el tema en forma impresa en la edición de enero de 1983 de la revista Omni . En este artículo de opinión, Vinge parece haber sido el primero en usar el término "singularidad" de una manera que estaba específicamente ligada a la creación de máquinas inteligentes: [104] [105]

Pronto crearemos inteligencias mayores que las nuestras. Cuando esto suceda, la historia humana habrá alcanzado una especie de singularidad, una transición intelectual tan impenetrable como el espacio-tiempo anudado en el centro de un agujero negro, y el mundo pasará mucho más allá de nuestra comprensión. Esta singularidad, creo, ya acecha a varios escritores de ciencia ficción. Hace imposible una extrapolación realista a un futuro interestelar. Para escribir una historia ambientada a más de un siglo de aquí, se necesita una guerra nuclear en el medio ... para que el mundo siga siendo inteligible.

En 1985, en "La escala de tiempo de la inteligencia artificial", el investigador de inteligencia artificial Ray Solomonoff articuló matemáticamente la noción relacionada de lo que llamó un "punto infinito": si una comunidad de investigación de IA auto-mejorantes a nivel humano tarda cuatro años en duplicarse su propia velocidad, luego dos años, luego un año y así sucesivamente, sus capacidades aumentan infinitamente en un tiempo finito. [6] [106]

El artículo de Vinge de 1993 "La singularidad tecnológica venidera: cómo sobrevivir en la era posthumana", [7] se difundió ampliamente en Internet y ayudó a popularizar la idea. [107] Este artículo contiene la declaración: "Dentro de treinta años, tendremos los medios tecnológicos para crear inteligencia sobrehumana. Poco después, la era humana terminará". Vinge sostiene que los autores de ciencia ficción no pueden escribir personajes realistas posteriores a la singularidad que superen el intelecto humano, ya que los pensamientos de tal intelecto estarían más allá de la capacidad de expresión de los humanos. [7]

En 2000, Bill Joy , un destacado tecnólogo y cofundador de Sun Microsystems , expresó su preocupación por los peligros potenciales de la singularidad. [44]

En 2005, Kurzweil publicó The Singularity is Near . La campaña publicitaria de Kurzweil incluyó una aparición en The Daily Show con Jon Stewart . [108]

En 2007, Eliezer Yudkowsky sugirió que muchas de las diversas definiciones que se han asignado a "singularidad" son mutuamente incompatibles en lugar de apoyarse mutuamente. [19] [109] Por ejemplo, Kurzweil extrapola las trayectorias tecnológicas actuales más allá de la llegada de la IA que se mejora a sí misma o la inteligencia sobrehumana, lo que, según Yudkowsky, representa una tensión tanto con el aumento discontinuo propuesto de IJ Good en la inteligencia como con la tesis de Vinge sobre la imprevisibilidad. [19]

En 2009, Kurzweil y el fundador del X-Prize , Peter Diamandis, anunciaron el establecimiento de Singularity University , un instituto privado no acreditado cuya misión declarada es "educar, inspirar y capacitar a los líderes para que apliquen tecnologías exponenciales para abordar los grandes desafíos de la humanidad". [110] Financiado por Google , Autodesk , ePlanet Ventures, y un grupo de la industria de tecnología líderes, Universidad de la Singularidad se basa en la NASA 's Centro de Investigación Ames , en Mountain View , California. La organización sin fines de lucro ejecuta un programa de posgrado anual de diez semanas durante el verano que cubre diez tecnologías diferentes y pistas afines, y una serie de programas ejecutivos durante todo el año.

En política [ editar ]

En 2007, el Comité Económico Conjunto del Congreso de los Estados Unidos publicó un informe sobre el futuro de la nanotecnología. Predice importantes cambios tecnológicos y políticos en el futuro a medio plazo, incluida una posible singularidad tecnológica. [111] [112] [113]

El ex presidente de los Estados Unidos, Barack Obama, habló sobre la singularidad en su entrevista con Wired en 2016: [114]

Una cosa de la que no hemos hablado demasiado, y solo quiero volver, es que realmente tenemos que pensar en las implicaciones económicas. Debido a que la mayoría de las personas no pasan mucho tiempo preocupándose por la singularidad, se preocupan por "Bueno, ¿mi trabajo será reemplazado por una máquina?"

Ver también [ editar ]

  • Cambio acelerado  : aumento percibido en la tasa de cambio tecnológico a lo largo de la historia
  • Conciencia artificial  - Campo de la ciencia cognitiva
  • Carrera armamentista de inteligencia artificial
  • Inteligencia artificial en la ficción  : inteligencia artificial representada en obras de ficción
  • Simulación de cerebro
  • Interfaz cerebro-computadora  : vía de comunicación directa entre un cerebro mejorado o cableado y un dispositivo externo
  • Tecnologías emergentes  : tecnologías cuyo desarrollo, aplicaciones prácticas o ambos aún no se han realizado en gran medida.
  • Paradoja de Fermi  : contradicción entre la falta de evidencia y estimaciones de alta probabilidad de existencia de civilizaciones extraterrestres
  • Efecto Flynn  : aumento del siglo XX en la inteligencia humana en general
  • Estudios de futuros  - Estudio de postulación de futuros posibles, probables y preferibles
  • Cerebro global
  • Inteligencia humana § Mejora de la inteligencia
  • Carga de la mente  : proceso hipotético de emular digitalmente un cerebro
  • Neuropotencia
  • Esquema del transhumanismo  : lista de enlaces a artículos de Wikipedia relacionados con el tema del transhumanismo
  • Aprendizaje de robots
  • Singularitarismo  - Creencia en una singularidad tecnológica incipiente
  • Determinismo tecnológico  - Teoría reduccionista
  • Revolución tecnológica  - Período de rápido cambio tecnológico
  • Desempleo tecnológico  - Desempleo causado por el cambio tecnológico

Referencias [ editar ]

Citas [ editar ]

  1. ^ Cadwalladr, Carole (2014). " ¿Están los robots a punto de levantarse? El nuevo director de ingeniería de Google cree que sí ... Archivado el 4 de octubre de 2018 en la Wayback Machine " The Guardian . Guardian News and Media Limited.
  2. ^ "Colección de fuentes que definen la" singularidad " " . singularitysymposium.com . Archivado desde el original el 17 de abril de 2019 . Consultado el 17 de abril de 2019 .
  3. ^ a b Eden, Amnon H .; Moor, James H. (2012). Hipótesis de singularidad: una evaluación científica y filosófica . Dordrecht: Springer. págs. 1-2. ISBN 9783642325601.
  4. ^ La singularidad tecnológica de Murray Shanahan, (MIT Press, 2015), página 233
  5. ↑ a b c Ulam, Stanislaw (mayo de 1958). "Homenaje a John von Neumann" (PDF) . Boletín de la American Mathematical Society . 64, # 3, parte 2: 5. Archivado (PDF) desde el original el 2021-02-15 . Consultado el 7 de noviembre de 2018 .
  6. ↑ a b c Chalmers, David (2010). "La singularidad: un análisis filosófico". Revista de estudios de la conciencia . 17 (9-10): 7-65.
  7. ^ a b c d e f Vinge, Vernor. "La singularidad tecnológica venidera: cómo sobrevivir en la era post-humana" Archivado el 10 de abril de 2018 en Wayback Machine , en Vision-21: Ciencia e ingeniería interdisciplinarias en la era del ciberespacio , GA Landis, ed., Publicación de la NASA CP-10129, págs. 11-22, 1993.
  8. ^ Sparkes, Matthew (13 de enero de 2015). "Los mejores científicos piden precaución sobre la inteligencia artificial" . The Telegraph (Reino Unido) . Archivado desde el original el 7 de abril de 2015 . Consultado el 24 de abril de 2015 .
  9. ^ "Hawking: AI podría acabar con la raza humana" . BBC. 2 de diciembre de 2014. Archivado desde el original el 30 de octubre de 2015 . Consultado el 11 de noviembre de 2017 .
  10. ^ Khatchadourian, Raffi (16 de noviembre de 2015). "La invención del día del juicio final" . The New Yorker . Archivado desde el original el 29 de abril de 2019 . Consultado el 31 de enero de 2018 .
  11. ^ Müller, VC y Bostrom, N. (2016). "Progreso futuro en inteligencia artificial: una encuesta de opinión de expertos". En VC Müller (ed.): Cuestiones fundamentales de la inteligencia artificial (págs. 555–572). Springer, Berlín. http://philpapers.org/rec/MLLFPI Archivado el 2 de marzo de 2019 en la Wayback Machine.
  12. ^ Ehrlich, Paul. El animal dominante: Evolución Humana y el Medio Ambiente Archivado 10/08/2018 en la Wayback Machine
  13. ^ Los supercerebros nacidos del silicio lo cambiarán todo. Archivado el 1 de agosto de 2010 en la Wayback Machine.
  14. ^ a b Yampolskiy, Roman V. "Análisis de tipos de software de mejora automática". Inteligencia General Artificial. Springer International Publishing, 2015. 384-393.
  15. ^ a b Eliezer Yudkowsky . Inteligencia general e inteligencia artificial de semillas: creación de mentes completas capaces de superación personal abierta, 2001
  16. ^ a b Bueno, IJ "Especulaciones sobre la primera máquina ultrainteligente" , Advances in Computers , vol. 6, 1965. Archivado el 1 de mayo de 2012 en la Wayback Machine.
  17. Ray Kurzweil, The Singularity is Near, págs. 135-136. Grupo Penguin, 2005.
  18. ^ "Revista h + | Cubriendo las tendencias tecnológicas, científicas y culturales que están cambiando a los seres humanos de manera fundamental" . Hplusmagazine.com. Archivado desde el original el 23 de diciembre de 2010 . Consultado el 9 de septiembre de 2011 .
  19. ^ a b c Yudkowsky, Eliezer . The Singularity: Three Major Schools Archivado 2018-10-01 en Wayback Machine
  20. ^ Sandberg, Anders . Una visión general de los modelos de singularidad tecnológica Archivado el 24 de julio de 2011 en la Wayback Machine.
  21. ^ Kaj Sotala y Roman Yampolskiy (2017). "Riesgos del viaje a la singularidad". La singularidad tecnológica . Colección Frontiers. Springer Berlín Heidelberg. págs. 11-23. doi : 10.1007 / 978-3-662-54033-6_2 . ISBN 978-3-662-54031-2.
  22. ^ a b "¿Qué es la singularidad? | Instituto de singularidad para la inteligencia artificial" . Singinst.org. Archivado desde el original el 8 de septiembre de 2011 . Consultado el 9 de septiembre de 2011 .
  23. ^ David J. Chalmers (2016). "La Singularidad". Ciencia ficción y filosofía . John Wiley \ & Sons, Inc. págs. 171–224. doi : 10.1002 / 9781118922590.ch16 . ISBN 9781118922590.
  24. ^ a b "Singularidad de dirección de luminarias de tecnología - IEEE Spectrum" . Spectrum.ieee.org . Archivado desde el original el 30 de abril de 2019 . Consultado el 9 de septiembre de 2011 .
  25. ^ "Quién es quién en la singularidad - IEEE Spectrum" . Spectrum.ieee.org. Archivado desde el original el 15 de febrero de 2021 . Consultado el 9 de septiembre de 2011 .
  26. ↑ a b Paul Allen: The Singularity Isn't Near , consultado el 12 de abril de 2015
  27. ^ Hanson, Robin (1998). "Cierto escepticismo" . Archivado desde el original el 15 de febrero de 2021 . Consultado el 8 de abril de 2020 .
  28. ^ Conferencia de David Chalmers John Locke, 10 de mayo, Exam Schools, Oxford, Presentando un análisis filosófico de la posibilidad de una singularidad tecnológica o "explosión de inteligencia" resultante de la IA de auto-mejora recursiva Archivado el 15 de enero de 2013 en la Wayback Machine .
  29. ^ "La singularidad: un análisis filosófico, David J. Chalmers" (PDF) . Archivado (PDF) desde el original el 11 de junio de 2011 . Consultado el 9 de mayo de 2010 .
  30. ^ "ITRS" (PDF) . Archivado desde el original (PDF) el 29 de septiembre de 2011 . Consultado el 9 de septiembre de 2011 .
  31. ^ Shulman, Carl; Anders, Sandberg. "Implicaciones de una singularidad limitada por software" (PDF) . Intelligence.org . Instituto de Investigación de Inteligencia de Máquina . Consultado el 21 de marzo de 2021 .
  32. ^ Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (24 de mayo de 2017). "¿Cuándo superará la IA el rendimiento humano? Evidencia de expertos en IA". arXiv : 1705.08807 [ cs.AI ].
  33. Siracusa, John (31 de agosto de 2009). "Mac OS X 10.6 Snow Leopard: la revisión de Ars Technica" . Arstechnica.com. Archivado desde el original el 3 de septiembre de 2011 . Consultado el 9 de septiembre de 2011 .
  34. ^ Eliezer Yudkowsky, 1996 "Mirando la singularidad" Archivado el 30 de marzo de 2018 en la Wayback Machine.
  35. ^ "Las luminarias tecnológicas abordan la singularidad" . Espectro IEEE . 1 de junio de 2008. Archivado desde el original el 30 de abril de 2019 . Consultado el 2 de febrero de 2020 .
  36. ^ Moravec, Hans (1999). Robot: mera máquina para la mente trascendente . Oxford U. Press. pag. 61. ISBN 978-0-19-513630-2.
  37. ^ Ray Kurzweil, La era de las máquinas espirituales , Viking; 1999, ISBN 978-0-14-028202-3 . pp. 30, 32 archivados 02.15.2021 en la Máquina Wayback 
  38. ↑ a b Ray Kurzweil, The Singularity is Near , Penguin Group, 2005
  39. ^ a b "La capacidad tecnológica del mundo para almacenar, comunicar y computar información" Archivado el 27 de julio de 2013 en Wayback Machine , Martin Hilbert y Priscila López (2011), Science , 332 (6025), 60–65; acceso gratuito al artículo a través de aquí: martinhilbert.net/WorldInfoCapacity.html
  40. ^ La singularidad del siglo XXI y los futuros globales. Una gran perspectiva histórica Archivado el 15 de febrero de 2021 en la Wayback Machine (Springer, 2020)
  41. Ray Kurzweil, The Singularity is Near, p. 9. Penguin Group, 2005
  42. Ray Kurzweil, The Singularity is Near , págs. 135-136. Penguin Group, 2005. "Así que estaremos produciendo alrededor de 10 26 a 10 29 cps de cálculo no biológico por año a principios de la década de 2030. Esto es aproximadamente igual a nuestra estimación de la capacidad de toda la inteligencia humana biológica viviente ... Este estado de Sin embargo, el cálculo a principios de la década de 2030 no representará la Singularidad porque aún no corresponde a una expansión profunda de nuestra inteligencia. Sin embargo, a mediados de la década de 2040, ese valor de cálculo de mil dólares será igual a 10 26 cps , por lo que la inteligencia creada por año (a un costo total de alrededor de $ 10 12) será aproximadamente mil millones de veces más poderosa que toda la inteligencia humana actual. Que se representa de hecho un cambio profundo, y es por ello que me puse la fecha para la Singularidad-que representa una transformación profunda y perturbadora en el ser humano la capacidad -como 2045."
  43. ^ Kurzweil, Raymond (2001), "La ley de los retornos acelerados" , Nature Physics , Lifeboat Foundation, 4 (7): 507, Bibcode : 2008NatPh ... 4..507B , doi : 10.1038 / nphys1010 , archivado desde el original el 2018-08-27 , consultado 2007-08-07
  44. ^ a b Joy, Bill (abril de 2000), "Por qué el futuro no nos necesita" , Wired Magazine , Viking Adult, 8 (4), ISBN 978-0-670-03249-5, archivado desde el original el 5 de febrero de 2009 , consultado el 7 de agosto de 2007
  45. ^ Eliezer S. Yudkowsky. "Poder de la inteligencia" . Yudkowsky. Archivado desde el original el 3 de octubre de 2018 . Consultado el 9 de septiembre de 2011 .
  46. ^ a b "Omohundro, Stephen M.," La IA básica impulsa ". Inteligencia general artificial, actas de 2008 de la Primera Conferencia AGI, eds. Pei Wang, Ben Goertzel y Stan Franklin. Vol. 171. Amsterdam: IOS, 2008 " . Archivado desde el original el 17 de septiembre de 2018 . Consultado el 20 de agosto de 2010 .
  47. ^ "Inteligencia general artificial: ahora es el momento" . KurzweilAI. Archivado desde el original el 4 de diciembre de 2011 . Consultado el 9 de septiembre de 2011 .
  48. ^ a b "Omohundro, Stephen M.," La naturaleza de la inteligencia artificial auto-mejorada. "Sistemas autoconscientes. 21 de enero de 2008. Web. 07 de enero de 2010" . Archivado desde el original el 12 de junio de 2018 . Consultado el 20 de agosto de 2010 .
  49. ^ Barrat, James (2013). "6," Cuatro unidades básicas " ". Our Final Invention (Primera ed.). Nueva York: St. Martin's Press. págs. 78–98. ISBN 978-0312622374.
  50. ^ "Max More y Ray Kurzweil sobre la singularidad" . KurzweilAI. Archivado desde el original el 21 de noviembre de 2018 . Consultado el 9 de septiembre de 2011 .
  51. ^ "Resumen conciso | Instituto de singularidad para la inteligencia artificial" . Singinst.org. Archivado desde el original el 21 de junio de 2011 . Consultado el 9 de septiembre de 2011 .
  52. ^ a b "Bostrom, Nick, el futuro de la evolución humana, muerte y anti-muerte: doscientos años después de Kant, cincuenta años después de Turing, ed. Charles Tandy, págs. 339-371, 2004, Ria University Press" . Archivado desde el original el 28 de agosto de 2018 . Consultado el 20 de agosto de 2010 .
  53. ^ Shulman, Carl; Anders Sandberg (2010). Mainzer, Klaus (ed.). "Implicaciones de una singularidad limitada por software" (PDF) . ECAP10: VIII Congreso Europeo de Informática y Filosofía . Archivado (PDF) desde el original el 30 de abril de 2019 . Consultado el 17 de mayo de 2014 .
  54. ^ Muehlhauser, Luke; Anna Salamon (2012). "Explosión de inteligencia: evidencia e importación" (PDF) . En Amnon Eden; Johnny Søraker; James H. Moor; Eric Steinhart (eds.). Hipótesis de singularidad: una evaluación científica y filosófica . Saltador. Archivado (PDF) desde el original el 26 de octubre de 2014 . Consultado el 28 de agosto de 2018 .
  55. ^ Dreyfus y Dreyfus 2000 , p. xiv: "La verdad es que la inteligencia humana nunca puede ser reemplazada por la inteligencia de la máquina simplemente porque nosotros mismos no somos" máquinas pensantes "en el sentido en que ese término se entiende comúnmente. Hawking (1998) : “Algunas personas dicen que las computadoras nunca pueden mostrar la verdadera inteligencia, sea lo que sea. Pero me parece que si moléculas químicas muy complicadas pueden operar en humanos para hacerlos inteligentes, entonces circuitos electrónicos igualmente complicados también pueden hacer que las computadoras actúen de manera inteligente. Y si son inteligentes, presumiblemente pueden diseñar computadoras que tengan una complejidad e inteligencia aún mayores ”.
  56. ^ John R. Searle , "Lo que su computadora no puede saber", The New York Review of Books , 9 de octubre de 2014, p. 54.
  57. ^ Ford, Martin, The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future Archivado 2010-09-06 en Wayback Machine , Acculant Publishing, 2009, ISBN 978-1-4486-5981-4 
  58. Markoff, John (4 de marzo de 2011). "Ejércitos de abogados caros, reemplazados por software más barato" . The New York Times . Archivado desde el original el 15 de febrero de 2021 . Consultado el 25 de febrero de 2017 .
  59. ^ Modis, Theodore (2002) "Pronóstico del crecimiento de la complejidad y el cambio" Archivado 2021-02-15 en Wayback Machine , Technological Forecasting & Social Change , 69, No 4, 2002, pp. 377-404
  60. ^ a b Huebner, Jonathan (2005) "Una posible tendencia descendente para la innovación mundial" Archivado el 22 de marzo de 2015 en Wayback Machine , Previsión tecnológica y cambio social , octubre de 2005, págs. 980-6
  61. ^ Krazit, Tom. Intel promete 80 núcleos en cinco años Archivado 2021-02-15 en Wayback Machine , CNET News , 26 de septiembre de 2006.
  62. ^ Modis, Theodore (2006) "El mito de la singularidad" Archivado el 15 de febrero de 2021 en la Wayback Machine , Pronóstico tecnológico y cambio social , febrero de 2006, págs. 104 - 112
  63. ^ Nordhaus, William D. (2007). "Dos siglos de crecimiento de la productividad en informática". La Revista de Historia Económica . 67 : 128-159. CiteSeerX 10.1.1.330.1871 . doi : 10.1017 / S0022050707000058 . 
  64. ^ Schmidhuber, Jürgen. "La IA del nuevo milenio y la convergencia de la historia". Desafíos para la inteligencia computacional. Springer Berlin Heidelberg, 2007. 15–35.
  65. ^ Tainter, Joseph (1988) " El colapso de sociedades complejas archivado el 7 de junio de 2015 en la Wayback Machine " (Cambridge University Press)
  66. ↑ a b Jaron Lanier (2013). "¿Quién es dueño del futuro?" . Nueva York: Simon & Schuster . Archivado desde el original el 15 de febrero de 2021 . Consultado el 2 de marzo de 2016 .
  67. ^ William D. Nordhaus , "Por qué caerá el crecimiento" (una revisión de Robert J. Gordon , The Rise and Fall of American Growth: The US Standard of Living since the Civil War , Princeton University Press, 2016, ISBN 978-0691147727 , 762 págs., 39,95 dólares), The New York Review of Books , vol. LXIII, no. 13 (18 de agosto de 2016), pág. 68. 
  68. ^ Myers, PZ, Singularly Silly Singularity , archivado desde el original el 28 de febrero de 2009 , consultado el 13 de abril de 2009
  69. ^ Anónimo (18 de marzo de 2006), "Más hojas buenas" , The Economist , Londres, 378 (8469), p. 85, archivado desde el original el 10 de julio de 2006 , consultado el 12 de julio de 2006
  70. ^ Robin Hanson, "Economía de la singularidad" , Informe especial de IEEE Spectrum: La singularidad , archivado desde el original el 11 de agosto de 2011 , consultado el 25 de julio de 2009Y crecimiento a largo plazo como una secuencia de modos exponenciales Archivado el 27 de mayo de 2019 en la Wayback Machine.
  71. ↑ a b Yudkowsky, Eliezer (2008), Bostrom, Nick; Cirkovic, Milán (eds.), "La inteligencia artificial como factor positivo y negativo en el riesgo global" (PDF) , Riesgos catastróficos globales , Oxford University Press: 303, Bibcode : 2008gcr..book..303Y , ISBN  978-0-19-857050-9, archivado desde el original (PDF) el 2008-08-07
  72. ^ "El futuro incierto" . theuncertainfuture.com; un proyecto de tecnología futura y modelado del mundo . Archivado desde el original el 30 de abril de 2019 . Consultado el 17 de agosto de 2010 .
  73. ^ "ENCUESTA DE RIESGOS CATASTROFICOS GLOBALES (2008) Informe técnico 2008/1 Publicado por Future of Humanity Institute, Universidad de Oxford. Anders Sandberg y Nick Bostrom" (PDF) . Archivado desde el original (PDF) el 16 de mayo de 2011.
  74. ^ "Riesgos existenciales: análisis de escenarios de extinción humana y peligros relacionados" . nickbostrom.com . Archivado desde el original el 27 de abril de 2011 . Consultado el 25 de enero de 2006 .
  75. ↑ a b c Stephen Hawking (1 de mayo de 2014). "Stephen Hawking: 'Transcendence analiza las implicaciones de la inteligencia artificial, pero ¿nos estamos tomando la IA lo suficientemente en serio? ' " . The Independent . Archivado desde el original el 25 de septiembre de 2015 . Consultado el 5 de mayo de 2014 .
  76. ^ Nick Bostrom, "Problemas éticos en la inteligencia artificial avanzada" Archivado el 8 de octubre de 2018 en Wayback Machine , en Aspectos cognitivos, emocionales y éticos de la toma de decisiones en humanos y en inteligencia artificial , vol. 2, ed. I. Smit y col., Int. Instituto de Estudios Avanzados en Investigación de Sistemas y Cibernética, 2003, págs. 12-17
  77. ^ Eliezer Yudkowsky : Inteligencia artificial como factor positivo y negativo en el riesgo global. Archivado el 11 de junio de 2012 en la Wayback Machine . Borrador para una publicación en Global Catastrophic Risk del 31 de agosto de 2006, recuperado el 18 de julio de 2011 (archivo PDF)
  78. ^ "El dispositivo recolector de sellos, Nick Hay" . Archivado desde el original el 17 de junio de 2012 . Consultado el 21 de agosto de 2010 .
  79. ^ 'Por qué deberíamos temer al sujetapapeles ' Archivado el 8 de agosto de 2018 en la Wayback Machine , la entrada del 14 de febrero de 2011 del blog de Sandberg 'Andart'
  80. ^ "Omohundro, Stephen M.," La IA básica impulsa ". Inteligencia general artificial, actas de 2008 de la Primera Conferencia de AGI, eds. Pei Wang, Ben Goertzel y Stan Franklin. Vol. 171. Amsterdam: IOS, 2008" . Archivado desde el original el 17 de septiembre de 2018 . Consultado el 20 de agosto de 2010 .
  81. de Garis, Hugo. "The Coming Artilect War" Archivado el28 de junio de 2011en la Wayback Machine , Forbes.com, el 22 de junio de 2009.
  82. ^ Volición extrapolada coherente, Eliezer S. Yudkowsky, mayo de 2004 Archivado el 15 de agosto de 2010 en la Wayback Machine.
  83. ^ Hibbard, Bill (2012), "Funciones de utilidad basadas en modelos", Journal of Artificial General Intelligence , 3 (1): 1, arXiv : 1111.3934 , Bibcode : 2012JAGI .... 3 .... 1H , doi : 10.2478 / v10229-011-0013-5 , S2CID 8434596 . 
  84. ^ a b Evitar comportamientos no deseados de la IA. Archivado el 29 de junio de 2013 en la Wayback Machine Bill Hibbard. Actas de 2012 de la Quinta Conferencia sobre Inteligencia General Artificial, eds. Joscha Bach, Ben Goertzel y Matthew Ikle. Este documento ganó el Premio Turing 2012 del Instituto de Investigación de Inteligencia de Máquinas al Mejor Documento de Seguridad AGI Archivado 2021-02-15 en Wayback Machine .
  85. ^ Hibbard, Bill (2008), "La Tecnología de la mente y un nuevo contrato social" , diario de la evolución y Tecnología , 17 , archivado desde el original, el 02/15/2021 , recuperada 01/05/2013 .
  86. ^ Soporte de decisiones para el diseño seguro de IA |. Archivado el 15 de febrero de 2021 en la Wayback Machine Bill Hibbard. Actas de 2012 de la Quinta Conferencia sobre Inteligencia General Artificial, eds. Joscha Bach, Ben Goertzel y Matthew Ikle.
  87. ^ a b c Kemp, DJ; Hilbert, M .; Gillings, MR (2016). "Información en la biosfera: mundos biológicos y digitales" . Tendencias en Ecología y Evolución . 31 (3): 180–189. doi : 10.1016 / j.tree.2015.12.013 . PMID 26777788 . Archivado desde el original el 4 de junio de 2016 . Consultado el 24 de mayo de 2016 . 
  88. ^ http://www.martinhilbert.net/wp-content/uploads/2018/07/Hilbert2017_ReferenceWorkEntry_InformationQuantity.pdf
  89. ↑ a b Markoff, John (26 de julio de 2009). "Los científicos se preocupan por las máquinas pueden ser más inteligentes que el hombre" . The New York Times . Archivado desde el original el 1 de julio de 2017.
  90. ^ Robinson, Frank S. (27 de junio de 2013). "El futuro humano: ¿actualización o reemplazo?" . El humanista . Archivado desde el original el 15 de febrero de 2021 . Consultado el 1 de mayo de 2020 .
  91. ^ Eliezer Yudkowsky . "La inteligencia artificial como factor positivo y negativo en el riesgo global". Riesgos catastróficos globales (2008).
  92. ^ Bugaj, Stephan Vladimir y Ben Goertzel. "Cinco imperativos éticos y sus implicaciones para la interacción humano-AGI". Psicología dinámica (2007).
  93. ^ Sotala, Kaj y Roman V. Yampolskiy. "Respuestas al riesgo catastrófico de AGI: una encuesta". Physica Scripta 90.1 (2014): 018001.
  94. ^ Naam, Ramez (2014). "La singularidad está más lejos de lo que parece" . Archivado desde el original el 17 de mayo de 2014 . Consultado el 16 de mayo de 2014 .
  95. ^ Naam, Ramez (2014). "Por qué las IA no ascenderán en un abrir y cerrar de ojos - algunas matemáticas" . Archivado desde el original el 17 de mayo de 2014 . Consultado el 16 de mayo de 2014 .
  96. ^ Hall, J. Storrs (2008). "Utopía de la ingeniería" (PDF) . Inteligencia General Artificial, 2008: Actas de la Primera Conferencia de AGI : 460–467. Archivado (PDF) desde el original el 1 de diciembre de 2014 . Consultado el 16 de mayo de 2014 .
  97. ^ Goertzel, Ben (26 de septiembre de 2014). "Superinteligencia - Escenarios de despegue semiduro" . h + Revista. Archivado desde el original el 25 de octubre de 2014 . Consultado el 25 de octubre de 2014 .
  98. ^ Más, Max. "Singularidad se encuentra con economía" . Archivado desde el original el 28 de agosto de 2009 . Consultado el 10 de noviembre de 2014 .
  99. ^ La singularidad está cerca , p. 215.
  100. La singularidad está cerca , p. 216.
  101. ^ Feynman, Richard P. (diciembre de 1959). "Hay mucho espacio en la parte inferior" . Archivado desde el original el 11 de febrero de 2010.
  102. ^ Lanier, Jaron (2010). No eres un artilugio: un manifiesto . Nueva York, NY: Alfred A. Knopf . pag. 26 . ISBN 978-0307269645.
  103. ^ Prasad, Mahendra (2019). "Nicolás de Condorcet y la primera hipótesis de explosión de inteligencia" . Revista AI . 40 (1): 29–33. doi : 10.1609 / aimag.v40i1.2855 .
  104. ^ Dooling, Richard. Rapto para los frikis: cuando la inteligencia artificial supera al coeficiente intelectual (2008), p. 88
  105. Vinge en realidad no usó la frase "singularidad tecnológica" en el artículo de opinión de Omni, pero sí usó esta frase en la colección de cuentos Amenazas y otras promesas de 1988, escribiendo en la introducción de su historia "El torbellino del tiempo". (p. 72): Salvo una catástrofe mundial, creo que la tecnología logrará nuestros sueños más salvajes, y pronto. Cuando elevamos nuestra propia inteligencia y la de nuestras creaciones, ya no estamos en un mundo de personajes de tamaño humano. En ese momento hemos caído en un "agujero negro" tecnológico, una singularidad tecnológica.
  106. ^ Solomonoff, RJ "La escala de tiempo de la inteligencia artificial: reflexiones sobre los efectos sociales" , Gestión de sistemas humanos, Vol 5, págs. 149-153, 1985.
  107. ^ Dooling, Richard. Rapto para los frikis: cuando la inteligencia artificial supera al coeficiente intelectual (2008), p. 89
  108. ^ Episodio de fecha 23 de agosto de 2006 en IMDb
  109. ^ Sandberg, Anders. "Una panorámica de modelos de singularidad tecnológica". Roadmaps to AGI and the Future of AGI Workshop, Lugano, Suiza, marzo. Vol. 8. 2010.
  110. ^ Singularity University Archivado 2021-02-15 en Wayback Machine en su sitio web oficial
  111. ^ Guston, David H. (14 de julio de 2010). Enciclopedia de Nanociencia y Sociedad . Publicaciones SAGE. ISBN 978-1-4522-6617-6. Archivado desde el original el 15 de febrero de 2021 . Consultado el 4 de noviembre de 2016 .
  112. ^ "Nanotecnología: el futuro llega antes de lo que cree" (PDF) . Comité Económico Conjunto. Marzo de 2007. Archivado (PDF) desde el original el 15 de febrero de 2021 . Consultado el 29 de abril de 2012 .
  113. ^ "Congreso y la singularidad" . Archivado desde el original el 15 de febrero de 2021 . Consultado el 4 de noviembre de 2016 .
  114. ^ Dadich, Scott (12 de octubre de 2016). "Barack Obama habla de AI, Robo Cars y el futuro del mundo" . Cableado . Archivado desde el original el 3 de diciembre de 2017 . Consultado el 4 de noviembre de 2016 .

Fuentes [ editar ]

  • Kurzweil, Ray (2005). La singularidad está cerca . Nueva York, NY: Penguin Group. ISBN 9780715635612.
  • William D. Nordhaus , "Why Growth Will Fall" (una revisión de Robert J. Gordon , The Rise and Fall of American Growth: The US Standard of Living Since the Civil War , Princeton University Press, 2016, ISBN 978-0691147727 , 762 pp., $ 39,95), The New York Review of Books , vol. LXIII, no. 13 (18 de agosto de 2016), págs.64, 66, 68. 
  • John R. Searle , "What Your Computer Can't Know" (revisión de Luciano Floridi , The Fourth Revolution: How the Infosphere Is Reshaping Human Reality , Oxford University Press, 2014; y Nick Bostrom , Superintelligence: Paths, Dangers, Strategies , Oxford University Press, 2014), The New York Review of Books , vol. LXI, no. 15 (9 de octubre de 2014), págs. 52–55.
  • Good, IJ (1965), "Especulaciones sobre la primera máquina ultrainteligente" , en Franz L. Alt; Morris Rubinoff (eds.), Advances in Computers Volume 6 , Advances in Computers, 6 , Academic Press , págs. 31–88, doi : 10.1016 / S0065-2458 (08) 60418-0 , hdl : 10919/89424 , ISBN 9780120121069, archivado desde el original el 27 de mayo de 2001 , consultado el 7 de agosto de 2007
  • Hanson, Robin (1998), Some Skepticism , Robin Hanson, archivado desde el original el 28 de agosto de 2009 , consultado el 19 de junio de 2009
  • Berglas, Anthony (2008), Inteligencia Artificial matará a nuestros nietos , archivado desde el original, el 07/23/2014 , recuperado 2008-06-13
  • Bostrom, Nick (2002), "Existential Risks" , Journal of Evolution and Technology , 9 , archivado desde el original el 27 de abril de 2011 , consultado el 7 de agosto de 2007
  • Hibbard, Bill (5 de noviembre de 2014). "Inteligencia Artificial Ética". arXiv : 1411,1373 [ cs.AI ].

Lectura adicional [ editar ]

  • Marcus, Gary , "¿Soy humano?: Los investigadores necesitan nuevas formas de distinguir la inteligencia artificial de la natural", Scientific American , vol. 316, no. 3 (marzo de 2017), págs. 58–63. Se necesitan múltiples pruebas de eficacia de la inteligencia artificial porque, "así como no existe una única prueba de destreza atlética , no puede haber una prueba definitiva de inteligencia". Una de esas pruebas, un "Desafío de la construcción", pondría a prueba la percepción y la acción física, "dos elementos importantes del comportamiento inteligente que estaban completamente ausentes en la prueba de Turing original".. "Otra propuesta ha sido dar a las máquinas las mismas pruebas estandarizadas de ciencia y otras disciplinas que toman los escolares. Hasta ahora, un obstáculo insuperable para la inteligencia artificial es la incapacidad para una desambiguación confiable ". es ambiguo , a menudo en múltiples formas ". Un ejemplo destacado se conoce como el" problema de desambiguación de pronombres ": una máquina no tiene forma de determinar a quién o qué pronombre en una oración, como" él "," ella "o" se refiere.
  • Scaruffi, Piero , "La inteligencia no es artificial" (2016) para una crítica del movimiento de la singularidad y sus similitudes con los cultos religiosos.

Enlaces externos [ editar ]

Escuche este artículo ( 52 minutos )
Icono de Wikipedia hablado
Este archivo de audio se creó a partir de una revisión de este artículo con fecha del 3 de noviembre de 2018 y no refleja las ediciones posteriores. ( 03/11/2018 )
  • La singularidad tecnológica venidera: cómo sobrevivir en la era post-humana (en el sitio web de Vernor Vinge, consultado en julio de 2019)
  • Preguntas frecuentes sobre explosiones de inteligencia del Instituto de investigación de inteligencia artificial
  • Blog sobre el arranque de la inteligencia artificial de Jacques Pitrat  [ fr ]
  • Por qué es probable una explosión de inteligencia (marzo de 2011)
  • Por qué es imposible una explosión de inteligencia (noviembre de 2017)