Riesgo existencial de la inteligencia artificial general


El riesgo existencial de la inteligencia artificial general es la hipótesis de que un progreso sustancial en la inteligencia artificial general (AGI) podría algún día resultar en la extinción humana o alguna otra catástrofe global irrecuperable . [1] [2] [3] Se argumenta que la especie humana actualmente domina a otras especies porque el cerebro humano tiene algunas capacidades distintivas de las que carecen otros animales. Si la IA supera a la humanidad en inteligencia general y se vuelve " superinteligente ", entonces podría volverse difícil o imposible de controlar para los humanos. Así como el destino del gorila de montañadepende de la buena voluntad humana, así podría depender el destino de la humanidad de las acciones de una futura superinteligencia mecánica. [4]

La probabilidad de este tipo de escenario es ampliamente debatida y depende en parte de los diferentes escenarios para el progreso futuro de la informática. [5] Una vez que el dominio exclusivo de la ciencia ficción , las preocupaciones sobre la superinteligencia comenzaron a convertirse en la corriente principal en la década de 2010, y fueron popularizadas por figuras públicas como Stephen Hawking , Bill Gates y Elon Musk . [6]

Una fuente de preocupación es que controlar una máquina superinteligente, o inculcarle valores compatibles con los humanos, puede ser un problema más difícil de lo que se supone ingenuamente. Muchos investigadores creen que una superinteligencia naturalmente resistiría los intentos de apagarla o cambiar sus objetivos (un principio llamado convergencia instrumental ) y que programar previamente una superinteligencia con un conjunto completo de valores humanos demostrará ser una tarea técnica extremadamente difícil. [1] [7] [8] Por el contrario, los escépticos como el informático Yann LeCun argumentan que las máquinas superinteligentes no tendrán ningún deseo de autoconservación. [9]

Una segunda fuente de preocupación es que una " explosión de inteligencia " repentina e inesperada pueda tomar por sorpresa a una raza humana que no esté preparada. Para ilustrar, si la primera generación de un programa de computadora capaz de igualar ampliamente la efectividad de un investigador de IA puede reescribir sus algoritmos y duplicar su velocidad o capacidades en seis meses, entonces se espera que el programa de segunda generación tarde tres meses calendario. para realizar una parte similar del trabajo. En este escenario, el tiempo para cada generación continúa reduciéndose, y el sistema experimenta una gran cantidad de generaciones de mejora sin precedentes en un corto intervalo de tiempo, saltando de un desempeño infrahumano en muchas áreas a un desempeño sobrehumano en todas las áreas relevantes. [1] [7] Empíricamente, ejemplos comoAlphaZero en el dominio de Go muestra que los sistemas de IA a veces pueden progresar desde una capacidad limitada a nivel humano hasta una capacidad sobrehumana limitada extremadamente rápido. [10]

Uno de los primeros autores en expresar su seria preocupación de que las máquinas altamente avanzadas pudieran representar riesgos existenciales para la humanidad fue el novelista Samuel Butler , quien escribió lo siguiente en su ensayo de 1863 Darwin between the Machines : [11]

El resultado es simplemente una cuestión de tiempo, pero que llegará el momento en que las máquinas tendrán la supremacía real sobre el mundo y sus habitantes es lo que ninguna persona con una mente verdaderamente filosófica puede cuestionar por un momento.


Bill Gates ha declarado: "No entiendo por qué algunas personas no están preocupadas". [92]