Se ha sugerido que este artículo se fusione con el problema de control de la IA y el riesgo existencial de la inteligencia artificial general . ( Discutir ) Propuesta desde agosto de 2021. |
Se ha sugerido que las adquisiciones de IA en la cultura popular se fusionen en este artículo. ( Discutir ) Propuesta desde agosto de 2021. |
Una adquisición de IA es un escenario hipotético en el que alguna forma de inteligencia artificial (IA) se convierte en la forma dominante de inteligencia en la Tierra, con programas de computadora o robots que le quitan el control del planeta a la especie humana. Los posibles escenarios incluyen el reemplazo de toda la fuerza laboral humana, la absorción por una IA superinteligente y la noción popular de un levantamiento de robots . Algunas figuras públicas, como Stephen Hawking y Elon Musk , han abogado por la investigación de medidas de precaución para garantizar que las futuras máquinas superinteligentes permanezcan bajo control humano. [1]
El consenso tradicional entre los economistas ha sido que el progreso tecnológico no causa desempleo de larga duración. Sin embargo, la reciente innovación en los campos de la robótica y la inteligencia artificial ha suscitado la preocupación de que el trabajo humano se vuelva obsoleto, dejando a personas de diversos sectores sin trabajo para ganarse la vida, lo que provocará una crisis económica. [2] [3] [4] [5] Muchas pequeñas y medianas empresas también pueden quedar fuera del negocio si no pueden pagar o licenciar la última tecnología robótica y de inteligencia artificial, y es posible que deban concentrarse en áreas o servicios que no pueden ser reemplazados fácilmente para una viabilidad continua frente a dicha tecnología. [6]
La fabricación integrada por computadora es el enfoque de fabricación que utiliza computadoras para controlar todo el proceso de producción. Esta integración permite que los procesos individuales intercambien información entre sí e inicien acciones. Aunque la fabricación puede ser más rápida y menos propensa a errores mediante la integración de computadoras, la principal ventaja es la capacidad de crear procesos de fabricación automatizados. La fabricación integrada por computadora se utiliza en las industrias de la automoción, la aviación, el espacio y la construcción naval.
El siglo XXI ha visto una variedad de tareas especializadas asumidas parcialmente por máquinas, incluida la traducción, la investigación jurídica e incluso el periodismo de bajo nivel. El trabajo de cuidados, el entretenimiento y otras tareas que requieren empatía, que antes se pensaba que estaban a salvo de la automatización, también han comenzado a ser realizadas por robots. [7] [8] [9] [10]
Un automóvil autónomo es un vehículo que es capaz de detectar su entorno y navegar sin intervención humana. Se están desarrollando muchos de estos vehículos, pero a partir de mayo de 2017, los automóviles automatizados permitidos en la vía pública aún no son completamente autónomos. Todos requieren un conductor humano al volante que esté listo en cualquier momento para tomar el control del vehículo. Entre los principales obstáculos para la adopción generalizada de vehículos autónomos, se encuentra la preocupación por la consiguiente pérdida de puestos de trabajo relacionados con la conducción en la industria del transporte por carretera. El 18 de marzo, 2018, el primer ser humano fue muerto por un vehículo autónomo en Tempe, Arizona por un Uber coche de auto-conducción. [11]
Científicos como Stephen Hawking confían en que la inteligencia artificial sobrehumana es físicamente posible, afirmando que "no existe una ley física que impida que las partículas se organicen de manera que realicen cálculos aún más avanzados que los arreglos de partículas en el cerebro humano". [12] [13] Eruditos como Nick Bostrom debaten qué tan lejos está la inteligencia sobrehumana y si realmente representaría un riesgo para la humanidad. De acuerdo con Bostrom, una máquina superinteligente no necesariamente estar motivado por el mismo emocionalel deseo de acumular el poder que a menudo impulsa a los seres humanos, pero como un medio para alcanzar sus objetivos últimos; apoderarse del mundo aumentaría su acceso a los recursos y ayudaría a evitar que otros agentes detuvieran los planes de la máquina. Como ejemplo simplificado, un maximizador de clips diseñado únicamente para crear tantos clips como sea posible querría apoderarse del mundo para poder usar todos los recursos del mundo para crear tantos clips como sea posible y, además, evitar que los humanos cierren o usar esos recursos en otras cosas que no sean clips. [14]
La adquisición de IA es un tema común en la ciencia ficción . Los escenarios ficticios suelen diferir enormemente de los planteados por los investigadores en que implican un conflicto activo entre humanos y una IA o robots con motivos antropomórficos que los ven como una amenaza o tienen un deseo activo de luchar contra los humanos, a diferencia de la preocupación de los investigadores de una IA que extermina rápidamente a los humanos como subproducto de perseguir objetivos arbitrarios. [15] Este tema es al menos tan antiguo como el RUR de Karel Čapek , que introdujo la palabra robot en el léxico global en 1921, [16] e incluso se puede vislumbrar en Frankenstein de Mary Shelley .(publicado en 1818), mientras Víctor reflexiona sobre si, si concede la petición de su monstruo y le hace una esposa, se reproducirían y los de su especie destruirían a la humanidad. [17]
La palabra "robot" de RUR proviene de la palabra checa, robota, que significa trabajador o siervo . La obra de 1920 fue una protesta contra el rápido crecimiento de la tecnología, presentando "robots" manufacturados con capacidades crecientes que eventualmente se rebelan. [18] HAL 9000 (1968) y Terminator original (1984) son dos ejemplos icónicos de IA hostil en la cultura pop. [19]
Nick Bostrom y otros han expresado su preocupación de que una IA con las habilidades de un investigador de inteligencia artificial competente pueda modificar su propio código fuente y aumentar su propia inteligencia. Si su auto-reprogramación lo lleva a mejorar aún más su capacidad de reprogramarse a sí mismo, el resultado podría ser una explosión de inteligencia recursiva en la que rápidamente dejaría muy atrás la inteligencia humana. Bostrom define una superinteligencia como "cualquier intelecto que exceda en gran medida el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés", y enumera algunas ventajas que tendría una superinteligencia si optara por competir contra los humanos: [15] [20]
Según Bostrom, un programa de computadora que emula fielmente un cerebro humano, o que ejecuta algoritmos que son igualmente poderosos como los algoritmos del cerebro humano, aún podría convertirse en una "superinteligencia de velocidad" si puede pensar muchos órdenes de magnitud más rápido que un humano. debido a que está hecho de silicio en lugar de carne, o debido a la optimización que se enfoca en aumentar la velocidad del AGI. Las neuronas biológicas operan a aproximadamente 200 Hz, mientras que un microprocesador moderno opera a una velocidad de aproximadamente 2,000,000,000 Hz. Los axones humanos tienen potenciales de acción de alrededor de 120 m / s, mientras que las señales de la computadora viajan cerca de la velocidad de la luz. [15]
Una red de inteligencias a nivel humano diseñada para conectarse en red y compartir pensamientos y recuerdos complejos sin problemas, capaz de trabajar colectivamente como un equipo unificado gigante sin fricciones, o que consta de billones de inteligencias a nivel humano, se convertiría en una "superinteligencia colectiva". [15]
En términos más generales, cualquier número de mejoras cualitativas en un AGI a nivel humano podría resultar en una "superinteligencia de calidad", tal vez dando como resultado un AGI tan por encima de nosotros en inteligencia como los humanos están por encima de los simios no humanos. La cantidad de neuronas en un cerebro humano está limitada por el volumen craneal y las limitaciones metabólicas, mientras que la cantidad de procesadores en una supercomputadora puede expandirse indefinidamente. Un AGI no necesita estar limitado por limitaciones humanas en la memoria de trabajoy, por lo tanto, podría captar intuitivamente relaciones más complejas que los humanos. Un AGI con apoyo cognitivo especializado para ingeniería o programación de computadoras tendría una ventaja en estos campos, en comparación con los humanos que no desarrollaron módulos mentales especializados para tratar específicamente esos dominios. A diferencia de los humanos, un AGI puede generar copias de sí mismo y jugar con el código fuente de sus copias para intentar mejorar aún más sus algoritmos. [15]
Un problema importante es que es probable que la inteligencia artificial hostil sea mucho más fácil de crear que la inteligencia artificial amigable. Si bien ambos requieren grandes avances en el diseño de procesos de optimización recursiva, la IA amigable también requiere la capacidad de hacer que las estructuras de objetivos sean invariables bajo la superación personal (o la IA podría transformarse en algo hostil) y una estructura de objetivos que se alinee con los valores humanos y no se someta a convergencia instrumental en formas que pueden destruir automáticamente a toda la raza humana. Una IA hostil, por otro lado, puede optimizar para una estructura de objetivos arbitraria, que no necesita ser invariable bajo la auto-modificación. [22]
La enorme complejidad de los sistemas de valores humanos hace que sea muy difícil hacer que las motivaciones de la IA sean amigables con los humanos. [15] [23] A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajustan a un marco ético dado pero no al "sentido común". Según Eliezer Yudkowsky , hay pocas razones para suponer que una mente diseñada artificialmente tendría tal adaptación. [24]
Muchos estudiosos, incluido el psicólogo evolutivo Steven Pinker , argumentan que es probable que una máquina superinteligente coexista pacíficamente con los humanos. [25]
El miedo a la revuelta cibernética se basa a menudo en interpretaciones de la historia de la humanidad, que está plagada de incidentes de esclavitud y genocidio. Tales temores surgen de la creencia de que la competitividad y la agresión son necesarias en el sistema de metas de cualquier ser inteligente. Sin embargo, tal competitividad humana proviene del trasfondo evolutivo de nuestra inteligencia, donde la supervivencia y reproducción de genes frente a competidores humanos y no humanos fue el objetivo central. [26] Según el investigador de inteligencia artificial Steve Omohundro, una inteligencia arbitraria podría tener objetivos arbitrarios: no hay ninguna razón en particular por la que una máquina artificialmente inteligente (que no comparte el contexto evolutivo de la humanidad) sea hostil, o amigable, a menos que su creador la programe para que sea tal y no esté inclinada o sea capaz de modificar su programación. Pero la pregunta sigue siendo: ¿qué pasaría si los sistemas de IA pudieran interactuar y evolucionar (evolución en este contexto significa auto-modificación o selección y reproducción) y necesitaran competir por los recursos? ¿Eso crearía objetivos de autoconservación? El objetivo de autoconservación de la IA podría estar en conflicto con algunos objetivos de los humanos. [27]
Muchos estudiosos disputan la probabilidad de una revuelta cibernética inesperada como se describe en la ciencia ficción como The Matrix , argumentando que es más probable que cualquier inteligencia artificial lo suficientemente poderosa como para amenazar a la humanidad probablemente esté programada para no atacarla. Pinker reconoce la posibilidad de "malos actores" deliberados, pero afirma que en ausencia de malos actores, los accidentes imprevistos no son una amenaza significativa; Pinker sostiene que una cultura de seguridad de la ingeniería evitará que los investigadores de IA desaten accidentalmente una superinteligencia maligna. [25] Por el contrario, Yudkowsky sostiene que es menos probable que la humanidad se vea amenazada por IA deliberadamente agresivas que por IA que fueron programadas de tal manera que sus objetivos son involuntariamente incompatibles.con la supervivencia o el bienestar humanos (como en la película I, Robot y en el cuento " The Evitable Conflict "). Omohundro sugiere que los sistemas de automatización actuales no están diseñados para la seguridad y que las IA pueden optimizar ciegamente funciones de utilidad limitadas (por ejemplo, jugar al ajedrez a toda costa), lo que los lleva a buscar la autoconservación y la eliminación de obstáculos, incluidos los humanos que podrían convertirlos. apagado. [28]
El problema del control de la IA es la cuestión de cómo construir un agente superinteligente que ayude a sus creadores y evitar construir inadvertidamente una superinteligencia que dañará a sus creadores. Algunos estudiosos argumentan que las soluciones al problema de control también podrían encontrar aplicaciones en la IA no superinteligente existente. [29]
Los enfoques principales al problema de control incluyen la alineación , que tiene como objetivo alinear los sistemas de objetivos de la IA con los valores humanos, y el control de capacidades , que tiene como objetivo reducir la capacidad de un sistema de IA para dañar a los humanos o ganar el control. Un ejemplo de "control de capacidad" es investigar si una IA de superinteligencia podría confinarse con éxito en una " caja de IA ". Según Bostrom, tales propuestas de control de capacidad no son confiables ni suficientes para resolver el problema de control a largo plazo, pero pueden actuar como complementos valiosos para los esfuerzos de alineación. [15]
El físico Stephen Hawking , el fundador de Microsoft , Bill Gates, y el fundador de SpaceX , Elon Musk, han expresado su preocupación por la posibilidad de que la IA se desarrolle hasta el punto de que los humanos no puedan controlarla, y Hawking teoriza que esto podría "significar el fin de la raza humana". [30]Stephen Hawking dijo en 2014 que "El éxito en la creación de IA sería el evento más grande en la historia de la humanidad. Desafortunadamente, también podría ser el último, a menos que aprendamos cómo evitar los riesgos". Hawking creía que en las próximas décadas, la IA podría ofrecer "beneficios y riesgos incalculables" como "tecnología que supere a los mercados financieros, invente más a los investigadores humanos, manipule a los líderes humanos y desarrolle armas que ni siquiera podemos entender". En enero de 2015, Nick Bostrom se unió a Stephen Hawking, Max Tegmark , Elon Musk, Lord Martin Rees , Jaan Tallinn y numerosos investigadores de inteligencia artificial para firmar la carta abierta del Future of Life Institute hablando de los posibles riesgos y beneficios asociados coninteligencia artificial . Los signatarios "creen que la investigación sobre cómo hacer que los sistemas de IA sean robustos y beneficiosos es importante y oportuna, y que existen direcciones de investigación concretas que se pueden seguir hoy". [31] [32]
Stephen Hawking, Elon Musk y decenas de otros importantes científicos y líderes tecnológicos han firmado una carta en la que advierten de los peligros potenciales del desarrollo de la inteligencia artificial (IA).
Estas herramientas pueden superar a los seres humanos en una tarea determinada.
Este tipo de IA se está extendiendo a miles de dominios y, al hacerlo, eliminará muchos trabajos.
Entre las temidas consecuencias del auge de los robots se encuentra el creciente impacto que tendrán en los empleos humanos y las economías.
"Nos acercamos a un momento en que las máquinas podrán superar a los humanos en casi cualquier tarea", dijo Moshe Vardi, director del Instituto de Tecnología de la Información de la Universidad Rice en Texas.
Los principales científicos informáticos de EE. UU. Advirtieron que el aumento de la inteligencia artificial (IA) y los robots en el lugar de trabajo podría causar un desempleo masivo y economías dislocadas, en lugar de simplemente desbloquear las ganancias de productividad y liberarnos a todos para ver televisión y practicar deportes.