La conciencia artificial [1] ( AC ), también conocida como conciencia de máquina ( MC ) o conciencia sintética ( Gamez 2008 ; Reggia 2013 ), es un campo relacionado con la inteligencia artificial y la robótica cognitiva . El objetivo de la teoría de la conciencia artificial es "Definir lo que tendría que sintetizarse si la conciencia se encontrara en un artefacto diseñado" ( Aleksander 1995 ).
La neurociencia plantea la hipótesis de que la conciencia se genera por la interoperación de varias partes del cerebro , llamadas correlatos neuronales de la conciencia o NCC, aunque existen desafíos a esa perspectiva. Los defensores de AC creen que es posible construir sistemas (por ejemplo, sistemas informáticos ) que puedan emular esta interoperación de NCC. [2]
Los conceptos de conciencia artificial también se reflexionan en la filosofía de la inteligencia artificial a través de preguntas sobre la mente, la conciencia y los estados mentales . [3]
Puntos de vista filosóficos
Como hay muchos tipos de conciencia hipotetizados , hay muchas implementaciones potenciales de la conciencia artificial. En la literatura filosófica, quizás la taxonomía más común de la conciencia es la de variantes de "acceso" y "fenomenales". La conciencia de acceso se refiere a aquellos aspectos de la experiencia que pueden ser aprehendidos, mientras que la conciencia fenoménica se refiere a aquellos aspectos de la experiencia que aparentemente no pueden ser aprehendidos, sino que se caracterizan cualitativamente en términos de "sensaciones crudas", "cómo es" o cualia ( Block 1997 ) .
Debate de plausibilidad
Los teóricos de la identidad de tipo y otros escépticos sostienen la opinión de que la conciencia solo puede realizarse en sistemas físicos particulares porque la conciencia tiene propiedades que necesariamente dependen de la constitución física ( Block 1978 ; Bickle 2003 ). [4] [5]
En su artículo "Conciencia artificial: utopía o posibilidad real", Giorgio Buttazzo dice que una objeción común a la conciencia artificial es que "trabajando en un modo totalmente automatizado, ellos [las computadoras] no pueden exhibir creatividad, desprogramación (lo que significa que ya no pueden ser reprogramado, desde repensar), emociones, o libre albedrío . Una computadora, como una lavadora, es un esclavo operado por sus componentes " [6]
Para otros teóricos (por ejemplo, funcionalistas ), que definen los estados mentales en términos de roles causales, cualquier sistema que pueda instanciar el mismo patrón de roles causales, independientemente de la constitución física, instanciará los mismos estados mentales, incluida la conciencia ( Putnam 1967 ).
Argumento de la base computacional
Uno de los argumentos más explícitos para la plausibilidad de AC proviene de David Chalmers . Su propuesta, que se encuentra en su artículo Chalmers 2011 , es aproximadamente que los tipos correctos de cálculos son suficientes para la posesión de una mente consciente. En el esquema, defiende su afirmación de la siguiente manera: las computadoras realizan cálculos. Los cálculos pueden capturar la organización causal abstracta de otros sistemas.
La parte más controvertida de la propuesta de Chalmers es que las propiedades mentales son "organizacionalmente invariantes". Las propiedades mentales son de dos tipos, psicológicas y fenomenológicas. Las propiedades psicológicas, como la creencia y la percepción, son aquellas que se "caracterizan por su papel causal". Se refiere al trabajo de Armstrong 1968 y Lewis 1972 al afirmar que "[s] y stems con la misma topología causal ... compartirán sus propiedades psicológicas".
Las propiedades fenomenológicas no son definibles prima facie en términos de sus roles causales. Establecer que las propiedades fenomenológicas son susceptibles de individuación por rol causal, por lo tanto, requiere un argumento. Chalmers proporciona su argumento Dancing Qualia para este propósito. [7]
Chalmers comienza asumiendo que los agentes con organizaciones causales idénticas podrían tener experiencias diferentes. Luego nos pide que concibamos el cambio de un agente en otro mediante el reemplazo de partes (partes neuronales reemplazadas por silicio, por ejemplo) mientras se preserva su organización causal. Ex hypothesi, la experiencia del agente en transformación cambiaría (a medida que se reemplazaran las partes), pero no habría ningún cambio en la topología causal y, por lo tanto, no habría ningún medio por el cual el agente pudiera "notar" el cambio en la experiencia.
Los críticos de AC objetan que Chalmers plantea la pregunta al suponer que todas las propiedades mentales y conexiones externas están suficientemente capturadas por la organización causal abstracta.
Ética
Si se sospechara que una máquina en particular era consciente, sus derechos serían una cuestión ética que habría que evaluar (por ejemplo, qué derechos tendría según la ley). Por ejemplo, una computadora consciente que fue propiedad y se usó como herramienta o computadora central de un edificio de una máquina más grande es una ambigüedad particular. ¿Deberían elaborarse leyes para tal caso? La conciencia también requeriría una definición legal en este caso particular. Debido a que la conciencia artificial sigue siendo en gran medida un tema teórico, esta ética no se ha discutido ni desarrollado en gran medida, aunque a menudo ha sido un tema de ficción (ver más abajo).
En 2021, el filósofo alemán Thomas Metzinger ha exigido una moratoria global de la fenomenología sintética hasta 2050, por motivos éticos.
Las reglas para el concurso del Premio Loebner 2003 abordaron explícitamente la cuestión de los derechos de los robots:
61. Si, en un año determinado, una Entrada de código abierto disponible públicamente ingresada por la Universidad de Surrey o el Centro de Cambridge gana la Medalla de plata o la Medalla de oro, entonces la Medalla y el Premio en efectivo se otorgarán al organismo responsable de la desarrollo de esa Entrada. Si no se puede identificar dicho organismo, o si hay desacuerdo entre dos o más reclamantes, la Medalla y el Premio en efectivo se mantendrán en fideicomiso hasta el momento en que la Participación pueda poseer legalmente, ya sea en los Estados Unidos de América o en el lugar del concurso, el premio en efectivo y la medalla de oro por derecho propio . [8]
Propuestas de investigación e implementación
Aspectos de la conciencia
Hay varios aspectos de la conciencia que generalmente se consideran necesarios para que una máquina sea consciente de forma artificial. Bernard Baars ( Baars 1988 ) y otros sugirieron una variedad de funciones en las que la conciencia juega un papel . Las funciones de conciencia sugeridas por Bernard Baars son Definición y Contexto, Adaptación y Aprendizaje, Edición, Marcado y Depuración, Reclutamiento y Control, Priorización y Control de Acceso, Toma de Decisiones o Función Ejecutiva, Función de Formación de Analogía, Metacognitiva y Autocontrol. Función de supervisión y función de programación automática y mantenimiento automático. Igor Aleksander sugirió 12 principios para la conciencia artificial ( Aleksander 1995 ) y estos son: El cerebro es una máquina de estados, Partición de neuronas internas, Estados conscientes e inconscientes, Aprendizaje y memoria perceptivos, Predicción, Conciencia del yo, Representación del significado, Expresiones de aprendizaje. , Aprendizaje del lenguaje, la voluntad, el instinto y la emoción. El objetivo de AC es definir si estos y otros aspectos de la conciencia pueden sintetizarse en un artefacto diseñado como una computadora digital y cómo. Esta lista no es exhaustiva; hay muchos otros no cubiertos.
Conciencia
La conciencia podría ser un aspecto necesario, pero existen muchos problemas con la definición exacta de conciencia . Los resultados de los experimentos de neuroescaneo en monos sugieren que un proceso, no solo un estado u objeto, activa neuronas. La conciencia incluye crear y probar modelos alternativos de cada proceso basados en la información recibida a través de los sentidos o imaginada, y también es útil para hacer predicciones. Este modelo necesita mucha flexibilidad. La creación de un modelo de este tipo incluye el modelado del mundo físico, el modelado de los propios estados y procesos internos y el modelado de otras entidades conscientes.
Hay al menos tres tipos de conciencia: [9] conciencia de agencia, conciencia de objetivo y conciencia sensoriomotora, que también puede ser consciente o no. Por ejemplo, en la conciencia de la agencia, puede ser consciente de que realizó una determinada acción ayer, pero ahora no es consciente de ello. En la conciencia de la meta, puede ser consciente de que debe buscar un objeto perdido, pero ahora no es consciente de él. En la conciencia sensoriomotora, es posible que se dé cuenta de que su mano descansa sobre un objeto, pero ahora no es consciente de ello.
Al Byrd, el autor de Superhuman Creators, define la conciencia, para animales, humanos y agentes artificiales, como el efecto de integrar y filtrar muchos tipos diferentes de conciencia de la capacidad; es decir, conciencia de las posibilidades de acción en un entorno. Según esta definición, todos los agentes que pueden percibir y actuar sobre las posibilidades son conscientes hasta cierto punto.
Debido a que los objetos de la conciencia son a menudo conscientes, la distinción entre conciencia y conciencia suele ser borrosa o se utilizan como sinónimos. [10]
Memoria
Los eventos conscientes interactúan con los sistemas de memoria en el aprendizaje, el ensayo y la recuperación. [11] El modelo IDA [12] aclara el papel de la conciencia en la actualización de la memoria perceptiva, [13] la memoria episódica transitoria y la memoria procedimental . Las memorias transitorias episódicas y declarativas tienen representaciones distribuidas en IDA, hay evidencia de que este también es el caso en el sistema nervioso. [14] En IDA, estas dos memorias están implementadas computacionalmente usando una versión modificada de Kanerva ‘s memoria Sparse distribuido arquitectura. [15]
Aprendiendo
El aprendizaje también se considera necesario para AC. Según Bernard Baars, la experiencia consciente es necesaria para representar y adaptarse a eventos nuevos y significativos ( Baars 1988 ). Por Axel Cleeremans y Luis Jiménez, el aprendizaje se define como "un conjunto de procesos de adaptación filogenéticamente avanzados [ sic ] que dependen críticamente de una sensibilidad evolucionada a la experiencia subjetiva para permitir a los agentes permitir un control flexible sobre sus acciones en entornos complejos e impredecibles". ( Cleeremans 2001 ).
Anticipación
Igor Aleksander considera importante para AC la capacidad de predecir (o anticipar ) eventos previsibles . [16] El principio emergentista de múltiples borradores propuesto por Daniel Dennett en Consciousness Explained puede ser útil para la predicción: implica la evaluación y selección del "borrador" más apropiado para adaptarse al entorno actual. La anticipación incluye la predicción de las consecuencias de las acciones propuestas por uno mismo y la predicción de las consecuencias de las acciones probables de otras entidades.
Las relaciones entre los estados del mundo real se reflejan en la estructura de estados de un organismo consciente que permite al organismo predecir eventos. [16] Una máquina artificialmente consciente debe poder anticipar eventos correctamente para estar lista para responder a ellos cuando ocurran o para tomar medidas preventivas para evitar eventos anticipados. La implicación aquí es que la máquina necesita componentes flexibles en tiempo real que construyan modelos espaciales, dinámicos, estadísticos, funcionales y de causa-efecto del mundo real y mundos predichos, lo que le permitirá demostrar que posee una conciencia artificial en el presente. y futuro y no solo en el pasado. Para hacer esto, una máquina consciente debe hacer predicciones coherentes y planes de contingencia, no solo en mundos con reglas fijas como un tablero de ajedrez, sino también para entornos novedosos que pueden cambiar, para ser ejecutados solo cuando sea apropiado para simular y controlar lo real. mundo.
Experiencia subjetiva
Las experiencias subjetivas o qualia son ampliamente consideradas como el difícil problema de la conciencia . De hecho, se considera que plantea un desafío al fisicalismo , y mucho menos al computacionalismo . Por otro lado, existen problemas en otros campos de la ciencia que limitan lo que podemos observar, como el principio de incertidumbre en la física, que no han hecho imposible la investigación en estos campos de la ciencia.
Papel de las arquitecturas cognitivas
El término "arquitectura cognitiva" puede referirse a una teoría sobre la estructura de la mente humana, o cualquier parte o función de la misma, incluida la conciencia. En otro contexto, una arquitectura cognitiva implementa la teoría en las computadoras. Un ejemplo es QuBIC: Arquitectura cognitiva cuántica y bioinspirada para la conciencia de la máquina . Uno de los principales objetivos de una arquitectura cognitiva es resumir los diversos resultados de la psicología cognitiva en un modelo informático integral. Sin embargo, los resultados deben estar en forma formalizada para que puedan ser la base de un programa de computadora. Además, el papel de la arquitectura cognitiva es que la IA estructure, construya e implemente claramente su proceso de pensamiento.
Propuestas simbólicas o híbridas
Agente de distribución inteligente de Franklin
Stan Franklin (1995, 2003) define un agente autónomo como poseedores de conciencia funcional cuando es capaz de varias de las funciones de la conciencia como identificado por Bernard Baars ' Global Teoría de área de trabajo (Baars 1988 , 1997 ). Su hijo intelectual IDA (Intelligent Distribution Agent) es una implementación de software de GWT, que lo hace funcionalmente consciente por definición. La tarea de la IDA es negociar nuevas asignaciones para los marineros de la Marina de los EE. UU. Después de que finalicen un período de servicio, haciendo coincidir las habilidades y preferencias de cada individuo con las necesidades de la Marina. IDA interactúa con las bases de datos de la Marina y se comunica con los marineros a través de un diálogo de correo electrónico en lenguaje natural mientras obedece un amplio conjunto de políticas de la Marina. El modelo computacional IDA se desarrolló durante 1996–2001 en el Grupo de Investigación de Software "Conscious" de Stan Franklin en la Universidad de Memphis . "Consta de aproximadamente un cuarto de millón de líneas de código Java y consume casi por completo los recursos de una estación de trabajo de alta gama de 2001". Se basa en gran medida en codelets , que son "mini-agentes de propósito especial, relativamente independientes, generalmente implementados como una pequeña pieza de código que se ejecuta como un hilo independiente". En la arquitectura de arriba hacia abajo de IDA, las funciones cognitivas de alto nivel se modelan explícitamente (ver Franklin 1995 y Franklin 2003 para más detalles). Si bien IDA es funcionalmente consciente por definición, Franklin "no atribuye una conciencia fenomenal a su propio agente de software 'consciente', IDA, a pesar de sus muchos comportamientos similares a los humanos. Esto a pesar de ver a varios detallistas de la Marina de los EE. UU. Asentir repetidamente con la cabeza diciendo 'Sí, así es como lo hago' mientras observo las acciones internas y externas de IDA mientras realiza su tarea ". IDA se ha ampliado a LIDA (Learning Intelligent Distribution Agent).
Arquitectura cognitiva de Ron Sun CLARION
CLARION postula una representación de dos niveles que explica la distinción entre procesos mentales conscientes e inconscientes.
CLARION ha tenido éxito en dar cuenta de una variedad de datos psicológicos. Se han simulado varias tareas de aprendizaje de habilidades bien conocidas utilizando CLARION que abarcan un espectro que va desde habilidades reactivas simples hasta habilidades cognitivas complejas. Las tareas incluyen tareas de tiempo de reacción en serie (SRT), tareas de aprendizaje de gramática artificial (AGL), tareas de control de procesos (PC), la tarea de inferencia categórica (CI), la tarea de aritmética alfabética (AA) y la Torre de Hanoi (TOH) tarea ( Sun 2002 )
. Entre ellos, SRT, AGL y PC son tareas típicas de aprendizaje implícito, muy relevantes para el tema de la conciencia, ya que operacionalizaron la noción de conciencia en el contexto de experimentos psicológicos.OpenCog de Ben Goertzel
Ben Goertzel está persiguiendo una AGI incorporada a través del proyecto OpenCog de código abierto . El código actual incluye mascotas virtuales incorporadas capaces de aprender comandos simples en inglés, así como la integración con la robótica del mundo real, que se realiza en la Universidad Politécnica de Hong Kong .
Propuestas conexionistas
Arquitectura cognitiva de Haikonen
Pentti Haikonen (2003) considera que la computación clásica basada en reglas es inadecuada para lograr CA: "el cerebro definitivamente no es una computadora. Pensar no es una ejecución de cadenas de comandos programadas. El cerebro tampoco es una calculadora numérica. No pensamos por números." En lugar de tratar de lograr la mente y la conciencia mediante la identificación y aplicación de sus reglas de cálculo subyacentes, Haikonen propone "una especial arquitectura cognitiva para reproducir los procesos de percepción , imaginería interior , el habla interna , el dolor , el placer , las emociones y los cognitivos funciones detrás de éstos. Este La arquitectura de abajo hacia arriba produciría funciones de nivel superior mediante el poder de las unidades de procesamiento elementales, las neuronas artificiales , sin algoritmos ni programas ". Haikonen cree que, cuando se implementa con suficiente complejidad, esta arquitectura desarrollará la conciencia, que él considera que es "un estilo y una forma de operación, caracterizada por la representación de señales distribuidas, el proceso de percepción, la presentación de informes entre modalidades y la disponibilidad para la retrospección". Haikonen no está solo en esta visión de proceso de la conciencia, o en la visión de que la CA emergerá espontáneamente en agentes autónomos que tienen una arquitectura de complejidad neuroinspirada adecuada; estos son compartidos por muchos, por ejemplo, Freeman (1999) y Cotterill (2003) . Se informó que una implementación de baja complejidad de la arquitectura propuesta por Haikonen (2003) no era capaz de AC, pero mostró emociones como se esperaba. Consulte Doan (2009) para obtener una introducción completa a la arquitectura cognitiva de Haikonen. En Haikonen (2012) , Haikonen (2019) se ofrece una descripción actualizada de la arquitectura de Haikonen, junto con un resumen de sus puntos de vista filosóficos .
Arquitectura cognitiva de Shanahan
Murray Shanahan describe una arquitectura cognitiva que combina la idea de Baars de un espacio de trabajo global con un mecanismo de simulación interna ("imaginación") ( Shanahan 2006 ). Para discusiones sobre la arquitectura de Shanahan, consulte ( Gamez 2008 ) y ( Reggia 2013 ) y el Capítulo 20 de ( Haikonen 2012 ).
La investigación de la autoconciencia de Takeno
La autoconciencia en los robots está siendo investigada por Junichi Takeno [17] en la Universidad Meiji en Japón. Takeno afirma que ha desarrollado un robot capaz de discriminar entre una imagen de sí mismo en un espejo y cualquier otra que tenga una imagen idéntica, [18] [19] y esta afirmación ya ha sido revisada ( Takeno, Inaba & Suzuki 2005 ). Takeno afirma que primero ideó el módulo computacional llamado MoNAD, que tiene una función de autoconciencia, y luego construyó el sistema de conciencia artificial formulando las relaciones entre las emociones, los sentimientos y la razón conectando los módulos en una jerarquía (Igarashi, Takeno 2007). Takeno completó un experimento de cognición de imagen especular utilizando un robot equipado con el sistema MoNAD. Takeno propuso la teoría del auto-cuerpo afirmando que "los humanos sienten que su propia imagen reflejada en el espejo está más cerca de ellos que de una parte real de sí mismos". El punto más importante en el desarrollo de la conciencia artificial o la clarificación de la conciencia humana es el desarrollo de una función de autoconciencia, y afirma que ha demostrado evidencia física y matemática de esto en su tesis. [20] También demostró que los robots pueden estudiar episodios en la memoria donde las emociones fueron estimuladas y usar esta experiencia para tomar acciones predictivas para prevenir la recurrencia de emociones desagradables (Torigoe, Takeno 2009).
La mente imposible de Aleksander
Igor Aleksander , profesor emérito de Ingeniería de Sistemas Neuronales en el Imperial College , ha investigado extensamente las redes neuronales artificiales y afirma en su libro Impossible Minds: My Neurons, My Consciousness que los principios para crear una máquina consciente ya existen, pero que tomaría cuarenta años para hacerlo. entrenar tal máquina para entender el lenguaje . [21] Queda por demostrar si esto es cierto y el principio básico establecido en Impossible Minds —que el cerebro es una máquina de estados neuronales— está abierto a dudas. [22]
Paradigma de la máquina de creatividad de Thaler
Stephen Thaler propuso una posible conexión entre conciencia y creatividad en su patente de 1994, denominada "Dispositivo para la generación autónoma de información útil" (DAGUI), [23] [24] [25] o la llamada "Máquina de la creatividad", en cuyas críticas computacionales gobiernan la inyección de ruido sináptico y la degradación en las redes neuronales para inducir recuerdos falsos o confabulaciones que pueden calificar como ideas o estrategias potenciales. [26] Recluta esta arquitectura y metodología neuronal para explicar la sensación subjetiva de la conciencia, afirmando que conjuntos neuronales similares impulsados por ruido dentro del cerebro inventan un significado dudoso para la actividad cortical general. [27] [28] [29] La teoría de Thaler y las patentes resultantes en la conciencia de la máquina se inspiraron en experimentos en los que interrumpe internamente redes neuronales entrenadas para impulsar una sucesión de patrones de activación neuronal que comparó con el flujo de la conciencia. [28] [30] [31] [32] [33]
Esquema de atención de Michael Graziano
En 2011, Michael Graziano y Sabine Kastler publicaron un artículo titulado "La conciencia humana y su relación con la neurociencia social: una hipótesis novedosa" proponiendo una teoría de la conciencia como esquema de atención. [34] Graziano publicó una discusión ampliada de esta teoría en su libro "Conciencia y cerebro social". [2] Esta teoría del esquema de atención de la conciencia, como él la llamó, propone que el cerebro rastrea la atención a varias entradas sensoriales por medio de un esquema de atención, análogo al esquema corporal bien estudiado que rastrea el lugar espacial del cuerpo de una persona. [2] Esto se relaciona con la conciencia artificial al proponer un mecanismo específico de manejo de información, que produce lo que supuestamente experimentamos y describimos como conciencia, y que debería poder ser duplicado por una máquina usando la tecnología actual. Cuando el cerebro descubre que la persona X es consciente de la cosa Y, en efecto está modelando el estado en el que la persona X está aplicando una mejora atencional a Y. En la teoría del esquema de atención, el mismo proceso se puede aplicar a uno mismo. El cerebro rastrea la atención a varias entradas sensoriales, y la propia conciencia es un modelo esquematizado de la atención. Graziano propone ubicaciones específicas en el cerebro para este proceso y sugiere que tal conciencia es una característica computada construida por un sistema experto en el cerebro.
"Auto-modelado"
Hod Lipson define el "auto-modelado" como un componente necesario de la autoconciencia o conciencia en los robots. El "auto-modelado" consiste en un robot que ejecuta un modelo interno o una simulación de sí mismo . [35] [36]
Pruebas
El método más conocido para probar la inteligencia de las máquinas es la prueba de Turing . Pero cuando se interpreta como sólo observacional, esta prueba contradice los principios de la filosofía de la ciencia de la dependencia teórica de las observaciones . También se ha sugerido que la recomendación de Alan Turing de imitar no una conciencia humana adulta, sino una conciencia infantil humana, debe tomarse en serio. [37]
Otras pruebas, como ConsScale , prueban la presencia de características inspiradas en sistemas biológicos o miden el desarrollo cognitivo de sistemas artificiales.
Qualia, o conciencia fenomenológica, es un fenómeno inherentemente en primera persona. Aunque varios sistemas pueden mostrar varios signos de comportamiento correlacionados con la conciencia funcional, no existe una forma concebible de que las pruebas en tercera persona puedan tener acceso a las características fenomenológicas en primera persona. Por eso, y porque no existe una definición empírica de conciencia, [38] una prueba de presencia de conciencia en AC puede ser imposible.
En 2014, Victor Argonov sugirió una prueba que no era de Turing para la conciencia de la máquina basada en la capacidad de la máquina para producir juicios filosóficos. [39] Argumenta que una máquina determinista debe considerarse consciente si es capaz de producir juicios sobre todas las propiedades problemáticas de la conciencia (como qualia o vinculante) sin conocimiento filosófico innato (precargado) sobre estos temas, sin discusiones filosóficas mientras aprendizaje, y ningún modelo informativo de otras criaturas en su memoria (tales modelos pueden contener implícita o explícitamente conocimiento sobre la conciencia de estas criaturas). Sin embargo, esta prueba solo puede usarse para detectar, pero no refutar la existencia de la conciencia. Un resultado positivo prueba que la máquina está consciente, pero un resultado negativo no prueba nada. Por ejemplo, la ausencia de juicios filosóficos puede deberse a la falta del intelecto de la máquina, no a la ausencia de conciencia.
En ficción
Personajes con conciencia artificial (o al menos con personalidades que implican tener conciencia), de obras de ficción:
- AC: creado mediante la fusión de dos IA en la trilogía Sprawl de William Gibson
- Agentes : en la realidad simulada conocida como " The Matrix " en la franquicia The Matrix
- Agente Smith : comenzó como un agente en The Matrix , luego se convirtió en un programa renegado de poder creciente que podía hacer copias de sí mismo como un virus informático autorreplicante.
- ALIE - Inteligencia inteligente genocida de la serie de televisión The 100
- AM (Allied Mastercomputer) - el antagonista de Harlan Ellison ' novela corta s que tienen boca y debo gritar . Una supercomputadora omnipotente y altamente inteligente, su odio por la humanidad la llevó a causar un genocidio masivo contra la raza humana, dejando a cinco humanos para jugar juegos sádicos con ellos por toda la eternidad.
- Robots de parques de atracciones (con conciencia pixelada) que se volvieron homicidas en Westworld y Futureworld
- Annalee Call: un Auton ( androide fabricado por otros androides) de la película Alien Resurrection
- Arnold Rimmer : holograma inteligente generado por computadora a bordo de la Red Dwarf
- Ava - un robot humanoide en Ex Machina
- Ash - miembro de la tripulación androide de la nave espacial Nostromo en la película Alien
- El Hombre Bicentenario : un androide en eluniverso dela Fundación de Isaac Asimov
- Bishop : miembro de la tripulación androide a bordo del USS Sulaco en la película Aliens.
- Bomba # 19 - Bomba termostática para la destrucción de planetas potencialmente peligrosos, a bordo del Dark Star.
- Bomba # 20 - Bomba termostática averiada, a bordo del Dark Star
- La mente cargada del Dr. Will Caster, que presumiblemente incluía su conciencia, de la película Trascendencia.
- C-3PO : droide de protocolo que aparece en todas las películas de Star Wars
- Chappie - CHAPPiE
- Cohen (y otros inhibidores de la aromatasa Emergente) - Chris Moriarty 's de la vuelta de la serie
- Computadora - computadora de la nave, a bordo del Dark Star
- Cortana (y otras "IA inteligentes"): de la serie de juegos Halo
- Cylons : robots genocidas con naves de resurrección que permiten que la conciencia de cualquier Cylon dentro de un rango no especificado se descargue en un nuevo cuerpo a bordo de la nave al morir, de Battlestar Galactica.
- Erasmus - robot asesino de bebés que incitó a Butlerian Jihad en la franquicia Dune
- Fal'Cie - Seres mecánicos con poderes divinos de la serie Final Fantasy XIII.
- The Geth, EDI y SAM - Mass Effect
- Futurama [40] - Bender [41] es un buen ejemplo de inteligencia artificial inteligente, a lo largo de muchos episodios, verás a Bender [42] enojarse, entristecerse u otras emociones. Bender también tiene mente propia.
- Gideon: una conciencia artificial interactiva creada por Barry Allen que se muestra en los cómics de DC y programas como The Flash y Legends of Tomorrow.
- GLaDOS (y núcleos de personalidad): de la serie de juegos Portal
- HAL 9000 : la computadora a bordo de la nave espacial USS Discovery One , que funcionó fatalmente debido a directivas mutuamente excluyentes, de la novela de 1968 2001: A Space Odyssey y en la película
- Holly : la computadora del barco con un coeficiente intelectual de 6000, a bordo del Red Dwarf
- Anfitriones en la franquicia Westworld
- Humagears en Kamen Rider Zero-One
- Isaac: un miembro de la raza artificial y no biológica de Kaylon-1 que considera que las formas de vida biológicas, incluidos los humanos, son inferiores a la serie de televisión The Orville .
- Jane - Orson Scott Card 's voz de los muertos , Xenocida , Hijos de la Mente , y ' asesor de inversiones '
- Johnny Five - Cortocircuito
- Joshua - WarGames
- Keymaker - un programa inteligente "exiliado" en la franquicia The Matrix
- Teniente comandante Data - Star Trek: La próxima generación
- "Machine" - androide de la película The Machine , cuyos dueños intentan matarla cuando son testigos de sus pensamientos conscientes, por temor a que diseñe mejores androides (explosión de inteligencia)
- Marvin el Android paranoico: la guía del autoestopista galáctico , un androide superinteligente que está perpetuamente deprimido
- Mike - La luna es una amante dura
- Mimi - robot humanoide en Real Humans , (título original - Äkta människor ) 2012
- Las mentes - Iain M. Banks ' Cultura novelas
- Omnius : red informática inteligente que controló el Universo hasta que fue derrocado por Butlerian Jihad en la franquicia Dune.
- Sistemas operativos en la película Her
- The Oracle - programa inteligente en la franquicia Matrix
- Profesor James Moriarty: personaje sensible de la holocubierta en el episodio " Barco en una botella " de Star Trek: La próxima generación.
- En la novela Permutation City de Greg Egan , el protagonista crea copias digitales de sí mismo para realizar experimentos que también están relacionados con las implicaciones de la conciencia artificial en la identidad.
- Puppet Master - Manga y anime de Ghost in the Shell
- R2-D2 : emocionante droide astromecánico que aparece en todas las películas de Star Wars
- Replicantes : androides bio-robóticos de la novela ¿Sueñan los androides con ovejas eléctricas? y la película Blade Runner, que retratan lo que podría suceder cuando los robots con conciencia artificial se modelan muy de cerca a los humanos.
- Roboduck : superhéroe robot de combate en la serie de cómics NEW-GEN de Marvel Comics
- Robots en la serie Robot de Isaac Asimov
- Robots en la franquicia de The Matrix , especialmente en The Animatrix
- El Barco - el resultado de un experimento de CA a gran escala, en Frank Herbert 's Destino: Vacío y secuelas, a pesar de los edictos últimos advertencia contra la 'Realización de una máquina a la imagen de un hombre de mente'
- Skynet - de la franquicia Terminator
- Los "sintetizadores" son un tipo de androide del videojuego Fallout 4 . Hay una facción en el juego conocida como "The Railroad" que cree que, como seres conscientes, los sintetizadores tienen sus propios derechos. El Instituto, el laboratorio que produce los sintetizadores, en su mayoría no cree que sean realmente conscientes y atribuye cualquier deseo aparente de libertad como un mal funcionamiento.
- TARDIS : máquina del tiempo y nave espacial de Doctor Who , a veces retratada con una mente propia.
- Terminator cyborgs : de la franquicia Terminator , con la conciencia visual representada a través de una perspectiva en primera persona
- Transformers : robots sensibles de las distintas series de la franquicia de superhéroes de robots Transformers del mismo nombre.
- Vanamonde: un ser artificial inmensamente poderoso pero completamente infantil en La ciudad y las estrellas de Arthur C. Clarke .
- WALL-E: un robot y el personaje principal de WALL-E
- YoRHa: una facción militarizada de androides conscientes del videojuego Nier: Automata. La franquicia de Nier utiliza repetidamente la conciencia y la filosofía simuladas como tema central.
Ver también
- Campos y teorías generales
- Inteligencia artificial
- Inteligencia artificial general (AGI): algunos consideran que la CA es un subcampo de la investigación de AGI
- Explosión de inteligencia : lo que puede suceder cuando una IA inteligente se rediseña a sí misma en ciclos iterativos
- Interfaz cerebro-computadora
- Arquitectura cognitiva
- Teoría computacional de la mente
- Conciencia en animales
- Conciencia simulada (ciencia ficción)
- Identidad de indiscernibles
- Mente subiendo
- Neurotecnología
- Filosofía de la mente
- Realidad simulada
- Cognición cuántica
- Inteligencia artificial
- Conceptos e implementaciones propuestos
- Mente cuántica
- ADS-AC (sistema)
- Espacio conceptual - prototipo conceptual
- Copycat (arquitectura cognitiva)
- Teoría del espacio de trabajo global
- Reduccionismo codicioso : evite simplificar demasiado lo esencial
- Esquema de imagen : patrones espaciales
- Kismet (robot)
- LIDA (arquitectura cognitiva)
- Marco de predicción de memoria
- Psi-Teoría
- Ondas cerebrales y robot tortuga por William Gray Walter
Referencias
Citas
- ^ Thaler, SL (1998). "La inteligencia emergente y su mirada crítica sobre nosotros". Revista de estudios cercanos a la muerte . 17 (1): 21-29. doi : 10.1023 / A: 1022990118714 . S2CID 49573301 .
- ^ a b c Graziano, Michael (2013). Conciencia y cerebro social . Prensa de la Universidad de Oxford. ISBN 978-0199928644.
- ^ Inteligencia artificial: un enfoque moderno incluye losfundamentos filosóficos de la IA, incluidas las cuestiones de la conciencia http://aima.cs.berkeley.edu/contents.html , Russell, Stuart J., Norvig, Peter, 2003, Upper Saddle River, Nueva Jersey: Prentice Hall, ISBN 0-13-790395-2
- ^ Schlagel, RH (1999). "¿Por qué no la conciencia o el pensamiento artificial?". Mentes y Máquinas . 9 (1): 3-28. doi : 10.1023 / a: 1008374714117 . S2CID 28845966 .
- ^ Searle, JR (1980). "Mentes, cerebros y programas" (PDF) . Ciencias del comportamiento y del cerebro . 3 (3): 417–457. doi : 10.1017 / s0140525x00005756 .
- ^ Conciencia artificial: ¿utopía o posibilidad real? Buttazzo, Giorgio, julio de 2001, Computadora, ISSN 0018-9162
- ^ Chalmers, David (1995). "Ausente Qualia, Fading Qualia, Dancing Qualia" . Consultado el 12 de abril de 2016 .
- ^ Reglas Oficiales del Concurso del Premio Loebner - Versión 2.0 El concurso fue dirigido por David Hamill y las reglas fueron desarrolladas por miembros del grupo Robitron Yahoo.
- ^ Joëlle Proust en Neural Correlates of Consciousness , Thomas Metzinger, 2000, MIT, páginas 307-324
- ^ Christof Koch, La búsqueda de la conciencia , 2004, página 2 nota al pie 2
- ^ Tulving, E. 1985. Memoria y conciencia. Psicología canadiense 26: 1-12
- ^ Franklin, Stan y col. "El papel de la conciencia en la memoria". Cerebros, mentes y medios 1.1 (2005): 38.
- ^ Franklin, Stan. "Memoria perceptiva y aprendizaje: reconocer, categorizar y relacionar". Proc. Robótica del desarrollo AAAI Spring Symp. 2005.
- ^ Shastri, L. 2002. Memoria episódica e interacciones cortico-hipocampales. Tendencias en las ciencias cognitivas
- ^ Kanerva, Pentti. Memoria distribuida escasa. Prensa del MIT, 1988.
- ^ a b Aleksander 1995
- ^ "Robot" . Archivado desde el original el 3 de julio de 2007 . Consultado el 3 de julio de 2007 .
- ^ Takeno - Archivo No ...
- ^ El primer robot consciente de sí mismo del mundo y el éxito de la cognición de la imagen especular , Takeno
- ^ Un robot tiene éxito en el 100% de la cognición de la imagen de espejo Archivado 2017-08-09 en Wayback Machine , Takeno, 2008
- ^ Aleksander I (1996) Mentes imposibles: mis neuronas, mi conciencia , Imperial College Press ISBN 1-86094-036-6
- ^ Wilson, RJ (1998). "Revisión de Mentes Imposibles ". Revista de estudios de la conciencia . 5 (1): 115–6.
- ^ Thaler, SL, " Dispositivo para la generación autónoma de información útil "
- ^ Marupaka, N .; Lyer, L .; Minai, A. (2012). "Conectividad y pensamiento: la influencia de la estructura de la red semántica en un modelo neurodinámico de pensamiento" (PDF) . Redes neuronales . 32 : 147-158. doi : 10.1016 / j.neunet.2012.02.004 . PMID 22397950 . Archivado desde el original (PDF) el 19 de diciembre de 2016 . Consultado el 22 de mayo de 2015 .
- ^ Roque, R. y Barreira, A. (2011). "O Paradigma da" Máquina de Criatividade "ea Geração de Novidades em um Espaço Conceitual", 3º Seminário Interno de Cognição Artificial - SICA 2011 - FEEC - UNICAMP.
- ^ Minati, Gianfranco; Vitiello, Giuseppe (2006). "Máquinas para cometer errores". Sistémicos de emergencia: investigación y desarrollo . págs. 67 –78. doi : 10.1007 / 0-387-28898-8_4 . ISBN 978-0-387-28899-4.
- ^ Thaler, SL (2013) El paradigma de la máquina de creatividad, Enciclopedia de creatividad, invención, innovación y espíritu empresarial , (ed.) EG Carayannis, Springer Science + Business Media
- ↑ a b Thaler, SL (2011). "La máquina de la creatividad: resistiendo el argumento de la conciencia", boletín informativo de la APA sobre filosofía y computadoras
- ^ Thaler, SL (2014). "Perturbación sináptica y conciencia". En t. J. Mach. Consciente . 6 (2): 75-107. doi : 10.1142 / S1793843014400137 .
- ^ Thaler, SL (1995). " " Fenómenos de entrada virtual "dentro de la muerte de un asociador de patrón simple". Redes neuronales . 8 (1): 55–65. doi : 10.1016 / 0893-6080 (94) 00065-t .
- ^ Thaler, SL (1995). Muerte de una criatura gedanken, Journal of Near-Death Studies , 13 (3), primavera de 1995
- ^ Thaler, SL (1996). ¿Es el caos neuronal la fuente de la corriente de la conciencia? En Actas del Congreso Mundial de Redes Neuronales, (WCNN'96), Lawrence Erlbaum, Mawah, Nueva Jersey.
- ^ Mayer, HA (2004). Un neurocontrolador modular para robots autónomos móviles creativos que aprenden por diferencia temporal , Systems, Man and Cybernetics, 2004 IEEE International Conference (Volumen: 6)
- ^ Graziano, Michael (1 de enero de 2011). "La conciencia humana y su relación con la neurociencia social: una hipótesis novedosa" . Neurociencia cognitiva . 2 (2): 98-113. doi : 10.1080 / 17588928.2011.565121 . PMC 3223025 . PMID 22121395 .
- ^ Pavlus, John. "¿Curioso acerca de la conciencia? Pregunte a las máquinas autoconscientes" . Revista Quanta . Consultado el 6 de enero de 2021 .
- ^ Bongard, Josh, Victor Zykov y Hod Lipson. " Máquinas resilientes mediante el auto-modelado continuo ". Science 314.5802 (2006): 1118-1121.
- ^ Mapeo del panorama de la inteligencia general artificial a nivel humano
- ^ "Conciencia". En Honderich T. El compañero de Oxford de la filosofía. Prensa de la Universidad de Oxford. ISBN 978-0-19-926479-7
- ^ Victor Argonov (2014). "Métodos experimentales para desentrañar el problema mente-cuerpo: el enfoque del juicio fenomenal" . Diario de la mente y el comportamiento . 35 : 51–70.Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ "Futurama" , Wikipedia , 2020-04-23 , consultado el 2020-04-27
- ^ "Bender (Futurama)" , Wikipedia , 27 de abril de 2020 , consultado el 27 de abril de 2020.
- ^ "Bender (Futurama)" , Wikipedia , 27 de abril de 2020 , consultado el 27 de abril de 2020.
Bibliografía
- Ericsson-Zenith, Steven (2010), Explaining Experience In Nature , Sunnyvale, CA: Institute for Advanced Science & Engineering, archivado desde el original el 1 de abril de 2019 , consultado el 4 de octubre de 2019.
- Aleksander, Igor (1995), Neuroconciencia artificial: una actualización , IWANN, archivado desde el original el 2 de marzo de 1997CS1 maint: bot: estado de URL original desconocido ( enlace )
- Armstrong, David (1968), Una teoría materialista de la mente , Routledge
- Arrabales, Raul (2009), "Estableciendo una hoja de ruta y métricas para el desarrollo de máquinas conscientes" (PDF) , Actas de la 8va Conferencia Internacional IEEE sobre Informática Cognitiva , Hong Kong: 94-101, archivado desde el original (PDF) en 2011- 07-21
- Baars, Bernard (1988), Una teoría cognitiva de la conciencia , Cambridge, MA: Cambridge University Press, ISBN 978-0-521-30133-6
- Baars, Bernard (1997), In the Theatre of Consciousness , Nueva York, NY: Oxford University Press, ISBN 978-0-19-510265-9
- Bickle, John (2003), Filosofía y neurociencia: Una explicación reductiva despiadada , Nueva York, NY: Springer-Verlag
- Block, Ned (1978), "Troubles for Functionalism", Minnesota Studies in the Philosophy of Science 9: 261-325
- Block, Ned (1997), Sobre una confusión sobre una función de la conciencia en Block, Flanagan y Guzeldere (eds.) The Nature of Consciousness: Philosophical Debates , MIT Press
- Boyles, Robert James M. (2012), Artificial Qualia, Intentional Systems and Machine Consciousness (PDF) , Actas del Congreso Research @ DLSU 2012: Conferencia de ciencia y tecnología, ISSN 2012-3477
- Chalmers, David (1996), La mente consciente , Oxford University Press, ISBN 978-0-19-510553-7
- Cotterill, Rodney (2003), "Cyberchild: a Simulation Test-Bed for Consciousness Studies", en Holanda, Owen (ed.), Machine Consciousness , Exeter, Reino Unido: Imprint Academic
- Doan, Trung (2009), Arquitectura de Pentti Haikonen para máquinas conscientes , archivado desde el original el 15 de diciembre de 2009
- Franklin, Stan (1995), Mentes artificiales , Boston, MA: MIT Press, ISBN 978-0-262-06178-0
- Franklin, Stan (2003), "IDA: A Conscious Artefact", en Holanda, Owen (ed.), Machine Consciousness , Exeter, Reino Unido: Imprint Academic
- Freeman, Walter (1999), Cómo los cerebros componen sus mentes , Londres, Reino Unido: Phoenix, ISBN 978-0-231-12008-1
- Gamez, David (2008), "Progreso en la conciencia de la máquina", Consciousness and Cognition , 17 (3): 887–910, doi : 10.1016 / j.concog.2007.04.005 , PMID 17572107 , S2CID 3569852
- Haikonen, Pentti (2003), The Cognitive Approach to Conscious Machines , Exeter, Reino Unido: Imprint Academic, ISBN 978-0-907845-42-3
- Haikonen, Pentti (2012), Consciousness and Robot Sentience , Singapur: World Scientific, ISBN 978-981-4407-15-1
- Haikonen, Pentti (2019), Consciousness and Robot Sentience: 2nd Edition , Singapur: World Scientific, ISBN 978-981-120-504-0
- Koch, Christof (2004), The Quest for Consciousness: A Neurobiological Approach , Pasadena, CA: Roberts & Company Publishers, ISBN 978-0-9747077-0-9
- Lewis, David (1972), "Identificaciones psicofísicas y teóricas", Australasian Journal of Philosophy , 50 (3): 249–258, doi : 10.1080 / 00048407212341301
- Putnam, Hilary (1967), La naturaleza de los estados mentales en Capitan y Merrill (eds.) Art, Mind and Religion , University of Pittsburgh Press
- Reggia, James (2013), "El auge de la conciencia de la máquina: estudiar la conciencia con modelos computacionales", Neural Networks , 44 : 112-131, doi : 10.1016 / j.neunet.2013.03.011 , PMID 23597599
- Sanz, Ricardo; López, yo; Rodríguez, M; Hernández, C (2007), "Principios de la conciencia en el control cognitivo integrado" (PDF) , Neural Networks , 20 (9): 938–946, doi : 10.1016 / j.neunet.2007.09.012 , PMID 17936581
- Searle, John (2004), Mente: una breve introducción , Oxford University Press
- Shanahan, Murray (2006), "Una arquitectura cognitiva que combina la simulación interna con un espacio de trabajo global", Conciencia y cognición , 15 (2): 443–449, doi : 10.1016 / j.concog.2005.11.005 , PMID 16384715 , S2CID 5437155
- Sun, Ron (diciembre de 1999), "Contabilización de la base computacional de la conciencia: un enfoque conexionista", Conciencia y cognición , 8 (4): 529–565, CiteSeerX 10.1.1.42.2681 , doi : 10.1006 / ccog.1999.0405 , PMID 10600249 , S2CID 15784914
- Sun, Ron (2001), "Computación, reducción y teleología de la conciencia", Cognitive Systems Research , 1 (4): 241–249, CiteSeerX 10.1.1.20.8764 , doi : 10.1016 / S1389-0417 (00) 00013- 9 , S2CID 36892947
- Takeno, Junichi; Inaba, K; Suzuki, T (27-30 de junio de 2005), "Experimentos y examen de la cognición de la imagen especular utilizando un pequeño robot", El sexto Simposio Internacional IEEE sobre Inteligencia Computacional en Robótica y Automatización , Espoo Finlandia: CIRA 2005: 493-498, doi : 10.1109 / CIRA.2005.1554325 , ISBN 978-0-7803-9355-4, S2CID 15400848
- Cleeremans, Axel (2001), Aprendizaje implícito y conciencia (PDF)
- Chalmers, David (2011), "A Computational Foundation for the Study of Cognition" , Journal of Cognitive Science , Seúl, República de Corea: 323–357, archivado desde el original el 23 de diciembre de 2015
Otras lecturas
- Baars, Bernard; Franklin, Stan (2003). "Cómo interactúan la experiencia consciente y la memoria de trabajo" (PDF) . Tendencias en ciencias cognitivas . 7 (4): 166-172. doi : 10.1016 / s1364-6613 (03) 00056-1 . PMID 12691765 . S2CID 14185056 .
- Casti, John L. "The Cambridge Quintet: A Work of Scientific Speculation", Perseus Books Group, 1998
- Franklin, S, BJ Baars, U Ramamurthy y Matthew Ventura. 2005. El papel de la conciencia en la memoria . Cerebros, mentes y medios 1: 1–38, pdf.
- Haikonen, Pentti (2004), Conscious Machines and Machine Emotions , presentado en el Workshop on Models for Machine Consciousness, Amberes, BE, junio de 2004.
- McCarthy, John (1971-1987), Generalidad en inteligencia artificial . Universidad de Stanford, 1971-1987.
- Penrose, Roger, La nueva mente del emperador , 1989.
- Sternberg, Eliezer J. (2007) ¿Eres una máquina ?: El cerebro, la mente y lo que significa ser humano. Amherst, Nueva York: Prometheus Books.
- Suzuki T., Inaba K., Takeno, Junichi (2005), Robot consciente que distingue entre uno mismo y los demás e implementa el comportamiento de imitación , ( Mejor artículo de IEA / AIE2005 ), Innovaciones en Inteligencia Artificial Aplicada, 18a Conferencia Internacional de Ingeniería Industrial Aplicaciones de la inteligencia artificial y los sistemas expertos, págs. 101–110, IEA / AIE 2005, Bari, Italia, 22–24 de junio de 2005.
- Takeno, Junichi (2006), The Self-Aware Robot -A Response to Reactions to Discovery News- , HRI Press, agosto de 2006.
- Zagal, JC, Lipson, H. (2009) " Autorreflexión en robótica evolutiva ", Actas de la Conferencia de Computación Genética y Evolutiva, págs. 2179-2188, GECCO 2009.
enlaces externos
- Representación de la conciencia artefactual por el profesor Igor Aleksander
- FOCS 2009: Manuel Blum - ¿Puede la ciencia (informática teórica) enfrentarse a la conciencia?
- www.Conscious-Robots.com , Portal de conciencia de las máquinas y robots conscientes.