De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

La filosofía de la inteligencia artificial es una rama de la filosofía de la tecnología que explora la inteligencia artificial y sus implicaciones para el conocimiento y la comprensión de la inteligencia , la ética , la conciencia , la epistemología y el libre albedrío . [1] Además, la tecnología se ocupa de la creación de animales artificiales o personas artificiales (o, al menos, criaturas artificiales; ver vida artificial ), por lo que la disciplina es de considerable interés para los filósofos. [2] Estos factores contribuyeron al surgimiento de lafilosofía de la inteligencia artificial . Algunos académicos argumentan que el rechazo de la filosofía por parte de la comunidad de IA es perjudicial. [3]

La filosofía de la inteligencia artificial intenta responder tales preguntas de la siguiente manera: [4]

  • ¿Puede una máquina actuar de forma inteligente? ¿Puede resolver algún problema que una persona resolvería pensando?
  • ¿Son la inteligencia humana y la inteligencia de las máquinas lo mismo? ¿Es el cerebro humano esencialmente una computadora?
  • ¿Puede una máquina tener mente , estados mentales y conciencia en el mismo sentido que un ser humano? ¿Puede sentir cómo están las cosas ?

Preguntas como estas reflejan los intereses divergentes de los investigadores de IA , los científicos cognitivos y los filósofos, respectivamente. Las respuestas científicas a estas preguntas dependen de la definición de "inteligencia" y "conciencia" y exactamente qué "máquinas" están en discusión.

Las proposiciones importantes en la filosofía de la IA incluyen algunas de las siguientes:

  • La "convención cortés" de Turing : si una máquina se comporta tan inteligentemente como un ser humano, entonces es tan inteligente como un ser humano. [5]
  • La propuesta de Dartmouth : "Cada aspecto del aprendizaje o cualquier otra característica de la inteligencia se puede describir con tanta precisión que se puede hacer una máquina para simularlo". [6]
  • Allen Newell y Herbert A. Simon 's sistema de símbolos físicos hipótesis: 'Un sistema símbolo físico de la infraestructura necesaria y suficiente de la acción inteligente en general.' [7]
  • La fuerte hipótesis de la IA de John Searle : "La computadora apropiadamente programada con las entradas y salidas correctas tendría, por lo tanto, una mente exactamente en el mismo sentido que los seres humanos". [8]
  • Mecanismo de Hobbes : "Porque la 'razón' ... no es más que 'contar', es decir, sumar y restar, las consecuencias de los nombres generales acordados para la 'marca' y el 'significado' de nuestros pensamientos ..." [ 9]

¿Puede una máquina mostrar inteligencia general? [ editar ]

¿Es posible crear una máquina que pueda resolver todos los problemas que los humanos resuelven usando su inteligencia? Esta pregunta define el alcance de lo que las máquinas podrían hacer en el futuro y guía la dirección de la investigación de la IA. Solo se refiere al comportamiento de las máquinas e ignora los temas de interés para psicólogos , científicos cognitivos y filósofos ; Para responder a esta pregunta, no importa si una máquina realmente está pensando (como piensa una persona) o simplemente actúa como si estuviera pensando. [10]

La posición básica de la mayoría de los investigadores de IA se resume en esta declaración, que apareció en la propuesta para el taller de Dartmouth de 1956:

  • "Cada aspecto del aprendizaje o cualquier otra característica de la inteligencia se puede describir con tanta precisión que se puede hacer una máquina para simularlo". [6]

Los argumentos en contra de la premisa básica deben mostrar que la construcción de un sistema de inteligencia artificial funcional es imposible porque existe algún límite práctico para las habilidades de las computadoras o que existe alguna cualidad especial de la mente humana que es necesaria para el comportamiento inteligente y, sin embargo, no puede ser duplicada por un máquina (o por los métodos de la investigación actual de IA). Los argumentos a favor de la premisa básica deben demostrar que tal sistema es posible.

También es posible eludir la conexión entre las dos partes de la propuesta anterior. Por ejemplo, el aprendizaje automático, comenzando con la infame propuesta de máquina hijo de Turing [11], esencialmente logra la característica deseada de inteligencia sin una descripción precisa del tiempo de diseño sobre cómo funcionaría exactamente. La cuenta sobre el conocimiento tácito de los robots [12] elimina la necesidad de una descripción precisa por completo.

El primer paso para responder a la pregunta es definir claramente la "inteligencia".

Inteligencia [ editar ]

La "interpretación estándar" de la prueba de Turing. [13]

Prueba de Turing [ editar ]

Alan Turing [14] redujo el problema de definir la inteligencia a una simple pregunta sobre la conversación. Sugiere que: si una máquina puede responder cualquier pregunta que se le haga, usando las mismas palabras que lo haría una persona común, entonces podemos llamar a esa máquina inteligente. Una versión moderna de su diseño experimental usaría una sala de chat en línea , donde uno de los participantes es una persona real y uno de los participantes es un programa de computadora. El programa pasa la prueba si nadie puede decir cuál de los dos participantes es humano. [5] Turing señala que nadie (excepto los filósofos) se hace jamás la pregunta "¿puede la gente pensar?" Escribe "en lugar de discutir continuamente sobre este punto, es habitual tener una convención educada en la que todo el mundo piensa".[15] La prueba de Turing extiende esta cortés convención a las máquinas:

  • Si una máquina actúa tan inteligentemente como un ser humano, entonces es tan inteligente como un ser humano.

Una crítica de la prueba de Turing es que solo mide la "humanidad" del comportamiento de la máquina, en lugar de la "inteligencia" del comportamiento. Dado que el comportamiento humano y el comportamiento inteligente no son exactamente lo mismo, la prueba no mide la inteligencia. Stuart J. Russell y Peter Norvig escriben que "los textos de ingeniería aeronáutica no definen el objetivo de su campo como 'hacer máquinas que vuelen tan exactamente como palomas que puedan engañar a otras palomas'". [dieciséis]

Definición de agente inteligente [ editar ]

Agente reflejo simple

La investigación de la IA del siglo XXI define la inteligencia en términos de agentes inteligentes . Un "agente" es algo que percibe y actúa en un entorno. Una "medida de desempeño" define lo que cuenta como éxito para el agente.[17]

  • "Si un agente actúa para maximizar el valor esperado de una medida de desempeño basada en la experiencia y el conocimiento pasados, entonces es inteligente". [18]

Definiciones como ésta intentan capturar la esencia de la inteligencia. Tienen la ventaja de que, a diferencia de la prueba de Turing, no evalúan también los rasgos humanos poco inteligentes, como cometer errores de mecanografía [19] o la capacidad de ser insultado.[20] Tienen la desventaja de que no pueden diferenciar entre "cosas que piensan" y "cosas que no". Según esta definición, incluso un termostato tiene una inteligencia rudimentaria.[21]

Argumentos de que una máquina puede mostrar inteligencia general [ editar ]

El cerebro se puede simular [ editar ]

Una resonancia magnética de un cerebro humano adulto normal

Hubert Dreyfus describe este argumento afirmando que "si el sistema nervioso obedece las leyes de la física y la química, lo cual tenemos todas las razones para suponer que lo hace, entonces ... nosotros ... deberíamos ser capaces de reproducir el comportamiento del sistema nervioso con algún dispositivo físico ". [22] Este argumento, presentado por primera vez en 1943 [23] y descrito vívidamente por Hans Moravec en 1988, [24] ahora se asocia con el futurista Ray Kurzweil , quien estima que la potencia de la computadora será suficiente para una simulación cerebral completa por parte del año 2029. [25] Una simulación en tiempo no real de un modelo talamocortical que tiene el tamaño del cerebro humano (10 11neuronas) se realizó en 2005 [26] y se necesitaron 50 días para simular 1 segundo de dinámica cerebral en un grupo de 27 procesadores.

Pocos [ cuantifican ] no están de acuerdo con que una simulación cerebral sea posible en teoría, [ cita requerida ] [¿ según quién? ] incluso críticos de la IA como Hubert Dreyfus y John Searle. [27] Sin embargo, Searle señala que, en principio, cualquier cosa puede ser simulada por una computadora; por lo tanto, llevar la definición a su punto de ruptura lleva a la conclusión de que cualquier proceso puede considerarse técnicamente "computación". "Lo que queríamos saber es qué distingue la mente de los termostatos y los hígados", escribe. [28]Por lo tanto, simplemente imitar el funcionamiento de un cerebro sería en sí mismo una admisión de ignorancia con respecto a la inteligencia y la naturaleza de la mente [ cita requerida ] .

El pensamiento humano es el procesamiento de símbolos [ editar ]

En 1963, Allen Newell y Herbert A. Simon propusieron que la "manipulación de símbolos" era la esencia tanto de la inteligencia humana como de la máquina. Ellos escribieron:

  • "Un sistema de símbolos físicos tiene los medios necesarios y suficientes para la acción inteligente general". [7]

Esta afirmación es muy fuerte: implica tanto que el pensamiento humano es una especie de manipulación de símbolos (porque un sistema de símbolos es necesario para la inteligencia) como que las máquinas pueden ser inteligentes (porque un sistema de símbolos es suficiente para la inteligencia). [29] Otra versión de esta posición fue descrita por el filósofo Hubert Dreyfus, quien la llamó "la suposición psicológica":

  • "La mente puede verse como un dispositivo que opera sobre bits de información de acuerdo con reglas formales". [30]

Los "símbolos" que Newell, Simon y Dreyfus discutieron eran similares a palabras y de alto nivel, símbolos que se corresponden directamente con objetos en el mundo, como <perro> y <tail>. La mayoría de los programas de inteligencia artificial escritos entre 1956 y 1990 utilizaron este tipo de símbolo. La IA moderna, basada en estadísticas y optimización matemática, no utiliza el "procesamiento de símbolos" de alto nivel que discutieron Newell y Simon.

Argumentos en contra del procesamiento de símbolos [ editar ]

Estos argumentos muestran que el pensamiento humano no consiste (únicamente) en la manipulación de símbolos de alto nivel. Ellos no muestran que la inteligencia artificial es imposible, solo que se requiere más de procesamiento de símbolos.

Argumentos antimecanicistas gödeianos [ editar ]

En 1931, Kurt Gödel demostró con un teorema de incompletitud que siempre es posible construir un " enunciado de Gödel " que un sistema de lógica formal consistente dado (como un programa de manipulación de símbolos de alto nivel) no podría probar. A pesar de ser una declaración verdadera, la declaración de Gödel construida no puede demostrarse en el sistema dado. (La verdad de la declaración de Gödel construida depende de la consistencia del sistema dado; la aplicación del mismo proceso a un sistema sutilmente inconsistente parecerá tener éxito, pero en realidad producirá una "declaración de Gödel" falsa) [ cita requerida ]Más especulativamente, Gödel conjeturó que la mente humana puede eventualmente determinar correctamente la verdad o falsedad de cualquier enunciado matemático bien fundamentado (incluida cualquier posible enunciado de Gödel) y que, por lo tanto, el poder de la mente humana no se puede reducir a un mecanismo . [31] El filósofo John Lucas (desde 1961) y Roger Penrose (desde 1989) han defendido este argumento filosófico anti-mecanicista. [32]Los argumentos antimecanicistas de Godelia tienden a basarse en la afirmación aparentemente inocua de que un sistema de matemáticos humanos (o alguna idealización de los matemáticos humanos) es consistente (completamente libre de errores) y cree completamente en su propia consistencia (y puede hacer que todo sea lógico). inferencias que se derivan de su propia consistencia, incluida la creencia en su declaración de Gödel) [ cita requerida ] . Esto es demostrablemente imposible para una máquina de Turing [se necesita aclaración ] (y, por una extensión informal, cualquier tipo conocido de computadora mecánica); por lo tanto, el gödeliano concluye que el razonamiento humano es demasiado poderoso para ser capturado en una máquina [ dudoso ] .

Sin embargo, el consenso moderno en la comunidad científica y matemática es que el razonamiento humano real es inconsistente; que cualquier "versión idealizada" H coherente del razonamiento humano se vería obligada lógicamente a adoptar un escepticismo sano pero contraintuitivo de mente abierta acerca de la consistencia de H (de lo contrario, H es demostrablemente inconsistente); y que los teoremas de Gödel no conducen a ningún argumento válido de que los humanos tengan capacidades de razonamiento matemático más allá de lo que una máquina podría duplicar. [33] [34] [35] Este consenso de que los argumentos antimecanicistas de Göde están condenados al fracaso se establece con fuerza en la Inteligencia Artificial : " cualquierintentar utilizar (los resultados de incompletitud de Gödel) para atacar la tesis computacionalista está destinado a ser ilegítimo, ya que estos resultados son bastante consistentes con la tesis computacionalista ". [36]

De manera más pragmática, Russell y Norvig señalan que el argumento de Gödel solo se aplica a lo que teóricamente se puede demostrar, dada una cantidad infinita de memoria y tiempo. En la práctica, las máquinas reales (incluidos los humanos) tienen recursos finitos y tendrán dificultades para demostrar muchos teoremas. No es necesario probar todo para ser inteligente [ cuando se define como? ] . [37]

De manera menos formal, Douglas Hofstadter , en su libro ganador del premio Pulitzer Gödel, Escher, Bach: An Eternal Golden Braid , afirma que estas "declaraciones de Gödel" siempre se refieren al sistema mismo, haciendo una analogía con la forma en que la paradoja de Epiménides usa declaraciones que se refieren a sí mismos, como "esta afirmación es falsa" o "estoy mintiendo". [38] Pero, por supuesto, la paradoja de Epiménides se aplica a cualquier cosa que haga declaraciones, ya sean máquinas o humanos, incluso el propio Lucas. Considerar:

  • Lucas no puede afirmar la verdad de esta declaración. [39]

Esta afirmación es cierta, pero Lucas no puede afirmarla. Esto muestra que el propio Lucas está sujeto a los mismos límites que describe para las máquinas, como lo están todas las personas, por lo que el argumento de Lucas no tiene sentido. [40]

Después de concluir que el razonamiento humano no es computable, Penrose especuló polémicamente que algún tipo de procesos hipotéticos no computables que involucran el colapso de estados de la mecánica cuántica dan a los humanos una ventaja especial sobre las computadoras existentes. Las computadoras cuánticas existentes solo son capaces de reducir la complejidad de las tareas computables de Turing y aún están restringidas a tareas dentro del alcance de las máquinas de Turing. [ cita requerida ] [ aclaración necesaria ] . Según los argumentos de Penrose y Lucas, las computadoras cuánticas existentes no son suficientes [ cita requerida ] [ aclaración necesaria ] [ ¿por qué? ], por lo que Penrose busca algún otro proceso que implique nueva física, por ejemplo, la gravedad cuántica que podría manifestar una nueva física a la escala de la masa de Planck a través del colapso cuántico espontáneo de la función de onda. Estos estados, sugirió, ocurren tanto dentro de las neuronas como en más de una neurona. [41] Sin embargo, otros científicos señalan que no existe un mecanismo orgánico plausible en el cerebro para aprovechar cualquier tipo de cálculo cuántico y, además, que la escala de tiempo de la decoherencia cuántica parece demasiado rápida para influir en la activación de las neuronas. [42]

Dreyfus: la primacía de las habilidades implícitas [ editar ]

Hubert Dreyfus argumentó que la inteligencia y la experiencia humanas dependían principalmente de la habilidad implícita más que de la manipulación simbólica explícita, y argumentó que estas habilidades nunca serían capturadas en reglas formales. [43]

El argumento de Dreyfus había sido anticipado por Turing en su artículo de 1950 Informática maquinaria e inteligencia , donde lo había clasificado como el "argumento de la informalidad del comportamiento". [44] Turing argumentó en respuesta que, solo porque no conocemos las reglas que gobiernan un comportamiento complejo, esto no significa que no existan tales reglas. Escribió: "No podemos convencernos tan fácilmente de la ausencia de leyes completas de comportamiento ... La única forma que conocemos para encontrar tales leyes es la observación científica, y ciertamente no conocemos circunstancias bajo las cuales podamos decir: 'Nosotros han buscado lo suficiente. No existen tales leyes '". [45]

Russell y Norvig señalan que, en los años transcurridos desde que Dreyfus publicó su crítica, se ha avanzado hacia el descubrimiento de las "reglas" que gobiernan el razonamiento inconsciente. [46] El movimiento situado en la investigación robótica intenta capturar nuestras habilidades inconscientes de percepción y atención. [47] Los paradigmas de la inteligencia computacional , como las redes neuronales , los algoritmos evolutivos, etc., se dirigen principalmente al razonamiento y al aprendizaje inconscientes simulados. Los enfoques estadísticos de la IA pueden hacer predicciones que se acercan a la precisión de las conjeturas intuitivas humanas. Investigación del conocimiento de sentido comúnse ha centrado en reproducir el "trasfondo" o contexto del conocimiento. De hecho, la investigación de la IA en general se ha alejado de la manipulación de símbolos de alto nivel, hacia nuevos modelos que están destinados a capturar más de nuestro razonamiento inconsciente . [46] El historiador e investigador de inteligencia artificial Daniel Crevier escribió que "el tiempo ha demostrado la precisión y la percepción de algunos de los comentarios de Dreyfus. Si los hubiera formulado de manera menos agresiva, las acciones constructivas que sugirieron podrían haberse tomado mucho antes". [48]

¿Puede una máquina tener mente, conciencia y estados mentales? [ editar ]

Ésta es una cuestión filosófica, relacionada con el problema de otras mentes y el difícil problema de la conciencia . La pregunta gira en torno a una posición definida por John Searle como "IA fuerte":

  • Un sistema de símbolos físicos puede tener una mente y estados mentales. [8]

Searle distinguió esta posición de lo que llamó "IA débil":

  • Un sistema de símbolos físicos puede actuar de forma inteligente. [8]

Searle introdujo los términos para aislar la IA fuerte de la IA débil para poder concentrarse en lo que pensaba que era el tema más interesante y debatible. Argumentó que incluso si asumimos que teníamos un programa de computadora que actuaba exactamente como una mente humana, todavía habría una pregunta filosófica difícil que necesitaba ser respondida. [8]

Ninguna de las dos posiciones de Searle es de gran interés para la investigación de la IA, ya que no responden directamente a la pregunta "¿puede una máquina mostrar inteligencia general?" (a menos que también se pueda demostrar que la conciencia es necesaria para la inteligencia). Turing escribió: "No deseo dar la impresión de que creo que no hay ningún misterio sobre la conciencia ... [pero] pero no creo que estos misterios necesiten ser resueltos antes de que podamos responder a la pregunta [de si las máquinas pueden pensar]. " [49] Russell y Norvig están de acuerdo: "La mayoría de los investigadores de IA dan por sentada la hipótesis de IA débil y no se preocupan por la hipótesis de IA fuerte". [50]

Hay algunos investigadores que creen que la conciencia es un elemento esencial en la inteligencia, como Igor Aleksander , Stan Franklin , Ron Sun y Pentti Haikonen , aunque su definición de "conciencia" se acerca mucho a la "inteligencia". (Ver conciencia artificial ).

Antes de que podamos responder a esta pregunta, debemos tener claro qué entendemos por "mentes", "estados mentales" y "conciencia".

Conciencia, mentes, estados mentales, significado [ editar ]

Las palabras " mente " y " conciencia " son utilizadas por diferentes comunidades de diferentes maneras. Algunos pensadores de la nueva era , por ejemplo, usan la palabra "conciencia" para describir algo similar al " élan vital " de Bergson : un fluido energético invisible que impregna la vida y especialmente la mente. Los escritores de ciencia ficción usan la palabra para describir alguna propiedad esencial que nos hace humanos: una máquina o extraterrestre que es "consciente" será presentado como un personaje completamente humano, con inteligencia, deseos, voluntad , perspicacia, orgullo, etc. (Los escritores de ciencia ficción también usan las palabras "sensibilidad", "sapiencia","autoconciencia" o " fantasma"- como en la serie de manga y anime Ghost in the Shell - para describir esta propiedad humana esencial). Para otros [ ¿quién? ] , las palabras" mente "o" conciencia "se utilizan como una especie de sinónimo secular del alma .

Para los filósofos , neurocientíficos y científicos cognitivos , las palabras se usan de una manera más precisa y mundana: se refieren a la experiencia familiar y cotidiana de tener un "pensamiento en la cabeza", como una percepción, un sueño, un intención o un plan, y la forma en que sabemos algo, o queremos decir algo o entendemos algo [ cita requerida ] . "No es difícil dar una definición de conciencia con sentido común", observa el filósofo John Searle. [51] Lo misterioso y fascinante no es tanto lo que es sino cómoes: ¿cómo un bulto de tejido graso y electricidad da lugar a esta experiencia (familiar) de percibir, significar o pensar?

Los filósofos llaman a esto el difícil problema de la conciencia . Es la última versión de un problema clásico de la filosofía de la mente llamado " problema mente-cuerpo ". [52] Un problema relacionado es el problema del significado o la comprensión (que los filósofos llaman " intencionalidad "): ¿cuál es la conexión entre nuestros pensamientos y lo que estamos pensando (es decir, objetos y situaciones en el mundo)? Un tercer tema es el problema de la experiencia (o " fenomenología"): Si dos personas ven lo mismo, ¿tienen la misma experiencia? ¿O hay cosas" dentro de su cabeza "(llamadas" qualia ") que pueden ser diferentes de una persona a otra? [53]

Los neurobiólogos creen que todos estos problemas se resolverán cuando comencemos a identificar los correlatos neuronales de la conciencia : la relación real entre la maquinaria en nuestra cabeza y sus propiedades colectivas; como la mente, la experiencia y la comprensión. Algunos de los críticos más duros de la inteligencia artificial están de acuerdo en que el cerebro es solo una máquina y que la conciencia y la inteligencia son el resultado de procesos físicos en el cerebro. [54] La pregunta filosófica difícil es la siguiente: ¿puede un programa de computadora, que se ejecuta en una máquina digital que mezcla los dígitos binarios de cero y uno, duplicar la capacidad de las neuronaspara crear mentes, con estados mentales (como comprender o percibir) y, en última instancia, la experiencia de la conciencia ?

Argumentos de que una computadora no puede tener una mente y estados mentales [ editar ]

Habitación china de Searle [ editar ]

John Searle nos pide que consideremos un experimento mental : supongamos que hemos escrito un programa de computadora que pasa la prueba de Turing y demuestra una acción inteligente general. Supongamos, específicamente, que el programa puede conversar en chino con fluidez. Escriba el programa en tarjetas de 3x5 y entréguelas a una persona común que no hable chino. Encierre a la persona en una habitación y pídale que siga las instrucciones de las tarjetas. Copiará caracteres chinos y los pasará dentro y fuera de la habitación a través de una ranura. Desde el exterior, parecerá que la sala china contiene una persona completamente inteligente que habla chino. La pregunta es la siguiente: ¿hay alguien (o algo) en la sala que entienda chino? Es decir, ¿hay algo que tenga el estado mental de comprensiónO que tiene conciencia conciencia de lo que se discute en chino? El hombre claramente no se da cuenta. La habitación no puede darse cuenta. Las cartas ciertamente no lo saben. Searle concluye que la habitación china , o cualquier otro sistema de símbolos físicos, no puede tener mente. [55]

Searle continúa argumentando que los estados mentales y la conciencia reales requieren (aún por describir) "propiedades físico-químicas reales de los cerebros humanos reales". [56] Argumenta que hay "propiedades causales" especiales de los cerebros y las neuronas que dan origen a las mentes : en sus palabras, "los cerebros causan las mentes". [57]

Argumentos relacionados: molino de Leibniz, central telefónica de Davis, nación china de Block y Blockhead [ editar ]

Gottfried Leibniz hizo esencialmente el mismo argumento que Searle en 1714, utilizando el experimento mental de expandir el cerebro hasta que tuviera el tamaño de un molino . [58] En 1974, Lawrence Davis imaginó la duplicación del cerebro utilizando líneas telefónicas y oficinas atendidas por personas, y en 1978 Ned Block imaginó a toda la población de China involucrada en tal simulación cerebral. Este experimento mental se llama "la nación china" o "el gimnasio chino". [59] Ned Block también propuso su argumento Blockhead , que es una versión de la habitación china en la que el programa ha sido refactorizado. en un simple conjunto de reglas de la forma "ver esto, hacer aquello", eliminando todo misterio del programa.

Respuestas a la sala china [ editar ]

Las respuestas a la sala china enfatizan varios puntos diferentes.

  • Los sistemas responden y la mente virtual responde : [60] Esta respuesta argumenta que el sistema , incluido el hombre, el programa, la habitación y las tarjetas, es lo que entiende el chino. Searle afirma que el hombre en la habitación es lo único que podría "tener una mente" o "entender", pero otros no están de acuerdo, argumentando que es posible que haya dos mentes en el mismo lugar físico, similar a la forma en que una computadora puede "ser" simultáneamente dos máquinas a la vez: una física (como una Macintosh ) y una " virtual " (como un procesador de textos ).
  • Velocidad, potencia y complejidad responde : [61] Varios críticos señalan que el hombre en la habitación probablemente tardaría millones de años en responder a una pregunta simple y requeriría "archivadores" de proporciones astronómicas. Esto pone en duda la claridad de la intuición de Searle.
  • Respuesta del robot : [62] Para comprender de verdad, algunos creen que la habitación china necesita ojos y manos. Hans Moravec escribe: "Si pudiéramos injertar un robot en un programa de razonamiento, ya no necesitaríamos una persona para proporcionar el significado: vendría del mundo físico". [63]
  • Respuesta del simulador de cerebro : [64] ¿Qué pasa si el programa simula la secuencia de descargas nerviosas en las sinapsis de un cerebro real de un hablante chino real? El hombre de la habitación estaría simulando un cerebro real. Esta es una variación de la "respuesta del sistema" que parece más plausible porque "el sistema" ahora opera claramente como un cerebro humano, lo que refuerza la intuición de que hay algo además del hombre en la habitación que podría entender chino.
  • Otras mentes responden y los epifenómenos responden : [65] Varias personas han notado que el argumento de Searle es sólo una versión del problema de otras mentes , aplicado a las máquinas. Dado que es difícil decidir si la gente está "realmente" pensando, no debería sorprendernos que sea difícil responder la misma pregunta sobre las máquinas.
Una cuestión relacionada es si existe la "conciencia" (como la entiende Searle). Searle sostiene que la experiencia de la conciencia no puede detectarse examinando el comportamiento de una máquina, un ser humano o cualquier otro animal. Daniel Dennett señala que la selección natural no puede preservar una característica de un animal que no tiene ningún efecto sobre el comportamiento del animal y, por lo tanto, la conciencia (como la entiende Searle) no puede ser producida por selección natural. Por lo tanto, o la selección natural no produjo conciencia, o la "IA fuerte" tiene razón en que la conciencia puede detectarse mediante la prueba de Turing diseñada adecuadamente.

¿Pensar es una especie de cálculo? [ editar ]

La teoría computacional de la mente o " computacionalismo " afirma que la relación entre la mente y el cerebro es similar (si no idéntica) a la relación entre un programa en ejecución y una computadora. La idea tiene raíces filosóficas en Hobbes (quien afirmó que el razonamiento era "nada más que hacer cuentas"), Leibniz (quien intentó crear un cálculo lógico de todas las ideas humanas), Hume (quien pensó que la percepción podría reducirse a "impresiones atómicas") y incluso Kant (que analizó toda la experiencia como controlada por reglas formales). [66] La última versión está asociada con los filósofos Hilary Putnam yJerry Fodor . [67]

Esta pregunta se relaciona con nuestras preguntas anteriores: si el cerebro humano es una especie de computadora, las computadoras pueden ser inteligentes y conscientes, respondiendo tanto a las preguntas prácticas como filosóficas de la IA. En términos de la cuestión práctica de la IA ("¿Puede una máquina mostrar inteligencia general?"), Algunas versiones del computacionalismo afirman que (como escribió Hobbes ):

  • Razonar no es más que calcular. [9]

En otras palabras, nuestra inteligencia se deriva de una forma de cálculo , similar a la aritmética . Esta es la hipótesis del sistema de símbolos físicos discutida anteriormente, e implica que la inteligencia artificial es posible. En términos de la cuestión filosófica de la IA ("¿Puede una máquina tener mente, estados mentales y conciencia?"), La mayoría de las versiones del computacionalismo afirman que (como lo caracteriza Stevan Harnad ):

  • Los estados mentales son solo implementaciones de programas de computadora (correctos). [68]

Esta es la "inteligencia artificial fuerte" de John Searle discutida anteriormente, y es el objetivo real del argumento de la habitación china (según Harnad ). [68]

Otras preguntas relacionadas [ editar ]

¿Puede una máquina tener emociones? [ editar ]

Si las " emociones " se definen sólo en términos de su efecto sobre el comportamiento o cómo funcionan dentro de un organismo, entonces las emociones pueden verse como un mecanismo que utiliza un agente inteligente para maximizar la utilidad de sus acciones. Dada esta definición de emoción, Hans Moravec cree que "los robots en general serán bastante emocionales por ser buenas personas". [69] El miedo es una fuente de urgencia. La empatía es un componente necesario de una buena interacción entre humanos y computadoras . Él dice que los robots "intentarán complacerte de una manera aparentemente desinteresada porque se emocionará con este refuerzo positivo. Puedes interpretar esto como una especie de amor".[69] Daniel Crevier escribe "El punto de Moravec es que las emociones son solo dispositivos para canalizar el comportamiento en una dirección beneficiosa para la supervivencia de la especie". [70]

¿Puede una máquina ser consciente de sí misma? [ editar ]

La " conciencia de sí mismo ", como se señaló anteriormente, a veces es utilizada por los escritores de ciencia ficción como un nombre para la propiedad humana esencial que hace que un personaje sea completamente humano. Turing elimina todas las demás propiedades de los seres humanos y reduce la pregunta a "¿puede una máquina ser objeto de su propio pensamiento?" ¿Puede pensar en sí mismo ? Visto de esta manera, se puede escribir un programa que pueda informar sobre sus propios estados internos, como un depurador . [71] Aunque podría decirse que la autoconciencia a menudo supone un poco más de capacidad; una máquina que puede atribuir significado de alguna manera no solo a su propio estado sino en general postulando preguntas sin respuestas sólidas: la naturaleza contextual de su existencia ahora; cómo se compara con estados pasados ​​o planes para el futuro, los límites y el valor de su producto de trabajo, cómo percibe que su desempeño es valorado o comparado con otros.

¿Puede una máquina ser original o creativa? [ editar ]

Turing reduce esto a la cuestión de si una máquina puede "tomarnos por sorpresa" y sostiene que esto es obviamente cierto, como puede atestiguar cualquier programador. [72] Señala que, con suficiente capacidad de almacenamiento, una computadora puede comportarse de un número astronómico de diferentes formas. [73] Debe ser posible, incluso trivial, que una computadora que pueda representar ideas pueda combinarlas de nuevas formas. ( Douglas Lenat 's Automatizado matemático , como un ejemplo, ideas para descubrir nuevas verdades matemáticas combinado.) Kaplan y Haenlein sugieren que las máquinas pueden mostrar la creatividad científica, si bien parece probable que los seres humanos tienen la sartén por el mango cuando se trate de la creación artística. [74]

En 2009, los científicos de la Universidad de Aberystwyth en Gales y la Universidad de Cambridge del Reino Unido diseñaron un robot llamado Adam que creen que es la primera máquina en generar de forma independiente nuevos descubrimientos científicos. [75] También en 2009, los investigadores de Cornell desarrollaron Eureqa , un programa de computadora que extrapola fórmulas para ajustarse a los datos ingresados, como encontrar las leyes del movimiento a partir del movimiento de un péndulo.

¿Puede una máquina ser benevolente u hostil? [ editar ]

Esta pregunta (como muchas otras en la filosofía de la inteligencia artificial) se puede presentar de dos formas. La "hostilidad" se puede definir en términos de función o comportamiento , en cuyo caso "hostil" se convierte en sinónimo de "peligroso". O puede definirse en términos de intención: ¿puede una máquina proponerse "deliberadamente" hacer daño? La última es la pregunta "¿puede una máquina tener estados conscientes?" (como intenciones ) en otra forma. [49]

La cuestión de si las máquinas altamente inteligentes y completamente autónomas serían peligrosas ha sido examinada en detalle por futuristas (como el Singularity Institute ). El elemento obvio del drama también ha hecho que el tema sea popular en la ciencia ficción , que ha considerado muchos escenarios posibles de diferentes formas en los que las máquinas inteligentes representan una amenaza para la humanidad; ver Inteligencia artificial en la ficción .

Un problema es que las máquinas pueden adquirir la autonomía y la inteligencia necesarias para ser peligrosas muy rápidamente. Vernor Vinge ha sugerido que en unos pocos años, las computadoras se volverán repentinamente miles o millones de veces más inteligentes que los humanos. Él llama a esto " la singularidad ". [76] Sugiere que puede ser algo o posiblemente muy peligroso para los humanos. [77] Esto es discutido por una filosofía llamada Singularitarismo .

En 2009, académicos y expertos técnicos asistieron a una conferencia para discutir el impacto potencial de los robots y las computadoras y el impacto de la posibilidad hipotética de que pudieran volverse autosuficientes y capaces de tomar sus propias decisiones. Discutieron la posibilidad y el grado en que las computadoras y los robots podrían adquirir algún nivel de autonomía, y hasta qué punto podrían usar tales habilidades para posiblemente representar una amenaza o peligro. Señalaron que algunas máquinas han adquirido varias formas de semiautonomía, incluida la posibilidad de encontrar fuentes de energía por sí mismas y la posibilidad de elegir objetivos de forma independiente para atacar con armas. También señalaron que algunos virus informáticos pueden evadir la eliminación y han logrado "inteligencia de cucaracha". Notaron que la autoconcienciacomo se describe en la ciencia ficción es probablemente poco probable, pero que había otros peligros y trampas potenciales. [76]

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando dichos robots tienen cierto grado de funciones autónomas. [78] La Marina de los Estados Unidos ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debería prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. [79] [80]

El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio para analizar este tema. [81] Apuntan a programas como el Dispositivo de Adquisición de Lenguaje que puede emular la interacción humana.

Algunos han sugerido la necesidad de construir una " IA amigable ", lo que significa que los avances que ya están ocurriendo con la IA también deberían incluir un esfuerzo para hacer que la IA sea intrínsecamente amigable y humana. [82]

¿Puede una máquina imitar todas las características humanas? [ editar ]

Turing dijo: "Es costumbre ... ofrecer una pizca de consuelo, en la forma de una declaración de que alguna característica peculiarmente humana nunca podría ser imitada por una máquina ... No puedo ofrecer tal consuelo, porque creo que no tales límites se pueden establecer ". [83]

Turing señaló que hay muchos argumentos de la forma "una máquina nunca hará X", donde X puede ser muchas cosas, como:

Sea amable, ingenioso, hermoso, amigable, tenga iniciativa, tenga sentido del humor, distinga el bien del mal, cometa errores, enamórese, disfrute de las fresas y la crema, haga que alguien se enamore de él, aprenda de la experiencia, use las palabras correctamente , ser objeto de su propio pensamiento, tener tanta diversidad de comportamiento como un hombre, hacer algo realmente nuevo. [71]

Turing sostiene que estas objeciones a menudo se basan en suposiciones ingenuas sobre la versatilidad de las máquinas o son "formas disfrazadas del argumento de la conciencia". Escribir un programa que exhiba uno de estos comportamientos "no causará mucha impresión". [71] Todos estos argumentos son tangenciales a la premisa básica de la IA, a menos que se pueda demostrar que uno de estos rasgos es esencial para la inteligencia general.

¿Puede una máquina tener alma? [ editar ]

Finalmente, aquellos que creen en la existencia de un alma pueden argumentar que "el pensamiento es una función del alma inmortal del hombre ". Alan Turing llamó a esto "la objeción teológica". El escribe

Al intentar construir tales máquinas, no deberíamos estar usurpando irreverentemente Su poder de crear almas, como tampoco lo estamos en la procreación de niños; más bien, somos, en cualquier caso, instrumentos de Su voluntad que proveen mansiones para las almas que Él crea. [84]

Opiniones sobre el papel de la filosofía [ editar ]

Algunos académicos argumentan que el rechazo de la filosofía por parte de la comunidad de IA es perjudicial. En la Enciclopedia de Filosofía de Stanford , algunos filósofos sostienen que se subestima el papel de la filosofía en la IA. [2] El físico David Deutsch sostiene que sin una comprensión de la filosofía o sus conceptos, el desarrollo de la IA sufriría una falta de progreso. [85]

Conferencias [ editar ]

La principal serie de conferencias sobre el tema es "Filosofía y teoría de la IA" (PT-AI), a cargo de Vincent C. Müller .

La bibliografía principal sobre el tema, con varias subsecciones, está en PhilPapers .

Ver también [ editar ]

  • Adquisición de IA
  • Cerebro artificial
  • Conciencia artificial
  • Inteligencia artificial
  • Red neuronal artificial
  • Chatterbot
  • Cuarto chino
  • Teoría computacional de la mente
  • Inteligencia y maquinaria informática
  • La crítica de Dreyfus a la inteligencia artificial
  • Riesgo existencial de la inteligencia artificial avanzada
  • Funcionalismo
  • Sistema de agentes múltiples
  • Filosofía de la informática
  • Filosofía de la información
  • Filosofía de la mente
  • Sistema de símbolo físico
  • Realidad simulada
  • Superinteligencia: caminos, peligros, estrategias
  • Inteligencia sintética

Notas [ editar ]

  1. ^ McCarthy, John. "La filosofía de la IA y la IA de la filosofía" . jmc.stanford.edu . Archivado desde el original el 23 de octubre de 2018 . Consultado el 18 de septiembre de 2018 .
  2. ^ a b Bringsjord, Selmer; Govindarajulu, Naveen Sundar (2018), "Artificial Intelligence" , en Zalta, Edward N. (ed.), The Stanford Encyclopedia of Philosophy (otoño de 2018 ed.), Metaphysics Research Lab, Stanford University, archivado desde el original en 2019- 11-09 , consultado el 18 de septiembre de 2018
  3. Deutsch, David (3 de octubre de 2012). "La filosofía será la llave que desbloquee la inteligencia artificial | David Deutsch" . The Guardian . ISSN 0261-3077 . Consultado el 29 de abril de 2020 . 
  4. ^ Russell y Norvig 2003 , p. 947definen la filosofía de la IA como compuesta por las dos primeras preguntas y la cuestión adicional de la ética de la inteligencia artificial . Fearn 2007 , pág. 55 escribe: "En la literatura actual, la filosofía tiene dos roles principales: determinar si tales máquinas serían conscientes o no y, en segundo lugar, predecir si tales máquinas son posibles o no". La última pregunta se refiere a las dos primeras.
  5. ^ a b Esta es una paráfrasis del punto esencial de la prueba de Turing . Turing 1950 , Haugeland 1985 , págs. 6-9, Crevier 1993 , pág. 24, Russell y Norvig 2003 , págs. 2-3 y 948
  6. ^ a b McCarthy y col. 1955 . Esta afirmación se imprimió en el programa de la Conferencia de Dartmouth de 1956, considerada ampliamente el "nacimiento de la IA". También Crevier 1993 , p. 28
  7. ↑ a b Newell & Simon 1976 y Russell & Norvig 2003 , p. 18
  8. ^ a b c d Esta versión es de Searle (1999) y también se cita en Dennett 1991 , p. 435. La formulación original de Searle era "La computadora apropiadamente programada es realmente una mente, en el sentido de que se puede decir literalmente que las computadoras con los programas adecuados comprenden y tienen otros estados cognitivos". ( Searle 1980 , pág. 1). La IA fuerte es definida de manera similar por Russell y Norvig (2003 , p. 947): "La afirmación de que las máquinas podrían actuar de manera inteligente (o, quizás mejor, actuar como si fueran inteligentes) es llamada la hipótesis de la 'IA débil' por los filósofos, y la afirmación de que las máquinas que lo hacen en realidad piensan (en lugar de simular pensamiento) se llama la hipótesis de la 'IA fuerte' ".
  9. ↑ a b Hobbes 1651 , cap. 5
  10. ^ Véase Russell y Norvig 2003 , p. 3, donde hacen la distinción entre actuar racionalmente y ser racional, y definen la IA como el estudio del primero.
  11. ^ Turing, Alan M. (1950). "Maquinaria e Inteligencia Informática" . Mente . 49 : 433–460 - a través de impresiones de correspondencia.
  12. ^ Heder, Mihaly; Paksi, Daniel (2012). "Robots autónomos y conocimiento tácito" . Tasación . 9 (2): 8–14 - a través de academia.edu.
  13. ^ Saygin 2000 .
  14. ^ Turing 1950 y véase Russell y Norvig 2003 , p. 948, donde llaman "famoso" a su artículo y escriben "Turing examinó una amplia variedad de posibles objeciones a la posibilidad de máquinas inteligentes, incluidas prácticamente todas las que se han planteado en el medio siglo desde que apareció su artículo".
  15. ^ Turing 1950 en "El argumento de la conciencia"
  16. ^ Russell y Norvig 2003 , p. 3
  17. ^ Russell y Norvig 2003 , págs. 4-5, 32, 35, 36 y 56
  18. ^ Russell y Norvig preferirían la palabra " racional " a "inteligente".
  19. ^ "Estupidez artificial". The Economist . 324 (7770): 14. 1 de agosto de 1992.
  20. ^ Saygin, AP; Cicekli, I. (2002). "Pragmática en la conversación humano-computadora". Revista de Pragmática . 34 (3): 227–258. CiteSeerX 10.1.1.12.7834 . doi : 10.1016 / S0378-2166 (02) 80001-7 . 
  21. ^ Russell y Norvig (2003 , págs. 48-52)consideran un termostato como una forma simple de agente inteligente , conocido como agente reflejo . Para un tratamiento en profundidad del papel del termostato en la filosofía, véase Chalmers (1996 , págs. 293-301) "4. ¿Es la experiencia ubicua?" subsecciones ¿Qué se siente al ser un termostato? , ¿A dónde va el panpsiquismo? y Restringir el principio de doble aspecto .
  22. ^ Dreyfus 1972 , p. 106
  23. ^ Pitts y McCullough, 1943
  24. ^ Moravec 1988
  25. ^ Kurzweil , 2005 , p. 262. Véase también Russell y Norvig , p. 957y Crevier 1993 , págs. 271 y 279. La forma más extrema de este argumento (el escenario de reemplazo cerebral) fue presentada por Clark Glymour a mediados de la década de 1970 y fue abordada por Zenon Pylyshyn y John Searle en 1980.
  26. Eugene Izhikevich (27 de octubre de 2005). "Eugene M. Izhikevich, simulación a gran escala del cerebro humano" . Vesicle.nsi.edu. Archivado desde el original el 1 de mayo de 2009 . Consultado el 29 de julio de 2010 .
  27. ^ Hubert Dreyfus escribe: "En general, al aceptar los supuestos fundamentales de que el sistema nervioso es parte del mundo físico y que todos los procesos físicos pueden describirse en un formalismo matemático que, a su vez, puede ser manipulado por una computadora digital, uno puede llegar a la fuerte afirmación de que el comportamiento que resulta del 'procesamiento de información' humano, ya sea directamente formalizable o no, siempre puede reproducirse indirectamente en una máquina digital ". ( Dreyfus 1972 , págs. 194-195). John Searleescribe: "¿Podría pensar una máquina hecha por el hombre? Suponiendo que sea posible producir artificialmente una máquina con un sistema nervioso, ... la respuesta a la pregunta parece ser obviamente, sí ... ¿Podría pensar una computadora digital? Si por 'computadora digital 'te refieres a cualquier cosa que tenga un nivel de descripción en el que pueda describirse correctamente como la instanciación de un programa de computadora, entonces nuevamente la respuesta es, por supuesto, sí, ya que somos las instanciaciones de cualquier número de programas de computadora, y podemos pensar ". ( Searle 1980 , pág.11)
  28. ^ Searle 1980 , p. 7
  29. ^ Searle escribe "Me gusta la sencillez de la afirmación". Searle 1980 , pág. 4
  30. ^ Dreyfus 1979 , p. 156
  31. ^ Gödel, Kurt , 1951, Algunos teoremas básicos sobre los fundamentos de las matemáticas y sus implicaciones en Solomon Feferman , ed., 1995. Obras completas / Kurt Gödel, vol. III . Prensa de la Universidad de Oxford: 304-23. - En esta conferencia, Gödel usa el teorema de incompletitud para llegar a la siguiente disyunción: (a) la mente humana no es una máquina finita consistente, o (b) existen ecuaciones diofánticaspara lo cual no puede decidir si existen soluciones. Gödel encuentra (b) inverosímil, y por lo tanto parece haber creído que la mente humana no era equivalente a una máquina finita, es decir, su poder excedía el de cualquier máquina finita. Reconoció que esto era solo una conjetura, ya que uno nunca podría refutar (b). Sin embargo, consideró que la conclusión disyuntiva era un "hecho cierto".
  32. ^ Lucas 1961 , Russell y Norvig 2003 , págs. 949–950, Hofstadter 1979 , págs. 471–473,476–477
  33. ^ Graham Oppy (20 de enero de 2015). "Teoremas de incompletitud de Gödel" . Enciclopedia de Filosofía de Stanford . Consultado el 27 de abril de 2016 . Estos argumentos antimecanicistas gödeianos son, sin embargo, problemáticos y existe un amplio consenso de que fallan.
  34. ^ Stuart J. Russell ; Peter Norvig (2010). "26.1.2: Fundamentos filosóficos / IA débil: ¿Pueden las máquinas actuar inteligentemente? / La objeción matemática". Inteligencia artificial: un enfoque moderno (3ª ed.). Upper Saddle River, Nueva Jersey: Prentice Hall . ISBN 978-0-13-604259-4. ... incluso si admitimos que las computadoras tienen limitaciones sobre lo que pueden probar, no hay evidencia de que los humanos sean inmunes a esas limitaciones.
  35. ^ Mark Colyvan. Introducción a la filosofía de las matemáticas. Cambridge University Press , 2012. De 2.2.2, 'La importancia filosófica de los resultados de incompletitud de Gödel': "La sabiduría aceptada (con la que estoy de acuerdo) es que los argumentos de Lucas-Penrose fallan".
  36. ^ LaForte, G., Hayes, PJ, Ford, KM 1998. Por qué el teorema de Gödel no puede refutar el computacionalismo. Inteligencia artificial , 104: 265-286, 1998.
  37. ^ Russell y Norvig 2003 , p. 950 Señalan que las máquinas reales con memoria finita se pueden modelar utilizando la lógica proposicional , que es formalmente decidible , y el argumento de Gödel no se aplica en absoluto a ellas.
  38. ^ Hofstadter, 1979
  39. ^ Según Hofstadter 1979 , págs. 476–477, esta declaración fue propuesta por primera vez por CH Whiteley
  40. ^ Hofstadter 1979 , págs. 476–477, Russell y Norvig 2003 , pág. 950, Turing 1950 bajo "El argumento de las matemáticas" donde escribe "aunque se establece que existen limitaciones a los poderes de cualquier máquina en particular, sólo se ha afirmado, sin ningún tipo de prueba, que tales limitaciones no se aplican a los humanos intelecto."
  41. ^ Penrose 1989
  42. ^ Litt, Abninder; Eliasmith, Chris; Kroon, Frederick W .; Weinstein, Steven; Thagard, Paul (6 de mayo de 2006). "¿Es el cerebro una computadora cuántica?" . Ciencia cognitiva . 30 (3): 593–603. doi : 10.1207 / s15516709cog0000_59 . PMID 21702826 . 
  43. ^ Dreyfus 1972 , Dreyfus 1979 , Dreyfus y Dreyfus 1986 . Véase también Russell y Norvig 2003 , págs. 950–952, Crevier 1993 , págs. 120–132 y Hearn 2007 , págs. 50–51.
  44. ^ Russell y Norvig 2003 , págs. 950–51
  45. ^ Turing 1950 en "(8) El argumento de la informalidad del comportamiento"
  46. ↑ a b Russell y Norvig , 2003 , p. 52
  47. ^ Ver Brooks 1990 y Moravec 1988
  48. ^ Crevier 1993 , p. 125
  49. ^ a b Turing 1950 en "(4) El argumento de la conciencia". Véase también Russell y Norvig , págs. 952-3 , donde identifican el argumento de Searle con el "Argument from Consciousness" de Turing.
  50. ^ Russell y Norvig 2003 , p. 947
  51. ^ "[La gente] siempre me dice que es muy difícil definir la conciencia, pero creo que si solo estás buscando el tipo de definición de sentido común que obtienes al comienzo de la investigación, y no la definición científica dura que viene al final, no es difícil dar una definición de sentido común de la conciencia ". La zona del filósofo: la cuestión de la conciencia . Ver también Dennett 1991
  52. ^ Blackmore 2005 , p. 2
  53. ^ Russell y Norvig 2003 , págs. 954–956
  54. ^ Por ejemplo, John Searle escribe: "¿Puede pensar una máquina? La respuesta es, obvia, sí. Somos precisamente esas máquinas". ( Searle 1980 , pág.11)
  55. ^ Searle 1980 . Véase también Cole 2004 , Russell & Norvig 2003 , págs. 958–960, Crevier 1993 , págs. 269–272 y Hearn 2007 , págs. 43–50.
  56. ^ Searle 1980 , p. 13
  57. ^ Searle 1984
  58. Cole 2004 , 2.1, Leibniz 1714 , 17
  59. Cole 2004 , 2.3
  60. ^ Searle 1980 en "1. La respuesta de los sistemas (Berkeley)", Crevier 1993 , p. 269, Russell y Norvig 2003 , pág. 959, Cole 2004 , 4.1. Entre los que mantienen la posición de "sistema" (según Cole) se encuentran Ned Block, Jack Copeland , Daniel Dennett , Jerry Fodor , John Haugeland , Ray Kurzweil y Georges Rey . Aquellos que han defendido la respuesta de la "mente virtual" incluyen a Marvin Minsky , Alan Perlis , David Chalmers , Ned Block y J. Cole (nuevamente, según Cole 2004 )
  61. ^ Cole 2004 , 4.2 atribuye esta posición a Ned Block , Daniel Dennett, Tim Maudlin , David Chalmers , Steven Pinker , Patricia Churchland y otros.
  62. ^ Searle 1980 en "2. La respuesta del robot (Yale)". Cole 2004 , 4.3 atribuye este puesto a Margaret Boden , Tim Crane , Daniel Dennett, Jerry Fodor, Stevan Harnad , Hans Moravec y Georges Rey
  63. ^ Citado en Crevier 1993 , p. 272
  64. ^ Searle 1980 en "3. La respuesta del simulador de cerebro (Berkeley y MIT)" Cole 2004 atribuye esta posición a Paul y Patricia Churchland y Ray Kurzweil
  65. ^ Searle 1980 en "5. La respuesta de otras mentes", Cole 2004 , 4.4. Turing 1950 da esta respuesta bajo "(4) El argumento de la conciencia". Cole atribuye esta posición a Daniel Dennett y Hans Moravec.
  66. ^ Dreyfus 1979 , p. 156, Haugeland 1985 , págs. 15–44
  67. ^ Horst 2005
  68. ↑ a b Harnad, 2001
  69. ↑ a b Citado en Crevier 1993 , p. 266
  70. ^ Crevier 1993 , p. 266
  71. ^ a b c Turing 1950 en "(5) Argumentos de diversas discapacidades"
  72. ^ Turing 1950 en "(6) Objeción de Lady Lovelace"
  73. ^ Turing 1950 en "(5) Argumento de diversas discapacidades"
  74. ^ "Kaplan Andreas; Michael Haenlein". Horizontes de negocios . 62 (1): 15-25. Enero de 2019. doi : 10.1016 / j.bushor.2018.08.004 .
  75. Katz, Leslie (2 de abril de 2009). "El científico robot hace el descubrimiento de genes por sí mismo | Crave - CNET" . News.cnet.com . Consultado el 29 de julio de 2010 .
  76. ^ a b Los científicos se preocupan por que las máquinas puedan burlar al hombre por JOHN MARKOFF, NY Times, 26 de julio de 2009.
  77. ^ La singularidad tecnológica venidera: cómo sobrevivir en la era post-humana , por Vernor Vinge, Departamento de Ciencias Matemáticas, Universidad Estatal de San Diego, (c) 1993 por Vernor Vinge.
  78. ^ Convocatoria de debate sobre robots asesinos , por Jason Palmer, reportero de ciencia y tecnología, BBC News, 3/8/09.
  79. ^ Informe financiado por Science New Navy advierte de robots de guerra que van a "Terminator" Archivado el 28 de julio de 2009en la Wayback Machine , por Jason Mick (Blog), dailytech.com, 17 de febrero de 2009.
  80. ^ Informe de la Marina advierte sobre el levantamiento de robots, sugiere una fuerte brújula moral , por Joseph L. Flatley engadget.com, 18 de febrero de 2009.
  81. ^ Panel presidencial de AAAI sobre el estudio de futuros de IA a largo plazo 2008-2009 , Asociación para el avance de la inteligencia artificial, consultado el 26 de julio de 2009.
  82. ^ Artículo en Asimovlaws.com , julio de 2004, consultado el 27 de julio de 2009. Archivado el 30 de junio de 2009 en Wayback Machine.
  83. ^ '¿Pueden pensar las computadoras digitales?'. Charla transmitida en el tercer programa de la BBC, 15 de mayo de 1951. http://www.turingarchive.org/viewer/?id=459&title=8
  84. Turing 1950 bajo "(1) La objeción teológica", aunque también escribe: "No estoy muy impresionado con los argumentos teológicos, sea lo que sea que se usen para apoyar".
  85. Deutsch, David (3 de octubre de 2012). "La filosofía será la llave que desbloquee la inteligencia artificial | David Deutsch" . el guardián . Consultado el 18 de septiembre de 2018 .

Referencias [ editar ]

  • Adam, Alison (sin fecha). Conocimiento artificial: género y máquina de pensar. Prensa de Routledge y CRC . https://www.routledge.com/Artificial-Knowing-Gender-and-the-Thinking-Machine/Adam/p/book/9780415129633. Consultado el 4 de noviembre de 2020.
  • Benjamín, Ruha (2019). Race After Technology: herramientas abolicionistas para el nuevo código Jim . Wiley. ISBN 978-1-509-52643-7
  • Blackmore, Susan (2005), Conciencia: una introducción muy breve , Oxford University Press
  • Bostrom, Nick (2014), Superinteligencia: caminos, peligros, estrategias , Oxford University Press, ISBN 978-0-19-967811-2 
  • Brooks, Rodney (1990), "Los elefantes no juegan al ajedrez" (PDF) , Robótica y sistemas autónomos , 6 (1–2): 3–15, CiteSeerX  10.1.1.588.7539 , doi : 10.1016 / S0921-8890 ( 05) 80025-9 , consultado el 30 de agosto de 2007
  • Chalmers, David J (1996), La mente consciente: en busca de una teoría fundamental , Oxford University Press, Nueva York, ISBN 978-0-19-511789-9
  • Cole, David (otoño de 2004), "The Chinese Room Argument", en Zalta, Edward N. (ed.), The Stanford Encyclopedia of Philosophy.
  • Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence , Nueva York, NY: BasicBooks, ISBN 0-465-02997-3 
  • Dennett, Daniel (1991), Explicación de la conciencia , The Penguin Press, ISBN 978-0-7139-9037-9
  • Dreyfus, Hubert (1972), What Computers Can't Do , Nueva York: MIT Press, ISBN 978-0-06-011082-6
  • Dreyfus, Hubert (1979), What Computers Still Can't Do , Nueva York: MIT Press.
  • Dreyfus, Hubert ; Dreyfus, Stuart (1986), Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer , Oxford, Reino Unido: Blackwell
  • Fearn, Nicholas (2007), Las últimas respuestas a las preguntas más antiguas: Una aventura filosófica con los mejores pensadores del mundo , Nueva York: Grove Press
  • Gladwell, Malcolm (2005), Blink: El poder de pensar sin pensar , Boston: Little, Brown, ISBN 978-0-316-17232-5.
  • Harnad, Stevan (2001), "¿Qué está mal y qué tiene de correcto el argumento de la habitación china de Searle?", En Bishop, M .; Preston, J. (eds.), Ensayos sobre el argumento de la sala china de Searle , Oxford University Press
  • Haraway, Donna (2020, 9 de diciembre). Un Manifiesto Cyborg. En Wikipedia . https://en.wikipedia.org/w/index.php?title=A_Cyborg_Manifesto&oldid=993273232. Consultado el 22 de enero de 2021.
  • Haugeland, John (1985), Inteligencia artificial: la idea misma , Cambridge, Mass .: MIT Press.
  • Hobbes (1651), Leviatán.
  • Hofstadter, Douglas (1979), Gödel, Escher, Bach: una trenza dorada eterna.
  • Horst, Steven (2009), "The Computational Theory of Mind", en Zalta, Edward N. (ed.), The Stanford Encyclopedia of Philosophy , Metaphysics Research Lab, Stanford University.
  • Kaplan, Andreas ; Haenlein, Michael (2018), "Siri, Siri en mi mano, ¿quién es el más justo en la tierra? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial", Business Horizons , 62 : 15-25, doi : 10.1016 / j.bushor .2018.08.004
  • Kurzweil, Ray (2005), The Singularity is Near , Nueva York: Viking Press, ISBN 978-0-670-03384-3.
  • Lucas, John (1961), "Minds, Machines and Gödel", en Anderson, AR (ed.), Minds and Machines.
  • Malabou, Catherine (2019). Morphing Intelligence: de la medición del coeficiente intelectual a los cerebros artificiales . (C. Shread, traducción). Prensa de la Universidad de Columbia.
  • McCarthy, John ; Minsky, Marvin ; Rochester, Nathan ; Shannon, Claude (1955), A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence , archivado desde el original el 30 de septiembre de 2008.
  • McDermott, Drew (14 de mayo de 1997), "How Intelligent is Deep Blue" , New York Times , archivado del original el 4 de octubre de 2007 , consultado el 10 de octubre de 2007
  • Moravec, Hans (1988), Mind Children , Harvard University Press
  • Newell, Allen ; Simon, HA (1963), "GPS: un programa que simula el pensamiento humano", en Feigenbaum, EA; Feldman, J. (eds.), Computers and Thought , Nueva York: McGraw-Hill
  • Newell, Allen ; Simon, HA (1976), "La informática como investigación empírica: símbolos y búsqueda", Comunicaciones del ACM , 19 , archivado desde el original el 7 de octubre de 2008
  • Russell, Stuart J .; Norvig, Peter (2003), Inteligencia artificial: un enfoque moderno (2a ed.), Upper Saddle River, Nueva Jersey: Prentice Hall, ISBN 0-13-790395-2
  • Penrose, Roger (1989), The Emperor's New Mind: Concerning Computers, Minds, and The Laws of Physics , Oxford University Press, ISBN 978-0-14-014534-2
  • Searle, John (1980), "Minds, Brains and Programs" (PDF) , Behavioral and Brain Sciences , 3 (3): 417–457, doi : 10.1017 / S0140525X00005756 , archivado desde el original (PDF) en 2015-09- 23
  • Searle, John (1992), El redescubrimiento de la mente , Cambridge, Massachusetts: MIT Press
  • Searle, John (1999), Mente, lenguaje y sociedad , Nueva York, NY: Basic Books, ISBN 978-0-465-04521-1, OCLC  231867665
  • Turing, Alan (octubre de 1950), "Computing Machinery and Intelligence", Mind , LIX (236): 433–460, doi : 10.1093 / mind / LIX.236.433 , ISSN  0026-4423
  • Yee, Richard (1993), "Máquinas de Turing y procesamiento de símbolos semánticos: por qué a las computadoras reales no les importan los emperadores chinos" (PDF) , Lyceum , 5 (1): 37–59
Los números de página anteriores y el contenido del diagrama se refieren a la impresión del artículo en PDF de Lyceum .