En la ciencia cognitiva y la semántica , el problema de la base de los símbolos se refiere a cómo las palabras (los símbolos en general) obtienen sus significados , [1] y, por lo tanto, está estrechamente relacionado con el problema de lo que realmente es el significado. El problema del significado está a su vez relacionado con el problema de cómo los estados mentales son significativos, de ahí el problema de la conciencia : cuál es la conexión entre ciertos sistemas físicos y los contenidos de las experiencias subjetivas.
Fondo
Referentes
Gottlob Frege distinguió un referente (aquello a lo que se refiere una palabra) y el significado de la palabra. Esto se ilustra más claramente utilizando los nombres propios de individuos concretos, pero también es cierto para los nombres de tipos de cosas y de propiedades abstractas: (1) "Tony Blair", (2) "el primer ministro del Reino Unido durante el año 2004 ", y (3)" El marido de Cherie Blair "tienen todos el mismo referente, pero no el mismo significado. [2]
Algunos han sugerido que el significado de una palabra (de referencia) es la regla o las características que uno debe usar para elegir con éxito su referente. En ese sentido, (2) y (3) se acercan más a usar sus significados en sus mangas, porque están estableciendo explícitamente una regla para elegir sus referentes: "Encuentre a quien haya sido primer ministro del Reino Unido durante el año 2004", o "encuentra quien sea el actual marido de Cherie". Pero eso no resuelve el asunto, porque todavía existe el problema del significado de los componentes de esa regla ("primer ministro", "Reino Unido", "durante", "actual", "Cherie", "esposo") y cómo elegir ellos hacia fuera.
La frase "Tony Blair" (o mejor aún, simplemente "Tony") no tiene este problema de componente recursivo, porque apunta directamente a su referente, pero ¿cómo? Si el significado es la regla para elegir el referente, ¿cuál es esa regla, cuando nos referimos a componentes no descomponibles como nombres propios de individuos (o nombres de clases , como en "un hombre soltero" es un "soltero")? ?
Proceso referencial
Los seres humanos son capaces de elegir los referentes previstos de las palabras [ cita requerida ] , como "Tony Blair" o "soltero", pero este proceso no tiene por qué ser explícito. Probablemente sea una expectativa irrazonable conocer la regla explícita para elegir los referentes previstos [ ¿por qué? ] .
Entonces, si consideramos que el significado de una palabra es el medio para elegir su referente, entonces los significados están en nuestro cerebro. Lo que significa que está en el estrecho sentido. Si usamos "significado" en un sentido más amplio, entonces podemos querer decir que los significados incluyen tanto a los referentes mismos como a los medios para elegirlos. Entonces, si una palabra (por ejemplo, "Tony-Blair") se encuentra dentro de una entidad (por ejemplo, uno mismo) que puede usar la palabra y elegir su referente, entonces el significado amplio de la palabra consiste en los medios que esa entidad usa para elegir su referente, y el referente mismo: un amplio nexo causal entre (1) una cabeza, (2) una palabra dentro de ella, (3) un objeto fuera de ella, y (4) cualquier "procesamiento" que se requiera para tener éxito conecta la palabra interior con el objeto exterior.
Pero, ¿y si la "entidad" en la que se ubica una palabra no es una cabeza sino un trozo de papel (o una pantalla de computadora)? Entonces, ¿cuál es su significado? Seguramente todas las palabras (referentes) en esta pantalla, por ejemplo, tienen significados, al igual que tienen referentes.
En el siglo XIX, el semiótico Charles Sanders Peirce sugirió lo que algunos piensan que es un modelo similar: de acuerdo con su modelo de signo triádico, el significado requiere (1) un intérprete, (2) un signo o representante, (3) un objeto, y es (4) el producto virtual de una regresión y un progreso sin fin llamado semiosis . [3] Algunos han interpretado que Peirce aborda el problema de la base, los sentimientos y la intencionalidad para la comprensión de los procesos semióticos. [4] En los últimos años, la teoría de los signos de Peirce ha sido redescubierta por un número creciente de investigadores de inteligencia artificial en el contexto del problema de la conexión a tierra de los símbolos. [5]
Proceso de puesta a tierra
No habría ninguna conexión entre los símbolos escritos y cualquier referente intencionado si no hubiera mentes que medien esas intenciones, a través de sus propios medios internos para seleccionar esos referentes intencionados. Por tanto, el significado de una palabra en una página es "infundado". Tampoco ayudaría buscarlo en un diccionario: si uno tratara de buscar el significado de una palabra que no entendía en un diccionario de un idioma que aún no entendía, uno simplemente pasaría interminablemente de una definición sin sentido a otra. La búsqueda de sentido de uno no tendría fundamento. Por el contrario, el significado de las palabras en la cabeza, aquellas palabras de uno hace comprender, están "a tierra" [ cita requerida ] . Esa base mental de los significados de las palabras media entre las palabras de cualquier página externa que uno lee (y comprende) y los objetos externos a los que se refieren esas palabras. [6] [7]
Requisitos para la puesta a tierra del símbolo
Otro sistema de símbolos es el lenguaje natural (Fodor 1975). En papel o en una computadora, el lenguaje también es solo un sistema de símbolo formal, manipulable por reglas basadas en las formas arbitrarias de las palabras. Pero en el cerebro, las cadenas de garabatos sin sentido se convierten en pensamientos significativos. Harnad ha sugerido dos propiedades que podrían ser necesarias para marcar esta diferencia: [ cita requerida ]
- Capacidad para elegir referentes
- Conciencia
Capacidad para elegir referentes
Una propiedad que el cerebro posee del papel estático o, por lo general, incluso de una computadora dinámica es la capacidad de seleccionar los referentes de los símbolos. Esto es lo que estábamos discutiendo anteriormente, y es a lo que se refiere el término hasta ahora indefinido "puesta a tierra". Un sistema de símbolos por sí solo, ya sea estático o dinámico, no puede tener esta capacidad (al igual que un libro), porque seleccionar referentes no es solo una propiedad computacional (independiente de la implementación); es una propiedad dinámica (dependiente de la implementación).
Para estar fundamentado, el sistema de símbolos tendría que ser aumentado con capacidades sensoriomotoras no simbólicas, la capacidad de interactuar de manera autónoma con ese mundo de objetos, eventos, acciones, propiedades y estados a los que sus símbolos son sistemáticamente interpretables (por nosotros) como referentes. Tendría que ser capaz de seleccionar los referentes de sus símbolos, y sus interacciones sensoriomotoras con el mundo tendrían que encajar coherentemente con las interpretaciones de los símbolos.
En otras palabras, los símbolos deben estar conectados directamente (es decir, basados en) sus referentes; la conexión no debe depender únicamente de las conexiones hechas por los cerebros de intérpretes externos como nosotros. Solo el sistema de símbolos por sí solo, sin esta capacidad de conexión a tierra directa, no es un candidato viable para ser lo que sea que realmente esté sucediendo en nuestro cerebro cuando pensamos pensamientos significativos (Cangelosi y Harnad 2001).
El significado como la capacidad de reconocer instancias (de objetos) o realizar acciones se trata específicamente en el paradigma llamado "Semántica procedimental", que se describe en varios artículos, incluida la "Semántica procedimental" de Philip N. Johnson-Laird [8] y ampliado por William A. Woods en "Significado y vínculos". [9] Un breve resumen en el artículo de Woods dice: "La idea de la semántica procedimental es que la semántica de las oraciones del lenguaje natural se puede caracterizar en un formalismo cuyos significados se definen mediante procedimientos abstractos que una computadora (o una persona) puede ejecutar En esta teoría, el significado de un sustantivo es un procedimiento para reconocer o generar instancias, el significado de una proposición es un procedimiento para determinar si es verdadera o falsa, y el significado de una acción es la capacidad de realizar la acción o para saber si se ha hecho ".
Conciencia
La necesidad de conexión a tierra, en otras palabras, nos lleva del nivel de la prueba de Turing del amigo por correspondencia , que es puramente simbólica (computacional), a la prueba robótica de Turing, que es un híbrido simbólico / sensoriomotor (Harnad 2000, 2007). El significado se basa en la capacidad robótica para detectar, categorizar, identificar y actuar sobre las cosas a las que se refieren las palabras y las oraciones (consulte las entradas para Affordance y para Percepción categórica ). Por otro lado, si los símbolos (palabras y oraciones) se refieren a los mismos bits de '0' y '1', conectados directamente a sus implementaciones electrónicas, que un (¿cualquiera?) Sistema informático puede manipular fácilmente (por lo tanto, detectar, categorizar , identificar y actuar sobre ellos), entonces incluso los sistemas informáticos no robóticos podrían decirse que son "sensoriomotores" y, por lo tanto, capaces de "conectar a tierra" los símbolos en este dominio estrecho.
Categorizar es hacer lo correcto con el tipo de cosas correcto. El categorizador debe ser capaz de detectar las características sensoriomotoras de los miembros de la categoría que los distingan de forma fiable de los no miembros. Estos detectores de características deben ser innatos o aprendidos. El aprendizaje puede basarse en la inducción de prueba y error, guiado por la retroalimentación de las consecuencias de una categorización correcta e incorrecta; o, en nuestra propia especie lingüística, el aprendizaje también puede basarse en descripciones o definiciones verbales. Sin embargo, la descripción o definición de una nueva categoría solo puede transmitir la categoría y fundamentar su nombre si las palabras de la definición ya son nombres de categoría fundamentados (Blondin-Massé et al. 2008). Entonces, en última instancia, la conexión a tierra tiene que ser sensoriomotora, para evitar una regresión infinita (Harnad 2005).
Pero si la conexión a tierra es una condición necesaria para el significado, ¿es suficiente? No necesariamente, porque es posible que incluso un robot que pudiera pasar la prueba de Turing, "viviendo" entre el resto de nosotros indistinguiblemente durante toda una vida, no pudiera tener en su cabeza lo que Searle tiene en la suya: podría ser un p- zombi , sin nadie en casa, sintiendo sentimientos, significando significados (Harnad 1995). Sin embargo, es posible que diferentes intérpretes (incluidas diferentes especies de animales inteligentes) tengan diferentes mecanismos para producir significado en sus sistemas, por lo que no se puede requerir que un sistema diferente de un humano "experimente" el significado de la misma manera que un humano. , y viceversa.
Por tanto, Harnad apunta a la conciencia como una segunda propiedad. El problema de descubrir el mecanismo causal para seleccionar con éxito el referente de un nombre de categoría puede, en principio, ser resuelto por la ciencia cognitiva. Pero el problema de explicar cómo la conciencia podría desempeñar un papel "independiente" al hacerlo es probablemente insoluble, excepto so pena del dualismo telequinético . Quizás la conexión a tierra del símbolo (es decir, la capacidad TT robótica) sea suficiente para asegurar que el significado consciente esté presente, pero, de nuevo, quizás no. En cualquier caso, no hay forma de que podamos esperar ser más sabios, y ese es el punto metodológico de Turing (Harnad 2001b, 2003, 2006).
Formulación
Para responder a esta pregunta tenemos que formular el problema de la conexión a tierra del símbolo en sí mismo (Harnad 1990) :
Funcionalismo
Existe una escuela de pensamiento según la cual la computadora se parece más al cerebro, o más bien, el cerebro se parece más a la computadora. Según este punto de vista (llamado " computacionalismo ", una variedad de funcionalismo ), la teoría futura que explica cómo el cerebro selecciona sus referentes (la teoría a la que eventualmente puede llegar la neurociencia cognitiva) será puramente computacional (Pylyshyn 1984). Una teoría computacional es una teoría a nivel de software. Es esencialmente un algoritmo informático: un conjunto de reglas para manipular símbolos. Y el algoritmo es "independiente de la implementación". Eso significa que sea lo que sea que esté haciendo un algoritmo, hará lo mismo sin importar en qué hardware se ejecute. Los detalles físicos del sistema dinámico que implementa el cálculo son irrelevantes para el cálculo en sí, que es puramente formal; cualquier hardware que pueda ejecutar el cálculo servirá, y todas las implementaciones físicas de ese algoritmo informático en particular son equivalentes, computacionalmente.
Una computadora puede ejecutar cualquier cálculo. Por lo tanto, una vez que el computacionalismo encuentre un algoritmo informático adecuado, uno que nuestro cerebro podría estar ejecutando cuando hay un significado que transpira en nuestras cabezas, el significado también se transpirará en esa computadora, cuando implemente ese algoritmo.
¿Cómo sabríamos que tenemos un algoritmo informático adecuado? Tendría que poder pasar la prueba de Turing . Eso significa que tendría que ser capaz de mantener correspondencia con cualquier ser humano como amigo por correspondencia, durante toda la vida, sin ser jamás distinguible de ningún modo de un verdadero amigo por correspondencia humano.
El argumento de la habitación china de Searle
John Searle formuló el " argumento de la habitación china " para refutar el computacionalismo [ cita requerida ] . El argumento de la habitación china se basa en un experimento mental: en él, Searle afirmó que si la prueba de Turing se realizara en chino, entonces él mismo, Searle (que no entiende chino), podría ejecutar un programa que implemente el mismo algoritmo que el computadora estaba usando sin saber qué significaba cualquiera de las palabras que estaba manipulando.
A primera vista, parecería que si no hay ningún significado dentro de la cabeza de Searle cuando está implementando ese programa, entonces tampoco hay ningún sentido dentro de la computadora cuando es la que está implementando el algoritmo, ya que el cálculo es independiente de la implementación. Pero en una mirada más cercana, para que una persona ejecute el mismo programa que una computadora, al menos tendría que tener acceso a un banco de memoria similar que la computadora tiene (probablemente almacenado externamente). Esto significa que el nuevo sistema computacional que ejecuta el mismo algoritmo ya no es solo el cabezal original de Searle, sino más el banco de memoria (y posiblemente otros dispositivos). En particular, esta memoria adicional podría almacenar una representación digital del referente pretendido de diferentes palabras (como imágenes, sonidos, incluso secuencias de video), que el algoritmo usaría como modelo y para derivar características asociadas con el referente pretendido. Entonces, el "significado" no debe buscarse solo en el cerebro original de Searle, sino en el sistema general necesario para procesar el algoritmo. Al igual que cuando Searle lee palabras en inglés, el significado no debe ubicarse en áreas aisladas de procesamiento lógico del cerebro, sino probablemente en el cerebro en general, probablemente incluyendo áreas específicas de memoria a largo plazo. Por lo tanto, el hecho de que Searle no perciba ningún significado en su cabeza solo cuando simula el trabajo de una computadora, no implica una falta de significado en el sistema general y, por lo tanto, en el sistema informático real que pasa una prueba de Turing avanzada.
Trascendencia
¿Cómo sabe Searle que no hay ningún significado en su cabeza cuando está ejecutando un programa de prueba de Turing de ese tipo? Exactamente de la misma manera que sabe si hay o no significado dentro de su cabeza bajo cualquier otra condición: entiende las palabras en inglés, mientras que los símbolos chinos que está manipulando de acuerdo con las reglas del algoritmo no significan nada en absoluto para él (y no hay nadie más en su cabeza a quien puedan significar algo). Sin embargo, el sistema completo que está manipulando esos símbolos chinos, que no es solo el cerebro de Searle, como se explicó en la sección anterior, puede tener la capacidad de extraer significado de esos símbolos, en el sentido de poder usar modelos internos (de memoria). de los referentes previstos, seleccionar los referentes previstos de esos símbolos y, en general, identificar y utilizar sus características de forma adecuada.
Tenga en cuenta que al señalar que las palabras chinas no tendrían sentido para él en esas condiciones, Searle ha apelado a la conciencia. De lo contrario, se podría argumentar que habría significado en la cabeza de Searle en esas condiciones, pero que el propio Searle simplemente no sería consciente de ello. Eso se llama la "Respuesta de Sistemas" al Argumento de la Habitación China de Searle, y Searle rechaza la Respuesta de Sistemas como una mera reiteración, frente a la evidencia negativa, de la misma tesis (computacionalismo) que está a prueba en su experimento mental: "¿Son las palabras en un cálculo continuo como las palabras sin fundamento en una página, sin sentido sin la mediación del cerebro, o son como las palabras fundamentadas en el cerebro?"
En esta pregunta, la palabra (aún no definida) "sin fundamento" se ha basado implícitamente en la diferencia entre palabras inertes en una página y palabras conscientemente significativas en nuestras cabezas. Y Searle está afirmando que bajo estas condiciones (la prueba de Turing chino), las palabras en su cabeza no tendrían significado consciente, por lo tanto, seguirían siendo tan infundadas como las palabras inertes en una página.
Entonces, si Searle tiene razón, que (1) tanto las palabras en una página como las que están en cualquier programa de computadora en ejecución (incluido un programa de computadora que pasa la prueba de Turing) no tienen sentido en sí mismas y, por lo tanto, (2) lo que sea que sea que el cerebro está haciendo para generar significado no puede ser simplemente una computación independiente de la implementación, entonces, ¿qué está haciendo el cerebro para generar significado (Harnad 2001a) ?
La noción de intencionalidad de Brentano
La " intencionalidad " ha sido llamada la "marca de lo mental" debido a algunas observaciones del filósofo Brentano en el sentido de que los estados mentales siempre tienen un objeto o contenido inherente, pretendido (mental) hacia el cual están "dirigidos": Uno ve algo , quiere algo, cree algo, desea algo, entiende algo, quiere decir algo, etc., y ese objeto es siempre algo que uno tiene en mente . Tener un objeto mental es parte de tener algo en mente. De ahí que sea la marca de lo mental. No hay estados mentales "flotantes" que no tengan también un objeto mental. Incluso las alucinaciones y las imaginaciones tienen un objeto, e incluso sentirse deprimido se siente como algo. El objeto tampoco es el objeto físico "externo", cuando lo hay. Uno puede ver una silla real, pero el objeto "intencional" del "estado intencional" de uno es la silla mental que uno tiene en mente. (Otro término para la intencionalidad ha sido "acerca de" o "representacionalidad": los pensamientos son siempre sobre algo; son "representaciones" (mentales) de algo; pero ese algo es lo que el pensador tiene en mente, no cualquier cosa externa. el objeto puede corresponder o no).
Si todo esto suena como patinar sobre la superficie de un problema en lugar de un avance real, entonces la descripción anterior ha tenido el efecto pretendido: ni el problema de la intencionalidad es el problema de la base del símbolo; ni los símbolos de conexión a tierra son la solución al problema de la intencionalidad. Los símbolos dentro de un sistema de símbolos dinámicos autónomos que puede pasar la prueba robótica de Turing se basan en que, a diferencia del caso de un sistema de símbolos sin conexión a tierra, no dependen de la mediación de la mente de un intérprete externo para conectarlos. a los objetos externos que son interpretables (por el intérprete) como "sobre"; la conexión es autónoma, directa y sin mediación. Pero la conexión a tierra no tiene sentido . La conexión a tierra es una función de rendimiento de entrada / salida. La conexión a tierra conecta las entradas sensoriales de los objetos externos a los símbolos y estados internos que ocurren dentro de un sistema sensoriomotor autónomo, guiando el procesamiento y la salida resultantes del sistema.
El significado, en cambio, es algo mental. Pero para intentar detener el juego de nombres de la proliferación de sinónimos no explicativos para el problema mente / cuerpo sin resolverlo (o, peor aún, implicando que hay más de un problema mente / cuerpo), citemos solo una cosa más. que no requiere más explicación: sentimiento . Lo único que distingue un estado interno que simplemente tiene fundamento de uno que tiene significado es que se siente como algo estar en el estado de significado, mientras que no se siente como nada estar en el estado funcional meramente fundamentado. La conexión a tierra es un asunto funcional; el sentimiento es una materia sentida. Y esa es la verdadera fuente de la irritada relación de escondite de Brentano entre la "intencionalidad" y su "objeto intencional" interno. Todos los estados mentales, además de ser estados funcionales de un sistema dinámico autónomo, también son estados de sentimiento. Los sentimientos no se "funcionan" meramente, como todos los demás estados físicos; los sentimientos también se sienten.
Por tanto, el sentimiento ( sensibilidad ) es la marca real de lo mental. Pero el problema de la conexión a tierra de los símbolos no es lo mismo que el problema de la mente y el cuerpo, y mucho menos una solución. El problema mente / cuerpo es en realidad el problema del sentimiento / función, y la conexión a tierra de los símbolos toca solo su componente funcional. Esto no quita mérito a la importancia del problema de la conexión a tierra del símbolo, sino que simplemente refleja que es una pieza clave para el rompecabezas más grande llamado la mente.
El neurocientífico Antonio Damasio investiga esta función marcadora de los sentimientos y emociones en su hipótesis del marcador somático . Damasio agrega la noción de homeostasis biológica a esta discusión, presentándola como un proceso automatizado de regulación corporal que proporciona intencionalidad a una mente a través de las emociones. La homeostasis es el mecanismo que mantiene todos los procesos corporales en equilibrio saludable. Todas nuestras acciones y percepciones serán "evaluadas" automáticamente por nuestro hardware corporal de acuerdo con su contribución a la homeostasis. Esto nos da una orientación implícita sobre cómo sobrevivir. Tales evaluaciones corporales o somáticas pueden venir a nuestra mente en forma de sentimientos conscientes y no conscientes ("sentimientos viscerales") y guiar nuestro proceso de toma de decisiones. El significado de una palabra puede conceptualizarse a grandes rasgos como la suma de sus asociaciones y su contribución esperada a la homeostasis, donde las asociaciones son reconstrucciones de percepciones sensoriomotoras que aparecieron en contigüidad con la palabra. Sin embargo, la hipótesis del marcador somático todavía se debate acaloradamente y los críticos afirman que no ha logrado demostrar claramente cómo estos procesos interactúan a nivel psicológico y evolutivo. La pregunta recurrente que la hipótesis del marcador somático no aborda sigue siendo: ¿cómo y por qué la homeostasis (como en cualquier servomecanismo como un termostato y un horno) se convierte en homeostasis sentida ?
Ver también
|
|
|
Notas
- ^ Vogt, Paul. " Evolución del lenguaje y robótica: cuestiones sobre la base de símbolos y la adquisición del lenguaje ". Sistemas de cognición artificial. IGI Global, 2007. 176–209.
- ↑ Aunque este artículo se basa en algunos lugares en la visión de la semántica de Frege, es muy antifregeano en su postura. Frege fue un crítico feroz de los relatos psicológicos que intentan explicar el significado en términos de estados mentales.
- ^ Peirce, Charles S. La filosofía de Peirce: escritos seleccionados. Nueva York: AMS Press, 1978.
- ^ Semeiosis e intencionalidad TL Transacciones cortas de la Sociedad Charles S. Peirce Vol. 17, núm. 3 (verano de 1981), págs. 197–223
- ^ CS Peirce y la inteligencia artificial: herencia histórica y (nuevas) apuestas teóricas; Pierre Steiner; SAPERE - Número especial sobre filosofía y teoría de la IA 5: 265–276 (2013)
- ↑ Esta es la teoría de referencia contextual y causal que Ogden & Richards incluyeron en El significado del significado (1923).
- ^ Cf. El externalismo semántico como se afirma en "El significado del 'significado'" de Mente, lenguaje y realidad (1975) de Putnam, quien sostiene: "Los significados simplemente no están en la cabeza". Ahora, él y Dummett parecen favorecer el antirrealismo en favor del intuicionismo , el psicologismo , el constructivismo y el contextualismo .
- ↑ Philip N. Johnson-Laird "Procedural Semantics" (Cognition, 5 (1977) 189; ver http://www.nyu.edu/gsas/dept/philo/courses/mindsandmachines/Papers/procedural.pdf )
- ^ William A. Woods. "Significado y vínculos" (Revista AI Volumen 28 Número 4 (2007); ver http://www.aaai.org/ojs/index.php/aimagazine/article/view/2069/2056 )
Referencias
- Nota: Este artículo se basa en una entrada publicada originalmente en Nature / Macmillan Encyclopedia of Cognitive Science que desde entonces ha sido revisada por el autor y la comunidad de Wikipedia.
- Blondin Masse, A, G. Chicoisne, Y. Gargouri, S. Harnad, O. Picard, O. Marcotte (2008) ¿Cómo se fundamenta el significado en las definiciones de los diccionarios? Taller TextGraphs-3, 22ª Conferencia Internacional sobre Lingüística Computacional, Coling 2008 , Manchester, 18-22 de agosto de 2008
- Cangelosi, A. & Harnad, S. (2001) La ventaja adaptativa del robo simbólico sobre el trabajo sensoriomotor: Lenguaje de base en categorías perceptuales. Evolución de la comunicación 4 (1) 117-142.
- Cangelosi, A .; Greco, A .; Harnad, S. Del trabajo robótico al robo simbólico: transferencia de puesta a tierra de categorías de nivel de entrada a categorías de nivel superior. Connection Science 12 (2) 143–62.
- Fodor, JA (1975) El lenguaje del pensamiento . Nueva York: Thomas Y. Crowell
- Frege, G. (1952/1892). Sobre el sentido y la referencia. En P. Geach y M. Black, Eds., Traducciones de los escritos filosóficos de Gottlob Frege . Oxford: Blackwell
- Harnad, S. (1990) El problema de la conexión a tierra del símbolo. Physica D 42: 335–346.
- Harnad, S. (1992) Solo hay un problema cuerpo / mente . Simposio sobre la percepción de la intencionalidad, XXV Congreso Mundial de Psicología, Bruselas, Bélgica, julio de 1992 Revista Internacional de Psicología 27: 521
- Harnad, S. (1994) La computación es simplemente interpretable Manipulación de símbolos: la cognición no lo es. Minds and Machines 4: 379–390 (Número especial sobre "¿Qué es la computación")
- Harnad, S. (1995) Por qué y cómo no somos zombis. Revista de estudios de la conciencia 1: 164-167.
- Harnad, S. (2000) Mentes, máquinas y Turing: la indistinguibilidad de los indistinguibles . Revista de lógica, lenguaje e información 9 (4): 425–445. (Número especial sobre "Alan Turing y la inteligencia artificial")
- Harnad, S. (2001a) Minds, Machines y Searle II: ¿Qué está mal y qué tiene de correcto el argumento de la habitación china de Searle? En: M. Bishop & J. Preston (eds.) Ensayos sobre el argumento de la habitación china de Searle . Prensa de la Universidad de Oxford.
- Harnad, S. (2001b) No hay salida fácil. Las Ciencias 41 (2) 36–42.
- Harnad, Stevan (2001a) Explicación de la mente: problemas, problemas . Las Ciencias 41: 36–42.
- Harnad, Stevan (2001b) El problema de mente / cuerpo es el problema de sensación / función: Harnad sobre Dennett sobre Chalmers . Reporte técnico. Departamento de Electrónica e Informática. Universidad de Southampton.
- Harnad, S. (2003) ¿Puede una máquina ser consciente? ¿Cómo?. Revista de estudios de la conciencia 10 (4-5): 69-75.
- Harnad, S. (2005) Cognizar es categorizar: Cognición es categorización. en Lefebvre, C. y Cohen, H., Eds. Manual de categorización . Elsevier.
- Harnad, S. (2007) The Annotation Game: On Turing (1950) sobre Computación, Maquinaria e Inteligencia. En: Epstein, Robert & Peters, Grace (Eds.) The Turing Test Sourcebook: Philosophical and Methodological Issues in the Quest for the Thinking Computer . Kluwer
- Harnad, S. (2006) Cohabitación: Computación en 70 Cognición en 20. En Dedrick, D., Eds. Ensayos en honor a Zenon Pylyshyn .
- MacDorman, Karl F. (1999). Símbolos de puesta a tierra mediante integración sensoriomotora. Revista de la Sociedad de Robótica de Japón, 17 (1), 20-24. Versión en línea
- MacDorman, Karl F. (2007). La vida después de la metáfora del sistema de símbolos. Estudios de interacción, 8 (1), 143-158. Versión en línea
- Pylyshyn, ZW (1984) Computación y cognición . Cambridge MA: MIT / Bradford
- Searle, John. R. (1980) Mentes, cerebros y programas. Ciencias del comportamiento y el cerebro 3 (3): 417–457
- Taddeo, Mariarosaria y Floridi, Luciano (2005). El problema de la conexión a tierra del símbolo: una revisión crítica de quince años de investigación. Revista de inteligencia artificial experimental y teórica , 17 (4), 419–445. Versión en línea
- Turing, AM (1950) Maquinaria e inteligencia de cómputo. Mind 49 433–460 [Reimpreso en Minds and machines . A. Anderson (ed.), Engelwood Cliffs NJ: Prentice Hall, 1964.]