La prueba de Turing , originalmente llamada juego de imitación por Alan Turing en 1950, [2] es una prueba de la capacidad de una máquina para exhibir un comportamiento inteligente equivalente o indistinguible del de un humano. Turing propuso que un evaluador humano juzgaría las conversaciones en lenguaje natural entre un humano y una máquina diseñada para generar respuestas similares a las de los humanos. El evaluador sería consciente de que uno de los dos interlocutores en la conversación es una máquina y todos los participantes estarían separados entre sí. La conversación se limitaría a un canal de solo texto, como un teclado y una pantalla de computadora, por lo que el resultado no dependería de la capacidad de la máquina para traducir palabras como voz. [3]Si el evaluador no puede distinguir de manera confiable la máquina del humano, se dice que la máquina ha pasado la prueba. Los resultados de la prueba no dependen de la capacidad de la máquina para dar respuestas correctas a las preguntas , solo de cuán cerca se parecen sus respuestas a las que daría un ser humano.
La prueba fue presentada por Turing en su artículo de 1950 " Computing Machinery and Intelligence " mientras trabajaba en la Universidad de Manchester . [4] Se abre con las palabras: "Propongo considerar la pregunta, '¿Pueden las máquinas pensar? ' " Debido a que "pensar" es difícil de definir, Turing opta por "reemplazar la pregunta por otra, que está estrechamente relacionada con ella y se expresa en palabras relativamente inequívocas ". [5] Turing describe la nueva forma del problema en términos de un juego de tres personas llamado "juego de imitación", en el que un interrogador hace preguntas a un hombre y una mujer en otra habitación para determinar el sexo correcto de la persona. dos jugadores. La nueva pregunta de Turing es: "¿Hay computadoras digitales imaginables que funcionarían bien en el juego de la imitación ?" [2] Esta pregunta, creía Turing, es una que realmente puede responderse. En el resto del artículo, argumentó en contra de todas las principales objeciones a la proposición de que "las máquinas pueden pensar". [6]
Desde que Turing presentó por primera vez su prueba, ha demostrado ser muy influyente y muy criticada, y se ha convertido en un concepto importante en la filosofía de la inteligencia artificial . [7] [8] [9] Algunas de estas críticas, como la habitación china de John Searle , son en sí mismas controvertidas.
Historia
Trasfondo filosófico
La cuestión de si es posible que las máquinas piensen tiene una larga historia, que está firmemente arraigada en la distinción entre visiones dualistas y materialistas de la mente. René Descartes prefigura aspectos de la prueba de Turing en su Discurso sobre el método de 1637 cuando escribe:
[Cómo] muchos autómatas o máquinas en movimiento diferentes pueden ser fabricados por la industria del hombre ... Porque podemos entender fácilmente la constitución de una máquina para que pueda pronunciar palabras, e incluso emitir algunas respuestas a la acción sobre ella de tipo corpóreo. , que provoca un cambio en sus órganos; por ejemplo, si se toca en una parte en particular, puede preguntar qué queremos decirle; si en otra parte puede exclamar que está siendo herido, etc. Pero nunca sucede que disponga su discurso de diversas formas, para responder apropiadamente a todo lo que pueda decirse en su presencia, como puede hacer incluso el tipo más bajo de hombre. [10]
Aquí Descartes observa que los autómatas son capaces de responder a las interacciones humanas, pero argumenta que tales autómatas no pueden responder apropiadamente a las cosas que se dicen en su presencia de la manera que cualquier humano puede hacerlo. Descartes, por tanto, prefigura la prueba de Turing al definir la insuficiencia de una respuesta lingüística apropiada como aquello que separa al humano del autómata. Descartes no considera la posibilidad de que los autómatas futuros puedan superar tal insuficiencia, por lo que no propone la prueba de Turing como tal, incluso si prefigura su marco conceptual y su criterio.
Denis Diderot formula en sus Pensées philosophiques un criterio de prueba de Turing:
"Si encuentran un loro que pueda responder a todo, yo diría que es un ser inteligente sin dudarlo". [11]
Esto no significa que esté de acuerdo con esto, pero que ya era un argumento común de los materialistas en ese momento.
Según el dualismo, la mente no es física (o, al menos, tiene propiedades no físicas ) [12] y, por lo tanto, no puede explicarse en términos puramente físicos. Según el materialismo, la mente se puede explicar físicamente, lo que deja abierta la posibilidad de mentes que se produzcan artificialmente. [13]
En 1936, el filósofo Alfred Ayer consideró la pregunta filosófica estándar de otras mentes : ¿cómo sabemos que otras personas tienen las mismas experiencias conscientes que nosotros? En su libro, Language, Truth and Logic , Ayer sugirió un protocolo para distinguir entre un hombre consciente y una máquina inconsciente: "El único fundamento que puedo tener para afirmar que un objeto que parece ser consciente no es realmente un ser consciente, sino sólo un maniquí o una máquina, es que no logra satisfacer una de las pruebas empíricas por las que se determina la presencia o ausencia de conciencia ". [14] (Esta sugerencia es muy similar a la prueba de Turing, pero se refiere a la conciencia más que a la inteligencia. Además, no es seguro que el clásico filosófico popular de Ayer fuera familiar para Turing). En otras palabras, una cosa no es consciente si no pasa la prueba de conciencia.
Alan Turing
Investigadores del Reino Unido habían estado explorando la "inteligencia de las máquinas" durante diez años antes de la fundación del campo de la investigación de la inteligencia artificial ( IA ) en 1956. [15] Era un tema común entre los miembros del Ratio Club , un grupo informal de investigadores británicos de cibernética y electrónica que incluía a Alan Turing. [dieciséis]
Turing, en particular, había estado abordando la noción de inteligencia artificial desde al menos 1941 [17] y una de las primeras menciones conocidas de "inteligencia informática" fue hecha por él en 1947. [18] En el informe de Turing, "Intelligent Machinery ", [19] investigó" la cuestión de si es posible o no que la maquinaria muestre un comportamiento inteligente " [20] y, como parte de esa investigación, propuso lo que puede considerarse el precursor de sus posteriores pruebas:
No es difícil idear una máquina de papel que juegue una partida de ajedrez no muy mala. [21] Ahora consiga a tres hombres como sujetos para el experimento. A, B y C. A y C son jugadores de ajedrez bastante malos, B es el operador que trabaja en la máquina de papel. ... Se utilizan dos salas con alguna disposición para comunicar movimientos, y se juega un juego entre C y A o la máquina de papel. Es posible que a C le resulte bastante difícil saber a quién está jugando. [[[Wikipedia:Citing_sources|
page needed]] ="this_citation_requires_a_reference_to_the_specific_page_or_range_of_pages_in_which_the_material_appears. (may_2011)">]_22-0" class="reference">[22]
" Computing Machinery and Intelligence " ( 1950 ) fue el primer artículo publicado por Turing que se centró exclusivamente en la inteligencia de las máquinas. Turing comienza el artículo de 1950 con la afirmación: "Propongo considerar la pregunta '¿Pueden pensar las máquinas? ' " [5] Como él destaca, el enfoque tradicional para tal pregunta es comenzar con definiciones , definiendo ambos términos "máquina". e "inteligencia". Turing opta por no hacerlo; en cambio, reemplaza la pregunta por una nueva, "que está estrechamente relacionada con ella y se expresa en palabras relativamente inequívocas". [5] En esencia, propone cambiar la pregunta de "¿Pueden pensar las máquinas?" a "¿Pueden las máquinas hacer lo que nosotros (como entidades pensantes) podemos hacer?" [23] La ventaja de la nueva pregunta, sostiene Turing, es que traza "una línea bastante marcada entre las capacidades físicas e intelectuales de un hombre". [24]
Para demostrar este enfoque, Turing propone una prueba inspirada en un juego de fiesta , conocido como el "juego de imitación", en el que un hombre y una mujer entran en habitaciones separadas y los invitados intentan distinguirlos escribiendo una serie de preguntas y leyendo el texto mecanografiado. respuestas enviadas. En este juego, tanto el hombre como la mujer tienen como objetivo convencer a los invitados de que son el otro. (Huma Shah sostiene que esta versión del juego para dos humanos fue presentada por Turing solo para presentar al lector la prueba de preguntas y respuestas de humanos-máquinas. [25] ) Turing describió su nueva versión del juego de la siguiente manera:
Ahora hacemos la pregunta: "¿Qué pasará cuando una máquina haga el papel de A en este juego?" ¿Decidirá el interrogador erróneamente con tanta frecuencia cuando se juega así como cuando se juega entre un hombre y una mujer? Estas preguntas reemplazan nuestro original, "¿Pueden pensar las máquinas?" [24]
Más adelante en el artículo, Turing sugiere una formulación alternativa "equivalente" que involucra a un juez conversando solo con una computadora y un hombre. [26] Si bien ninguna de estas formulaciones coincide exactamente con la versión de la prueba de Turing que se conoce más generalmente hoy en día, propuso una tercera en 1952. En esta versión, que Turing discutió en una transmisión de radio de la BBC , un jurado hace preguntas a una computadora y el papel de la computadora es hacer que una proporción significativa del jurado crea que realmente es un hombre. [27]
El artículo de Turing consideró nueve objeciones putativas, que incluyen todos los principales argumentos en contra de la inteligencia artificial que se han planteado en los años transcurridos desde que se publicó el artículo (consulte " Maquinaria e inteligencia informática "). [6]
ELIZA y PARRY
En 1966, Joseph Weizenbaum creó un programa que pareció pasar la prueba de Turing. El programa, conocido como ELIZA , funcionaba examinando los comentarios escritos por un usuario en busca de palabras clave. Si se encuentra una palabra clave, se aplica una regla que transforma los comentarios del usuario y se devuelve la oración resultante. Si no se encuentra una palabra clave, ELIZA responde con una respuesta genérica o repitiendo uno de los comentarios anteriores. [28] Además, Weizenbaum desarrolló ELIZA para replicar el comportamiento de un psicoterapeuta rogeriano , lo que le permitió a ELIZA ser "libre de asumir la pose de no saber casi nada del mundo real". [29] Con estas técnicas, el programa de Weizenbaum pudo engañar a algunas personas haciéndoles creer que estaban hablando con una persona real, y algunos sujetos eran "muy difíciles de convencer de que ELIZA [...] no es humana". [29] Por lo tanto, algunos afirman que ELIZA es uno de los programas (quizás el primero) capaz de pasar la prueba de Turing, [29] [30] a pesar de que esta opinión es muy polémica (ver más abajo ).
Kenneth Colby creó PARRY en 1972, un programa descrito como "ELIZA con actitud". [31] Intentó modelar el comportamiento de un esquizofrénico paranoico , utilizando un enfoque similar (aunque más avanzado) al empleado por Weizenbaum. Para validar el trabajo, PARRY se probó a principios de la década de 1970 utilizando una variación de la prueba de Turing. Un grupo de psiquiatras experimentados analizó una combinación de pacientes reales y computadoras que ejecutaban PARRY a través de teletipo . A otro grupo de 33 psiquiatras se les mostraron las transcripciones de las conversaciones. Luego se pidió a los dos grupos que identificaran cuáles de los "pacientes" eran humanos y cuáles eran programas de computadora. [32] Los psiquiatras fueron capaces de hacer la identificación correcta solo el 52 por ciento de las veces, una cifra consistente con adivinanzas al azar. [32]
En el siglo XXI, las versiones de estos programas (ahora conocidos como " chatbots ") continúan engañando a la gente. "CyberLover", un programa de malware , se aprovecha de los usuarios de Internet convenciéndolos de "revelar información sobre sus identidades o llevarlos a visitar un sitio web que entregará contenido malicioso a sus computadoras". [33] El programa ha surgido como un coqueteo de "riesgo de San Valentín" con personas que "buscan relaciones en línea para recopilar sus datos personales". [34]
El cuarto chino
El artículo de 1980 de John Searle , Minds, Brains, and Programs propuso el experimento mental de la " habitación china " y argumentó que la prueba de Turing no podía usarse para determinar si una máquina puede pensar. Searle señaló que el software (como ELIZA) podía pasar la prueba de Turing simplemente manipulando símbolos que no entendían. Sin comprensión, no podrían describirse como "pensar" en el mismo sentido que las personas. Por tanto, concluye Searle, la prueba de Turing no puede probar que una máquina pueda pensar. [35] Al igual que la prueba de Turing en sí, el argumento de Searle ha sido ampliamente criticado [36] y muy respaldado. [37]
Argumentos como el de Searle y otros que trabajan en la filosofía de la mente provocaron un debate más intenso sobre la naturaleza de la inteligencia, la posibilidad de las máquinas inteligentes y el valor de la prueba de Turing que continuó durante los años ochenta y noventa. [38]
Premio Loebner
El Premio Loebner proporciona una plataforma anual para las pruebas prácticas de Turing con la primera competencia celebrada en noviembre de 1991. [39] Está suscrito por Hugh Loebner . El Centro de Estudios del Comportamiento de Cambridge en Massachusetts , Estados Unidos, organizó los premios hasta el concurso de 2003 incluido. Como lo describió Loebner, una de las razones por las que se creó la competencia es para avanzar en el estado de la investigación de la IA, al menos en parte, porque nadie había tomado medidas para implementar la prueba de Turing a pesar de 40 años de discutirlo. [40]
El primer concurso del Premio Loebner en 1991 dio lugar a una renovada discusión sobre la viabilidad de la prueba de Turing y el valor de seguirla, tanto en la prensa popular [41] como en la academia. [42] El primer concurso fue ganado por un programa sin sentido sin inteligencia identificable que logró engañar a los interrogadores ingenuos para que hicieran una identificación incorrecta. Esto puso de relieve varias de las deficiencias de la prueba de Turing (que se comentan a continuación ): el ganador ganó, al menos en parte, porque fue capaz de "imitar errores tipográficos humanos"; [41] los interrogadores poco sofisticados fueron fácilmente engañados; [42] ya algunos investigadores en IA se les ha hecho sentir que la prueba es simplemente una distracción de una investigación más fructífera. [43]
Los premios de plata (solo texto) y oro (audio y visual) nunca se han ganado. Sin embargo, la competencia ha otorgado la medalla de bronce todos los años por el sistema informático que, en opinión de los jueces, demuestra el comportamiento conversacional "más humano" entre los participantes de ese año. La Entidad Informática de Internet Lingüística Artificial (ALICE) ha ganado el premio de bronce en tres ocasiones en los últimos tiempos (2000, 2001, 2004). Learning AI Jabberwacky ganó en 2005 y 2006.
El Premio Loebner pone a prueba la inteligencia conversacional; los ganadores suelen ser programas de chatbot o entidades conversacionales artificiales (ACE) . Los primeros premios Loebner rigen las conversaciones restringidas: cada entrada y un humano oculto conversaban sobre un solo tema, [44] por lo que los interrogadores estaban restringidos a una línea de preguntas por interacción de entidad. La regla de conversación restringida se levantó para el Premio Loebner de 1995. La duración de la interacción entre juez y entidad ha variado en los Premios Loebner. En Loebner 2003, en la Universidad de Surrey, a cada interrogador se le permitieron cinco minutos para interactuar con una entidad, máquina o humano oculto. Entre 2004 y 2007, el tiempo de interacción permitido en los Premios Loebner fue de más de veinte minutos.
Versiones
Saul Traiger sostiene que hay al menos tres versiones principales de la prueba de Turing, dos de las cuales se ofrecen en "Maquinaria e inteligencia de cómputo" y una que él describe como la "Interpretación estándar". [45] Si bien existe cierto debate sobre si la "Interpretación estándar" es la descrita por Turing o, en cambio, se basa en una mala lectura de su artículo, estas tres versiones no se consideran equivalentes, [45] y sus fortalezas y debilidades son distinto. [46]
Huma Shah señala que el propio Turing estaba preocupado por si una máquina podía pensar y estaba proporcionando un método simple para examinar esto: a través de sesiones de preguntas y respuestas entre humanos y máquinas. [47] Shah argumenta que hay un juego de imitación que Turing describió podría practicarse de dos maneras diferentes: a) prueba uno a uno interrogador-máquina, yb) comparación simultánea de una máquina con un humano, ambos cuestionados en paralelo por un interrogador. [25] Dado que la prueba de Turing es una prueba de indistinguibilidad en la capacidad de ejecución, la versión verbal se generaliza naturalmente a toda la capacidad de ejecución humana, tanto verbal como no verbal (robótica). [48]
Juego de imitación
El artículo original de Turing describe un sencillo juego de fiesta en el que participan tres jugadores. El jugador A es un hombre, el jugador B es una mujer y el jugador C (que desempeña el papel de interrogador) es de cualquier sexo. En el juego de imitación, el jugador C no puede ver ni al jugador A ni al jugador B, y solo puede comunicarse con ellos a través de notas escritas. Haciendo preguntas al jugador A y al jugador B, el jugador C intenta determinar cuál de los dos es el hombre y cuál es la mujer. El papel del jugador A es engañar al interrogador para que tome la decisión incorrecta, mientras que el jugador B intenta ayudar al interrogador a tomar la decisión correcta. [7]
Turing luego pregunta:
"¿Qué sucederá cuando una máquina haga el papel de A en este juego? ¿Decidirá el interrogador erróneamente tan a menudo cuando el juego se juega así como lo hace cuando el juego se juega entre un hombre y una mujer?" Estas preguntas reemplazan nuestro original, "¿Pueden pensar las máquinas?" [24]
La segunda versión apareció más tarde en el artículo de Turing de 1950. Similar a la prueba del juego de imitación original, el papel del jugador A lo realiza una computadora. Sin embargo, el papel del jugador B lo desempeña un hombre en lugar de una mujer.
Fijemos nuestra atención en una computadora digital en particular C. ¿Es cierto que modificando esta computadora para que tenga un almacenamiento adecuado, aumentando adecuadamente su velocidad de acción y proporcionándole un programa apropiado, C se puede hacer que desempeñe satisfactoriamente el papel? de A en el juego de imitación, ¿la parte de B tomada por un hombre? [24]
En esta versión, tanto el jugador A (la computadora) como el jugador B están tratando de engañar al interrogador para que tome una decisión incorrecta.
Interpretación estándar
La interpretación estándar no está incluida en el artículo original, pero es aceptada y debatida. Según el entendimiento común, el propósito de la prueba de Turing no es determinar específicamente si una computadora es capaz de engañar a un interrogador haciéndole creer que es un humano, sino más bien si una computadora podría imitar a un humano. [7] Si bien existe cierta controversia sobre si esta interpretación fue intencionada por Turing, Sterrett cree que lo fue [49] y, por lo tanto, combina la segunda versión con esta, mientras que otras, como Traiger, no lo hacen [45] . condujo a lo que puede verse como la "interpretación estándar". En esta versión, el jugador A es una computadora y el jugador B una persona de cualquier sexo. El papel del interrogador no es determinar quién es hombre y cuál es mujer, sino cuál es una computadora y cuál es un ser humano. [50] El problema fundamental con la interpretación estándar es que el interrogador no puede diferenciar qué respondedor es humano y cuál es máquina. Hay problemas sobre la duración, pero la interpretación estándar generalmente considera esta limitación como algo que debería ser razonable.
Juego de imitación versus prueba estándar de Turing
Ha surgido controversia sobre cuál de las formulaciones alternativas de la prueba pretendía Turing. [49] Sterrett sostiene que dos pruebas distintas se pueden extraer de su papel de 1950 y que, a ritmo observación de Turing, que no son equivalentes. La prueba que emplea el juego de fiesta y compara las frecuencias de éxito se denomina "Prueba del juego de imitación original", mientras que la prueba que consiste en un juez humano conversando con un humano y una máquina se denomina "Prueba estándar de Turing". señalando que Sterrett equipara esto con la "interpretación estándar" en lugar de la segunda versión del juego de imitación. Sterrett está de acuerdo en que la prueba estándar de Turing (STT) tiene los problemas que citan sus críticos, pero siente que, por el contrario, la prueba del juego de imitación original (prueba OIG) así definida es inmune a muchos de ellos, debido a una diferencia crucial: a diferencia de la STT, no hace que la similitud con el desempeño humano sea el criterio, a pesar de que emplea el desempeño humano para establecer un criterio para la inteligencia de la máquina. Un hombre puede suspender la prueba de la OIG, pero se argumenta que es una virtud de una prueba de inteligencia que la falla indique una falta de ingenio: la prueba de OIG requiere el ingenio asociado con la inteligencia y no meramente "simulación del comportamiento conversacional humano". La estructura general de la prueba OIG podría incluso utilizarse con versiones no verbales de juegos de imitación. [51]
Aún otros escritores [52] han interpretado que Turing propone que el juego de imitación en sí mismo es la prueba, sin especificar cómo tener en cuenta la afirmación de Turing de que la prueba que propuso usando la versión de fiesta del juego de imitación se basa en un criterio comparativo. frecuencia de éxito en ese juego de imitación, en lugar de la capacidad de tener éxito en una ronda del juego.
Saygin ha sugerido que quizás el juego original sea una forma de proponer un diseño experimental menos sesgado, ya que oculta la participación de la computadora. [53] El juego de imitación también incluye un "truco social" que no se encuentra en la interpretación estándar, ya que en el juego tanto la computadora como el ser humano deben jugar pretendiendo ser alguien que no son. [54]
¿Debería el interrogador saber sobre la computadora?
Una pieza crucial de cualquier prueba de laboratorio es que debe haber un control. Turing nunca aclara si el interrogador en sus pruebas es consciente de que uno de los participantes es una computadora. Afirma solo que el jugador A debe ser reemplazado por una máquina, no que el jugador C debe ser consciente de este reemplazo. [24] Cuando Colby, FD Hilf, S Weber y AD Kramer probaron PARRY, lo hicieron asumiendo que los interrogadores no necesitaban saber que uno o más de los entrevistados era una computadora durante el interrogatorio. [55] Como han destacado Ayse Saygin, Peter Swirski, [56] y otros, esto marca una gran diferencia en la implementación y el resultado de la prueba. [7] Un estudio experimental que analizó las violaciones de las máximas de Gricean utilizando transcripciones del premio uno a uno (interrogador oculto de interlocutor) de Loebner para concursos de IA entre 1994 y 1999, Ayse Saygin encontró diferencias significativas entre las respuestas de los participantes que sabían y no sabían saber acerca de las computadoras involucradas. [57]
Fortalezas
Tratabilidad y sencillez
El poder y el atractivo de la prueba de Turing se derivan de su simplicidad. La filosofía de la mente , la psicología y la neurociencia moderna han sido incapaces de proporcionar definiciones de "inteligencia" y "pensamiento" que sean lo suficientemente precisas y generales para ser aplicadas a las máquinas. Sin tales definiciones, las preguntas centrales de la filosofía de la inteligencia artificial no pueden responderse. La prueba de Turing, incluso si es imperfecta, al menos proporciona algo que realmente se puede medir. Como tal, es un intento pragmático de responder a una pregunta filosófica difícil.
Amplitud del tema
El formato de la prueba permite al interrogador darle a la máquina una amplia variedad de tareas intelectuales. Turing escribió que "el método de preguntas y respuestas parece adecuado para introducir casi cualquiera de los campos del esfuerzo humano que deseamos incluir". [58] John Haugeland agrega que "comprender las palabras no es suficiente; también hay que comprender el tema ". [59]
Para aprobar una prueba de Turing bien diseñada, la máquina debe usar lenguaje natural , razonar , tener conocimientos y aprender . La prueba puede extenderse para incluir entrada de video, así como una "trampilla" a través de la cual se pueden pasar objetos: esto obligaría a la máquina a demostrar un uso experto de visión y robótica bien diseñadas . Juntos, estos representan casi todos los principales problemas que la investigación en inteligencia artificial quisiera resolver. [60]
La prueba de Feigenbaum está diseñada para aprovechar la amplia gama de temas disponibles para una prueba de Turing. Es una forma limitada del juego de preguntas y respuestas de Turing que compara la máquina con las habilidades de expertos en campos específicos como la literatura o la química . La máquina Watson de IBM logró el éxito en un concurso de televisión de hombre contra máquina sobre el conocimiento humano, Jeopardy! [61] [47] [¿ pertinente a este párrafo? ]
Énfasis en la inteligencia emocional y estética.
Como graduado con honores de Cambridge en matemáticas, se podría haber esperado que Turing proponga una prueba de inteligencia informática que requiera conocimiento experto en algún campo altamente técnico y, por lo tanto, anticipe un enfoque más reciente del tema . En cambio, como ya se señaló, la prueba que describió en su artículo seminal de 1950 requiere que la computadora sea capaz de competir con éxito en un juego de fiesta común, y esto al desempeñarse tan bien como el hombre típico al responder una serie de preguntas a fin de fingir convincentemente ser la mujer concursante.
Dado el estatus del dimorfismo sexual humano como uno de los temas más antiguos , está implícito en el escenario anterior que las preguntas a responder no involucrarán ni conocimientos fácticos especializados ni técnicas de procesamiento de información. El desafío para la computadora, más bien, será demostrar empatía por el papel de la mujer y demostrar también una sensibilidad estética característica; ambas cualidades se muestran en este fragmento de diálogo que Turing ha imaginado:
- Interrogador: ¿Podría X decirme el largo de su cabello?
- Concursante: Mi cabello tiene tejas y los mechones más largos miden aproximadamente nueve pulgadas de largo.
Cuando Turing introduce algún conocimiento especializado en uno de sus diálogos imaginarios, el tema no son matemáticas o electrónica, sino poesía:
- Interrogador: En la primera línea de su soneto que dice: "¿Te compararé con un día de verano", "un día de primavera" no funcionaría tan bien o mejor?
- Testigo: No escanearía .
- Interrogador: ¿Qué tal "un día de invierno"? Eso escanearía bien.
- Testigo: Sí, pero nadie quiere ser comparado con un día de invierno.
Turing demuestra así una vez más su interés por la empatía y la sensibilidad estética como componentes de una inteligencia artificial; ya la luz de una creciente conciencia de la amenaza de una IA enloquecida, [62] se ha sugerido [63] que este enfoque quizás representa una intuición crítica por parte de Turing, es decir, que la inteligencia emocional y estética jugará un papel clave en la creación de una " IA amigable ". Sin embargo, se observa además que cualquier inspiración que Turing pueda prestar en esta dirección depende de la preservación de su visión original, es decir, además, que la promulgación de una "interpretación estándar" de la prueba de Turing, es decir, , uno que se centra únicamente en una inteligencia discursiva, debe considerarse con cierta cautela.
Debilidades
Turing no declaró explícitamente que la prueba de Turing podría usarse como una medida de inteligencia o cualquier otra cualidad humana. Quería ofrecer una alternativa clara y comprensible a la palabra "pensar", que luego podría utilizar para responder a las críticas sobre la posibilidad de "máquinas pensantes" y sugerir formas en las que la investigación podría avanzar.
Sin embargo, la prueba de Turing se ha propuesto como una medida de la "capacidad de pensar" de una máquina o su "inteligencia". Esta propuesta ha recibido críticas tanto de filósofos como de científicos informáticos. Supone que un interrogador puede determinar si una máquina está "pensando" comparando su comportamiento con el comportamiento humano. Se han cuestionado todos los elementos de esta suposición: la confiabilidad del juicio del interrogador, el valor de comparar solo el comportamiento y el valor de comparar la máquina con un humano. Debido a estas y otras consideraciones, algunos investigadores de IA han cuestionado la relevancia de la prueba en su campo.
Inteligencia humana versus inteligencia en general
La prueba de Turing no prueba directamente si la computadora se comporta de manera inteligente. Solo prueba si la computadora se comporta como un ser humano. Dado que el comportamiento humano y el comportamiento inteligente no son exactamente lo mismo, la prueba puede fallar en medir con precisión la inteligencia de dos maneras:
- Algunos comportamientos humanos no son inteligentes
- La prueba de Turing requiere que la máquina sea capaz de ejecutar todos los comportamientos humanos, independientemente de si son inteligentes. Incluso evalúa comportamientos que pueden no ser considerados inteligentes en absoluto, como la susceptibilidad a los insultos, [64] la tentación de mentir o, simplemente, una alta frecuencia de errores tipográficos . Si una máquina no puede imitar estos comportamientos poco inteligentes en detalle, no pasa la prueba.
- Esta objeción fue planteada por The Economist , en un artículo titulado " estupidez artificial " publicado poco después del primer concurso del Premio Loebner en 1992. El artículo señalaba que la victoria del primer ganador de Loebner se debió, al menos en parte, a su capacidad para "imitar errores tipográficos humanos ". [41] El mismo Turing había sugerido que los programas agreguen errores a su salida, para ser mejores "jugadores" del juego. [sesenta y cinco]
- Algún comportamiento inteligente es inhumano
- La prueba de Turing no evalúa comportamientos muy inteligentes, como la capacidad para resolver problemas difíciles o generar ideas originales. De hecho, requiere específicamente el engaño por parte de la máquina: si la máquina es más inteligente que un ser humano, debe evitar deliberadamente parecer demasiado inteligente. Si fuera a resolver un problema computacional que es prácticamente imposible de resolver para un humano, entonces el interrogador sabría que el programa no es humano y la máquina no pasará la prueba.
- Debido a que no puede medir la inteligencia que está más allá de la capacidad de los humanos, la prueba no puede usarse para construir o evaluar sistemas que sean más inteligentes que los humanos. Debido a esto, se han propuesto varias alternativas de prueba que podrían evaluar sistemas superinteligentes. [66]
Conciencia versus simulación de la conciencia
La prueba de Turing se ocupa estrictamente de cómo actúa el sujeto : el comportamiento externo de la máquina. En este sentido, adopta un enfoque conductista o funcionalista para el estudio de la mente. El ejemplo de ELIZA sugiere que una máquina que pasa la prueba puede simular el comportamiento conversacional humano siguiendo una lista simple (pero grande) de reglas mecánicas, sin pensar ni tener una mente en absoluto.
John Searle ha argumentado que el comportamiento externo no se puede utilizar para determinar si una máquina está "realmente" pensando o simplemente "simulando el pensamiento". [35] Su argumento de la habitación china tiene la intención de mostrar que, incluso si la prueba de Turing es una buena definición operativa de inteligencia, puede no indicar que la máquina tiene mente , conciencia o intencionalidad . (La intencionalidad es un término filosófico que se refiere al poder de los pensamientos de ser "sobre" algo).
Turing anticipó esta línea de crítica en su artículo original, [67] escribiendo:
No quiero dar la impresión de que creo que no hay ningún misterio sobre la conciencia. Hay, por ejemplo, una especie de paradoja relacionada con cualquier intento de localizarlo. Pero no creo que estos misterios deban resolverse necesariamente antes de que podamos responder a la pregunta que nos ocupa en este artículo. [68]
La ingenuidad de los interrogadores y la falacia antropomórfica
En la práctica, los resultados de la prueba pueden ser fácilmente dominados no por la inteligencia de la computadora, sino por las actitudes, la habilidad o la ingenuidad del interrogador.
Turing no especifica las habilidades y conocimientos precisos requeridos por el interrogador en su descripción de la prueba, pero sí utilizó el término "interrogador promedio": "[el] interrogador promedio no tendría más del 70% de posibilidades de hacer lo correcto identificación después de cinco minutos de interrogatorio ". [69]
Los programas de Chatterbot como ELIZA han engañado repetidamente a personas desprevenidas haciéndoles creer que se están comunicando con seres humanos. En estos casos, los "interrogadores" ni siquiera son conscientes de la posibilidad de que estén interactuando con computadoras. Para parecer humano con éxito, no es necesario que la máquina tenga inteligencia alguna y solo se requiere una semejanza superficial con el comportamiento humano.
Los primeros concursos del Premio Loebner utilizaban interrogadores "poco sofisticados" que eran fácilmente engañados por las máquinas. [42] Desde 2004, los organizadores del Premio Loebner han desplegado a filósofos, informáticos y periodistas entre los interrogadores. No obstante, algunos de estos expertos han sido engañados por las máquinas. [70]
Identificación errónea humana
Una característica interesante de la prueba de Turing es la frecuencia del efecto confederado , cuando los interrogadores identifican erróneamente a los seres humanos confederados (probados) como máquinas. Se ha sugerido que lo que los interrogadores esperan como respuestas humanas no es necesariamente típico de los humanos. Como resultado, algunas personas pueden clasificarse como máquinas. Por lo tanto, esto puede funcionar a favor de una máquina de la competencia. A los humanos se les instruye para que "actúen ellos mismos", pero a veces sus respuestas se parecen más a lo que el interrogador espera que diga una máquina. [71] Esto plantea la cuestión de cómo garantizar que los humanos estén motivados para "actuar como humanos".
Silencio
Un aspecto crítico de la prueba de Turing es que una máquina debe revelarse a sí misma como una máquina por sus enunciados. Un interrogador debe entonces hacer la "identificación correcta" identificando correctamente la máquina como si fuera solo eso. Sin embargo, si una máquina permanece en silencio durante una conversación, entonces no es posible que un interrogador identifique con precisión la máquina por medio de una suposición calculada. [72] Incluso tener en cuenta a un humano paralelo / oculto como parte de la prueba puede no ayudar a la situación, ya que los humanos a menudo pueden ser identificados erróneamente como una máquina. [73]
Impracticabilidad e irrelevancia: la prueba de Turing y la investigación de IA
Los principales investigadores de la IA argumentan que intentar pasar la prueba de Turing es simplemente una distracción de una investigación más fructífera. [43] De hecho, la prueba de Turing no es un foco activo de mucho esfuerzo académico o comercial, como escriben Stuart Russell y Peter Norvig : "Los investigadores de IA han dedicado poca atención a aprobar la prueba de Turing". [74] Hay varias razones.
Primero, hay formas más fáciles de probar sus programas. La mayor parte de la investigación actual en los campos relacionados con la IA está dirigida a objetivos modestos y específicos, como la programación automatizada , el reconocimiento de objetos o la logística. Para probar la inteligencia de los programas que resuelven estos problemas, los investigadores de IA simplemente les asignan la tarea directamente. Stuart Russell y Peter Norvig sugieren una analogía con la historia del vuelo : los aviones se prueban por qué tan bien vuelan, no comparándolos con las aves. . "Los textos de ingeniería aeronáutica ", escriben, "no definen el objetivo de su campo como 'hacer máquinas que vuelen tan exactamente como palomas que puedan engañar a otras palomas ' ". [74]
En segundo lugar, la creación de simulaciones realistas de seres humanos es un problema difícil en sí mismo que no necesita ser resuelto para lograr los objetivos básicos de la investigación de la IA. Los personajes humanos creíbles pueden ser interesantes en una obra de arte, un juego o una interfaz de usuario sofisticada , pero no forman parte de la ciencia de crear máquinas inteligentes, es decir, máquinas que resuelven problemas utilizando la inteligencia.
Turing quería proporcionar un ejemplo claro y comprensible para ayudar en la discusión de la filosofía de la inteligencia artificial . [75] John McCarthy observa que la filosofía de la IA "es poco probable que tenga más efecto en la práctica de la investigación de la IA que el que la filosofía de la ciencia tiene en la práctica de la ciencia". [76]
Ciencia cognitiva
Robert French (1990) sostiene que un interrogador puede distinguir a los interlocutores humanos de los no humanos planteando preguntas que revelan los procesos de bajo nivel (es decir, inconscientes) de la cognición humana, tal como los estudia la ciencia cognitiva . Tales preguntas revelan los detalles precisos de la encarnación humana del pensamiento y pueden desenmascarar una computadora a menos que experimente el mundo como lo hacen los humanos. [77]
Definición de "pensar"
Alan Turing utilizó el juego de imitación para responder a la pregunta: "¿Puede pensar una máquina?". Sin embargo, para lograr esto, cambió la pregunta a "¿Hay computadoras imaginables que funcionarían bien en el juego de la imitación?" [78] El problema con esto es la implicación de una equivalencia entre lo que significa "pensar" y lo que significa "imitar". Las dos acciones no son sinónimos ni tienen un significado relacionado. [79] Este es un aspecto clave de su racionalidad para usar The Imitation Game como prueba de inteligencia. Sin este cambio, la prueba de Turing no responde a la pregunta original.
Variaciones
Muchas otras versiones de la prueba de Turing, incluidas las expuestas anteriormente, se han planteado a lo largo de los años.
Prueba de Turing inversa y CAPTCHA
Una modificación de la prueba de Turing en la que el objetivo de uno o más de los roles se ha invertido entre máquinas y humanos se denomina prueba de Turing inversa. Un ejemplo está implícito en el trabajo del psicoanalista Wilfred Bion , [80] quien estaba particularmente fascinado por la "tormenta" que resultó del encuentro de una mente con otra. En su libro de 2000, [56] entre varios otros puntos originales con respecto a la prueba de Turing, el erudito literario Peter Swirski discutió en detalle la idea de lo que llamó la prueba de Swirski, esencialmente la prueba de Turing inversa. Señaló que supera la mayoría, si no todas, las objeciones estándar dirigidas a la versión estándar.
Llevando adelante esta idea, RD Hinshelwood [81] describió la mente como un "aparato de reconocimiento de la mente". El desafío sería que la computadora pudiera determinar si estaba interactuando con un humano o con otra computadora. Ésta es una extensión de la pregunta original que Turing intentó responder pero, quizás, ofrecería un estándar lo suficientemente alto como para definir una máquina que podría "pensar" de una manera que normalmente definimos como característicamente humana.
CAPTCHA es una forma de prueba de Turing inversa. Antes de que se le permita realizar alguna acción en un sitio web, al usuario se le presentan caracteres alfanuméricos en una imagen gráfica distorsionada y se le pide que los escriba. Esto tiene como objetivo evitar que se utilicen sistemas automatizados para abusar del sitio. La razón es que no existe un software lo suficientemente sofisticado para leer y reproducir la imagen distorsionada con precisión (o no está disponible para el usuario promedio), por lo que es probable que cualquier sistema capaz de hacerlo sea un ser humano.
El software que podría revertir CAPTCHA con cierta precisión mediante el análisis de patrones en el motor de generación comenzó a desarrollarse poco después de la creación de CAPTCHA. [82] En 2013, los investigadores de Vicarious anunciaron que habían desarrollado un sistema para resolver los desafíos de CAPTCHA de Google , Yahoo! y PayPal hasta el 90% del tiempo. [83] En 2014, los ingenieros de Google demostraron un sistema que podía vencer los desafíos de CAPTCHA con una precisión del 99,8%. [84] En 2015, Shuman Ghosemajumder , ex zar del fraude de clics de Google, declaró que había sitios de ciberdelincuentes que vencerían los desafíos de CAPTCHA por una tarifa, para permitir varias formas de fraude. [85]
Prueba de Turing para expertos en la materia
Otra variación se describe como la prueba de Turing de expertos en la materia , en la que la respuesta de una máquina no se puede distinguir de la de un experto en un campo determinado. Esto también se conoce como "prueba de Feigenbaum" y fue propuesto por Edward Feigenbaum en un artículo de 2003. [86]
Prueba de Turing total
La "prueba de Turing total" [48] variación de la prueba de Turing, propuesta por el científico cognitivo Stevan Harnad , [87] agrega dos requisitos más a la prueba de Turing tradicional. El interrogador también puede probar las habilidades perceptivas del sujeto (que requiere visión por computadora ) y la capacidad del sujeto para manipular objetos (que requiere robótica ). [88]
Registros de salud electrónicos
Una carta publicada en Communications of the ACM [89] describe el concepto de generar una población de pacientes sintéticos y propone una variación de la prueba de Turing para evaluar la diferencia entre pacientes sintéticos y reales. La carta dice: "En el contexto de EHR, aunque un médico humano puede distinguir fácilmente entre pacientes humanos reales y generados sintéticamente, ¿podría una máquina tener la inteligencia para tomar tal determinación por sí misma?" y además, la carta dice: "Antes de que las identidades sintéticas de los pacientes se conviertan en un problema de salud pública, el mercado legítimo de HCE podría beneficiarse de la aplicación de técnicas similares a la prueba de Turing para garantizar una mayor confiabilidad de los datos y valor diagnóstico. Por lo tanto, cualquier técnica nueva debe considerar la heterogeneidad de los pacientes y son probablemente tenga una complejidad mayor que la que puede calificar la prueba de ciencias de octavo grado de Allen ".
Prueba de señal inteligente mínima
La prueba de señal inteligente mínima fue propuesta por Chris McKinstry como "la máxima abstracción de la prueba de Turing", [90] en la que solo se permiten respuestas binarias (verdadero / falso o sí / no), para centrarse solo en la capacidad de pensamiento. Elimina los problemas de chat de texto como el sesgo de antropomorfismo y no requiere la emulación del comportamiento humano poco inteligente , lo que permite sistemas que exceden la inteligencia humana. Sin embargo, cada una de las preguntas debe ser independiente, por lo que se parece más a una prueba de coeficiente intelectual que a un interrogatorio. Por lo general, se utiliza para recopilar datos estadísticos con los que se puede medir el rendimiento de los programas de inteligencia artificial. [91]
Premio Hutter
Los organizadores del Premio Hutter creen que comprimir texto en lenguaje natural es un problema de inteligencia artificial difícil, equivalente a aprobar la prueba de Turing.
La prueba de compresión de datos tiene algunas ventajas sobre la mayoría de las versiones y variaciones de una prueba de Turing, que incluyen:
- Da un número único que se puede usar directamente para comparar cuál de dos máquinas es "más inteligente".
- No requiere que la computadora le mienta al juez
Las principales desventajas de usar la compresión de datos como prueba son:
- No es posible probar a los humanos de esta manera.
- Se desconoce qué "puntuación" en particular en esta prueba, si la hay, es equivalente a pasar una prueba de Turing a nivel humano.
Otras pruebas basadas en compresión o complejidad de Kolmogorov
Un enfoque relacionado con el premio de Hutter que apareció mucho antes a fines de la década de 1990 es la inclusión de problemas de compresión en una prueba de Turing extendida. [92] o mediante pruebas que se derivan completamente de la complejidad de Kolmogorov . [93] Hernandez-Orallo y Dowe presentan otras pruebas relacionadas en esta línea. [94]
IQ algorítmico, o AIQ para abreviar, es un intento de convertir la Medida de Inteligencia Universal teórica de Legg y Hutter (basada en la inferencia inductiva de Solomonoff ) en una prueba práctica de trabajo de inteligencia de máquina. [95]
Dos de las principales ventajas de algunas de estas pruebas son su aplicabilidad a inteligencias no humanas y la ausencia de un requisito para los probadores humanos.
Prueba de Ebert
La prueba de Turing inspiró la prueba de Ebert propuesta en 2011 por el crítico de cine Roger Ebert, que es una prueba de si una voz sintetizada basada en computadora tiene suficiente habilidad en términos de entonaciones, inflexiones, sincronización, etc., para hacer reír a la gente. [96]
Conferencias
Coloquio de Turing
1990 marcó el cuadragésimo aniversario de la primera publicación del artículo "Computing Machinery and Intelligence" de Turing, y vio un renovado interés en la prueba. En ese año ocurrieron dos eventos significativos: el primero fue el Coloquio de Turing, que se llevó a cabo en la Universidad de Sussex en abril, y reunió a académicos e investigadores de una amplia variedad de disciplinas para discutir la prueba de Turing en términos de su pasado, presente. y futuro; el segundo fue la formación del concurso anual del Premio Loebner .
Blay Whitby listas de cuatro importantes puntos de inflexión en la historia de la prueba de Turing - la publicación de "material de cálculo e inteligencia" en 1950, el anuncio de Joseph Weizenbaum 's ELIZA en 1966, Kenneth Colby ' creación de s Parry , que fue descrita por primera vez en 1972 y el Coloquio de Turing en 1990. [97]
2005 Coloquio sobre sistemas conversacionales
En noviembre de 2005, la Universidad de Surrey organizó una reunión inaugural de un día de desarrolladores de entidades conversacionales artificiales, [98] a la que asistieron los ganadores de las pruebas prácticas de Turing en el Premio Loebner: Robby Garner , Richard Wallace y Rollo Carpenter . Los oradores invitados incluyeron a David Hamill , Hugh Loebner (patrocinador del Premio Loebner ) y Huma Shah .
Simposio AISB 2008
En paralelo a la 2008 Premio Loebner celebrado en la Universidad de Reading , [99] de la Sociedad para el Estudio de la Inteligencia Artificial y la simulación del comportamiento (AISB), organizó un simposio de un día para discutir la prueba de Turing, organizada por John Barnden , Mark Bishop , Huma Shah y Kevin Warwick . [100] Los oradores incluyeron a la directora de la Royal Institution, la baronesa Susan Greenfield , Selmer Bringsjord , el biógrafo de Turing Andrew Hodges y el científico de la conciencia Owen Holland . No surgió ningún acuerdo para una prueba canónica de Turing, aunque Bringsjord expresó que un premio considerable daría como resultado que la prueba de Turing se aprobara antes.
El año de Alan Turing y Turing100 en 2012
A lo largo de 2012, se llevaron a cabo una serie de eventos importantes para celebrar la vida y el impacto científico de Turing. El grupo Turing100 apoyó estos eventos y también organizó un evento especial de prueba de Turing en Bletchley Park el 23 de junio de 2012 para celebrar el centenario del nacimiento de Turing.
Ver también
- Procesamiento natural del lenguaje
- Inteligencia artificial en la ficción
- Ciega
- Causalidad
- Prueba de Turing de bot de juegos de computadora
- Explicación
- Brecha explicativa
- Funcionalismo
- Prueba de Turing de gráficos
- Ex Machina (película)
- Difícil problema de la conciencia
- Lista de cosas que llevan el nombre de Alan Turing
- Mark V. Shaney (bot de Usenet)
- Problema mente-cuerpo
- Neurona espejo
- Zombi filosófico
- Problema de otras mentes
- Ingeniería inversa
- Sentience
- Realidad simulada
- Singularidad tecnológica
- Teoria de la mente
- Valle inquietante
- Máquina Voight-Kampff (prueba de Turing ficticia de Blade Runner )
- Desafío del esquema de Winograd
- SHRDLU
Notas
- ^ Imagen adaptada de Saygin 2000
- ↑ a b ( Turing 1950 , p. 442)' "( Turing 1950 , pág.442) Turing no llama a su idea "prueba de Turing", sino más bien "juego de imitación"; sin embargo, la literatura posterior se ha reservado el término "juego de imitación" para describir una versión particular de la prueba. Vea #Versiones de la prueba de Turing , a continuación. Turing da una versión más precisa de la pregunta más adelante en el documento: "[E] stas preguntas [son] equivalentes a esto, 'Fijemos nuestra atención en una computadora digital en particular C. ¿Es cierto que al modificar esta computadora para tener un almacenamiento adecuado, aumentando adecuadamente su velocidad de acción y proporcionándole un programa apropiado, se puede hacer que C desempeñe satisfactoriamente el papel de A en el juego de imitación, ¿el papel de B lo toma un hombre?
- ↑ Turing sugirió originalmente una teleimpresora , uno de los pocos sistemas de comunicación de solo texto disponibles en 1950 ( Turing 1950 , p. 433).
- ^ "La prueba de Turing, 1950" . turing.org.uk . El álbum de recortes de Internet de Alan Turing.
- ↑ a b c Turing , 1950 , pág. 433.
- ↑ a b Turing , 1950 , págs. 442–454. y ver Russell y Norvig (2003 , p. 948) , donde comentan, "Turing examinó una amplia variedad de posibles objeciones a la posibilidad de máquinas inteligentes, incluidas prácticamente todas las que se han planteado en el medio siglo desde que apareció su artículo".
- ^ a b c d e f Saygin 2000 .
- ^ Russell y Norvig 2003 , págs. 2-3, 948.
- ^ Swiechowski, Maciej (2020), "Game AI Competitions: Motivation for the Imitation Game-Playing Competition" (PDF) , Actas de la 15th Conference on Computer Science and Information Systems (FedCSIS 2020) , IEEE Publishing: 155-160 , consultado 8 Septiembre de 2020 .
- ^ Descartes 1996 , pp. 34 -35.
- ^ Diderot 2007 , p. 68.
- ^ Para ver un ejemplo de dualismo de propiedades, consulte Qualia .
- ↑ Observando que el materialismo no necesita la posibilidad de mentes artificiales (por ejemplo, Roger Penrose ), como tampoco lo excluye necesariamente el dualismo. (Véase, por ejemplo, Dualismo de propiedades ).
- ^ Ayer, A. J. (2001), "Language, Truth and Logic", Nature , Penguin , 138 (3498): 140, Bibcode : 1936Natur.138..823G , doi : 10.1038 / 138823a0 , ISBN 978-0-334-04122-1, S2CID 4121089[ aclaración necesaria ]
- ^ Las conferencias de Dartmouth de 1956 se consideran ampliamente el "nacimiento de la IA". ( Crevier 1993 , pág.49 )
- ^ McCorduck 2004 , p. 95.
- ^ Copeland 2003 , p. 1.
- ^ Copeland 2003 , p. 2.
- ^ "Intelligent Machinery" (1948) no fue publicada por Turing y no se publicó hasta 1968 en:
- Evans, ADJ; Robertson (1968), Cybernetics: Key Papers , University Park Press
- ^ Turing , 1948 , pág. 412.
- ↑ En 1948, trabajando con su ex colega de pregrado, DG Champernowne , Turing comenzó a escribir un programa de ajedrez para una computadora que aún no existía y, en 1952, al carecer de una computadora lo suficientemente potente para ejecutar el programa, jugó un juego en el que simulaba que tarda aproximadamente media hora en cada movimiento. El juego se grabó y el programa perdió ante el colega de Turing, Alick Glennie , aunque se dice que ganó un juego contra la esposa de Champernowne.
- [[[Wikipedia:Citing_sources|
page needed]] ="this_citation_requires_a_reference_to_the_specific_page_or_range_of_pages_in_which_the_material_appears. (may_2011)">]-22">^ Turing , 1948 , pág. [ página necesaria ] . - ^ Harnad 2004 , p. 1.
- ↑ a b c d e Turing , 1950 , pág. 434.
- ^ a b Shah y Warwick 2010a .
- ^ Turing , 1950 , p. 446.
- ^ Turing 1952 , págs. 524–525. Turing no parece distinguir entre "hombre" como género y "hombre" como humano. En el primer caso, esta formulación estaría más cerca del juego de imitación, mientras que en el segundo estaría más cerca de las representaciones actuales de la prueba.
- ↑ Weizenbaum , 1966 , p. 37.
- ↑ a b c Weizenbaum , 1966 , p. 42.
- ^ Thomas 1995 , p. 112.
- ^ Bowden , 2006 , p. 370.
- ^ a b Colby y col. 1972 , pág. 220.
- ^ Withers, Steven (11 de diciembre de 2007), "Flirty Bot Passes for Human" , iTWire
- ^ Williams, Ian (10 de diciembre de 2007), "Online Love Seerkers Warned Flirt Bots" , V3
- ↑ a b Searle, 1980 .
- ^ Hay una gran cantidad de argumentos en contra de la habitación china de Searle. Algunos son:
- Hauser, Larry (1997), "Searle's Chinese Box: Debunking the Chinese Room Argument", Minds and Machines , 7 (2): 199–226, doi : 10.1023 / A: 1008255830248 , S2CID 32153206.
- Rehman, Warren. (19 de julio de 2009), Argument against the Chinese Room Argument , archivado desde el original el 19 de julio de 2010.
- Thornley, David H. (1997), Why the Chinese Room Doesn't Work , archivado desde el original el 26 de abril de 2009
- ^ M. Bishop & J. Preston (eds.) (2001) Ensayos sobre el argumento de la habitación china de Searle. Prensa de la Universidad de Oxford.
- ^ Saygin 2000 , p. 479.
- ^ Sundman 2003 .
- ^ Loebner 1994 .
- ^ a b c "Estupidez artificial". The Economist . Vol. 324 no. 7770. 1 de agosto de 1992. pág. 14.
- ↑ a b c Shapiro 1992 , p. 10-11 y Shieber 1994 , entre otros.
- ↑ a b Shieber , 1994 , p. 77.
- ^ "Prueba de Turing, en la temporada 4, episodio 3" . Fronteras científicas americanas . Compañía de producción Chedd-Angier. 1993–1994. PBS . Archivado desde el original en 2006.
- ^ a b c Traiger 2000 .
- ^ Saygin, Roberts y Beber 2008 .
- ↑ a b Shah, 2011 .
- ^ a b Oppy, Graham y Dowe, David (2011) La prueba de Turing . Enciclopedia de Filosofía de Stanford .
- ↑ a b Moor, 2003 .
- ^ Traiger 2000 , p. 99.
- ^ Sterrett 2000 .
- ^ Genova 1994 , Hayes y Ford 1995 , Heil 1998 , Dreyfus 1979
- ^ R. Epstein, G. Roberts, G. Polonia, (eds.) Análisis de la prueba de Turing: cuestiones filosóficas y metodológicas en la búsqueda de la computadora pensante. Springer: Dordrecht, Holanda
- ^ Thompson, Clive (julio de 2005). "La otra prueba de Turing" . Edición 13.07 . Revista WIRED . Consultado el 10 de septiembre de 2011 .
Como hombre gay que pasó casi toda su vida en el armario, Turing debe haber sido muy consciente de la dificultad social de fingir constantemente su verdadera identidad. Y hay una deliciosa ironía en el hecho de que décadas de científicos de inteligencia artificial han optado por ignorar la prueba de distorsión de género de Turing, solo para que tres mujeres en edad universitaria la aprovechen
. ( Versión completa ). - ^ Colby y col. 1972 .
- ↑ a b Swirski, 2000 .
- ^ Saygin y Cicekli 2002 .
- ^ Turing 1950 , en "Crítica del nuevo problema".
- ^ Haugeland 1985 , p. 8.
- ^ "Estas seis disciplinas", escriben Stuart J. Russell y Peter Norvig , "representan la mayor parte de la IA". Russell y Norvig 2003 , pág. 3
- ^ "¡Watson gana 'Jeopardy!' The IBM Challenge " , Sony Pictures , 16 de febrero de 2011, archivado desde el original el 22 de mayo de 2011
- ^ Urban, Tim (febrero de 2015). "La revolución de la IA: nuestra inmortalidad o extinción" . Espera, pero por qué . Consultado el 5 de abril de 2015 .
- ^ Smith, GW (27 de marzo de 2015). "Arte e Inteligencia Artificial" . ArtEnt. Archivado desde el original el 25 de junio de 2017 . Consultado el 27 de marzo de 2015 .
- ^ Saygin y Cicekli 2002 , págs. 227-258.
- ^ Turing , 1950 , p. 448.
- ^ Varias alternativas a la prueba de Turing, diseñadas para evaluar máquinas más inteligentes que los humanos:
- Jose Hernandez-Orallo (2000), "Beyond the Turing Test", Journal of Logic, Language and Information , 9 (4): 447–466, CiteSeerX 10.1.1.44.8943 , doi : 10.1023 / A: 1008367325700 , S2CID 14481982 .
- DL Dowe & AR Hajek (1997), "A computational extension to the Turing Test" , Proceedings of the 4th Conference of the Australasian Cognitive Science Society , archivado desde el original el 28 de junio de 2011 , consultado el 21 de julio de 2009 .
- Shane Legg y Marcus Hutter (2007), "Universal Intelligence: A Definition of Machine Intelligence" (PDF) , Minds and Machines , 17 (4): 391–444, arXiv : 0712.3329 , Bibcode : 2007arXiv0712.3329L , doi : 10.1007 / s11023-007-9079-x , S2CID 847021 , archivado desde el original (PDF) el 18 de junio de 2009 , consultado el 21 de julio de 2009 .
- Hernández-Orallo, J; Dowe, DL (2010), "Midiendo la inteligencia universal: hacia una prueba de inteligencia en cualquier momento", Inteligencia artificial , 174 (18): 1508-1539, doi : 10.1016 / j.artint.2010.09.006 .
- ^ Russell y Norvig (2003 , págs. 958–960) identifique el argumento de Searle con el que responde Turing.
- ^ Turing, 1950 .
- ^ Turing , 1950 , p. 442.
- ^ Shah y Warwick 2010j .
- ^ Kevin Warwick; Huma Shah (junio de 2014). "Identificación errónea humana en las pruebas de Turing". Revista de Inteligencia Artificial Experimental y Teórica . 27 (2): 123-135. doi : 10.1080 / 0952813X.2014.921734 . S2CID 45773196 .
- ^ Warwick, Kevin; Shah, Huma (4 de marzo de 2017). "Tomando la quinta enmienda en el juego de imitación de Turing" (PDF) . Revista de Inteligencia Artificial Experimental y Teórica . 29 (2): 287-297. doi : 10.1080 / 0952813X.2015.1132273 . ISSN 0952-813X . S2CID 205634569 .
- ^ Warwick, Kevin; Shah, Huma (4 de marzo de 2015). "Identificación errónea humana en las pruebas de Turing". Revista de Inteligencia Artificial Experimental y Teórica . 27 (2): 123-135. doi : 10.1080 / 0952813X.2014.921734 . ISSN 0952-813X . S2CID 45773196 .
- ↑ a b Russell y Norvig , 2003 , p. 3.
- ^ Turing 1950 , bajo el título "El juego de la imitación", donde escribe, "En lugar de intentar tal definición, reemplazaré la pregunta por otra, que está estrechamente relacionada con ella y se expresa en palabras relativamente inequívocas".
- ^ McCarthy, John (1996), "La filosofía de la inteligencia artificial" , ¿Qué tiene la IA en común con la filosofía?
- ^ French, Robert M. , "Subcognition and the Limits of the Turing Test", Mind , 99 (393): 53–65
- ^ Turing, Alan (octubre de 1950), "Maquinaria informática e inteligencia", Mind, LIX (236): 433–460, doi: 10.1093 / mind / LIX.236.433, ISSN 0026-4423
- ^ Turing, Alan (9 de septiembre de 2004), "Computing Machinery and Intelligence (1950)" , The Essential Turing , Oxford University Press, ISBN 978-0-19-825079-1, consultado el 10 de mayo de 2021
- ^ Bion 1979 .
- ^ Hinshelwood 2001 .
- ^ Malik, Jitendra ; Mori, Greg, Rompiendo un CAPTCHA visual
- ^ Pachal, Pete, Captcha FAIL: los investigadores descifran la prueba de Turing más popular de la Web
- ^ El algoritmo de Tung, Liam, Google rompe CAPTCHA con una precisión del 99,8 por ciento
- ^ Ghosemajumder, Shuman, The Imitation Game: The New Frontline of Security
- ^ McCorduck 2004 , págs. 503–505, Feigenbaum 2003 . La prueba de expertos en la materia también se menciona en Kurzweil (2005).
- ^ Gent, Edd (2014), La prueba de Turing: enfoque de múltiples rutas de la computación inspirada en el cerebro
- ^ Russell y Norvig 2010 , p. 3.
- ^ Bastón de Cacm (2017). "Un salto de lo artificial a la inteligencia". Comunicaciones de la ACM . 61 : 10-11. doi : 10.1145 / 3168260 .
- ^ http://tech.groups.yahoo.com/group/arcondev/message/337
- ^ McKinstry, Chris (1997), "Prueba de señal inteligente mínima: una prueba de Turing alternativa" , Inteligencia artificial canadiense (41)
- ^ DL Dowe & AR Hajek (1997), "A computational extension to the Turing Test" , Proceedings of the 4th Conference of the Australasian Cognitive Science Society , archivado desde el original el 28 de junio de 2011 , consultado el 21 de julio de 2009 .
- ^ Jose Hernandez-Orallo (2000), "Beyond the Turing Test", Journal of Logic, Language and Information , 9 (4): 447–466, CiteSeerX 10.1.1.44.8943 , doi : 10.1023 / A: 1008367325700 , S2CID 14481982 .
- ^ Hernandez-Orallo y Dowe 2010 .
- ^ Una aproximación de la medida de inteligencia universal, Shane Legg y Joel Veness, 2011 Solomonoff Memorial Conference
- ^ Alex_Pasternack (18 de abril de 2011). "Una MacBook puede haberle dado a Roger Ebert su voz, pero un iPod le salvó la vida (video)" . Tarjeta madre. Archivado desde el original el 6 de septiembre de 2011 . Consultado el 12 de septiembre de 2011 .
Lo llama la "Prueba de Ebert", según el estándar de IA de Turing ...
- ^ Whitby , 1996 , p. 53.
- ^ ALICE Anniversary and Colloquium on Conversation , ALICE Artificial Intelligence Foundation, archivado desde el original el 16 de abril de 2009 , consultado el 29 de marzo de 2009
- ^ Premio Loebner 2008 , Universidad de Reading , consultado el 29 de marzo de 2009[ enlace muerto permanente ]
- ^ Simposio de AISB 2008 sobre la prueba de Turing , Sociedad para el estudio de la inteligencia artificial y la simulación del comportamiento, archivado desde el original el 18 de marzo de 2009 , consultado el 29 de marzo de 2009
Referencias
- Bion, WS (1979), "Sacar lo mejor de un mal trabajo", Seminarios clínicos y cuatro artículos , Abingdon: Fleetwood Press.
- Bowden, Margaret A. (2006), Mente como máquina: una historia de la ciencia cognitiva , Oxford University Press , ISBN 978-0-19-924144-6
- Colby, KM; Hilf, FD; Weber, S .; Kraemer, H. (1972), "Pruebas de indistinguibilidad similares a las de Turing para la validación de una simulación por computadora de procesos paranoides", Inteligencia artificial , 3 : 199-221, doi : 10.1016 / 0004-3702 (72) 90049-5
- Copeland, Jack (2003), Moor, James (ed.), "The Turing Test", The Turing Test: The Elusive Standard of Artificial Intelligence , Springer, ISBN 978-1-4020-1205-1
- Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence , Nueva York, NY: BasicBooks, ISBN 978-0-465-02997-6
- Descartes, René (1996). Discurso sobre el método y meditaciones sobre la primera filosofía . New Haven y Londres: Yale University Press. ISBN 978-0300067729.
- Diderot, D. (2007), Pensees Philosophiques, Addition aux Pensees Philosophiques , [Flammarion], ISBN 978-2-0807-1249-3
- Dreyfus, Hubert (1979), What Computers Still Can't Do , Nueva York: MIT Press, ISBN 978-0-06-090613-9
- Feigenbaum, Edward A. (2003), "Algunos desafíos y grandes desafíos para la inteligencia computacional", Journal of the ACM , 50 (1): 32–40, doi : 10.1145 / 602382.602400 , S2CID 15379263
- Francés, Robert M. (1990), "Subcognition and the Limits of the Turing Test" , Mind , 99 (393): 53–65, doi : 10.1093 / mind / xcix.393.53 , S2CID 38063853
- Genova, J. (1994), "El juego de adivinanzas sexuales de Turing", Epistemología social , 8 (4): 314–326, doi : 10.1080 / 02691729408578758
- Harnad, Stevan (2004), "El juego de anotaciones: Sobre Turing (1950) sobre informática, maquinaria e inteligencia", en Epstein, Robert; Peters, Grace (eds.), The Turing Test Sourcebook: Philosophical and Methodological Issues in the Quest for the Thinking Computer , Klewer
- Haugeland, John (1985), Inteligencia artificial: la idea misma , Cambridge, Massachusetts: MIT Press.
- Hayes, Patrick; Ford, Kenneth (1995), "Prueba de Turing considerada perjudicial", Actas de la Decimocuarta Conferencia Conjunta Internacional sobre Inteligencia Artificial (IJCAI95-1), Montreal, Quebec, Canadá. : 972–997
- Heil, John (1998), Filosofía de la mente: una introducción contemporánea , Londres y Nueva York: Routledge, ISBN 978-0-415-13060-8
- Hinshelwood, RD (2001), Mentalidad de grupo y tener una mente: Reflexiones sobre el trabajo de Bion en grupos y en psicosis
- Kurzweil, Ray (1990), La era de las máquinas inteligentes , Cambridge, Massachusetts: MIT Press, ISBN 978-0-262-61079-7
- Kurzweil, Ray (2005), The Singularity is Near , Penguin Books, ISBN 978-0-670-03384-3
- Loebner, Hugh Gene (1994), "In response" , Communications of the ACM , 37 (6): 79–82, doi : 10.1145 / 175208.175218 , S2CID 38428377 , consultado el 22 de marzo de 2008
- McCorduck, Pamela (2004), Máquinas que piensan (2a ed.), Natick, MA: AK Peters, Ltd., ISBN 1-56881-205-1
- Moor, James, ed. (2003), The Turing Test: The Elusive Standard of Artificial Intelligence , Dordrecht: Kluwer Academic Publishers, ISBN 978-1-4020-1205-1
- Penrose, Roger (1989), The Emperor's New Mind: Concerning Computers, Minds, and The Laws of Physics , Oxford University Press, ISBN 978-0-14-014534-2
- Russell, Stuart ; Norvig, Peter (2003) [1995]. Inteligencia artificial: un enfoque moderno (2ª ed.). Prentice Hall. ISBN 978-0137903955.
- Russell, Stuart J .; Norvig, Peter (2010), Inteligencia artificial: un enfoque moderno (3.a ed.), Upper Saddle River, Nueva Jersey: Prentice Hall, ISBN 978-0-13-604259-4
- Saygin, AP; Cicekli, I .; Akman, V. (2000), "Prueba de Turing: 50 años después" (PDF) , Minds and Machines , 10 (4): 463–518, doi : 10.1023 / A: 1011288000451 , hdl : 11693/24987 , S2CID 990084. Reimpreso en Moor (2003 , págs. 23–78).
- Saygin, AP; Cicekli, I. (2002), "Pragmática en la conversación entre humanos y computadoras", Journal of Pragmatics , 34 (3): 227–258, CiteSeerX 10.1.1.12.7834 , doi : 10.1016 / S0378-2166 (02) 80001-7.
- Saygin, AP; Roberts, Gary; Beber, Grace (2008), "Comentarios sobre" Maquinaria informática e inteligencia "de Alan Turing", en Epstein, R .; Roberts, G .; Poland, G. (eds.), Analizando la prueba de Turing: cuestiones filosóficas y metodológicas en la búsqueda de la computadora pensante , Dordrecht, Países Bajos: Springer, Bibcode : 2009pttt.book ..... E , doi : 10.1007 / 978- 1-4020-6710-5 , ISBN 978-1-4020-9624-2, S2CID 60070108
- Searle, John (1980), "Mentes, cerebros y programas" , Ciencias del comportamiento y del cerebro , 3 (3): 417–457, doi : 10.1017 / S0140525X00005756. Los números de página anteriores se refieren a una impresión estándar en PDF del artículo. Véase también el borrador original de Searle .
- Shah, Huma; Warwick, Kevin (2009a), "La emoción en la prueba de Turing: una tendencia a la baja de las máquinas en los últimos premios Loebner", en Vallverdú, Jordi; Casacuberta, David (eds.), Handbook of Research on Synthetic Emotions and Sociable Robotics: New Applications in Afective Computing and Artificial Intelligence , Information Science, IGI, ISBN 978-1-60566-354-8
- Shah, Huma; Warwick, Kevin (abril de 2010a), "Prueba del juego de imitación de pares paralelos de cinco minutos de Turing", Kybernetes , 4 (3): 449–465, doi : 10.1108 / 03684921011036178
- Shah, Huma; Warwick, Kevin (junio de 2010j), "Identificación errónea del interlocutor oculto en las pruebas prácticas de Turing", Minds and Machines , 20 (3): 441–454, doi : 10.1007 / s11023-010-9219-6 , S2CID 34076187
- Shah, Huma (5 de abril de 2011), el malentendido juego de imitación de Turing y el éxito de Watson de IBM
- Shapiro, Stuart C. (1992), "La prueba de Turing y el economista", ACM SIGART Bulletin , 3 (4): 10–11, doi : 10.1145 / 141420.141423 , S2CID 27079507
- Shieber, Stuart M. (1994), "Lecciones de una prueba de Turing restringida" , Comunicaciones del ACM , 37 (6): 70–78, arXiv : cmp-lg / 9404002 , Bibcode : 1994cmp.lg .... 4002S , CiteSeerX 10.1.1.54.3277 , doi : 10.1145 / 175208.175217 , S2CID 215823854 , consultado el 25 de marzo de 2008
- Sterrett, SG (2000), "Turing's Two Test of Intelligence", Minds and Machines , 10 (4): 541, doi : 10.1023 / A: 1011242120015 , hdl : 10057/10701 , S2CID 9600264 (reimpreso en The Turing Test: The Elusive Standard of Artificial Intelligence editado por James H. Moor, Kluwer Academic 2003) ISBN 1-4020-1205-5
- Sundman, John (26 de febrero de 2003), "Artificial stupidity" , Salon.com , archivado desde el original el 7 de marzo de 2008 , consultado el 22 de marzo de 2008
- Thomas, Peter J. (1995), Las dimensiones sociales e interactivas de las interfaces humano-computadora , Cambridge University Press , ISBN 978-0-521-45302-8
- Swirski, Peter (2000), Entre la literatura y la ciencia: Poe, Lem y exploraciones en estética, ciencia cognitiva y conocimiento literario , McGill-Queen's University Press , ISBN 978-0-7735-2078-3
- Traiger, Saul (2000), "Making the Right Identification in the Turing Test", Minds and Machines , 10 (4): 561, doi : 10.1023 / A: 1011254505902 , S2CID 2302024 (reimpreso en The Turing Test: The Elusive Standard of Artificial Intelligence editado por James H. Moor, Kluwer Academic 2003) ISBN 1-4020-1205-5
- Turing, Alan (1948), "Machine Intelligence", en Copeland, B. Jack (ed.), The Essential Turing: Las ideas que dieron origen a la era de la informática , Oxford: Oxford University Press, ISBN 978-0-19-825080-7
- Turing, Alan (octubre de 1950), "Computing Machinery and Intelligence", Mind , LIX (236): 433–460, doi : 10.1093 / mind / LIX.236.433 , ISSN 0026-4423
- Turing, Alan (1952), "Can Automatic Calculating Machines be Said to Think?", En Copeland, B. Jack (ed.), The Essential Turing: The ideas that dieron nacimiento a la era de la informática , Oxford: Oxford University Press, ISBN 978-0-19-825080-7
- Weizenbaum, Joseph (enero de 1966), "ELIZA - A Computer Program For the Study of Natural Language Communication Between Man and Machine", Communications of the ACM , 9 (1): 36–45, doi : 10.1145 / 365153.365168 , S2CID 1896290
- Whitby, Blay (1996), "La prueba de Turing: ¿El callejón sin salida más grande de la IA?", En Millican, Peter; Clark, Andy (eds.), Máquinas y pensamiento: El legado de Alan Turing , 1 , Oxford University Press , págs. 53–62, ISBN 978-0-19-823876-8
- Zylberberg, A .; Calot, E. (2007), "Optimización de mentiras en dominios orientados al estado basados en algoritmos genéticos", Actas VI Simposio Iberoamericano de Ingeniería de Software : 11-18, ISBN 978-9972-2885-1-7
Otras lecturas
- Cohen, Paul R. (2006), " ' Si no es la prueba de Turing, ¿entonces qué?" , Revista AI , 26 (4).
- Marcus, Gary , "¿Soy humano?: Los investigadores necesitan nuevas formas de distinguir la inteligencia artificial de la natural", Scientific American , vol. 316, no. 3 (marzo de 2017), págs. 58–63. Se necesitan múltiples pruebas de eficacia de la inteligencia artificial porque, "así como no existe una única prueba de destreza atlética , no puede haber una prueba definitiva de inteligencia ". Una de esas pruebas, un "Desafío de la construcción", pondría a prueba la percepción y la acción física, "dos elementos importantes del comportamiento inteligente que estaban completamente ausentes en la prueba de Turing original". Otra propuesta ha sido darle a las máquinas las mismas pruebas estandarizadas de ciencia y otras disciplinas que toman los escolares. Un obstáculo insuperable hasta ahora para la inteligencia artificial es la incapacidad para una desambiguación confiable . "Prácticamente cada oración [que genera la gente] es ambigua , a menudo de múltiples formas". Un ejemplo destacado se conoce como el "problema de desambiguación de pronombres": una máquina no tiene forma de determinar a quién oa qué se refiere un pronombre en una oración, como "él", "ella" o "eso".
- Moor, James H. (2001), "The Status and Future of the Turing Test" , Minds and Machines , 11 (1): 77-93, doi : 10.1023 / A: 1011218925467 , ISSN 0924-6495 , S2CID 35233851 .
- Warwick, Kevin y Shah, Huma (2016), "Juego de imitación de Turing: conversaciones con lo desconocido", Cambridge University Press.
enlaces externos
- La prueba de Turing: una ópera de Julian Wagstaff
- Prueba de Turing en Curlie
- La prueba de Turing : ¿qué tan precisa podría ser realmente la prueba de Turing?
- Zalta, Edward N. (ed.). "La prueba de Turing" . Enciclopedia de Filosofía de Stanford .
- Prueba de Turing: 50 años después revisa medio siglo de trabajo sobre la prueba de Turing, desde el punto de vista de 2000.
- Apuesta entre Kapor y Kurzweil , incluidas las justificaciones detalladas de sus respectivas posiciones.
- Por qué la prueba de Turing es el callejón sin salida más grande de la IA por Blay Witby
- Jabberwacky.com Un charlatán de IA que aprende e imita a los humanos
- Ensayos del New York Times sobre inteligencia artificial, parte 1 y parte 2
- " " La primera prueba de Turing (restringida) ", en la temporada 2, episodio 5" . Fronteras científicas americanas . Compañía de producción Chedd-Angier. 1991–1992. PBS . Archivado desde el original en 2006.
- Informática Actividad docente Unplugged para la prueba de Turing.
- Wiki News: "Charla: Los profesionales de la informática celebran el décimo aniversario de ALICE"