efecto ELIZA


El efecto ELIZA , en informática , es la tendencia a asumir inconscientemente que los comportamientos informáticos son análogos a los comportamientos humanos; es decir, la antropomorfización .

En su forma específica, el efecto ELIZA se refiere solo a "la susceptibilidad de las personas para leer mucho más de lo que se justifica en cadenas de símbolos, especialmente palabras, unidas por computadoras". [1] Un ejemplo trivial de la forma específica del efecto Eliza, dado por Douglas Hofstadter , implica un cajero automático que muestra las palabras "GRACIAS" al final de una transacción. Un observador (muy) casual podría pensar que la máquina en realidad está expresando gratitud; sin embargo, la máquina solo está imprimiendo una cadena de símbolos preprogramados. [1]

En términos más generales, el efecto ELIZA describe cualquier situación [2] [3] en la que, basándose únicamente en la salida de un sistema, los usuarios perciben que los sistemas informáticos tienen "cualidades y capacidades intrínsecas que el software que controla la (salida) no puede lograr" [4] o "asumir que [los resultados] reflejan una mayor causalidad de lo que realmente hacen". [5] Tanto en su forma específica como general, el efecto ELIZA es notable por ocurrir incluso cuando los usuarios del sistema son conscientes de la naturaleza determinada de la salida producida por el sistema. Desde un punto de vista psicológico, el efecto ELIZA es el resultado de una sutil disonancia cognitivaentre la conciencia del usuario de las limitaciones de la programación y su comportamiento hacia la salida del programa . [6] El descubrimiento del efecto ELIZA fue un desarrollo importante en inteligencia artificial , demostrando el principio de usar ingeniería social en lugar de programación explícita para pasar una prueba de Turing . [7]

El efecto lleva el nombre del chatbot ELIZA de 1966 , desarrollado por el científico informático del MIT Joseph Weizenbaum . Al ejecutar el guión DOCTOR de Weizenbaum , ELIZA parodiaba a un psicoterapeuta rogeriano , en gran parte reformulando las respuestas del "paciente " como preguntas:

Aunque se diseñó estrictamente como un mecanismo para apoyar la "conversación en lenguaje natural" con una computadora, [9] se encontró que el script DOCTOR de ELIZA fue sorprendentemente exitoso en provocar respuestas emocionales de los usuarios que, en el curso de la interacción con el programa, comenzaron a atribuir comprensión y motivación al resultado del programa. [10] Como Weizenbaum escribió más tarde: "No me había dado cuenta... de que exposiciones extremadamente cortas a un programa de computadora relativamente simple podrían inducir pensamientos delirantes poderosos en personas bastante normales". [11]De hecho, el código de ELIZA no había sido diseñado para provocar esta reacción en primer lugar. Tras la observación, los investigadores descubrieron que los usuarios asumían inconscientemente que las preguntas de ELIZA implicaban interés y participación emocional en los temas discutidos, incluso cuando sabían conscientemente que ELIZA no simulaba emoción . [12]

ELIZA convenció a algunos usuarios de pensar que una máquina era humana. Este cambio en la interacción hombre-máquina marcó un progreso en las tecnologías que emulan el comportamiento humano. William Meisel distingue dos grupos de chatbots como " asistentes personales generales " y "asistentes digitales especializados". [13] Los asistentes digitales generales se han integrado en dispositivos personales, con habilidades como enviar mensajes, tomar notas, consultar calendarios y programar citas. Los asistentes digitales especializados "operan en dominios muy específicos o ayudan con tareas muy específicas". [13] Asistentes digitales que están programados para ayudar a la productividad asumiendo comportamientos análogos a los humanos.