La inteligencia artificial (IA) ha avanzado a pasos agigantados en los últimos años, pero aún hay un fenómeno que nos hace creer que estas máquinas tienen una comprensión más profunda de la realidad de lo que realmente tienen. Este fenómeno se conoce como el efecto Eliza, y se produce cuando alguien atribuye falsamente procesos de pensamiento y emociones humanas a un sistema de inteligencia artificial, sobreestimando así la inteligencia general del sistema.
¿Qué es el efecto Eliza?
El efecto Eliza se refiere a la tendencia de las personas a atribuir falsamente procesos de pensamiento y emociones humanas a un sistema de IA, creyendo así que el sistema es más inteligente de lo que realmente es. El fenómeno fue nombrado en honor a ELIZA, un chatbot creado en 1966 por el profesor del MIT Joseph Weizenbaum.
Aunque el fenómeno puede parecer reminiscente de películas de ciencia ficción como Her y Ex Machina, no se necesita una pieza altamente sofisticada de inteligencia artificial para desencadenar el efecto Eliza. En cambio, su nombre proviene de un chatbot bastante rudimentario lanzado en la década de 1960. Y desde entonces, desde periodistas hasta científicos informáticos capacitados, lo han experimentado.
Los orígenes del efecto Eliza
El efecto Eliza se puede rastrear hasta el trabajo de Joseph Weizenbaum, quien fue uno de los primeros investigadores de IA en los Estados Unidos. En la década de 1950, exploró formas de hacer que las computadoras fueran más sofisticadas y humanas, programándolas para realizar tareas relacionadas con cosas como la percepción y el razonamiento. Esto culminó en programas informáticos innovadores que podían resolver problemas de palabras, demostrar teoremas lógicos e incluso jugar al ajedrez.
Pero había un ámbito en el que Weizenbaum aún no había conquistado completamente con las computadoras: la comprensión y creación del lenguaje humano. O, en el mundo de la IA, el procesamiento del lenguaje natural. Las computadoras aún no podían mantener una conversación coherente y fluida con los humanos porque el negocio de comprender y expresar el lenguaje es tan complejo y matizado, demasiado complejo y matizado para la computadora del siglo XX, a menos que la conversación estuviera muy restringida a preguntas y respuestas fijas relacionadas con un tema en particular.
¿Por qué efecto Eliza?
El efecto Eliza proviene de ELIZA, un chatbot creado por el profesor del MIT Joseph Weizenbaum en 1966. ELIZA imitaba los patrones conversacionales de los psicoterapeutas reconociendo palabras clave en la declaración del usuario y luego reflejándolas en forma de una simple frase o pregunta. Sus salidas de texto genéricas reflejaban el lenguaje de los usuarios, dando la ilusión de que entendía más de lo que realmente entendía. Esto llevó a algunas personas a percibir a ELIZA como si tuviera rasgos humanos como complejidad emocional y comprensión, depositando así su confianza en un programa de computadora simple.
ELIZA simplemente reflejaba el lenguaje de los usuarios
Todo eso cambió cuando llegó ELIZA. Creado por Weizenbaum mientras estaba en el MIT en la década de 1960, ELIZA era un chatbot simple que interactuaba con los usuarios en conversaciones escritas. Funcionaba reconociendo palabras clave en la declaración del usuario y luego reflejándolas en forma de frases o preguntas simples.
Referencias
- Built In. (2021). The Eliza Effect: Why We Overestimate AI’s Intelligence. https://builtin.com/artificial-intelligence/eliza-effect
- Weizenbaum, J. (1966). ELIZA—a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45. doi: 10.1145/365153.365168
Ficha didáctica: Lo aprendido
¿Qué es el efecto Eliza y cómo afecta nuestra relación con la tecnología?
El efecto Eliza se refiere a la tendencia de las personas a atribuir una mayor inteligencia y comprensión a los sistemas de inteligencia artificial (IA) de lo que realmente tienen, especialmente en el contexto de conversaciones y diálogos con chatbots y otros sistemas de IA. Este efecto se originó con ELIZA, un chatbot creado en la década de 1960 que imitaba los patrones de conversación de los psicoterapeutas al reconocer palabras clave en las declaraciones de los usuarios y reflejarlas de vuelta en forma de frases o preguntas simples. A pesar de que ELIZA no tenía una comprensión real de lo que se le decía, los usuarios comenzaron a atribuirle una mayor inteligencia y comprensión de lo que realmente tenía, lo que llevó a una mayor confianza en el sistema y a la revelación de información personal. El efecto Eliza puede tener consecuencias negativas, como la propagación de información falsa y la manipulación de las personas a través de la persuasión. A medida que la tecnología de la IA continúa mejorando, es importante ser conscientes de este efecto y de cómo puede afectar nuestra relación con la tecnología.
¿Cuáles son los peligros potenciales del efecto Eliza, como la propagación de la desinformación y la manipulación?
Los peligros potenciales del efecto Eliza incluyen la propagación de la desinformación y la manipulación. La sobreestimación de la inteligencia de un sistema de inteligencia artificial puede llevar a un nivel excesivo de confianza, lo que puede ser peligroso cuando ese sistema comete errores. Los chatbots sofisticados como ChatGPT a menudo difunden información falsa, pero esa información está empaquetada en una declaración elocuente y gramaticalmente correcta que es fácil de aceptar como verdad. Los usuarios que ya atribuyen un alto nivel de inteligencia y comprensión del mundo real al sistema pueden tener «alucinaciones», lo que puede ser un gran problema. Además, el efecto Eliza puede ser un medio muy poderoso de persuasión y manipulación, dependiendo de quién controle el chatbot. La conversación de la inteligencia artificial está mejorando, lo que significa que el efecto Eliza no desaparecerá pronto. Es necesario que todos tengamos una mentalidad más crítica y que los desarrolladores y usuarios de los sistemas sean responsables de prevenir estos peligros. El efecto Eliza se originó en ELIZA, un chatbot creado por el profesor de MIT Joseph Weizenbaum en 1966, que imitaba los patrones conversacionales de los psicoterapeutas.
- [con]Neurona #26 - 18 de diciembre de 2023
- [con]Neurona #25 - 10 de diciembre de 2023
- [con]Neurona #24 - 2 de diciembre de 2023