ELIZA es un programa temprano de lenguaje natural creado de 1964 a 1964 [1] en el Laboratorio de Inteligencia Artificial del MIT por Joseph Weizenbaum. ¿Cuántas personas le creerían?

La pregunta aquí parece un poco confusa, por lo que no estoy seguro de qué pregunta exactamente el interrogador. Pero aquí hay alguna información posiblemente relevante.

Conocía un poco a Joe Weizenbaum: fue mi primer asesor académico cuando comencé la escuela de posgrado en el laboratorio de IA del MIT en 1969, pero eso duró solo hasta que encontré a alguien (Patrick Winston) para que me asesorara en mi proyecto de tesis de maestría. Joe era un buen tipo, pero nunca hablamos demasiado. Estaba emocionado por sumergirme en la investigación de IA, y él ya estaba ansioso por toda la empresa.

Eliza era un programa, probablemente el primer ejemplo de lo que hoy llamamos un “chatbot”, con el que “hablaste” a través de un terminal tipo teletipo (y un poco más tarde a través de un terminal de video de solo texto). Básicamente, Eliza era un conjunto de patrones lingüísticos que dispararían plantillas para respuestas lingüísticas, a veces con fragmentos de la entrada del usuario incluidos en la salida. Entonces, si escribiste “Tengo miedo a los fantasmas”, podría responder “¿Por qué tienes miedo a los fantasmas?”. Si Eliza no tuviera una mejor respuesta, podría decir algo como “Continúa” o “Cuéntame sobre tu familia”.

Eliza fue modelada (muy libremente) según el estilo de psicoanálisis Rogeriano, en el que el analista sigue insistiendo en que el paciente siga hablando, o tal es la caricatura del trabajo de Carl Rogers.

Para un programa tan simple y primitivo, Eliza fue sorprendentemente efectiva. Ciertamente no pasó la prueba de Turing, que (si realmente leyó el documento de Turing sobre esto) tiene que hacer mucho más que repetir las frases enlatadas. Se requiere mucho conocimiento del mundo para simular adecuadamente a un humano. Pero era divertido jugar con Eliza, y muchos de nosotros disfrutamos explorando cómo respondería a las diversas entradas. Como dicen los británicos sobre los refrigerios en el bar, fue muy “ish”; una vez que comenzaste con esto, fue difícil dejar de hacerlo. Eliza era la mejor pieza de IA cognitiva que la mayoría de nosotros habíamos visto hasta ese momento. Pero después de un corto tiempo, se volvió repetitivo y aburrido.

Lo que le preocupaba a Joe era que los estudiantes y las secretarias comenzaron a pasar el rato en su oficina cuando él estaba afuera, solo buscando la oportunidad de jugar con Eliza. Para algunos fue solo curiosidad, pero algunos comenzaron a revelar sus secretos más íntimos, tal como lo harían con un verdadero psicoanalista humano. Eso fue un problema, ya que las interacciones se registraban (a veces).

Esta fue una de las muchas preocupaciones que llevaron a Joe a concluir que la IA y las computadoras en general eran fuerzas deshumanizadoras en nuestra sociedad y, por lo tanto, algo que debía controlarse y tal vez suprimirse. Nunca seguí su lógica en esto, pero era bastante sincero en esta creencia, y pasó gran parte de su carrera posterior pensando y escribiendo sobre este tema.