Terapias psicológicas con Inteligencia Artificial: El efecto Eliza
Igual que algunos grandes científicos lamentaron profundamente el uso cruel de sus hallazgos en la segunda guerra mundial, como el terrible ataque de Hiroshima y Nagasaki, también el informático Joseph Weizenbaum se pasó al bando de los detractores de la inteligencia artificial, habiendo sido un pionero en la materia.
Si bien un chat inteligente puede ser la solución utópica a problemas como el acceso a la terapia psicológica accesible para todos, también podría ser el arma más cruel contra las masas.
Todo empezó en 1966 con ELIZA…

Terapias psicológicas con Inteligencia Artificial – El efecto ELIZA
A lo largo de la vida de Joseph Weizenbaum, le gustaba contar la historia de aquel programa de ordenador que había creado en la década de 1960 como profesor en el MIT. Era un simple chatbot llamado ELIZA que podía interactuar con los usuarios en una conversación mecanografiada.
Cuando reclutó a la gente para que lo probara, Weizenbaum vio reacciones similares una y otra vez: la gente estaba fascinada con el programa. Su entusiasmo llegó hasta el punto de que contaban a Eliza detalles muy íntimos sobre sus vidas. Era como si hubieran estado esperando a que alguien, o algo, les preguntase para abrir la caja de Pandora de sus sentimientos más profundos.
ELIZA era un programa informático muy simple, sobre todo si comparamos con los que existen a día de hoy. Lo que hacía era buscar la palabra clave en la declaración del usuario y luego la reflejaba en forma de una simple frase o pregunta.
Por ejemplo, si el usuario decía su nombre, después le hacía una pregunta llamándole por su nombre, lo cual psicológicamente generaba en los usuarios una sensación de hablar con otro humano y de cercanía personal, algo que era totalmente nuevo para cualquier persona en aquella época.
ELIZA fue uno de los primeros programas de ordenador que pudo simular de manera convincente una conversación humana, lo que a Weizenbaum le pareció francamente un poco perturbador.
No esperaba que la gente estuviera tan cautivada. Le preocupaba que los usuarios no entendieran completamente que estaban hablando con un montón de circuitos y reflexionó sobre las implicaciones más amplias de las máquinas que podrían imitar efectivamente un sentido de comprensión humana.
Weizenbaum comenzó a plantear estas grandes y difíciles preguntas en un momento en el que el campo de la inteligencia artificial aún era relativamente nuevo y en su mayoría estaba lleno de optimismo.
Muchos investigadores soñaron con crear un mundo donde los humanos y la tecnología se fusionaran de nuevas formas. Querían crear ordenadores que pudieran hablar con nosotros y responder a nuestras necesidades y deseos.
Weizenbaum, mientras tanto, tomaría un camino diferente
Comenzaría a hablar en contra de la erosión de la frontera entre humanos y máquinas. Y eventualmente rompería con la defensa de la inteligencia artificial, convirtiéndose en uno de los primeros y más ruidosos críticos de la misma tecnología que ayudó a construir.
Lenguaje espejo
A pesar de los muchos avances de las últimas décadas, ha habido un ámbito en particular especialmente desafiante para los ordenadores. Lucharon por dominar el lenguaje humano, que en el ámbito de la inteligencia artificial a menudo se llama ‘lenguaje natural’.
Como explica la científica informática Melanie Mitchell, ‘el procesamiento del lenguaje natural es probablemente el problema más difícil para la IA, y la razón es que el lenguaje es casi en cierto sentido equivalente al pensamiento‘.
El lenguaje es casi en cierto sentido equivalente al pensamiento. Melanie Mitchell (científica informática).
El uso del lenguaje reúne todo nuestro conocimiento sobre cómo funciona el mundo, incluida nuestra comprensión de otros humanos y nuestro sentido intuitivo de los conceptos fundamentales.
Como ejemplo, Mitchell presenta la declaración ‘una bola de acero cayó sobre una mesa de cristal y ésta se hizo añicos’. Los humanos, señala, comprenden de inmediato que ‘ésta’ se refiere a la mesa de cristal. Las máquinas, por el contrario, pueden tener o no suficiente conocimiento contextual programado sobre materiales y física para llegar a esa misma conclusión. Para la gente, según ella, es de sentido común, pero no para la IA.
Poco después de que Weizenbaum llegara al MIT en la década de 1960, comenzó a buscar una solución a este problema del lenguaje natural. Se dio cuenta de que podía crear un chatbot que realmente no necesitara saber nada sobre el mundo. No diría hechos, simplemente se reflejaría en el usuario, como un espejo, y se retroalimentaría de la información facilitada directamente por él.
Weizenbaum llevaba mucho tiempo interesado en la psicología y reconocía que los patrones del habla de un terapeuta podían ser fáciles de automatizar. Los resultados, sin embargo, lo inquietaron.
La gente parecía tener conversaciones significativas con algo que nunca había tenido la intención de que fuera una herramienta terapéutica real. Para otros, sin embargo, esto pareció abrir todo un mundo de posibilidades.
Antes de llegar al MIT, Weizenbaum había pasado un tiempo en Stanford, donde se hizo amigo de un psiquiatra llamado Dr. Kenneth Colby. Colby había trabajado en un gran hospital psiquiátrico estatal donde los pacientes tenían la suerte de ver a un terapeuta una vez al mes. Vio potencial en ELIZA y comenzó a promover la idea de que el programa podría ser terapéuticamente útil.
La comunidad médica empezó a prestar atención, pues pensaron que quizás este programa, y otros similares, podría ayudar a ampliar el acceso a la atención de la salud mental. E incluso podría tener ventajas sobre un terapeuta humano. Sería más barato y la gente podría hablar más libremente con un robot.
Colby pasó a crear un chatbot llamado PARRY, que simulaba el estilo de conversación de una persona con esquizofrenia paranoide. Más tarde desarrolló un programa interactivo llamado ‘Superar la depresión’.
Weizenbaum, por su parte, se apartó de las crecientes implicaciones de su propio proyecto. Se opuso a la idea de que algo tan sutil, íntimo y humano como la terapia pudiera reducirse a un código.
Comenzó a argumentar que los campos que requieren comprensión y compasión humana no deberían automatizarse. Y también le preocupaba el mismo futuro que había descrito Alan Turing, uno en el que los chatbots engañaban regularmente a las personas haciéndoles creer que eran humanos.
Weizenbaum eventualmente escribiría sobre ELIZA: ‘De lo que no me había dado cuenta es de que exposiciones extremadamente breves a un programa de ordenador relativamente simple podrían inducir poderosos pensamientos delirantes en personas bastante normales’.
De lo que no me había dado cuenta es de que exposiciones extremadamente breves a un programa de ordenador relativamente simple podrían inducir poderosos pensamientos delirantes en personas bastante normales – Joseph Weizenbaum
Weizenbaum pasó de ser alguien que trabajaba en el corazón de la comunidad de IA en el MIT a alguien que predicaba en contra. Donde algunos vieron potencial terapéutico, él vio una peligrosa ilusión de compasión que los gobiernos y las corporaciones podrían aprovechar de la manera más terrorífica, hasta doblegar y torcer a millones de personas.
Joseph Weizenbaum finalmente se retiró del MIT, pero continuó hablando en contra de los peligros de la IA hasta que murió en 2008 a la edad de 85 años. Y aunque era un importante pensador humanista, algunas personas sintieron que había ido demasiado lejos.
Woebot, el nuevo ELIZA

Darzy con WoeBot
Allison Darcy, fundadora y directora ejecutiva de Woebot Labs, dice que ‘la transparencia es la base de la confianza’ y que informa su trabajo en Woebot, donde han creado un producto diseñado para abordar la falta de atención médica mental accesible para todos y asequible.
Hace unos años, Darcy y su equipo comenzaron a pensar en cómo construir una herramienta digital que haría que la salud mental fuera radicalmente accesible. Experimentaron con videojuegos antes de aterrizar en la idea de Woebot, una guía de chatbot que podría llevar a los usuarios a través de ejercicios basados en la Terapia Cognitiva Conductual, que ayuda a las personas a interrumpir y replantear los patrones de pensamiento negativos.
Woebot no intenta pasar la prueba de Turing, y de hecho es muy transparente al mostrarse como no humano. Está representado por un avatar de robot y parte de su personalidad es que siente curiosidad por los sentimientos humanos.
Lo interesante es lo que ocurrió en la práctica, que al igual que con ELIZA, la gente creaba conexiones emocionales con el programa. Este ofrece chocar los cinco, envía GIF a los usuarios y actúa menos como un terapeuta formal y más como una especie de coach.
Darcy dice que su equipo es muy consciente de las cuestiones éticas que plantea la IA y reconoce que este tipo de tecnología es como el bisturí de un cirujano. Si se usa con prudencia, puede ayudar a las personas a sobrevivir. Mal aplicado, puede ser un arma peligrosa.
La investigadora Alena Buyx es coautora de un artículo sobre la IA utilizada en una variedad de contextos de salud mental. Ella dice que estas tecnologías pueden ser prometedoras, pero que aún existen vacíos regulatorios y una falta de claridad sobre las mejores prácticas.
Darcy tiene claro que no ve a Woebot como un reemplazo de los terapeutas humanos, y cree que el potencial positivo de esta tecnología es más alto que los riesgos que supone.
Conclusión
Conforme la IA avanza, aparecen oportunidades y amenazas. En vez de pensar en juegos de suma cero, donde alguien tenga que salir perdiendo, la clave será conseguir la máxima cooperación humano-máquina, para progresar en el camino de un mundo cada vez más rico en opciones para todos, igualitario y libre.