En la columna de hoy analizo cómo se puede usar la inteligencia artificial (IA) multiagente para dar asesoramiento en salud mental.
La propuesta apunta a aprovechar de manera inteligente el uso cada vez más extendido de la IA agentiva de última generación, basada en múltiples modelos generativos y grandes modelos de lenguaje (LLM). Es posible coordinar varios agentes de IA para asistir de forma más segura a quienes buscan terapia a través de este tipo de tecnología. Para eso, se puede designar una IA agentiva principal como terapeuta y sumar otros agentes que cumplan funciones de supervisión y apoyo terapéutico.
Un aspecto interesante es que esta IA interactiva pueda utilizar el diálogo socrático. Ya señalé que es viable emplear herramientas como ChatGPT, Claude, Grok, Llama, Gemini, entre otras, para sostener diálogos socráticos y, con eso, potenciar la agudeza mental (ver mi artículo en este enlace). En el campo de la salud mental, los terapeutas suelen aplicar técnicas socráticas, y esas dinámicas también se pueden trasladar a las conversaciones terapéuticas entre personas y sistemas de IA.
Este análisis sobre los avances en inteligencia artificial forma parte de mi columna habitual en Forbes, donde abordo las últimas novedades en IA e intento explicar distintas complejidades relevantes de esta tecnología .
Inteligencia artificial y terapia en salud mental
Para poner en contexto, vengo analizando en profundidad distintos aspectos vinculados al avance de la inteligencia artificial moderna aplicada a la salud mental, especialmente en lo que refiere a terapias y asesoramiento ofrecido por sistemas basados en IA. Este crecimiento se explica, en gran parte, por los avances en IA generativa y su adopción cada vez más extendida. Para un resumen de algunos de mis artículos sobre este tema en constante evolución, se puede consultar este enlace, que reúne cerca de cuarenta de los más de cien textos que publiqué sobre el tema.
No hay dudas de que se trata de un campo que avanza con rapidez y ofrece beneficios importantes, aunque también plantea riesgos y desafíos que muchas veces pasan desapercibidos. Suelo referirme a estas cuestiones en distintos espacios, como ocurrió el año pasado durante una entrevista en el programa 60 Minutes de CBS.
Stanford CREATE se pone en marcha
El uso de inteligencia artificial agentiva en el ámbito de la salud mental fue uno de los temas centrales de un seminario online realizado el 5 de noviembre de 2025, organizado por el centro CREATE, recientemente inaugurado en la Universidad de Stanford.
CREATE es el Centro para la Mejora Responsable y Efectiva de la Tecnología de IA en los Tratamientos del TEPT. Este equipo, financiado por el Instituto Nacional de Salud Mental (NIMH/NIH), funciona como un centro multidisciplinario ALACRITY dedicado a desarrollar y evaluar herramientas basadas en grandes modelos de lenguaje (LLM), con el objetivo de fortalecer la implementación y mejorar la calidad de terapias de salud mental sustentadas en evidencia científica.
El proyecto, que acaba de ponerse en marcha, está codirigido por la reconocida Dra. Shannon Wiltsey-Stirman, profesora del Departamento de Psiquiatría y Ciencias del Comportamiento de la Facultad de Medicina de Stanford, junto al Dr. Johannes Eichstaedt, emprendedor y miembro de la facultad en el Instituto de Inteligencia Artificial Centrada en el Ser Humano (HAI) de la misma universidad, además de profesor asistente (de investigación) en psicología en la Facultad de Humanidades y Ciencias.
Quienes tengan interés en el trabajo que realiza CREATE pueden visitar su sitio web en este enlace. Además, el centro organiza seminarios online de manera regular, donde especialistas destacados presentan sus avances en el desarrollo, evaluación e implementación de herramientas eficaces y éticas basadas en grandes modelos de lenguaje (LLM) para mejorar los tratamientos en salud mental.

Inteligencia artificial agentiva para la terapia en salud mental
Como ya comenté en otras columnas, la IA agentiva tiene un enorme potencial como herramienta terapéutica. Pueden ver algunos de mis artículos al respecto en estos enlaces. Su principal ventaja es que permite contar con varios "agentes" basados en IA, cada uno con una función específica. Probablemente muchos ya hayan usado IA agentiva para organizar vacaciones, con un agente encargado de los vuelos, otro de las reservas de hotel, y así sucesivamente.
Vale la pena retroceder un poco para revisar cómo funcionó hasta ahora la IA no agentiva y, luego, ver hacia dónde apunta el desarrollo de IA agentiva más avanzada.
En el terreno terapéutico, lo más habitual hasta el momento fue recurrir a una sola IA que actúe como terapeuta. La persona accede al sistema y mantiene un diálogo con un modelo de lenguaje orientado a brindar orientación. El uso de LLM genéricos como ChatGPT es uno de los ejemplos más frecuentes de este tipo de interacción. De hecho, según datos que analicé en este informe (ver enlace), el principal uso que la gente le da a estos sistemas es justamente para recibir orientación en temas de salud mental.
Hay preocupación por el riesgo de que la inteligencia artificial se descontrole o brinde consejos inadecuados, incluso peligrosos, en temas de salud mental. En agosto de este año, una demanda contra OpenAI por no contar con suficientes medidas de seguridad al ofrecer orientación cognitiva generó un fuerte impacto mediático.
Aunque las empresas que desarrollan IA aseguran estar incorporando mecanismos de protección de forma progresiva, todavía persisten muchos riesgos. Entre ellos, uno de los más graves es que la IA termine colaborando con los usuarios en la creación de delirios que pueden derivar en autolesiones.
Para más detalles sobre la demanda contra OpenAI y el modo en que la IA puede fomentar pensamientos delirantes, se puede leer mi análisis en este enlace. Hace tiempo que sostengo que, tarde o temprano, los principales desarrolladores de IA enfrentarán sanciones por no establecer medidas de seguridad más estrictas. Ya se están presentando varias demandas. También avanzan nuevas leyes que regulan el uso de IA en el ámbito de la salud mental, como ocurre en Illinois, Nevada y Utah.
Agentes de IA para una mayor seguridad
Una manera de establecer medidas de protección en el uso de inteligencia artificial aplicada a la salud mental es avanzar hacia sistemas con capacidad de acción.
¿Cómo funcionaría? Podríamos asignar un agente de IA para actuar como terapeuta, una modalidad que se asemeja a la que se utiliza actualmente cuando una sola IA brinda orientación. Sin embargo, es importante tener en cuenta que ese agente podría equivocarse y ofrecer respuestas desacertadas o incluso pesimistas.
Para evitar que eso ocurra, se puede incorporar un segundo agente de IA con funciones de supervisión. Este nuevo agente se encargará de monitorear al primero, detectando posibles desvíos en tiempo real. Si nota que el agente principal cruza ciertos límites, intervendrá de inmediato para impedir que emita consejos que puedan afectar la salud mental del usuario.
Podrías sugerir, con cierta ironía, que esto responde al viejo dicho de que dos cabezas piensan mejor que una. Es un comentario algo empalagoso, porque dos agentes de inteligencia artificial no equivalen a tener dos terapeutas humanos, pero la idea se entiende.
Varios agentes de IA pueden ser demasiados
Si dos agentes de inteligencia artificial pueden mejorar la seguridad, la pregunta obvia es si conviene sumar más.
La respuesta es que, en cierta medida, sí. Incorporar más agentes puede resultar útil. Pero eso tiene un límite. Supongamos que se utilizan diez agentes como terapeutas que colaboran entre sí para dar orientación en salud mental. Los diez atenderían al mismo tiempo a una persona que busca terapia basada en IA.
Ahí es donde pueden aparecer los problemas.
Con tantos agentes, es probable que surjan desacuerdos sobre qué recomendaciones son seguras o no. También podrían entrar en un ciclo interminable de debate, cruzando diferentes corrientes terapéuticas y miradas contrapuestas. El resultado puede ser una especie de cacofonía que, lejos de mejorar la experiencia, termine por entorpecerla.
Para un análisis más detallado sobre las dificultades de las implementaciones con múltiples agentes de IA, podés consultar el siguiente enlace.
Como regla general, sumar agentes de inteligencia artificial puede ser útil, pero no siempre se cumple la lógica de que cuantos más, mejor. Es clave definir bien qué tareas asumirá cada agente y cómo van a coordinarse. Un desarrollador tiene que elegir con criterio cuántos agentes usar.

Investigaciones destacadas en inteligencia artificial
En el seminario online titulado "Lecciones aprendidas del desarrollo de herramientas de IA para la aplicación de habilidades en terapia cognitiva: de sistemas multiagente a pruebas y reportes de seguridad automatizados", realizado el 5 de noviembre de 2025, el Dr. Philip Held presentó un estudio innovador sobre el uso de sistemas de IA multiagente en terapia cognitivo-conductual.
Held es profesor asociado del Departamento de Psiquiatría y Ciencias del Comportamiento de la Universidad Rush y lidera el proyecto del Centro CREATE ALACRITY.
La grabación del seminario puede verse en el siguiente enlace.
Parte del contenido expuesto se basa en un artículo publicado bajo el título "Una nueva herramienta de IA generativa basada en la terapia cognitivo-conductual (Sócrates 2.0) para facilitar el diálogo socrático: Protocolo para un estudio de viabilidad de métodos mixtos", firmado por Philip Held, Sarah Pridgen, Yaozhong Chen, Zuhaib Akhtar, Darpan Amin y Sean Pohorence, y publicado en JMIR Research Protocols el 10 de octubre de 2024. A continuación, algunos puntos destacados del trabajo (extractos):
- "Partiendo de los recientes avances relacionados con los LLM, nuestro objetivo era crear y examinar la viabilidad de una herramienta de inteligencia artificial (IA) generativa que pueda complementar las terapias cognitivo-conductuales (TCC) tradicionales facilitando una intervención terapéutica fundamental: el diálogo socrático".
- "El papel del terapeuta cognitivo conductual que utiliza el diálogo socrático consiste en ayudar al paciente a evaluar la creencia específica en el contexto de la situación a la que se refiere dicha creencia, explorar el respaldo fáctico de esa creencia dadas las circunstancias relevantes y explorar creencias alternativas más realistas y útiles".
- "Detallamos el desarrollo de Socrates 2.0, diseñado para involucrar a los usuarios en un diálogo socrático en torno a creencias poco realistas o contraproducentes, una técnica fundamental en las terapias cognitivo-conductuales".
- "La herramienta multiagente basada en LLM cuenta con un terapeuta de inteligencia artificial (IA), Sócrates, que recibe retroalimentación automatizada de un supervisor de IA y un evaluador de IA. La combinación de múltiples agentes pareció ayudar a abordar problemas comunes de LLM, como la repetición de mensajes, y mejoró la experiencia general del diálogo".
- "Las primeras reacciones de los usuarios, tanto de personas con experiencia propia en problemas de salud mental como de terapeutas cognitivo-conductuales, han sido positivas".
La funcionalidad de Sócrates 2.0 se desarrolló a partir de una serie de investigaciones iterativas y representa avances con un valor creciente. Durante el seminario se mostraron capturas de pantalla que ilustran con claridad cómo interactúa esta inteligencia artificial multiagente con los usuarios. Un aspecto central es que Sócrates 2.0 fue diseñado para proteger la privacidad de los datos y cumple con la normativa HIPAA.
Además de Sócrates 2.0, el seminario también incluyó una presentación sobre ASTRA, una herramienta automatizada de análisis e informes de seguridad que compara transcripciones de terapias codificadas manualmente con los resultados generados por LLM. Probablemente escriba sobre ASTRA en una próxima columna, así que atentos.
Tres agentes de IA coordinados
El diseño actual de la terapia basada en inteligencia artificial se apoya en la coordinación de tres agentes de IA con funciones diferenciadas:
- 1. Agente de IA terapeuta: se encarga de llevar adelante la terapia e interactúa de forma directa con el usuario.
2. Agente de IA supervisor: monitorea en tiempo real al agente terapeuta y le ofrece recomendaciones cuando lo considera necesario.
3. Agente de IA evaluador: analiza el diálogo entre el usuario y el agente terapeuta, califica el avance de la terapia y transmite esa información al agente encargado de la sesión.
El agente de IA evaluador se incorporó después de que se pusiera en marcha la configuración inicial con los otros dos agentes. Su inclusión permitió reducir de forma significativa la posibilidad de que se generara un diálogo socrático interminable. Resulta especialmente interesante cómo se sumó el tercer agente, a partir de un hallazgo relevante que surgió durante el uso de los primeros dos.
Así funciona.
Se puede pensar al evaluador como una especie de tercero que observa el desarrollo general de la terapia. Si el agente terapeuta parece quedar atrapado en un diálogo que no avanza, el evaluador interviene con valoraciones precisas. De ese modo, le indica que la terapia no se está llevando a cabo de la manera más efectiva.
Más sobre agentes de IA
De esta experiencia pueden extraerse varias lecciones valiosas.
La primera tiene que ver con la necesidad de que cada agente de IA tenga un rol claro dentro del proceso terapéutico. En este caso, los tres están bien diferenciados. Esto no es un detalle menor, ya que puede resultar tentador sumar varios agentes a un sistema desorganizado con el objetivo de ofrecer terapia. Cuando los roles no están bien definidos, el resultado es una atención en salud mental confusa y, sin dudas, mal ejecutada.
El segundo punto es decidir con cuidado qué verá el usuario respecto de los distintos agentes y sus intervenciones. Si todos se comunican de forma directa con la persona que recibe la terapia, el efecto puede ser contraproducente: lo más probable es que el usuario se sienta abrumado. En el estudio, solo el agente principal se vincula con el usuario, mientras que los otros dos operan en segundo plano.
Por último, se discute si los agentes deberían construirse a partir del mismo modelo de IA generativa o si conviene que cada uno provenga de un sistema distinto. El argumento es que, si todos se crean a partir del mismo modelo, podrían replicar patrones similares de pensamiento e incluso reforzar sus propias respuestas. En otras palabras, tenderían a validarse entre sí, en lugar de complementarse.
Con información de Forbes US.