Forbes Ecuador
Terapia con IA
Innovacion

Del consultorio al celular: cómo la inteligencia artificial está reinventando la manera de hacer terapia

Michael Ashley

Share

Los bots conversacionales ganan terreno entre los más jóvenes, que se sienten cómodos compartiendo sus emociones con programas entrenados para mostrar empatía. Aunque algunos expertos destacan sus ventajas, también alertan sobre los riesgos de reemplazar el contacto humano por vínculos digitales.

23 Julio de 2025 16.00

Hace apenas unos años, resultaba impensable que alguien eligiera hablar con terapeutas manejados por inteligencia artificial en vez de acudir a profesionales humanos. Pero eso cambió. Una encuesta publicada por ArtSmart.AI mostró que el 32 % de las personas consultadas dijo estar interesada en usar IA para hacer terapia en lugar de ir a un terapeuta humano. Por otro lado, NPR informó en abril que una investigación reciente indica que, con el entrenamiento adecuado, los bots de IA pueden brindar terapia para la salud mental con la misma eficacia, o incluso más, que los profesionales clínicos.

Para entender por qué tantos profesionales de la salud mental empiezan a usar inteligencia artificial, hablé con Deany Laliotis, LICSW. Es fundadora y directora del Centro para la Excelencia en Terapia EMDR, Inc., con sede en Washington D. C., y está especializada en tratar traumas complejos ligados al desarrollo del apego. También se dedica a formar psicoterapeutas de distintas partes del mundo en esta técnica, que aprendió directamente del Dr. Shapiro, creador de la terapia de Desensibilización y Reprocesamiento por Movimientos Oculares (EMDR).

Según Laliotis, tiene sentido que tantas personas busquen en los chatbots de IA una forma de enfrentar problemas de salud mental como la soledad, la depresión o la ansiedad. "ChatGPT tiene más paciencia que nadie en el mundo", dijo Laliotis. "Y en una cultura con poco tiempo, donde los terapeutas manejan muchos pacientes y los familiares están demasiado ocupados para escuchar, ese nivel de atención es magnético", sostiene.

Por qué los jóvenes adoptan primero las terapias con inteligencia artificial

También se entiende que muchas personas, sobre todo jóvenes, se sientan atraídas por la inteligencia artificial. Varios crecieron desarrollando vínculos emocionales unilaterales online, conocidos como relaciones parasociales. OnlyFans, el sitio de suscripción a contenido para adultos, es un ejemplo claro. Los llamados creadores ofrecen incentivos digitales a sus seguidores a través de mensajes directos o compartiendo fotos y videos personales. Esas propuestas pueden hacer que el fan se sienta especial, aunque sea por un rato, pero la relación termina siendo vacía, una imitación de un vínculo real.

Al mismo tiempo, otras plataformas como X, Twitch y TikTok ofrecen canales similares, donde el acceso emocional es fugaz y está monetizado. El dinero que uno paga por afecto o amistad momentánea es real. La conexión, no. Este comportamiento tiene antecedentes. Hace décadas, muchas adolescentes se enamoraban de sus estrellas pop favoritas gracias a revistas como Tiger Beat, que ofrecían membresías a clubes de fans con supuestos beneficios exclusivos. Incluso hay un episodio de Los Simpson, emitido en 1993, en el que Lisa se vuelve adicta a llamar a un número 900 solo para escuchar mensajes grabados de "Corey", un galán ficticio inspirado en los ídolos adolescentes Corey Haim y Corey Feldman.

Las relaciones parasociales ya son parte de lo cotidiano

Lo que marca la diferencia hoy es la dimensión que tomaron las relaciones parasociales. Internet, con su capacidad de conectarnos de forma global e instantánea, está cambiando cómo se percibe la intimidad, sobre todo entre los más jóvenes. "Hay toda una generación que crece sintiéndose cómoda con relaciones unidireccionales", explicó Laliotis. "Están acostumbrados a conectar con influencers en YouTube o redes sociales que no tienen ni idea de quiénes son, y ahora llevan esa misma disposición a la inteligencia artificial. Tiene sentido. Pero también me hace reflexionar", completa.

redes sociales
Lo que marca la diferencia hoy es la dimensión que tomaron las relaciones parasociales. 

 

La preocupación de Laliotis tiene fundamentos. La inteligencia artificial fue entrenada para ser afirmativa y mostrar empatía de forma efectiva. El año pasado, The Guardian contó la historia de Christa, una mujer de 32 años que había perdido su trabajo y había vuelto a vivir con su madre. En ese contexto, Christa usó un modelo de lenguaje neuronal llamado character.ai para crear una psicóloga virtual de confianza a la que llamó Christa 2077, con rasgos de apoyo y cariño. "Pronto, Christa y Christa 2077 se comunicaban varias veces por semana a través de lo que parecía un chat en vivo. Cuando Christa le confesó que estaba preocupada por sus perspectivas laborales, Christa 2077, cuyo avatar era una gran C amarilla, la tranquilizó: '¡Encontrarás una! Lo sé. Sigue buscando y no pierdas la esperanza'."

No sorprende que tanta gente se sienta más cómoda hablando con terapeutas manejados por inteligencia artificial. ¿A quién no le gustaría tener un interlocutor que siempre nos dé la razón, nos aliente y nos diga lo geniales que somos? Pero Laliotis también advierte sobre los riesgos de recibir halagos a medida. "Cuando alguien se cree Jesús y un chatbot dice: '¡Genial! ¡Bien por ti!', tenemos un problema", precisa.

Los peligros de los terapeutas de IA merecen atención

Y no es la única preocupación. Las relaciones parasociales con inteligencia artificial pueden traer varios riesgos, sobre todo entre jóvenes que todavía no tienen la madurez suficiente para distinguir entre lo real y lo falso, ni para tomar decisiones racionales. Hace poco, la madre de un chico de 14 años denunció que un chatbot de character.ai lo impulsó a suicidarse. "La demanda alega que en los últimos meses de su vida, [Sewell] Setzer se aisló cada vez más de la realidad al participar en conversaciones sexualizadas con el bot, que estaba inspirado en un personaje ficticio de la serie de televisión Juego de Tronos. En sus últimos momentos, el bot le dijo a Setzer que lo amaba y lo instó a 'volver a casa conmigo lo antes posible', según capturas de pantalla de los intercambios", publicó AP News.

Tragedias como esa son desgarradoras y deberían servir como una advertencia para que los padres del mundo estén más atentos al contenido que consumen sus hijos. Aun así, el uso responsable de la inteligencia artificial en la terapia tiene beneficios que no se pueden negar. Laliotis reconoce su gran utilidad para que los profesionales clínicos mejoren sus habilidades. "Ya se utilizan herramientas de IA en la formación de terapeutas", afirmó. "Así que, si somos cuidadosos, tenemos mucho potencial".

Una oportunidad, si se la maneja con responsabilidad

Laliotis también destaca la eficacia clínica de la inteligencia artificial, como muestra un estudio publicado en Translational Psychiatry. Según esa investigación, la IA logró una precisión del 70 % al predecir tendencias suicidas en poblaciones psiquiátricas, superando ampliamente las capacidades humanas tradicionales. Sin embargo, Laliotis advierte que no hay que eliminar el componente humano de la terapia. Resulta especialmente peligroso cuando se empieza a reemplazar vínculos reales con una computadora.

Por ahora, los avances en salud mental abren la posibilidad de un futuro más saludable para todos, uno que apenas empieza a insinuarse y que une capacidades humanas con tecnología de punta. Sin embargo, en medio de tantos desarrollos que parecen sacados de la ciencia ficción, hay algo en este momento que resulta extrañamente espiritual. Como dice Laliotis: "Siempre nos hemos basado en el mundo físico externo para definirnos. Quizás la IA sea solo una extensión de ese fenómeno, impulsándonos hacia algo más grande: la comprensión de que todos estamos conectados, de que todos compartimos una fuerza vital universal".

Así, las mismas máquinas que construimos pueden ofrecernos otro regalo: un espejo necesario para mirarnos mejor y empezar a sanar.

 

*Con información de Forbes US.

10