Forbes Ecuador
Salud mental IA - Terapia - Robots
Lifestyle

Sentirse escuchado por la IA: la nueva terapia silenciosa que ya usan miles de empleados sin saber los riesgos

Dra. Diane Hamilton Colaboradora

Share

Cada vez más empleados depositan confesiones íntimas en sistemas automatizados que prometen contención sin juicio. Aunque ofrecen un alivio aparente, expertos alertan sobre el uso indebido de datos sensibles, la falta de límites claros y la posibilidad de que esa información termine afectando carreras o derivando en conflictos legales.

15 Julio de 2025 17.00

¿Suelen conversar con su inteligencia artificial como si fuera un consejero personal? Si ocurre, no se trata de un caso aislado. Una cantidad cada vez más grande de individuos utiliza herramientas digitales para expresar su estrés, su cansancio y también dificultades vinculadas a la salud mental. 

Un relevamiento de Oracle junto con Workplace Intelligence indicó que más del 68% de los trabajadores preferiría contarle a un robot lo que siente antes que abrirse con su jefe sobre ansiedad y tensiones. Estos sistemas permiten expresarse con libertad, sin temor a recibir un juicio, ser interrumpido o que se tergiverse lo que se comunica. Podría parecer positivo. 

Sin embargo, una pregunta persiste: cuando se entrega información privada a un asistente de inteligencia artificial, ¿quién accede a esos datos? ¿Existe la posibilidad de que retornen en otro momento con consecuencias inesperadas? 

Estos programas modifican el modo en que se difunden relatos íntimos, pero implican riesgos concretos. Si la misma herramienta que otorga tranquilidad trata de manera inapropiada lo que se compartió, surgen conflictos de privacidad y, sobre todo, se destruye la confianza. En esas circunstancias, las compañías pueden quedar expuestas a situaciones legales complejas.

¿Por qué muchos trabajadores sienten más confianza con un asistente virtual que con su superior directo?

La inteligencia artificial carece de predisposición a juzgar. Eso facilita que alguien que se percibe vulnerable logre hablar sin restricciones. Numerosas personas admiten detalles a estos sistemas que nunca confesarían a quien les supervisa. 

Como la sensación de sentirse invisibles, el agotamiento constante o la imposibilidad de hallar motivación. Estos recursos están programados para recolectar comentarios e identificar patrones de conducta. Cuanto más se utilizan, más evidentes resultan esas tendencias.

Dentro de algunas empresas, los empleados aseguraron que se sinceran más con una herramienta virtual que con un interlocutor humano. Puede parecer curioso, pero existe un motivo. Un programa no guarda resentimientos. 

No alterará el trato en el futuro. Para quienes trabajan en ambientes donde no perciben seguridad psicológica, esa neutralidad resulta esencial. Lo que se confía a la inteligencia artificial permanece entre el usuario y la máquina. Al menos, esa es la expectativa.

Robots humanoides
 

¿Puede una IA lograr que las personas se sientan mejor? 

Sorprendentemente, la respuesta es afirmativa. Aunque no haya consecuencias directas de lo que se expresa, mucha gente experimenta alivio simplemente al contarlo. Se asemeja a llevar un diario o dialogar con alguien que escucha sin emitir juicios. Investigaciones revelaron que compartir pensamientos de manera anónima, incluso con un sistema automatizado, genera alivio emocional.

Los recursos de coaching con inteligencia artificial brindan ese espacio. Funcionan como un canal donde reflexionar, ordenar ideas y encontrar algo de claridad. Algunos incluso proporcionan sugerencias de apoyo o proponen pasos concretos. Si bien no reemplazan a un profesional acreditado en salud mental, entregan cierta estructura. Esa organización permite que quienes trabajan sientan que están avanzando en la gestión de sus inquietudes, aunque todavía no se encuentren preparados para conversar con un interlocutor humano.

Sin embargo, existe el riesgo de que esa sensación de alivio emocional termine generando en las empresas una percepción equivocada de seguridad. El hecho de que las personas crean que alguien las escucha no implica que sus conflictos se estén solucionando. En ese punto, los líderes humanos necesitan intervenir de manera activa.

¿Qué sucede después de contarle algo personal a un entrenador de inteligencia artificial?

Acá es donde la situación puede volverse riesgosa. Estas herramientas sirven para apoyar el rendimiento laboral, no para socavar el bienestar emocional. Sin embargo, las personas no siempre se quedan con ese uso. A veces se desahogan o comparten algo íntimo. Quizás admiten que se sienten abrumadas o que perdieron el interés en su trabajo. Otras veces atraviesan un problema privado que impacta en su desempeño.

¿Qué pasa con esa información? ¿Alguien la lee? ¿Recursos Humanos va a darle seguimiento? ¿O quedará archivada en un informe? Peor aún, ¿podría aparecer más adelante y perjudicar la evaluación de esa persona?

Esa es la parte que la mayoría de las empresas todavía no resolvió. Algunas herramientas de inteligencia artificial se programaron para detectar inquietudes y avisar a las personas correspondientes. Pero muchas compañías no cuentan con un plan claro hacia adelante. Si un comentario sobre estrés o agotamiento queda registrado, debe existir una forma de gestionarlo sin que el empleado termine arrepentido de haberlo contado. Sin confianza en el uso de esa información, las personas pueden sentirse aún más expuestas.

¿Pueden los empleadores ver lo que los empleados comparten con un entrenador de inteligencia artificial?

Eso depende de la configuración, pero en muchos casos, sí. Si la herramienta de inteligencia artificial está integrada en plataformas como Microsoft Teams, Slack o el sistema de Recursos Humanos de una empresa, lo que los empleados escriben puede quedar registrado, almacenado y luego revisado. Un informe de Gartner de 2023 advirtió que muchas organizaciones desconocen la cantidad de datos confidenciales que estas herramientas recopilan. Incluso cuando la inteligencia artificial se presenta como coaching, muchas veces rastrea conversaciones, detecta lenguaje emocional y traza tendencias de sentimiento.

A menos que la empresa tome medidas para limitar el acceso o desactivar ese registro, los administradores de sistemas o los líderes autorizados pueden ver esa información. En Estados Unidos hay pocas leyes que impidan a las compañías acceder a esos datos, salvo que eso implique discriminación o represalias. Esto hace que un empleado crea que la conversación es privada cuando en realidad no lo es. Los líderes tienen que definir expectativas claras sobre el uso de estas herramientas y comprometerse a proteger a quienes confían en ellas.

ChatGPT
ChatGPT

¿Cuáles son los riesgos legales para las organizaciones que usan coaches de inteligencia artificial?

A medida que más empresas adoptan herramientas de inteligencia artificial que recogen información confidencial de sus empleados, entran en un terreno legal complejo. Si un trabajador comparte datos sobre un problema médico, una situación de acoso o cualquier tema protegido por la legislación laboral, y la compañía no actúa o, peor todavía, usa esa información para tomar una medida disciplinaria, puede enfrentar consecuencias legales.

En Estados Unidos, por ejemplo, la Ley de Estadounidenses con Discapacidades (ADA) y el Título VII de la Ley de Derechos Civiles podrían aplicarse si la empresa gestiona de forma incorrecta la información sensible.

También existe la cuestión del consentimiento. Los empleados necesitan saber con claridad qué datos se recogen, cómo se almacenan y quién puede acceder a ellos. Si una herramienta capta información emocional que después se usa para influir en evaluaciones de desempeño o decisiones de contratación, la exposición ética y legal resulta evidente. Incluso con buenas intenciones, las cosas pueden salir mal si no hay normas claras.

¿Qué experiencias tienen realmente las empresas con coaches de inteligencia artificial?

Algunas compañías ya implementaron herramientas de coaching con inteligencia artificial y descubrieron lo complicado que puede resultar.

Experian presentó una coach de inteligencia artificial llamada Nadia para apoyar el desarrollo de gerentes. El lanzamiento generó mucha participación al principio, pero pronto aparecieron preocupaciones de seguridad y dudas sobre cómo se percibiría la herramienta. Algunos temían que reemplazara la interacción humana, mientras que otros no sabían qué sucedería con la información que entregaban. Para resolver esto, Experian fijó límites y aclaró que Nadia estaba ahí para ayudar, no para tomar el control. Esa decisión ayudó a que los usuarios se sintieran más cómodos al usarla.

Salesforce tomó un camino parecido con su herramienta interna, Career Agent. La crearon para ayudar a los empleados a gestionar la movilidad laboral dentro de la empresa y se popularizó rápido. Sin embargo, el equipo responsable comprendió que debían sumar funciones de suscripción voluntaria y mejores controles de protección de datos para evitar que los empleados se sintieran intimidados. Sabían que si las personas pensaban que la herramienta podría usarse para juzgarlas más adelante, dejarían de utilizarla. Brindarles ese nivel de control marcó la diferencia.

¿Deberían los gerentes preocuparse por ser reemplazados por un entrenador de inteligencia artificial?

Es probable que un coach de inteligencia artificial no reemplace a los gerentes, pero igual deberían prestar atención. Si sus empleados se sienten más cómodos confiando en un chatbot que conversando con vos, existe un problema de confianza.

Los gerentes no necesitan transformarse en terapeutas, pero sí deben abrir espacio para charlas sinceras. Las herramientas de inteligencia artificial pueden servir para descubrir qué sienten las personas, aunque los líderes de verdad actúan con empatía y decisión. Esto requiere construir una cultura de seguridad donde los empleados no crean que tienen que hablar con un bot solo para que alguien los escuche.

¿Qué deben hacer los líderes antes de implementar un coach de inteligencia artificial?

Si pensás incorporar coaching de inteligencia artificial en tu organización, tomá un momento para reflexionar sobre qué pasa cuando alguien se sincera. ¿Quién accede a los datos? ¿Cómo se usan? ¿El empleado recibe una respuesta? ¿Estás preparado para proteger su privacidad? Si alguna de estas preguntas no tiene una respuesta clara, entonces la implementación todavía no está lista.

Las mejores herramientas de inteligencia artificial generan confianza cuando cuidan la privacidad, marcan límites concretos y promueven conversaciones reales. Deben servir de apoyo a los gerentes, no reemplazarlos. Tienen que facilitar que las personas obtengan ayuda, no complicar que se animen a hablar. La confianza siempre nace de las relaciones humanas. Un coach de inteligencia artificial puede colaborar, pero no resolverá una cultura que aísla a la gente. Ese trabajo empieza con líderes dispuestos a escuchar, responder y acompañar.

Si tu equipo empieza a abrirse con la inteligencia artificial, significa que quieren ser escuchados. La pregunta es: ¿estás listo para escuchar?

 

Nota publicada en Forbes US.


 

10