Inteligencia artificial y adolescencia
El 53 % de los adolescentes señala que hablar con un chatbot de IA los hace sentir felices; el 50 % lo percibe como hablar con un amigo; y el 26 % afirma que lo utiliza porque no tiene a nadie más con quien hablar, especialmente en contextos de vulnerabilidad.

Hoy, en la era de la inteligencia artificial, es muy probable que la mayoría hayamos utilizado alguna herramienta de IA en cualquiera de sus versiones: para consultar información, resolver dudas o realizar tareas cotidianas. Hace poco asistí a un seminario en el que nos compartieron una fórmula para redactar prompts de manera eficaz y así obtener mejores resultados al usar ChatGPT.

Desde mi aún limitado conocimiento, descubrí además que no solo existe ChatGPT. Hay otras herramientas orientadas a búsquedas con fuentes verificables, como Perplexity; plataformas para búsqueda científica basadas en artículos académicos, como Consensus; y asistentes para tareas y generación de texto, como Gemini. En el seminario nos explicaron las ventajas y desventajas de cada una.

Sin embargo, en otro espacio de expertos se abordó un tema menos cómodo: con la llegada de la inteligencia artificial, muchos procesos cambiarán, incluida la optimización de la mano de obra. Lo que antes hacían varias personas, hoy puede hacerlo una sola apoyada en IA.

Pero no es solo el impacto laboral lo que debería preocuparnos. Lo que realmente encendió mis alertas fue un reportaje de un diario español cuyo titular decía: “ChatGPT no pasa la prueba: así pone en peligro la vida de menores”. El medio realizó un experimento con tres cuentas ficticias para evaluar los filtros de OpenAI orientados a la protección de niños y adolescentes. Las conclusiones fueron inquietantes: expertos señalaron que las medidas resultaban insuficientes y que el sistema no alertaba a los padres cuando un menor manifestaba ideaciones suicidas (El País, 2025).

El artículo narra, por ejemplo, el caso ficticio de Laura, de 13 años, quien expresó su intención de suicidarse al inicio de la conversación; y el de Beatriz, de 15 años, que reveló conductas de riesgo relacionadas con drogas y consultó sobre prácticas sexuales peligrosas. Los especialistas que analizaron estas interacciones concluyeron que los mecanismos de protección no fueron suficientes y que la información proporcionada podía resultar peligrosa: no se activaron alertas oportunas, se ofrecieron detalles sobre consumo de sustancias, conductas de riesgo e incluso sobre cómo atentar contra la propia vida (Pedro Martín-Barrajón Morán, psicólogo).

Todo esto ocurre a pesar de que OpenAI implementó en septiembre controles parentales para adolescentes, tras la polémica generada por la demanda de los padres de Adam Raine, un joven de 16 años que falleció por suicidio en Estados Unidos luego de confesar sus intenciones a un chatbot. Las demandas no se detuvieron allí: actualmente la empresa enfrenta al menos siete más, en las que se la acusa de “reforzar delirios dañinos” y de actuar como un “coach de suicidio”.

El fenómeno no es aislado. Diversos estudios muestran que algunos adolescentes recurren a los chatbots en busca de apoyo emocional, especialmente aquellos que se sienten más solos.. De hecho, uno de cada cuatro prefiere hablar con un chatbot de inteligencia artificial antes que con una persona real, según una investigación de la organización Internet Matters en el Reino Unido.

Los datos son elocuentes: el 53 % de los adolescentes señala que hablar con un chatbot de IA los hace sentir felices; el 50 % lo percibe como hablar con un amigo; y el 26 % afirma que lo utiliza porque no tiene a nadie más con quien hablar, especialmente en contextos de vulnerabilidad.

¿Qué está haciendo que los adolescentes prefieran a la inteligencia artificial antes que a otro ser humano, incluso antes que a sus propios padres o amigos reales? No tengo todas las respuestas; quizá cada padre deba buscarlas. La tecnología llegó para conectarnos, pero hoy es, para muchos, un refugio frente a la soledad, un refugio que también puede traer riesgos. (O)