Forbes Ecuador
salud cognitiva
Columnistas

El riesgo que Davos no midió: salud cognitiva colectiva y competitividad regional

Diego Buenaño

Share

Davos 2026 no ofreció respuestas sobre cómo gobernar el riesgo cognitivo colectivo. Las herramientas analíticas para medirlo aún no existen en forma estandarizada, y los marcos de política pública para gestionarlo están en estado embrionario incluso en los países más avanzados.

13 Febrero de 2026 15.05

En Davos, a finales de enero de 2026, los debates sobre inteligencia artificial no giraron únicamente alrededor de regulación o productividad. Por primera vez, la conversación derivó hacia algo más difuso e inquietante: los efectos de la IA sobre la mente humana como sistema colectivo. La expresión que circuló en pasillos y sesiones cerradas fue "cognitive overload in AI environments". No como metáfora, sino más bien, como categoría de riesgo emergente.

Semanas antes, el Global Risks Report 2026 había señalado tres tendencias que raramente se agrupan bajo el mismo paraguas: riesgo por desinformación, consecuencias adversas de tecnologías de IA y deterioro de la confianza institucional. El informe las trata como riesgos separados. Lo que Davos comenzó a insinuar —sin decirlo del todo— es que los tres son manifestaciones del mismo fenómeno subyacente: el agotamiento cognitivo de poblaciones enteras que procesan más información de la que pueden metabolizar. La tesis que aquí sostengo es más concreta: la salud cognitiva colectiva será el próximo diferencial competitivo entre regiones. Y América Latina llega a esa competencia con una desventaja estructural que ningún índice está midiendo.

El debate sobre IA y cognición suele plantearse en términos individuales: qué pierde o gana una persona cuando delega tareas a un sistema inteligente. Ese debate es relevante, pero insuficiente. El fenómeno que Davos comenzó a nombrar opera en otro nivel de análisis: el de las capacidades cognitivas agregadas de una sociedad. El World Economic Forum mide capital humano, adopción tecnológica e innovación. Ninguno de estos indicadores captura la calidad del pensamiento colectivo de un país: la capacidad poblacional de procesar complejidad, sostener atención profunda y tomar decisiones bajo incertidumbre sin colapsar en el retiro cognitivo o en la adhesión emocional irreflexiva.

Esa capacidad es exactamente lo que está bajo presión. Cuando los sistemas de IA resuelven no solo tareas operativas sino también tareas reflexivas —síntesis, argumentación, formulación de hipótesis— a escala de millones de usuarios simultáneos, el efecto no es solo individual. Es la reducción progresiva, a nivel de sistema, de la práctica colectiva del pensamiento complejo. Los efectos son acumulativos y se expresan en décadas, no en trimestres. Por eso no aparecen todavía en los modelos econométricos de competitividad.

El Global Risks Report 2026 documenta que la "disinformation fatigue" ya no es únicamente un problema político. Es un fenómeno cognitivo: cuando el volumen de contenido manipulado supera la capacidad de discriminación, las mentes dejan de intentar distinguir lo verdadero de lo falso. Se desconectan o se alinean emocionalmente con relatos que simplifican la complejidad. Ambas respuestas erosionan la confianza institucional —el tercer riesgo del informe. No son fenómenos separados. Son el mismo proceso en distintas fases.

La segunda señal es la "AI-accelerated anxiety": la sensación crónica de que la velocidad del cambio supera la capacidad de adaptación. La tercera es la más silenciosa. La literatura sobre interacción humano-IA en entornos educativos documenta que los estudiantes que externalizan tareas cognitivas complejas producen mejores resultados inmediatos pero muestran menor capacidad de transferencia de conocimiento en el mediano plazo. No aprenden menos contenidos; desarrollan menos autonomía mental. En una economía donde la IA produce contenidos a escala industrial, esa distinción define quién agrega valor y quién solo consume capacidad ajena.

Los datos ya disponibles permiten dimensionar la fragilidad de partida. Según los resultados de PISA 2022 —los últimos publicados, recogidos en el análisis del Banco Mundial y el BID— el 55% de los estudiantes latinoamericanos de 15 años no alcanza habilidades básicas de lectura, y el rezago en matemáticas respecto al promedio OCDE equivale a cinco años de escolaridad. Esa brecha no es solo educativa: es cognitiva. Refleja sistemas que llevan décadas priorizando la transmisión de contenidos sobre el entrenamiento en razonamiento autónomo.

A esa base frágil se suma una exposición intensa. Según datos de Comscore y DataReportal 2024, los usuarios en América Latina pasan en promedio 214 minutos diarios en redes sociales. La combinación es preocupante: una población que llega con menor entrenamiento en pensamiento crítico y que, simultáneamente, pasa más tiempo en entornos diseñados para sustituirlo por reacción emocional.

Las economías que lideran el desarrollo de IA —Estados Unidos, China, el norte de Europa— enfrentan versiones del mismo riesgo, pero desde una posición amortiguada por décadas de inversión en pensamiento crítico institucionalizado y marcos regulatorios con mayor legitimidad. Para la región, esas amortiguaciones no existen con la misma solidez. El informe de la OEI y ProFuturo (2025) documenta más de 200 iniciativas de IA en educación latinoamericana, la mayoría orientadas a eficiencia operativa, muy pocas diseñadas para fortalecer la capacidad de razonar por cuenta propia.

En Davos, el panel "Future of Growth" planteó algo infrecuente en ese foro: la próxima ventaja competitiva entre países no será únicamente tecnológica ni energética. Será cognitiva. Los países que logren preservar —y fortalecer— la capacidad de pensamiento profundo de sus poblaciones en un entorno de IA generalizada tendrá una diferenciación estructural que no se replica con inversión en chips. 

La agenda latinoamericana sobre IA sigue centrada en adopción, regulación y empleabilidad. Son debates necesarios, pero ninguno aborda el riesgo de fondo: que la velocidad de adopción supere la capacidad institucional para preservar la calidad del pensamiento colectivo que hace que esa adopción tenga sentido.

Davos 2026 no ofreció respuestas sobre cómo gobernar el riesgo cognitivo colectivo. Las herramientas analíticas para medirlo aún no existen en forma estandarizada, y los marcos de política pública para gestionarlo están en estado embrionario incluso en los países más avanzados. Lo que el foro sí dejó claro es que las instituciones que ignoren este riesgo hoy enfrentarán sus consecuencias en una o dos décadas, cuando la intervención será incomparablemente más costosa.

Los países que no protejan su arquitectura cognitiva colectiva no perderán solo concentración. Perderán competitividad, legitimidad institucional y cohesión social. Para América Latina, con los márgenes de error más estrechos y las brechas estructurales más profundas, esa no es una advertencia abstracta. Es la descripción de un proceso que, según los datos disponibles, ya está en marcha. (O)

10