El dilema de Claude Mythos, la IA de Anthropic: cuando el poder se vuelve un riesgo.
La versión preliminar del modelo encendió alarmas en Estados Unidos y Europa por su aparente capacidad para explotar fallas de ciberseguridad desconocidas.

La versión preliminar de Claude Mythos, de Anthropic, generó preocupación en Estados Unidos y en el resto del mundo por la seguridad de la IA. El debate llegó a Wall Street, Washington DC y también a las instituciones financieras europeas. Anthropic decidió no publicarla y sostuvo que el modelo parecía capaz de explotar de forma autónoma vulnerabilidades de ciberseguridad hasta ahora desconocidas.

La IA ya funciona como una caja de Pandora. Su impacto puede escalar a una velocidad extraordinaria porque sus resultados son automáticos, reproducibles y fáciles de multiplicar. Eso no la convierte en un arma nuclear, pero sí en un riesgo sistémico. Una vez que los modelos con capacidades avanzadas queden al alcance de muchos usuarios, su uso malintencionado puede expandirse con rapidez entre industrias e instituciones.

Sin embargo, la presión comercial podría ir más rápido que la gobernanza. La pérdida de capacidad en materia de seguridad dentro de las principales empresas de IA generó inquietud. El cierre del equipo de Alineación de Misión de OpenAI a principios de este año y la disolución del equipo dedicado a la seguridad de la IA en 2024 dejaron una señal alarmante: una tecnología cada vez más poderosa, pero con menos controles

Cuando las funciones de seguridad se reducen al mismo tiempo que aumenta la capacidad del modelo, la tecnología queda más expuesta al uso malintencionado. La preocupación pública, en ese contexto, resulta completamente natural. @@FIGURE@@

Proyecto Glasswing

Para reducir los riesgos de ciberseguridad, Anthropic lanzó el Proyecto Glasswing. Se trata de una iniciativa coordinada de divulgación de vulnerabilidades en la que participan Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, NVIDIA y Palo Alto Networks

El objetivo es que los principales proveedores de infraestructura aprovechen la capacidad predictiva del modelo para detectar debilidades en los sistemas en la nube y corregir fallas críticas de software. La meta es resolver esos problemas antes de que el modelo, o un sistema adversario similar, quede al alcance de un público más amplio y con menos controles.  @@FIGURE@@

Ese paso marca un cambio en las prioridades de la industria. La carrera por la IA ya no gira únicamente alrededor de la capacidad: ahora también pone la lupa sobre quién puede proteger los sistemas que esa misma capacidad podría poner en riesgo.

Impacto intersectorial

A medida que sube la capacidad de la IA, también aumentan los riesgos en todos los sectores. En finanzas, los modelos con un razonamiento del nivel de Mythos podrían ayudar a simular o ejecutar maniobras complejas de manipulación de mercado, esquivar los sistemas de detección de fraude o automatizar la identificación de debilidades institucionales. 

En la industria manufacturera y el comercio, una IA avanzada podría detectar y explotar cuellos de botella en la cadena de suministro, con retrasos, interrupciones o robos a gran escala como consecuencia. En universidades e instituciones de investigación, la amenaza también alcanza a los datos confidenciales, las redes internas y los ataques de ingeniería social asistidos por IA contra administradores y profesores. @@FIGURE@@

A medida que la IA se transforma en una herramienta de uso general para mejorar la productividad, también pasa a ser una herramienta de uso general para el sabotaje. La misma flexibilidad que la vuelve valiosa en términos comerciales también la vuelve muy adaptable para fines maliciosos.

La medicina y la crisis por la integridad de los datos

El Informe del Índice de IA de Stanford 2026, publicado este mes, destaca un fuerte avance en la adopción de la IA en la medicina. El documento señala un aumento significativo en el uso de esta tecnología para la documentación clínica, las imágenes médicas y el razonamiento diagnóstico. Ese crecimiento puede mejorar la eficiencia, pero también amplía los riesgos para la salud pública si la implementación falla o se hace sin los resguardos necesarios.

Si un modelo como Mythos se usara para corromper bases de datos médicas, manipular sistemas de diagnóstico o generar recomendaciones farmacológicas inexactas, el daño iría mucho más allá de una simple filtración de datos. Sería una amenaza directa para la seguridad de los pacientes. 

A medida que los sistemas de salud dependen cada vez más de flujos de trabajo mediados por IA, la posibilidad de una medicina adversaria se vuelve cada vez más difícil de ignorar. En ese escenario, actores malintencionados podrían alterar los resultados de la IA para provocar daño, sembrar confusión o extorsionar a hospitales. En ese marco, la verificación de identidad y los controles de acceso dejan de parecer una traba opcional y pasan a ocupar un lugar central en la protección del sistema. @@FIGURE@@

Verificación de identidad inevitable

La posibilidad de que modelos de alta capacidad puedan facilitar daños de este tipo aceleró la transición hacia una verificación de identidad obligatoria. Anthropic ahora exige un documento oficial y selfies biométricas en tiempo real a los usuarios que buscan acceder a ciertas funciones de alto riesgo. 

La empresa sostiene que se trata de una cuestión de integridad de la plataforma y plantea que el uso responsable de una tecnología avanzada empieza por saber quién la usa. Frente a las dudas sobre la privacidad, Anthropic afirma que los datos de verificación no se usan para entrenar modelos ni se comparten con terceros con fines de marketing o publicidad.

La verificación de identidad física para usar IA puede parecer un cambio fuerte en la experiencia del usuario. Sin embargo, también extiende una práctica industrial mucho más antigua. Desde hace años, las empresas tecnológicas dependen de formas pasivas de verificación. Los inicios de sesión de Google para Gemini, los registros de servicios de internet y los metadatos vinculados a cuentas de correo electrónico, dispositivos y compras digitales ya aportan señales claras sobre la identidad de cada usuario. 

Esos sistemas sostuvieron durante mucho tiempo funciones de seguridad pública y monetización comercial. Las verificaciones de identidad explícitas para modelos avanzados de IA formalizan ese recorrido. En otras palabras, trasladan a la superficie un sistema de identificación que antes operaba en segundo plano, con criterios similares a los del sector bancario. @@FIGURE@@

El papel público ausente

El proyecto Glasswing de Anthropic reúne a los principales proveedores de servicios en la nube y a empresas de ciberseguridad. Sin embargo, por ahora no incorpora de manera relevante a las instituciones públicas ni a los responsables de definir políticas.

Esa ausencia pesa. La innovación es clave para la competitividad económica, pero la seguridad sigue como condición previa para sostener el crecimiento en el tiempo. En su momento, los gobiernos crearon marcos legales para la ciberseguridad y la privacidad de los datos. Ahora les toca actualizar las leyes sobre seguridad en IA y los mecanismos regulatorios para adecuarlos a las capacidades de los nuevos modelos. 

Sin ese respaldo estatal, gran parte de la carga quedará en manos de empresas privadas, cuyos incentivos no siempre coinciden con el interés público. La verdadera pregunta es si las instituciones podrán moverse con la velocidad necesaria para regular esta tecnología antes de que supere los controles que hoy existen.

*Imagen de portada: AFP vía Getty Images

*Esta nota fue publicada originalmente en Forbes.com