El fraude perfecto llegó a los seguros: así están usando IA para inventar daños “creíbles”
Peritos y abogados ya se topan con imágenes de siniestros armadas por algoritmos que superan los controles básicos. Entre reclamos inflados y videos truchos, aseguradoras y tribunales ajustan reglas y cadena de custodia: la clave pasa por probar el origen, no la apariencia.

Un perito revisa fotos de daños causados por granizo en un techo. Un detective examina un video de un celular en un caso de violencia doméstica. Un abogado de derecho familiar presenta capturas de pantalla de mensajes de texto amenazantes en una audiencia de custodia. Cada uno toma una decisión con consecuencias a partir de evidencia visual, y ninguno puede confirmar con certeza si lo que ve es real.

Esto no es hipotético. Es la realidad cotidiana del trabajo con evidencia digital en 2026. Las mejores imágenes y los videos generados por IA alcanzaron un nivel de calidad que, muchas veces, incluso los profesionales capacitados no logran distinguir de los materiales auténticos

Estudios controlados de los últimos años revelan que a muchas personas les cuesta detectar deepfakes, con resultados apenas por encima del azar, y a veces peores cuando las falsificaciones tienen alta calidad. La IA generativa moderna no se limita a alterar imágenes existentes: crea imágenes completamente nuevas desde cero, píxel a píxel, sin dejar rastros de edición que suelen aparecer con las herramientas de manipulación tradicionales.

@@FIGURE@@

En los tribunales, las aseguradoras y las fuerzas del orden, se construyeron procesos de toma de decisiones a partir de la premisa de que las fotos y los videos reflejan algo que realmente ocurrió. Esa premisa ahora quedó peligrosamente obsoleta.

Las aseguradoras fueron las primeras en notarlo. La perito británica McLarens informó un aumento del 300% en la cantidad de documentos sospechados de ser falsos en reclamos durante el primer trimestre de 2023, y Allianz advirtió un incremento similar, del triple, en la cantidad de imágenes, videos y documentos manipulados en uno de sus períodos de informe.

El informe SONAR 2025 de Swiss Re ubicó a los deepfakes y a otros contenidos sintéticos entre los riesgos nuevos para las aseguradoras. Señaló, en particular, la falsificación de pruebas y el fraude con asistencia de IA como una preocupación cada vez mayor. Los demandantes presentaron fotos de daños generadas por IA que pasaron la revisión inicial, cámaras de seguridad manipuladas con marcas de tiempo alteradas y, en al menos un caso documentado, un video de telesalud totalmente falso para respaldar un reclamo por discapacidad. @@FIGURE@@

A continuación, el tribunal. El Comité Asesor sobre Reglas de Prueba de la Conferencia Judicial Federal de Estados Unidos evaluó un proyecto de enmienda a la Regla 901, muchas veces descripto como una nueva subdivisión (c), orientado a pruebas que podrían haberse fabricado total o parcialmente con inteligencia artificial. Además, analizó cómo deberían gestionar los tribunales las presuntas falsificaciones profundas en la etapa de admisibilidad. Luisiana quedó entre los primeros estados en actuar a nivel legislativo. Aprobó una ley de 2025 que obliga a los abogados a tomar medidas razonables para verificar la autenticidad de las pruebas digitales y las divulgaciones relacionadas en los tribunales. El viejo criterio de "¿se ve bien?" ya no se sostiene cuando "se ve bien" pasó a ser lo más fácil de falsificar.

Los casos ya pusieron a prueba estos límites. En el juicio de Rittenhouse en Wisconsin, la defensa impugnó las pruebas de video de la fiscalía y sostuvo que la función de zoom de Apple usa un procesamiento que podría alterar los píxeles. Eso abrió una discusión extensa sobre cómo se gestionó la grabación antes de que el tribunal autorizara mostrar la versión ampliada. En una disputa por custodia en el Reino Unido, una madre presentó lo que los investigadores determinaron después como un audio manipulado, armado para retratar al padre como violento. Estos no son casos extremos: son la avanzada de una ola.

Una idea apunta a crear bases de datos de contenido generado por IA ya identificado, con un catálogo de falsificaciones a partir de huellas digitales, como se rastrean las imágenes de explotación infantil. Ese sistema sirve para un problema de redistribución, en el que la misma imagen puede circular miles de veces. Si se registra la huella una vez, aparece en todos lados. Con las imágenes generadas por IA pasa lo contrario. Cada solicitud puede producir una imagen única, con una huella digital propia. No se trata de catalogar copias: se trata de intentar inventariar una cantidad prácticamente infinita de “originales”. Los números no cierran y, además, las fábricas de contenido se aceleran. @@FIGURE@@

También existe el estándar C2PA y sus “Credenciales de Contenido”, que funcionan, en la práctica, como un sello notarial criptográfico que queda incrustado en el material en el momento de la captura. Ese sello puede registrar qué dispositivo tomó una foto, cuándo se creó y qué ediciones se aplicaron después. La Agencia de Seguridad Nacional (NSA) respaldó los enfoques de credenciales de contenido en una hoja informativa sobre ciberseguridad de enero de 2025, y el informe AI 100-4 del NIST identificó sistemas de procedencia como C2PA entre los métodos más prometedores para rastrear el origen del material. La idea es sólida: verificar el origen, no el resultado.

C2PA también tiene límites. Para que funcione a gran escala, exige una adopción muy amplia en cámaras, teléfonos, software de edición y plataformas. Los principales fabricantes de cámaras, como Leica, Nikon, Sony y Canon, se sumaron a la iniciativa o a esfuerzos relacionados con la autenticidad del contenido, y eso marca un avance real.

Sin embargo, la enorme mayoría de las fotos que hoy se presentan como prueba no tienen datos de procedencia. La infraestructura todavía está en construcción. No le resuelve nada al perito que revise un reclamo sospechoso esta tarde, ni al fiscal que vaya a una audiencia la semana que viene.

¿Qué pasa con las herramientas de detección? Ojalá tuviera mejores noticias. El software de detección de IA puede rendir bien en entornos de laboratorio controlados, con conjuntos de datos de referencia, pero su precisión cae fuerte cuando se enfrenta a contenido del mundo real. Ahí aparecen técnicas que no estaban en sus datos de entrenamiento, además de material comprimido y republicado en redes sociales. El informe AI 100-4 del NIST y varias evaluaciones independientes concluyeron que, por ahora, ningún método de detección ofrece un desempeño confiable y autónomo en todos los tipos de contenido y frente a todos los métodos de ataque. Las herramientas mejoran, pero en muchos escenarios reales les cuesta seguirles el ritmo a las nuevas técnicas generativas.

Y eso me lleva a lo que vi con más consistencia en más de 16 años al examinar evidencia digital como experto forense digital: el examen del dispositivo de origen. No del archivo. Del dispositivo. @@FIGURE@@

Cuando examino un teléfono o una computadora en su estuche, no miro solo una foto. La observo en contexto, dentro del carrete de la cámara, junto a miles de otras, con metadatos consistentes, artefactos del sistema de archivos, atribución de aplicaciones y marcas de tiempo de creación.

El sistema operativo registra cuándo se crean los archivos y qué aplicación los generó. Los registros de red, las coordenadas GPS y las convenciones de nomenclatura secuencial de archivos arman una red de detalles que respalda la autenticidad o deja al descubierto una falsificación. Si una captura de pantalla con un "mensaje amenazante" aparece de golpe sin ninguna entrada coincidente en la base de datos de mensajería, sin notificaciones y sin copias de seguridad, esa señal es clara: la imagen fue falsificada.

Una foto con esa procedencia cuenta una historia que se puede evaluar bajo juramento. En cambio, una foto tomada de redes sociales o enviada por correo electrónico, sin cadena de custodia, no es mucho más que un conjunto de píxeles. Se puede debatir, pero sin procedencia ni contexto resulta muy difícil autenticarla con rigor, si es que eso llega a ser posible.

Esto es clave para la gente con la que trabajo todos los días. Profesionales de seguros que necesitan definir si las fotos de daños son auténticas. Abogados cuyos clientes pueden jugarse su futuro en la autenticidad de un video. Jueces que evalúan pruebas cuando una parte sostiene que la otra inventó mensajes amenazantes. El dinero, la libertad y las familias de las personas dependen de que alguien pueda demostrar que una prueba digital es lo que dice ser.

Ningún método es perfecto y no sostengo lo contrario. Alguien puede fotografiar una imagen generada por IA en un monitor, y el dispositivo de origen la va a registrar, sin más, como una foto nueva y con apariencia auténtica. Un perito con experiencia muchas veces detecta indicios de eso, aunque siempre van a existir casos excepcionales.

También hay un límite que tribunales e investigadores deben tener claro: la diferencia entre mejora y generación. La mejora legal implica operaciones controladas que aclaran los píxeles que ya existen, como ajustar el contraste, reducir el ruido o usar interpolación sin crear contenido nuevo.

Las ediciones generativas son otra cosa. Cuando un software elimina una máscara, altera la ropa, dice “reducir el desenfoque” de un rostro a partir de detalles inventados o completa áreas faltantes con la mejor estimación de un modelo, el resultado ya no es un registro de lo que captó la cámara. Es una reconstrucción sintética. Estos resultados pueden servir como pistas, pero no deberían considerarse evidencia de identidad o de acción. @@FIGURE@@

Lo central, por mi experiencia y según el estado actual de la práctica, es que la investigación forense a nivel de dispositivo ofrece un nivel de fiabilidad más alto y más fácil de comprobar que otros métodos disponibles para determinar la autenticidad de una imagen o un video. El cambio que debe darse en los tribunales, los departamentos de reclamos y cualquier organización que tome decisiones a partir de pruebas visuales es, aunque parezca, engañosamente simple: tenemos que dejar de preguntarnos "¿Es real esta imagen?" y empezar a preguntar "¿Podés probarlo?".

Esto implica tratar las fotos y los videos digitales con la misma disciplina de cadena de custodia que aplicamos a la evidencia física: quién los recopiló, cómo se almacenaron y quién los manipuló durante el proceso judicial. También exige pedir un examen a nivel de dispositivo cuando las imágenes y los videos se usan para decisiones importantes, en vez de aceptar sin más archivos huérfanos.

La etapa de tomar las pruebas digitales al pie de la letra terminó cuando la IA pasó a generar fotos de daños que hasta un perito con experiencia podría tener problemas para distinguir de una real. C2PA y otros sistemas de procedencia parecidos probablemente cierren parte de esa brecha con el tiempo, pero "eventualmente" no le sirve al abogado que selecciona al jurado el mes que viene.

Por mi experiencia, cuando la autenticidad se pone seriamente en duda, un examen forense del dispositivo de origen es el único método que aporta una base confiable para sostener, de manera consistente, la autenticidad de una imagen o un video. Hoy, conformarse con menos que eso debilita la base probatoria, en lugar de fortalecerla.

*Nota publicada originalmente en Forbes.com