Taylor Swift, Rihanna y Meloni: la IA abrió una guerra por la imagen, la voz y el negocio de la identidad
Deepfakes, estafas y réplicas empujan a celebridades, políticos, marcas y plataformas a disputar nuevos límites legales sobre consentimiento, licencias y responsabilidad digital.

Una nueva reacción contra la IA generativa empieza a tomar forma, pero el eje ya no recae únicamente en la tecnología, sino en la propiedad sobre la imagen, la voz y la semejanza de cada persona. Con estas herramientas, replicar un rostro o usar una voz ajena sin permiso resulta mucho más simple. 

El aval de una celebridad puede falsificarse, venderse como anuncio y circular por millones de cuentas en redes sociales antes de que los abogados alcancen a enviar una orden de cese y desistimiento. La disputa por la IA ingresó en una etapa más delicada, atravesada por tarifas de licencia, denuncias por fraude, pedidos de baja de contenido y responsabilidad legal.

El riesgo de la IA se agrega a otros problemas ya conocidos, como el sesgo, las alucinaciones, la automatización de empleos, el uso ético indebido y los deepfakes, que provocan malestar y efectos concretos. Reportes recientes muestran que estas amenazas ya salieron del plano teórico. Estafadores usaron videos creados con IA de Taylor Swift, Rihanna y otras celebridades en promociones falsas de TikTok, que llevaron a usuarios hacia sitios de terceros para pedir datos personales. 

Esos anuncios simulaban entrevistas y apariciones públicas reales, bajo la fachada de programas fraudulentos de recompensas. Swift pidió registrar marcas vinculadas con su imagen y su voz después de la difusión de esos anuncios deepfake. El caso encendió alertas entre artistas, marcas y plataformas tecnológicas globales. @@FIGURE@@

La imagen de una celebridad ya no funciona únicamente como publicidad. Es un activo económico. Mueve giras, catálogos de streaming, cosméticos, zapatillas, películas, respaldos políticos y marcas financiadas por capital privado. Cuando la IA pueda replicar ese valor a bajo costo, el problema dejará de parecer una práctica inquietante o extorsiva y pasará a ser un riesgo concreto, capaz de diluir marcas y afectar acuerdos comerciales.

Los deepfakes ya funcionan como un ataque comercial.

Los deepfakes dejaron de ser solo un problema personal, asociado a imágenes íntimas, videos humillantes o daños reputacionales individuales. Ahora también representan una amenaza directa para las empresas.

Un falso director ejecutivo puede servir para forzar una solicitud de pago, mientras que un ejecutivo clonado puede autorizar un cambio de proceso con impacto real. Un atleta falso puede empujar a sus fanáticos hacia una estafa de apuestas. Un cantante falso puede derivar a sus seguidores a un sitio creado para captar datos personales. Un médico falso puede vender medicamentos sin eficacia, apoyado en la autoridad prestada de una bata blanca y un rostro conocido.

El problema de las falsificaciones también daña la reputación personal y política. El 5 de mayo de 2026, The Guardian informó que la primera ministra italiana, Giorgia Meloni, condenó una imagen suya en lencería creada con inteligencia artificial que se viralizó, y denunció el ciberacoso y la desinformación.

El informe de IBM sobre el costo de las filtraciones de datos de 2025 reveló que el 16% de los casos analizados incluyó atacantes que usaron herramientas de IA, sobre todo para ataques de phishing o suplantación de identidad mediante deepfake.  @@FIGURE@@

Por eso, los profesionales de la ciberseguridad ya advierten a sus clientes empresariales que desconfíen de audios sospechosos, pedidos urgentes por canales digitales, falsas emergencias y mensajes que soliciten dinero o información confidencial. Además, recomiendan extremar la precaución y verificar esas solicitudes por un canal de confianza antes de actuar.

Los patrocinios falsos implican otro riesgo comercial. Informes recientes de The Verge y Wired revelaron que videos de celebridades manipulados con IA, como Taylor Swift y Rihanna, aparecieron en anuncios fraudulentos de TikTok para promocionar falsos programas de recompensas. Esas piezas llevaban a los usuarios a sitios web de terceros que pedían información personal. 

Este tipo de fraude genera ingresos ilegales para los estafadores y, a la vez, puede debilitar una marca, exponer a la persona imitada, confundir a los consumidores y reducir el valor de los patrocinios legítimos. Incluso, puede forzar a celebridades, empresas y plataformas a gastar dinero para probar que no tuvieron vínculo con un anuncio que nunca debió usar su identidad.

Las celebridades son el primer caso de prueba.

La preocupación por el uso indebido de la imagen y la semejanza de las personas ya entra en leyes y regulaciones. La norma quedó forzada a responder una pregunta que antes no aparecía a esta escala: ¿cuándo una versión digital de una persona pasa a ser algo que esa persona puede controlar? Estas medidas surgen por las fallas de la protección de la propiedad intelectual vigente, que no previó la llegada de la inteligencia artificial.

Los derechos de autor protegen obras y creaciones, mientras que la ley de marcas resguarda los identificadores comerciales. El derecho a la propia imagen protege la identidad comercial, la ley de privacidad actúa ante la intrusión personal y la ley contra el fraude castiga el engaño. 

Las falsificaciones generadas por IA cruzan todos esos campos, pero suman un problema nuevo: una persona o una marca puede transformarse en un medio  capaz de ejecutar nuevas acciones, pronunciar nuevas palabras y vender nuevos productos. La dificultad está en diferenciar una promoción real y autorizada de otra falsa y sin permiso.

El gobierno federal de EE.UU. ya toma medidas. La Ley NO FAKES fue presentada otra vez en abril de 2025 por legisladores que buscaban proteger a las personas contra réplicas digitales no autorizadas. Los estados también avanzan. La Ley ELVIS de Tennessee, que entró en vigor el 1 de julio de 2024, actualizó la norma estatal sobre derechos personales para proteger a compositores, intérpretes y trabajadores de la música del uso indebido de sus voces por parte de la IA y de la clonación de voz no autorizada, según la oficina del gobernador. @@FIGURE@@

El caso Meloni muestra la velocidad con la que el abuso de identidades sintéticas puede transformarse en un daño político, reputacional y personal al mismo tiempo. Italia ya tipificó como delito el abuso de deepfakes. Según la Ley n.º 132, vigente a partir del 10 de octubre de 2025, la difusión ilícita de imágenes, videos o voces generados o alterados por IA constituye ahora un delito. La norma rige cuando ese contenido se comparte sin consentimiento, puede inducir a error sobre su autenticidad y causa un daño injusto. Los infractores se exponen a penas de prisión de uno a cinco años. La ley también incorpora agravantes vinculados con la IA para ciertos delitos, incluida la manipulación del mercado.

El desafío también alcanza a las plataformas que ayudan a difundir falsificaciones generadas por IA. Según The Verge, estos espacios ya enfrentan estafas con deepfakes de celebridades que buscan alcanzar un alto nivel de realismo. Instagram, TikTok o X podrían argumentar que no crearon esas falsificaciones y, por lo tanto, no deberían responder por su difusión. Sin embargo, esa explicación difícilmente conforme a quienes caen en la trampa de anuncios protagonizados por celebridades falsas.

En muchos sentidos, la IA representa la siguiente etapa de la responsabilidad de las plataformas. Internet ya vivió situaciones similares con la piratería, el fraude publicitario, la manipulación electoral, el acoso y la falsificación de productos. Cada caso empezó como un problema de moderación, con un riesgo real para anunciantes, marcas, celebridades e influencers

Pero, con la facilidad para crear imágenes mediante IA, sumada a la velocidad y al bajo costo de distribución, los problemas se vuelven mucho más urgentes. La víctima puede ser una estrella, un político, un niño, un trabajador o un ciudadano común. El daño puede ocurrir antes de que un sistema de moderación, humano o automatizado, llegue a intervenir.

Hacia una aplicación práctica de la ley

Una estrategia consiste en sumar la autenticación y la marca de agua como parte habitual del proceso de creación de contenido con IA. En la práctica, cada imagen, video o clip de audio generado por IA debería incluir algún tipo de prueba de origen, tal como un paquete lleva una etiqueta de envío o un documento, una firma. Esa prueba debería indicar de dónde viene el contenido, si fue modificado y si la persona o marca que aparece en él dio su consentimiento. @@FIGURE@@

Las etiquetas de advertencia son útiles, pero solo si acompañan al contenido y las personas les creen. Una etiqueta que dice "generado por IA" sirve de poco si el video se descarga, se recorta, se publica otra vez y la advertencia desaparece. Las marcas de agua pueden ser útiles, sobre todo si son visibles para las personas y legibles para las plataformas, los motores de búsqueda y las herramientas de seguridad. Pero solo funcionan si se conservan después de la edición, la republicación y el cambio de plataforma.

Los sistemas de eliminación y moderación cumplen otro papel. Ayudan a reducir la difusión de contenido no autorizado, pero solo después de que el material falso ya salió a la luz. Eso importa, aunque sigue como una herramienta de limpieza, no de prevención.

Cuando una víctima presenta una queja y una plataforma elimina el video, ese contenido falso tal vez ya se copió, se archivó, circuló en grupos privados o sirvió para estafar a consumidores. Por eso, la solución más eficaz no pasa solo por borrar el contenido más rápido, sino por crear un sistema que facilite la detección de material falso o no autorizado antes de que se propague.

Se viene un nuevo mercado para los permisos

Hay una tensión cada vez más visible en el uso de la IA dentro de la industria creativa. Por un lado, los estudios ven una ventaja: la IA puede mejorar sus producciones de un modo parecido al aporte que antes daban los gráficos por computadora, que permitían crear imágenes más realistas y reforzar el mensaje. Por otro, ya se usan modelos de IA entrenados con propiedad intelectual ajena para desarrollar producciones sobre las que sus dueños no tienen control. @@FIGURE@@

El tema abre un desafío en varios niveles si cada uso de una imagen protegida exige consentimiento. Un estudio va a necesitar autorización para usar la imagen de un actor fallecido. Una discográfica va a requerir permiso para clonar la voz de un cantante. Las plataformas publicitarias van a tener que verificar que el aval de una celebridad sea auténtico.

Ese escenario también marca un desafío y una oportunidad para los mercados de IA. Las empresas tendrán que crear registros de derechos y licencias, además de sistemas para autenticar voces y retirar contenido. Las aseguradoras deberán ampliar su cobertura para incluir los medios sintéticos, y las agencias de talentos tendrán que sumar contratos que contemplen el uso de la IA y su cumplimiento. Incluso la planificación patrimonial podría cambiar, con los derechos de uso digital de la imagen y los bienes heredados dentro de la discusión.

Con la madurez y expansión de la IA, y con herramientas cada vez más fáciles de usar, los desafíos vinculados al uso y al uso indebido de imágenes y propiedad intelectual de marcas van a ganar urgencia. Aunque la IA generativa no creó la suplantación de identidad, sí redujo los costos, elevó la calidad y amplió el alcance de sus consecuencias.

*Este artículo fue publicado originalmente por Forbes.com.