Forbes Ecuador
Inteligencia artificial
Columnistas
Share

Los deepfake implican una amenaza a la credibilidad de la información, en la medida que todo se vuelve relativo. Por ejemplo, en Gabón, las personas dudaron sobre la validez de un video que mostraba al presidente Ali Bongo meses después de una ausencia mediática por enfermedad.

02 Febrero de 2022 14.11

Para entender los deepfake (videos generados por computadora que simulan a una persona) y su impacto, es necesario considerar el siguiente contexto: inteligencia artificial, tecnología y algoritmos personalizados que se combinan con fenómenos sociales como la polarización, la creación de burbujas mediáticas y las fake news. Sí, en apariencia, se trata de contenido  publicitario y de entretenimiento que las personas fácilmente identifican como artificial y engañoso. La cuestión es: ¿estamos seguros que eso siempre pasa?

Un poco de contexto: el término deepfake surgió hace 5 años en Reddit, una red social de noticias que ha jugado un rol trascendental en la propagación de rumores y contenidos falsos. Solo mencionar que, en esta plataforma, se originaron casos de desinformación emblemáticos como el #PizzaGate. Justamente, fue en este espacio que empezaron a publicarse fotos de celebridades como Gal Gadot o Taylor Swift en cuerpos de actrices porno. No obstante, esta práctica ha escalado -desde el 2019 éstas publicaciones han crecido en 900%- y empezado a permear otras esferas por fuera del espectáculo. 

Si bien su uso en campañas políticas aún no es tan marcado, recientes informes de la empresa Nisos sugieren que en los próximos años los deepfake se convertirán en una estrategia efectiva de desinformación pensada para confundir a las audiencias. Esto, considerando que las herramientas  para manipular audios y videos se volverán más sofisticadas. En consecuencia, será cada vez más difícil identificar qué es verdad y qué no. Escenario que se explica, básicamente, porque las percepciones pesan más que los hechos (en nuestra mente, pocas veces nos equivocamos, ¿verdad?); y los contenidos falsos están diseñados para sintonizar con la forma de pensar -preferencias, miedos, prejuicios existentes- de las diversas comunidades. 

Ese es el verdadero riesgo. Ya Roland Barthes, en el proceso de connotación fotográfica, hablaba del trucaje y cómo ciertos cambios incidían totalmente en la lectura e interpretación del mensaje. Un montaje periodístico de 1951 hizo que la opinión pública viera a un senador (Millard Tydings) como si fuera comunista, con las consecuencias que ello conllevaba en la época de la Guerra Fría. A partir de un supuesto diálogo, afloraron los sentimientos patrióticos -una significación histórica- que nada tenían que ver con la imagen; se trataba más de orgullo. En los próximos meses, y gracias a la IA, veremos a políticos o activistas que "dicen" o "confiesan" lo que sus adversarios quieren escuchar para validar sus creencias.

¿Qué es real?

Más allá de la intencionalidad con las que se construye este tipo de discursos, los deepfake implican una amenaza a la credibilidad de la información, en la medida que todo se vuelve relativo. Por ejemplo, en Gabón, las personas dudaron sobre la validez de un video que mostraba al presidente Ali Bongo meses después de una ausencia mediática por enfermedad. Después de aparición, las personas consideraron que quien aparecía en el video no era él, sino una recreación de él hecha en computadora; situación que casi deriva en un golpe de Estado. 

¿Cómo combatirlas?

Lo primero que se pide son regulaciones, censuras, que las redes sociales den de baja ciertos contenidos (sobre todo aquellos que no coinciden con nuestro punto de vista) . Al respecto hay varias iniciativas y software para identificar publicaciones falsas. Sin embargo, el principal reto no pasa por la legislación: está en promover en las audiencias un consumo responsable y sobre todo alejado de la inmediatez. Además, concientizar que los acontecimientos no deben leerse desde el mismo punto de vista. Como ven, se trata de un complejo que trasciende la tecnología. (O)

loading next article
10