La guerra entre Rusia y Ucrania ha sido el primer ejemplo real de uso de videos ultrafalsos o deepfake creados por inteligencia artificial en conflictos bélicos. Incluso ha habido uno del presidente ruso Vladimir Putin anunciando la paz con Ucrania y distribuido en Twitter. Y este es de hecho, uno de los más de 1.200 tuits analizados por investigadores de la Universidad de Cork (Irlanda) en un estudio que recoge Sinc, cuyo objetivo ha sido evaluar el impacto que pueden tener estos contenidos manipulados durante los conflictos bélicos.


Los deepfakes (ultrafalsos, en español) son videos manipulados extremadamente realistas creados mediante técnicas de inteligencia artificial (IA) de aprendizaje profundo. En ellos, se muestra a personas diciendo y haciendo cosas que nunca ocurrieron en la vida real. Investigadores de la universidad irlandesa de Cork (UCC) han analizado cerca de 5.000 tuits durante la actual guerra entre Rusia y Ucrania. El objetivo es, según los autores, evaluar el impacto de estos contenidos como instrumentos de desinformación y propaganda en tiempos de guerra. Los resultados se publican en la revista PLOS ONE.

Para entender mejor el daño que pueden ocasionar los videos ultrafalsos, el equipo analizó los debates en Twitter sobre deepfakes relacionados con la invasión rusa. Los investigadores utilizaron un enfoque cualitativo conocido como análisis temático para identificar y comprender patrones en las discusiones, que incluían un total de 5.000 tuits, distribuidos en los primeros siete meses de 2022 en la red que Elon Musk ha rebautizado como X.

Según comenta a SINC John Twomey, investigador de la Facultad de Psicología Aplicada de la UCC y líder del trabajo, “los avances en IA permiten producir este tipo de videos de manera más rápida que antes. Los deepfakes resultan especialmente dañinos porque permiten a la gente apropiarse de la identidad de figuras públicas”. Además, Twomey señala que, aunque esta práctica “puede utilizarse para entretenimiento, lo más habitual es que se use para la difamación y el abuso. Cuando estas personas públicas están implicadas en un conflicto, esto puede ser especialmente perjudicial”.

Anuncios falsos de paz y rendición

En el trabajo, de los 5.000 tuits extraídos, los autores excluyeron el contenido spam, por lo que al final analizaron 1.231 tuits que fueron sometidos a un examen temático. “Esto implica la codificación cualitativa de temas”, apunta el investigador. “Lo que hacemos es etiquetar manualmente los puntos relevantes de cada tuit, los juntamos y organizamos en temas comunes que destacaban puntos relevantes y críticos sobre el conjunto de datos”, explica.

Algunos tuits pasaron por alto los posibles perjuicios o tuvieron reacciones positivas ante los deepfakes dirigidos contra rivales políticos, especialmente los creados como sátira o entretenimiento.

Twomey indica que la guerra ruso-ucraniana ha sido el primer ejemplo real de uso de videos ultrafalsos en conflictos bélicos. Entre otros ejemplos, menciona el video que mostraba a Putin anunciando la paz con Ucrania o el pirateo de un sitio web de noticias ucraniano para mostrar el mensaje deepfake de rendición del presidente ucraniano.

El estudio encontró tuits que advertían de la necesidad de prepararse para un mayor uso de este tipo de videos, hablaban de cómo detectarlos o destacaban el papel de los medios de comunicación y los gobiernos para rebatirlos.

Otros tuits, sin embargo, sugerían que los deepfakes habían minado la confianza de los usuarios hasta el punto de que ya no se fiaban de ninguna grabación de la invasión.

Promoción de teorías conspirativas
Había también tuits que relacionaban estos contenidos con la aparente creencia de los usuarios en teorías conspirativas, como que los deepfakes de líderes mundiales se utilizaban como tapadera cuando en realidad estaban escondidos, o que toda la invasión era falsa, propaganda antirrusa.

El análisis indica que los esfuerzos para educar al público sobre los deepfakes pueden socavar involuntariamente la confianza en los vídeos reales. Los autores señalan que sus hallazgos y futuras investigaciones podrían contribuir a mitigar los efectos nocivos de estos videos ultramanipulados.

linea

Radiocable.com y su programa La Cafetera se financian con las aportaciones de lectores y oyentes. Necesitamos tu ayuda para sobrevivir. Si te gusta el periodismo que defiende el programa y sientes que te acompaña, hazte suscriptor-mecenas aquí.

linea

Print Friendly, PDF & Email