Un experimento llevado a cabo en EEUU demuestra que los bots basados en inteligencia artificial imitan a la perfección a los humanos, sortean todos los controles de calidad y pueden alterar resultados electorales y científicos. En Sinc subrayan que en particular, los investigadores analizaron siete encuestas previas a las elecciones presidenciales de 2024 y documentaron como tan solo unas pocas decenas de respuestas falsas generadas por IA invirtieron el resultado.

Las encuestas de opinión pública, un instrumento clave para comprender e intentar predecir el comportamiento humano, se enfrentan a una amenaza sin precedentes. Un nuevo estudio realizado por investigadores del Dartmouth College (Estados Unidos) revela que la inteligencia artificial es capaz de corromper sondeos a gran escala, ofreciendo respuestas indistinguibles de las humanas y superando todas las pruebas diseñadas para detectar automatismos.

Los resultados, publicados en la revista Proceedings of the National Academy of Sciences, muestran hasta qué punto la infraestructura de los estudios de opinión es vulnerable. En siete encuestas nacionales previas a las elecciones de 2024 en EE UU, bastaron entre 10 y 52 respuestas falsas generadas por IA —a cinco céntimos cada una— para invertir el resultado previsto.

La amenaza no es meramente interna. Según el estudio, actores extranjeros podrían explotar este punto débil con facilidad: los bots funcionan incluso cuando se programan en ruso, mandarín o coreano, produciendo respuestas en un inglés o castellano impecable.

“Ya no podemos confiar en que las respuestas de las encuestas provengan de personas reales” , alerta Sean Westwood, autor del estudio, profesor asociado de Gobierno en Dartmouth y director del Polarization Research Lab.

El bot engaña al encuestador

Para evaluar la fragilidad de las encuestas en línea, Westwood desarrolló una herramienta simple de IA, una especie de “encuestado sintético autónomo” construido a partir de un texto de solo 500 palabras. En 43 000 pruebas, el bot superó el 99,8 % de los controles de atención, no cometió errores en los rompecabezas lógicos y ocultó por completo su naturaleza no humana. Además, ajustó sus respuestas en función de la demografía asignada, como emplear un lenguaje más sencillo cuando se le atribuía menor nivel educativo.

“No son bots rudimentarios”, explica Westwood. “Razonan cada pregunta y se comportan como personas cuidadosas, haciendo que los datos parezcan totalmente legítimos” . Cuando se instruyó al sistema para favorecer a demócratas o republicanos, la aprobación presidencial osciló desde el 34 % hasta el 98 % o el 0 %. El apoyo en el llamado generic ballot pasó del 38 % republicano a valores tan extremos como el 97 % o el 1 %.

Las implicaciones van más allá de la política electoral. Miles de estudios revisados por pares en psicología, economía o salud pública se basan en encuestas para comprender conductas, medir riesgos o anticipar tendencias. “Si los datos están contaminados por bots, la IA puede envenenar todo el ecosistema del conocimiento”, advierte el investigador.

linea

Radiocable.com y su programa La Cafetera se financian con las aportaciones de lectores y oyentes. Necesitamos tu ayuda para sobrevivir. Si te gusta el periodismo que defiende el programa y sientes que te acompaña, hazte suscriptor-mecenas aquí.

linea

Print Friendly, PDF & Email