Las elecciones europeas muestran la fortaleza de las democracias frente a los 'deepfakes' con IA
CIENCIAS DE LA COMPUTACIÓN / INTELIGENCIA ARTIFICIAL.
El contenido malicioso generado por IA no parece haber servido para manipular a los electores. Aún así, existe el riesgo de que pueda hacerlo en el futuro, según explican los investigadores.
Los contenidos falsos generados por IA y, en concreto, los deepfakes no parecen haber tenido ningún efecto en los resultados electorales de este año en Reino Unido, Francia o el Parlamento Europeo. Así lo indica una reciente investigación.
Desde el principio del auge de la IA generativa, se ha extendido el miedo a que las herramientas de IA aumenten las capacidades de algunos actores maliciosos y que estos difundan contenidos falsos que interfieran en las elecciones o incluso influyan en los resultados. Estos temores se acentuaron notablemente este año en el que miles de millones de personas en más de 70 países estaban llamadas a votar.
Según Sam Stockwell, investigador del Instituto Alan Turing que realizó el estudio, los temores parecen infundados. Stockwell se centró en tres procesos electorales a lo largo de cuatro meses, de mayo a agosto de 2024, recopilando datos de informes públicos y noticias que aludieran al uso indebido de la IA. En total, identificó 16 casos de falsedades basadas en IA y deepfakes viralizados durante las elecciones generales del Reino Unido; mientras que las elecciones europeas y las francesas solo sumaron 11, entre las dos. Ninguno de estos casos pareció influir en los resultados de forma significativa. Los contenidos falsos fueron creados tanto por actores nacionales como por grupos vinculados a países hostiles como Rusia.
Estos resultados coinciden con las advertencias recientes por parte de algunos expertos, según las cuales el foco en la interferencia electoral de la IA nos distrae de otras amenazas más profundas y duraderas para la democracia.
Hasta ahora, los contenidos generados por IA parecen haber sido ineficaces como herramienta de desinformación en la mayoría de las elecciones celebradas. Según Stockwell, esto se debe a que la mayoría de las personas expuestas a la desinformación ya estaban convencidas previamente de los mensajes subyacentes (por ejemplo, que los niveles de inmigración en su país eran demasiado altos). El análisis de Stockwell mostró que las personas que participaban activamente en esos deepfakes, compartiéndolos y amplificándolos, tenían algún tipo de afiliación o habían expresado previamente opiniones afines al contenido. Por tanto, era más probable que el material reforzara opiniones preexistentes antes que influir a los votantes indecisos.
Las tácticas de injerencia electoral ya probadas, como inundar las secciones de comentarios con bots y explotar a las personas influyentes para difundir falsedades, siguieron siendo mucho más eficaces. Los actores maliciosos utilizaron la IA generativa principalmente para reescribir artículos de noticias con su propio giro o para crear más contenido en línea con fines de desinformación.
"Por ahora, la IA no supone una gran ventaja, ya que siguen prevaleciendo métodos más sencillos para crear información falsa o engañosa", según afirma Felix Simon, investigador del Reuters Institute for Journalism, quien no participó en la investigación.
Sin embargo, Samuel Woolley, experto en desinformación de la Universidad de Pittsburgh, afirma que por todavía es difícil sacar conclusiones definitivas sobre este impacto de la IA en las elecciones; debido, en parte, a que no disponemos de datos suficientes.
"Hay repercusiones menos obvias, menos rastreables, relacionadas con el uso de estas herramientas, y que pueden alterar el compromiso cívico", añade.
Stockwell está de acuerdo: los primeros datos de estas elecciones sugieren que los contenidos generados por IA podrían ser más eficaces para acosar a los políticos y sembrar la confusión que para cambiar la opinión de la gente a gran escala.
Políticos del Reino Unido, como el ex primer ministro Rishi Sunak, fueron blanco de contenidos falsos hechos con IA que les mostraban, por ejemplo, promoviendo estafas o admitiendo corrupción financiera. Asimismo, algunas candidatas mujeres fueron objeto de deepfakes de contenido sexual no consentido, con la intención de desprestigiarlas e intimidarlas.
"Por supuesto, existe el riesgo de que, a largo plazo, cuantos más candidatos reciban acoso on line, amenazas de muerte, deepfakes pornográficos, etc, se produzca un verdadero efecto amedrentador sobre su disposición a, por ejemplo, participar en futuras elecciones; además de, obviamente, perjudicar su bienestar", afirma Stockwell.
Tal vez lo más preocupante, según explica Stockwell, es que su investigación señala que la gente, cada vez más, es incapaz de discernir entre el contenido auténtico y el generado por IA en el contexto electoral. Y los políticos también se aprovechan de ello: por ejemplo, varios candidatos al Parlamento Europeo por Francia compartieron contenidos generados por IA que amplificaban las narrativas contra la inmigración sin revelar que se habían hecho con IA.
Esta participación encubierta, combinada con la falta de transparencia, representa un riesgo potencialmente mayor para la integridad de los procesos políticos que el uso de la IA por la población en general o por los llamados "actores maliciosos", según concluye Simon.
Por: Melissa Heikkilä.
Sitio Fuente: MIT Technology Review