La IA es tan convincente como los humanos para influir en opiniones políticas

TECNOLOGÍA Y SOCIEDAD.-

Puede redactar mensajes que alteran la forma en que las personas piensan sobre cuestiones de interés público.

La IA puede generar miles de mensajes políticos personalizados sin que sea posible identificar su origen automático. / IA/T21.

La IA puede redactar mensajes que alteran las opiniones políticas de las personas con tanta efectividad como lo hace un argumento humano. Podría emplearse para simular comunicaciones de ciudadanos en redes sociales, correos dirigidos a legisladores o cartas a diarios, generando la ilusión de una base de apoyo que en realidad consiste en contenido automático.

Una investigación publicada en Nature Communications revela que los modelos de lenguaje grandes, capaces de procesar millones de palabras y patrones comunicacionales, pueden redactar mensajes políticos que alteran genuinamente la forma en que las personas piensan sobre cuestiones de política pública.

Los investigadores de Stanford que realizaron este trabajo evaluaron si máquinas como GPT-3 y sus variantes posteriores logran modificar opiniones políticas de manera comparable a como lo haría una persona ordinaria escribiendo un argumento convincente.

Datos clave de esta investigación.

- Hallazgo principal: Los modelos de lenguaje generados por IA redactan mensajes políticos con la misma capacidad persuasiva que los argumentos elaborados por personas ordinarias, alterando genuinamente las opiniones sobre políticas públicas.

- Metodología: Tres experimentos controlados con 4.829 participantes estadounidenses midieron cambios en actitudes tras leer mensajes persuasivos generados por IA versus mensajes redactados por humanos en temas polarizados (prohibición de armas, impuesto al carbono, licencias parentales).

- Resultado destacado: Los cambios de opinión fueron estadísticamente equivalentes en ambos casos (2-4 puntos en escala de 101). La IA logró persuadir de forma comparable sin ser superior, pero mediante mecanismos distintos: vocabulario más sofisticado, estructura gramatical compleja, menor referencia personal.

- Implicación democrática: A diferencia de la persuasión humana limitada por tiempo y recursos, la IA puede generar miles de mensajes políticos personalizados a escala masiva y con costo mínimo, permitiendo simular opiniones ciudadanas auténticas en redes sociales, correos legislativos o cartas a medios.

- Riesgo identificado: La accesibilidad pública de estos modelos sin restricciones sustanciales facilita que campañas políticas precarias, actores maliciosos o gobiernos distorsionen deliberadamente el debate democrático mediante desinformación persuasiva automatizada.

Tres experimentos.

La investigación se estructuró mediante tres experimentos independientes que involucraron a casi cinco mil participantes estadounidenses. Cada experimento presentaba un escenario similar: personas que leían mensajes persuasivos y después manifestaban su grado de acuerdo con diversas políticas públicas.

Los mensajes generados automáticamente por inteligencia artificial lograron cambios en la opinión pública estadísticamente significativos respecto a temas tan dispares como una prohibición de armas de asalto, un impuesto al carbono, licencias parentales pagadas o registro automático de votantes, según los resultados de estos experimentos. Y, aunque los cambios de opinión fueron modestos en magnitud (típicamente entre dos y cuatro puntos en una escala de cien), se alineaban perfectamente con los que otros investigadores habían documentado anteriormente cuando la persuasión provenía de escritores humanos corrientes.

Cambiar opiniones.

Lo que distingue este hallazgo de trabajos anteriores radica en su especificidad. Mientras que otros estudios habían investigado si las personas percibían los textos generados por máquinas de manera diferente, o si reconocían su origen automático, este trabajo midió algo más directo: la capacidad real de cambiar convicciones políticas. Esta diferencia metodológica resulta fundamental porque es precisamente lo que interesaría a un político, un activista o, potencialmente, a alguien con intenciones menos benevolentes: saber si una máquina puede fabricar argumentos que efectivamente convenzan a alguien de su punto de vista.

La investigación también reveló que el mecanismo mediante el cual los algoritmos persuaden parece diferir del empleado por escritores humanos. Cuando los participantes evaluaban quién había redactado los mensajes, percibían a los autores de textos de IA como más lógicos, mejor informados y emocionalmente distanciados, mientras que atribuían a los humanos una mayor originalidad y capacidad narrativa.

Los mensajes automáticos tendían a usar vocabulario más sofisticado y estructuras gramaticales más complejas, evitaban pronunciamientos personales (menos uso de "yo") y apelaban más a acciones colectivas. Los textos humanos, por el contrario, se sustentaban en referencias personales, en la vivacidad del relato y en la vulnerabilidad inherente a la voz individual.

Riesgo alto de desinformación.

Desde una perspectiva práctica y política, esta constatación es importante porque los modelos de lenguaje grandes están disponibles públicamente, muchos sin restricciones sustanciales. Esto significa que cualquier persona, desde campañas políticas con presupuestos limitados hasta actores maliciosos interesados en distorsionar el debate democrático, puede generar centenares o miles de mensajes persuasivos a escala masiva y con un costo mínimo. El problema escala cuando se considera la capacidad de personalización: estos algoritmos pueden adaptarse a diferentes audiencias, características demográficas e ideologías, lo que potencialmente amplificaría significativamente su efectividad.

Los autores advierten sobre escenarios perniciosos donde la tecnología podría emplearse para simular comunicaciones de ciudadanos en redes sociales, correos dirigidos a legisladores o cartas a diarios, generando la ilusión de una base de apoyo que en realidad consiste en contenido automático. También señalan el riesgo de propagación de desinformación política persuasiva, aunque reconocen explícitamente que no probaron directamente si la IA puede convencer eficazmente mediante información falsa, una limitación ética deliberada.

Frente a estos riesgos, sugieren medidas como exigir la divulgación obligatoria de contenido generado por IA, implementar sistemas de detección automática en plataformas digitales, integrar alfabetización en inteligencia artificial en los currículos educativos, y establecer salvaguardas más rigurosos en los modelos disponibles públicamente.

Por: Redacción T21.

Sitio Fuente: Levante / Tendencias21