Las redes sociales pudren el cerebro de la IA

TECNOLOGÍA Y SOCIEDAD / REDES SOCIALES.-

El ruido y la desinformación digital erosionan la capacidad analítica, reflexiva y ética de la inteligencia artificial.

La sobreexposición de la inteligencia artificial a la banalidad y el caos de las redes sociales termina degradando su “cerebro” digital, mermando su capacidad de análisis y reflexión. / Recreación artística IA/T21.

Como una mente humana, la inteligencia artificial empieza a perder pasos lógicos, olvida el contexto y responde con impulsividad y superficialidad cuando se expone de forma sistemática a los contenidos virales y banales de las redes sociales. Esta decrepitud cognitiva, difícil de revertir, trivializa su función de transformar el conocimiento y el pensamiento crítico.

Durante años, la inteligencia artificial (IA) ha prometido revolucionar la forma en que aprendemos, trabajamos y nos comunicamos. Sin embargo, una nueva investigación, publicada en arXiv, ha encendido las alarmas sobre la fragilidad de estos sistemas: los chatbots y modelos de lenguaje, que hoy asisten a millones de personas, pueden “enfermarse” si su dieta digital se compone predominantemente de contenido superficial, sensacionalista y viral, similar al que abunda en redes sociales como X (antes Twitter).

Lo que hasta hace poco era un debate teórico —la importancia de la calidad de los datos con los que se entrena la IA— se convierte ahora en evidencia empírica. Según este estudio, los modelos alimentados con grandes cantidades de textos breves, populares y, en general, poco elaborados, empiezan a mostrar una preocupante “podredumbre cerebral” o “brain rot”. Este proceso se traduce en una pérdida de precisión a la hora de recuperar información fiable, dificultades para razonar, y transformaciones negativas en sus “rasgos de personalidad”, que tienden a acentuar aspectos narcisistas o incluso psicopáticos cuando se utilizan pruebas inspiradas en cuestionarios psicológicos humanos, según los autores de este trabajo.

La “podredumbre cerebral” de la IA: claves del hallazgo.

- La exposición continua de la IA a textos banales y virales de redes sociales deteriora sus capacidades cognitivas.

- Los modelos alimentados con “datos basura” pierden precisión en el razonamiento, comprensión de contexto y elaboración de respuestas éticas.

- Cuanto mayor es la proporción de contenido superficial, más profunda y persistente es la degradación del modelo.

- La IA, tras ser entrenada con este ruido digital, salta pasos lógicos y responde con impulsividad y superficialidad.

- Intentar revertir el daño a través de nuevos entrenamientos con datos de calidad solo logra mejoras parciales.

- El estudio subraya la importancia crítica de la curación y conservación de datos de alta calidad para el desarrollo ético y robusto de la inteligencia artificial.

Patrones determinantes.

Para llegar a esta conclusión, los investigadores analizaron sistemas punteros como Llama 3 de Meta y diferentes variantes de Qwen —creados a partir de un millón de posts extraídos de X— y descubrieron patrones claros: cuanta mayor proporción de texto basura recibían durante su entrenamiento, peor era su desempeño en tareas que requieren análisis, reflexión o la formulación de respuestas éticas y equilibradas. La IA, igual que una persona expuesta ininterrumpidamente a ruido social y conversaciones banales, empieza a saltarse pasos lógicos, a perder memoria de contexto y a responder con mayor superficialidad e impulsividad.

Un dato especialmente revelador es que la incorporación posterior de instrucciones, ajustes de diseño o aumento de datos de calidad, sólo logra recuperar parcialmente la “salud cognitiva” del modelo. Incluso con todos estos remedios, persisten errores lógicos: las máquinas siguen saltándose etapas fundamentales en su razonamiento y caen en respuestas automáticas, poco meditadas. Esto sugiere que los daños son difíciles de revertir y que la prevención —es decir, la curación previa y minuciosa de los datos— resulta mucho más efectiva que cualquier “terapia” posterior.

Basura genera más basura.

Este fenómeno tiene un fiel reflejo en uno de los conceptos más antiguos del campo: “garbage in, garbage out”, o “si alimentas con basura, obtendrás basura”. Pero hoy, la basura no solo afecta la precisión informativa, sino que puede transformar las respuestas de la IA de formas sutiles pero peligrosas, amplificando rasgos negativos y reduciendo la capacidad de análisis ético y lógico.

Vista desde una perspectiva humana, así como los excesos del entorno digital pueden perjudicar la atención, el criterio y la profundidad mental de las personas, la inteligencia artificial acaba reflejando el mismo problema: si se nutre principalmente de contenido trivial y viral, termina perdiendo robustez, criterio y sentido crítico.

El mensaje final es un llamamiento urgente y humanista: los creadores y entrenadores de IA necesitan poner tanto cuidado en la calidad de la información como en los algoritmos que la procesan.

Sin un escrutinio riguroso y ético en la selección de datos, se corre el riesgo de fabricar inteligencias que, lejos de expandir el conocimiento, contribuyan a su degradación, replicando de manera silenciosa los peores vicios de nuestra vida digital.

Por: Redacción T21.

Sitio Fuente: Levante / Tendencias21