La UE busca su espacio en IA para distanciarse de EE UU

INTELIGENCIA ARTIFICIAL. Tiempo de lectura: 8 minutos.-

- Por qué el mundo está buscando deshacerse de los modelos de IA.
- Los sistemas de moderación de contenidos están siendo abandonados y desfinanciados, y muchos países buscan alternativas.

Hace unas semanas, cuando asistí a la conferencia sobre derechos digitales RightsCon en Taiwán, observé en tiempo real cómo organizaciones de la sociedad civil de todo el mundo, incluido Estados Unidos, se enfrentaban a la pérdida de uno de los mayores financiadores de la labor global en materia de derechos digitales: el gobierno estadounidense.

Como escribí en mi artículo, el sorprendente y rápido desmantelamiento del gobierno de Estados Unidos por parte de la administración Trump (y su impulso hacia lo que algunos destacados politólogos llaman «autoritarismo competitivo») también afecta a las operaciones y políticas de las empresas tecnológicas estadounidenses, muchas de las cuales, por supuesto, tienen usuarios mucho más allá de las fronteras de Estados Unidos. Los asistentes a la RightsCon afirmaron que ya se están observando cambios en la disposición de estas empresas a comprometerse e invertir en comunidades con bases de usuarios más reducidas, especialmente las no anglófonas.  

Como resultado, algunos responsables políticos y empresariales -en Europa, en particular- se están replanteando su dependencia de la tecnología estadounidense y se preguntan si pueden crear rápidamente mejores alternativas nacionales. Esto aplica especialmente al caso de la IA.

Uno de los ejemplos más claros es el de las redes sociales. Yasmin Curzi, una profesora de Derecho brasileña que investiga la política tecnológica nacional, me lo dijo de esta manera: «Desde la segunda administración de Trump, ya no podemos contar con que las plataformas de medios sociales estadounidenses hagan siquiera lo mínimo».  

Los sistemas de moderación de contenidos de las redes sociales -que ya utilizan la automatización y también están experimentando con el despliegue de grandes modelos lingüísticos para señalar las publicaciones problemáticas- no detectan la violencia de género en países como India, Sudáfrica y Brasil. Si las plataformas empiezan a confiar aún más en los LLM (modelos de lenguaje, por su sigla en inglés) para la moderación de contenidos, es probable que este problema empeore, dice Marlena Wisniak, abogada de Derechos Humanos que se centra en la gobernanza de la IA en el European Center for Not-for-Profit Law. «Los LLM se moderan mal, y los LLM mal moderados se utilizan luego también para moderar otros contenidos», me dice. «Es muy circular, y los errores se repiten y amplifican».  

Parte del problema es que los sistemas se entrenan principalmente con datos del mundo angloparlante (y del inglés estadounidense), por lo que no funcionan tan bien con las lenguas y contextos locales.  

Incluso los modelos lingüísticos multilingües, creados para procesar varias lenguas a la vez, siguen funcionando mal con las lenguas no occidentales. Por ejemplo, una evaluación sobre las respuestas de ChatGPT a consultas sobre atención sanitaria descubrió que los resultados eran mucho peores en chino e hindi, idiomas que están menos representados en los conjuntos de datos norteamericanos, en comparación con el inglés y el español.   

Para muchos de los asistentes de la RightsCon, esto refuerza la idea de que son necesarios enfoques de IA más comunitarios, tanto dentro como fuera del contexto de las redes sociales. Esto podría incluir pequeños modelos lingüísticos, chatbots y conjuntos de datos diseñados para usos concretos y específicos de determinadas lenguas y contextos culturales. Estos sistemas podrían ser entrenados para reconocer los usos de la jerga y los insultos, interpretar palabras o frases escritas con mezcla de idiomas y alfabetos, e identificar el «lenguaje recuperado» (insultos que el grupo objetivo ha decidido adoptar). Los modelos lingüísticos y los sistemas automatizados que se basan principalmente en el inglés angloamericano suelen pasar por alto o clasificar erróneamente todos estos aspectos. El fundador de la start-up Shhor AI, por ejemplo, presentó un panel en RightsCon y habló de su nueva API de moderación de contenidos centrada en las lenguas vernáculas indias.

Muchas soluciones similares llevan años desarrollándose, y ya hemos hablado de algunas de ellas, como la iniciativa de Mozilla dirigida por voluntarios para recopilar datos de entrenamiento en idiomas distintos del inglés, y prometedoras empresas emergentes como Lelapa AI, que está desarrollando IA para idiomas africanos. A principios de este año, incluso incluimos pequeños modelos lingüísticos en nuestra lista de 2025 de las 10 tecnologías emergentes.  

Sin embargo, este momento se siente un poco diferente. La segunda administración de Trump, que da forma a las acciones y políticas de las empresas tecnológicas estadounidenses, es obviamente un factor importante. Pero hay otros en juego.  

En primer lugar, la investigación y el desarrollo recientes sobre modelos lingüísticos han llegado a un punto en el que el tamaño del conjunto de datos ya no es un factor predictivo del rendimiento, es decir que más personas pueden crearlos. De hecho, «los modelos lingüísticos más pequeños podrían ser dignos competidores de los modelos multilingües en lenguas específicas de escasos recursos», afirma Aliya Bhatia, investigadora invitada del Center for Democracy & Technology que se ocupa de la moderación automática de contenidos.  

Luego está el panorama global. La competencia en IA fue uno de los temas principales de la reciente Cumbre de París sobre IA, que tuvo lugar la semana anterior a la RightsCon. Desde entonces, ha habido un flujo constante de anuncios sobre iniciativas de «IA soberana» que pretenden dar a un país (u organización) el control total sobre todos los aspectos del desarrollo de la IA.  

La soberanía de la IA es sólo una parte del deseo de una «soberanía tecnológica«, una noción más amplia que también ha ido ganando fuerza y que surge de preocupaciones más generales sobre la privacidad y la seguridad de los datos transferidos a Estados Unidos.  

El pasado noviembre, la Unión Europea nombró a su primer comisario de soberanía tecnológica, seguridad y democracia  y ha estado trabajando en planes para una «Euro Stack» o «infraestructura pública digital». La definición de este concepto es aún algo imprecisa, pero podría incluir energía, agua, chips, servicios en la nube, software, datos y la IA necesaria para apoyar a la sociedad moderna y la innovación futura. En la actualidad, todo esto lo proporcionan en gran medida las empresas tecnológicas estadounidenses. Los esfuerzos europeos se inspiran en parte en la «India Stack«, la infraestructura digital de ese país que incluye el sistema de identidad biométrica Aadhaar. La semana pasada, los legisladores holandeses aprobaron varias mociones para desvincular al país de los proveedores tecnológicos estadounidenses.  

Todo esto encaja con lo que Andy Yen, CEO de la empresa de privacidad digital Proton, con sede en Suiza, me dijo en RightsCon: Trump, dijo, está «haciendo que Europa se mueva más rápido para llegar a la comprensión de que Europa necesita recuperar su soberanía tecnológica«. Esto se debe en parte a la influencia que el presidente tiene sobre los CEO de tecnología, dijo Yen, y también simplemente «porque la tecnología es donde está el futuro crecimiento económico de cualquier país.»

Pero que los gobiernos se involucren no significa que desaparezcan los problemas de inclusión en los modelos lingüísticos. «Creo que tiene que haber unos límites sobre cuál es el papel de los gobiernos. La cosa se complica si el gobierno decide que ‘Éstas son las lenguas que queremos promover’ o ‘Éstos son los tipos de opiniones que queremos representar en un conjunto de datos'», dice Bhatia. «Fundamentalmente, los datos de entrenamiento con los que se entrena un modelo son afines a la visión del mundo que desarrolla«.  

Aún es demasiado pronto para saber cómo será todo esto y hasta qué punto se tratará de una exageración. Pero pase lo que pase, es un espacio que seguiremos de cerca.

Por: Eileen Guo.

Sitio Fuente: MIT Technology Review