Las expectativas de los agentes de IA pueden ser exageradas
INTELIGENCIA ARTIFICIAL. Tiempo de lectura: 6 minutos.
La reciente presentación por parte de Google de lo que denomina una «nueva clase de experiencias con agentes» parece un punto de inflexión.
En su evento I/O 2025 de mayo, la empresa mostró un asistente digital que no se limitaba a responder preguntas, sino que ayudaba a reparar una bicicleta encontrando un manual de usuario adecuado, localizando un tutorial en YouTube e incluso llamando a una tienda local para preguntar por una pieza, todo ello con una mínima intervención humana. Estas capacidades podrían extenderse pronto más allá del ecosistema de Google. La empresa ha introducido un estándar abierto llamado Agent-to-Agent, o A2A, cuyo objetivo es permitir que agentes de distintas empresas se comuniquen entre sí y trabajen juntos.
La visión es apasionante: agentes de software inteligentes que actúan como compañeros de trabajo digitales, reservando vuelos, reprogramando reuniones, archivando gastos y hablando entre ellos entre bastidores para hacer las cosas. Pero si no tenemos cuidado, vamos a desbaratar toda la idea antes de que tenga la oportunidad de ofrecer beneficios reales. Como ocurre con muchas tendencias tecnológicas, existe el riesgo de que la exageración se adelante a la realidad. Y cuando las expectativas se desbordan, no tarda en producirse una reacción exagerada.
Empecemos por el propio término «agente». Ahora mismo, se utiliza para todo, desde simples comandos hasta sofisticados flujos de trabajo de IA. No existe una definición común, lo que deja mucho margen a las empresas para comercializar la automatización básica como algo mucho más avanzado. Este tipo de «lavado de cara» no sólo confunde a los clientes, sino que invita a la decepción. No necesitamos necesariamente una norma rígida, pero sí unas expectativas más claras sobre lo que se supone que deben hacer estos sistemas, su grado de autonomía y su fiabilidad.
Y la fiabilidad es el siguiente gran reto. La mayoría de los agentes actuales funcionan con grandes modelos de lenguaje (LLM) que generan respuestas probabilísticas. Estos sistemas son potentes, pero también impredecibles. Pueden inventarse cosas, desviarse del camino o fallar de forma sutil, sobre todo cuando se les pide que completen tareas de varios pasos, recurriendo a herramientas externas y encadenando respuestas LLM. Un ejemplo reciente: los usuarios de Cursor, un popular asistente de programación de IA, fueron informados por un agente de soporte automatizado de que no podían utilizar el software en más de un dispositivo. Hubo quejas generalizadas e informes de usuarios que cancelaron sus suscripciones. Pero resultó que la política no existía. La IA se la había inventado.
En entornos empresariales, este tipo de error podría causar daños inmensos. Tenemos que dejar de tratar los LLM como productos independientes y empezar a construir sistemas completos a su alrededor: sistemas que tengan en cuenta la incertidumbre, controlen los resultados, gestionen los costes e incorporen barandillas de seguridad y precisión. Estas medidas pueden ayudar a garantizar que los resultados se ajustan a los requisitos expresados por el usuario, obedecen a las políticas de la empresa en materia de acceso a la información, respetan la privacidad, etc. Algunas empresas, como AI21 (de la que soy cofundador y que ha recibido financiación de Google), ya están avanzando en esa dirección, envolviendo los modelos lingüísticos en arquitecturas más deliberadas y estructuradas. Nuestro último lanzamiento, Maestro, está diseñado para la fiabilidad empresarial, combinando los LLM con datos de la empresa, información pública y otras herramientas para garantizar resultados fiables.
Aun así, ni siquiera el agente más inteligente será útil en el vacío. Para que el modelo de agente funcione, los distintos agentes tienen que cooperar (reservando el viaje, comprobando el tiempo, enviando el informe de gastos) sin supervisión humana constante. Ahí es donde entra en juego el protocolo A2A de Google. Pretende ser un lenguaje universal que permita a los agentes compartir lo que pueden hacer y dividirse las tareas. En principio, es una gran idea.
En la práctica, A2A se queda corto. Define cómo hablan los agentes entre sí, pero no lo que realmente quieren decir. Si un agente dice que puede proporcionar «condiciones del viento», otro tiene que adivinar si eso es útil para evaluar el tiempo en una ruta de vuelo. Sin un vocabulario o un contexto compartidos, la coordinación se vuelve frágil. Ya hemos visto este problema en la informática distribuida. Resolverlo a escala dista mucho de ser trivial.
También está la suposición de que los agentes son cooperativos por naturaleza. Puede que esto sea cierto dentro del ecosistema de Google o de otra empresa, pero en el mundo real, los agentes representan a distintos proveedores, clientes o incluso competidores. Por ejemplo, si mi agente de planificación de viajes solicita presupuestos a su agente de reservas aéreas, y su agente está incentivado para favorecer a determinadas aerolíneas, es posible que mi agente no pueda conseguirme el mejor itinerario o el más barato. Sin alguna forma de alinear los incentivos a través de contratos, pagos o mecanismos de teoría de juegos, esperar una colaboración sin fisuras puede ser una ilusión.
Ninguno de estos problemas es insuperable. Se puede desarrollar una semántica compartida. Los protocolos pueden evolucionar. Se puede enseñar a los agentes a negociar y colaborar de formas más sofisticadas. Pero estos problemas no se resolverán por sí solos y, si los ignoramos, el término «agente» seguirá el camino de otras palabras de moda en el mundo de la tecnología. Algunos directores de sistemas de información ya ponen los ojos en blanco cuando lo oyen.
Es una señal de advertencia. No queremos que el entusiasmo disimule los escollos y que los desarrolladores y usuarios los descubran por las malas y desarrollen una perspectiva negativa de todo el proyecto. Sería una lástima. El potencial es real. Pero tenemos que combinar la ambición con un diseño bien pensado, definiciones claras y expectativas realistas. Si lo conseguimos, los agentes no serán sólo una moda pasajera, sino que podrían convertirse en la columna vertebral de nuestra forma de hacer las cosas en el mundo digital.
Por: Yoav Shoham.
Sitio Fuente: MIT Technology Review