Liderado por Florencia Radici, Editora de Forbes Argentina, el "De los LLMs a los Agentes de IA: la evolución hacia sistemas autónomos" tuvo como oradores a Pablo Abad, Engineering VP de Despegar; Emiliano Actis Dato, Líder de Customer Success en IBM para Argentina, Paraguay y Uruguay; Mauro Avendaño, Socio de Tecnología en KPMG Argentina; y Sergio Pernice, Director de Ingeniería en Inteligencia Artificial UCEMA quienes compartieron su mirada sobre esta evolución, y los desafíos y oportunidades que habilita este nuevo escenario en términos de innovación empresarial.
Del "cerebro" LLM a la "acción" del agente: un paso natural
La evolución desde un LLM hacia un agente autónomo es entendida por los oradores como un "paso natural" en la capacidad de la IA para interactuar y operar en el mundo real. "El LLM tiene la posibilidad de planificar", explicaba Pernice. "Si bien un LLM puede diseñar un plan para una tarea, como, por ejemplo hacer una pizza, el agente es quien ejecuta ese plan".
Abad lo describía como un puente entre las dos cosas, "donde la capacidad de los LLMs para analizar un contexto y proponer soluciones se une a la habilidad histórica de generar programas que ejecutan acciones concretas. Siguiendo con la idea de la pizza, ya no estamos hablando 'de dame la receta para que yo haga la pizza', sino de 'haceme la pizza'".
Consultado por el impacto que los sistemas autónomos tendrán en las industrias, Actis Dato era contundente: "Esto es transversal a todas las industrias, todas son afectadas por esta tecnología y todas se pueden ver beneficiadas. En general esta tecnología es más fuerte donde hay mucho texto y hay texto en todas las industrias, así que esto nos afecta, nos impacta y nos beneficia a todos".
La arquitectura del poder agéntico: más allá del prompt
La complejidad de los agentes de IA va mucho más allá de promptear un LLM. En este sentido, el ejecutivo de IBM detallaba la arquitectura subyacente que permite a estos agentes razonar, planificar y ejecutar tareas. Por un lado, el Conocimiento Empresarial Específico (RAG). Los LLMs genéricos carecen de información sobre los procesos internos de una empresa. Para solucionar esto, surgieron técnicas como RAG (Retrieval-Augmented Generation), que le dan a los LLMs un contexto que pueden ser cientos de documentos de la empresa para que es modelo pueda contestar basándose en esos documentos", explicaba.
Luego, "los agentes agregan una memoria de corto plazo que mantiene el conocimiento de lo que está interaccionando con un humano y una memoria de largo plazo para aprender y guardar acciones exitosas para el futuro", seguía. "Tras una acción, los agentes tienen una etapa de reflexión en la que evalúan qué tan bien le fue resolviendo esa tarea, lo que contribuye a su aprendizaje continuo".
Finalmente, "se los dota de herramientas que pueden ser desde un navegador web hasta la conexión a sistemas internos o incluso la invocación de otros agentes especializados. Se les enseña a usar estas herramientas en parte con lenguaje natural y en parte enseñándoles cómo justamente se comunican vía APIs. Esta arquitectura compleja, facilitada por frameworks, otorga una potencia enorme versus simplemente consultar a un modelo", destacaba el ejecutivo.
Sofía: un ejemplo de personalización
En Despegar, la misión de "enriquecer la vida de las personas" a través de experiencias se alinea perfectamente con la personalización que los agentes de IA pueden ofrecer. Su ejecutivo comenataba que los LLMs "les quedaron cortos muy rápido" y eso los llevó a desarrollar SOFIA, un asistente que ha mutado de ser un simple buscador de opciones a un "acompañante que puede ayudar al viajero a lo largo de toda la experiencia del viaje".
Según explicaba, SOFIA no sólo ayuda a encontrar destinos basados en deseos específicos, sino que también asiste después de la compra, manejando imprevistos, reprogramaciones y cambios de reserva.
Ética y seguridad: los desafíos de la confiabilidad y el control
La integración de la IA en procesos críticos plantea importantes cuestiones éticas y de seguridad. Ante esto, Actis Dato introducía el concepto de human in the loop, donde, especialmente en procesos críticos, "se busca que después sea el humano el que confirme las acciones del agente, funcionando como un punto de control importante".
Además, planteaba que es crucial la capacidad de auditar y explicar las decisiones de un agente, midiendo, por ejemplo, el sesgo o su performance. "Han surgido modelos LLMs del tipo juez que entienden si el modelo está respondiendo bien, analizan la pregunta, analizan la respuesta y se fijan si está en contexto. Estos modelos auditan la respuesta, pero también la pregunta del humano, pudiendo incluso detectar preguntas maliciosas", detallaba.

Por su parte, Avendaño reforzaba la necesidad de salvaguardar la información confidencial, privada de los clientes y los empleados. "La falta de una regulación per se hace que las plataformas propuestas por las compañías cumplan el rol de brindar seguridad en el desarrollo y en el uso", manifestaba. "La incorporación de tecnología debe tener un propósito claro que vaya más allá de simplemente hacerlo por la moda".
Desde el ámbito educativo, el vocero de UCEMA hacía referencia a una ética particular: la del docente. Dada la asombrosa capacidad de los LLMs de realizar trabajos, surge la preocupación de que los alumnos obtengan calificaciones perfectas sin haber aprendido. "Ante esto, una herramienta importante es la evaluación por parte del docente, debemos cuidar la instancia de aprender", decía.
El futuro de los Agentes de IA
Mirando hacia el futuro, los expertos anticipan un salto significativo. Por un lado, desde IBM, su vocero visualiza "agentes más potentes y autónomos que prácticamente van a poder hacer casi todo lo que hacemos hoy en la empresa, dejando a los humanos el toque final o haciendo esos ajustes finales". Frente a eso, destacaba que el aprendizaje constante es clave: "Esta tecnología evoluciona mucho más rápido que nuestra capacidad de adaptación", sentenciaba.
Abad proyecta la convergencia de sistemas de agentes hoy aislados. "El próximo paso de revolución va a ser una hiperconectividad donde todos estos agentes que vamos a ir creando empiecen a poder comunicarse entre sí y a generar un único agente que va a derivar, tal vez, en que cada uno de nosotros tenga un avatar virtual al lado, que nos acompañe en toda nuestra vida".
Desde KPMG, su ejecutivo considera que se evolucionará hacia la hiperproducción. "Esto requerirá un liderazgo fuerte y potenciará la necesidad de una mejor comunicación, más flexibilidad, curiosidad y creatividad, es decir, habilidades blandas que serán cada vez más necesarias para los siguientes escalones", destacaba.
Por último, Pernice planteaba una reflexión provocadora sobre el humano como potencial obstáculo recordando el momento en que un sistema de Google ganó al campeón mundial de Go con una jugada que los humanos no entendíamos. "Hoy tenemos la idea del humano en el loop para confirmar, para dar el ok. Yo creo que hay que prepararse para el momento en el cual el humano en el loop trabe una solución que no sea obvia para un humano que es la mejor solución".