La inteligencia artificial dejó de ser una promesa para convertirse en una infraestructura crítica del presente. Ya no se trata sólo de herramientas que automatizan tareas, sino de sistemas que reorganizan industrias, reconfiguran el poder y obligan a repensar cómo se toman decisiones.
Esa fue una de las conclusiones centrales del panel del Forbes IA Summit, donde el debate giró menos en torno a la tecnología en sí y más sobre su gobernanza.
El punto de partida fue una tensión que atraviesa todo el ecosistema: quién regula y bajo qué criterios. Delfina Arambillet, Sustainable Business Sr. Associate en Globant, planteó que el problema no es elegir entre regulación o innovación, sino entender el entramado de actores que intervienen. “Los gobiernos emiten leyes, pero las empresas marcan el rumbo. La regulación debe existir sin frenar la innovación, con participación de la sociedad civil y foco en el uso y límites de la tecnología”, sostuvo.
Su diagnóstico introduce una idea clave: la inteligencia artificial no puede pensarse desde un único centro de control. Los Estados tienen la potestad de legislar, pero las empresas desarrollan la tecnología y, en la práctica, modelan su impacto. Al mismo tiempo, los organismos multilaterales avanzan a un ritmo más lento y la sociedad civil, que experimenta tanto beneficios como riesgos, suele quedar fuera del proceso de decisión.
“Por un lado los gobiernos son quienes lideran de cierta forma esa legitimidad o esa potestad para emitir leyes, pero por otro lado las empresas son quienes están desarrollando este tipo de tecnologías… y la sociedad civil muchas veces no está tomada en cuenta en la legislación”, explicó Arambillet durante el panel.
En ese contexto, propuso avanzar hacia un modelo de “regulación mixta”, en el que el Estado establezca marcos, las empresas incorporen criterios éticos desde el diseño y la sociedad civil asuma un rol activo de auditoría. Pero antes de definir ese esquema, introdujo una dimensión aún más profunda: la soberanía.
“Tenemos que plantearnos una pregunta previa… relacionada a la soberanía… cómo nos vamos a plantear una estrategia como país y como compañía… y qué límites le vamos a poner”, señaló. La afirmación no es menor. En un entorno donde los datos son el insumo central, la discusión sobre regulación se convierte en una discusión sobre quién controla la información y, por lo tanto, el poder.
Esa idea se amplifica cuando el análisis se traslada al plano global. Para Santiago Siri, presidente de Democracy Earth Foundation, la inteligencia artificial ya se inscribe en una lógica de competencia geopolítica. “Estamos en una nueva guerra fría de la IA: una carrera de poder entre China y Occidente, con modelos cerrados frente a enfoques más abiertos. Es clave que la dirigencia se forme en estos temas”, afirmó.
La comparación no es retórica. Según explicó, el desarrollo de modelos de inteligencia artificial responde hoy a una lógica de inversión masiva en infraestructura y cómputo. “Es un juego de fuerza bruta. Gana el que pone más energía, el que pone más capital”, describió.
En ese escenario, emergen dos estrategias diferenciadas. Por un lado, Occidente, con modelos altamente avanzados pero mayormente cerrados, accesibles a través de plataformas controladas. Por el otro, China, con una apuesta más abierta, que permite ejecutar modelos localmente y ganar autonomía tecnológica. “Occidente tiene modelos excelentes… pero son modelos cerrados… y el modelo chino es prácticamente open source… modelos que uno puede correr localmente”, detalló Siri.
La diferencia no es sólo técnica, sino estructural. Define quién depende de quién y bajo qué condiciones. Y en medio de esa tensión, Siri advierte un problema crítico: la falta de preparación de quienes toman decisiones. “Me parece imprescindible que la clase dirigente sepa formarse y entender estos temas”, subrayó. @@FIGURE@@
Mientras tanto, dentro de las empresas, la transformación avanza con una dinámica propia y no menos riesgosa. Fredi Vivas, CEO de RockingData, puso el foco en un fenómeno cada vez más extendido: la adopción desordenada de herramientas de inteligencia artificial. “El mayor riesgo hoy es la adopción desordenada de la IA: desde compartir datos privados hasta la dependencia ciega”, advirtió.
El fenómeno, conocido como “Shadow AI”, describe el uso de herramientas por fuera de los sistemas corporativos. Empleados que recurren a plataformas externas, muchas veces sin controles, para resolver tareas cotidianas. “Usar inteligencia artificial en las sombras… eso es un gran riesgo”, explicó.
La situación tiene una lógica clara. Por primera vez, los usuarios acceden en su vida personal a tecnologías más avanzadas que las disponibles en sus trabajos. Eso genera una tensión interna que las organizaciones aún no logran resolver.
El problema es estratégico. “A las empresas les cuesta mucho pasar del impacto individual al impacto corporativo”, señaló Vivas. Es decir, transformar el uso aislado en una ventaja competitiva estructural.
A eso se suman riesgos concretos: filtración de datos sensibles, confianza excesiva en los resultados, falta de comprensión de los procesos detrás de los sistemas. “Subir data que no debe subir, confianza ciega en los outputs, no entender los procesos atrás… tenemos varios riesgos”, enumeró. @@FIGURE@@
Sin embargo, su advertencia más relevante apunta en otra dirección. “El riesgo principal sigue siendo que las empresas no se suban y no empiecen a hacerlo seriamente”, afirmó. La inacción, en un contexto de cambio exponencial, también es una forma de riesgo.
En ese punto, el panel coincidió en que la verdadera transformación no pasa solo por incorporar tecnología, sino por rediseñar el trabajo. La inteligencia artificial no se integra como una capa adicional, sino que obliga a repensar procesos completos.
“Hoy en día las formas de trabajo están pensadas para una lógica vieja… y tenemos que rediseñar los workflows”, planteó Arambillet. La clave está en redefinir el equilibrio entre humanos y máquinas, identificar qué tareas automatizar y cuáles potenciar.
Ese proceso, lejos de ser inmediato, requiere tiempo, estrategia y aprendizaje. “Eso no existe en el mundo corporativo… es un proceso que va a llevar tiempo”, remarcó Vivas, en referencia a la idea de soluciones rápidas basadas en agentes inteligentes.
Aun así, el ritmo del cambio desafía cualquier planificación tradicional. “Una semana de 2026 se equivale a cuatro de 2025 en el ritmo de innovación”, graficó Siri, para ilustrar la aceleración.
Ese contexto hace que el futuro llegue antes de lo previsto. Conceptos que hace pocos años parecían lejanos hoy empiezan a materializarse. Entre ellos, la posibilidad de empresas operadas casi íntegramente por inteligencia artificial. “Antes del 2030 va a aparecer una compañía que vale mil millones; compuesta íntegramente de agentes”, anticipó.
La llamada “empresa agéntica” no es solo una hipótesis. Ya existen casos iniciales donde sistemas autónomos gestionan procesos completos, desde la operación hasta la toma de decisiones.
Pero más allá de las proyecciones, el panel dejó una conclusión clara: la inteligencia artificial es hoy una infraestructura de poder.
Y en ese contexto, la pregunta central no es qué puede hacer la IA. Es quién decide cómo se usa.