En una nueva edición del Forbes IA Summit, celebrado el día de ayer, se llevó a cabo el panel titulado "Inteligencias éticas: construyendo una IA segura y confiable". El debate estuvo moderado por el periodista Pablo Wahnon y contó con la participación de María Victoria Boix, Investigadora principal del programa Estado y Gobierno de CIPPEC, Nicolás Ramos, Socio del área de Consultoría en Tecnología de EY Argentina, Natalia Scaliter, Gerente general de Google Cloud Argentina y Paula Vargas, Directora de Privacidad y Políticas Públicas de Meta.
Vargas fue la encargada de abrir la charla y explicó que el foco de Meta en relación a la inteligencia artificial es trabajar la intersección de la tecnología y cómo viven las personas. En ese marco, la empresa hace inteligencia artificial hace más de una década: lo que ahora se agrega es la IA generativa. En ese contexto, Llama, su LLM, diferencia a Meta porque se trata de un modelo que se pone a disposición open source. "El open source pone estas tecnologías muy poderosas en manos de múltiples organizaciones y proyectos alrededor del mundo. Es un modelo que ha sido bajado 1.2 billones de veces en el mundo desde 2023, cuando aparece la primera versión", explicó la ejecutiva.
En ese sentido, Vargas trajo a colación el último anuncio de Mark Zuckerberg, creador de Meta, sobre la superinteligencia: "Él lo que dice es que la superinteligencia ya está a la vista, está ahí. ¿Cuál es la distinción que hace Meta? Que el uso, la visión que tiene Meta de esa superinteligencia, es ponerla en manos de las personas directamente, para que las personas puedan mejorar el mundo de la forma en que a cada uno les resulte mejor. Hay un empoderamiento del individuo, porque la visión de Meta es desarrollar herramientas que empoderen a las personas a desarrollar sus potencialidades y sus posibilidades".

Scaliter, por su parte, explicó la visión de Google con su modelo Gemini, y también con su desarrollo de una plataforma para que las empresas y organismos públicos puedan crear sus propios modelos, entrenarlos con la información que necesiten para sus objetivos y proyectos. "Lo importante acá es para qué lo vamos a usar, qué preguntas les vamos a hacer, qué utilidad va a tener realmente. Hay un informe de Gartner que dice que para el 2030 el 40% de los proyectos de AI se van a dar de baja. ¿Por qué? No porque esto sea un hype, es porque no estamos pensando cuál es la utilidad real que le queremos dar a la IA", dijo la ejecutiva. Y amplió: "En eso sí trabajamos mucho desde Google con los clientes, en cuál es el caso de uso y qué quieren lograr. Ahí es donde está la clave de la potencialidad de esta tecnología".
Según definió, ahora estamos en la era de los agentes y los agentes son un grado evolutivo de la inteligencia artificial generativa porque se trata de una IA que tiene una tarea concreta. "La tecnología es maravillosa, es súper poderosa, pero la tecnología per se, como todas las tecnologías, no resuelve los problemas. ¿Qué caso de uso? ¿Qué utilización le vamos a dar? Eso es lo que hace el cambio potencial", dijo y remarcó que Agentspace, la plataforma de agentes que lanzó Google hace menos de seis meses, ya notó un crecimiento exponencial en su adopción, lo mismo que Vertex AI, la plataforma de Google para crear modelos, que creció en adopción 5X en un año. "Esto vino para quedarse", sentenció.
Desde el lado de la consultoría, Ramos, de EY, destacó que su función hoy está en ayudar a las compañías a que esa adopción sea ordenada y con algún modelo de gobierno. "Así como la tecnología la están desarrollando teniendo en cuenta temas de seguridad, del otro lado tenemos siempre alguna amenaza que está tratando de buscarle alguna debilidad. La parte de seguridad es muy importante tenerla en cuenta. Y también el tema de evitar que se realice una implementación que no está de acuerdo a los objetivos de la organización", puntualizó.
Para el experto, innovar de forma descoordinada puede traer problemas, por lo que es importante que las compañías definan claramente sus objetivos a la hora de usar IA. "Nosotros queremos que se adopte la solución, porque trabajamos para que las compañías lo puedan adoptar, pero para hacerlo de manera segura hay que dar un marco de gobierno y tener en cuenta la seguridad. El low-code y no-code que se está dando ahora tiene una potencia gigantesca, pero el problema es que puede dejar alguna puerta abierta que alguien haga algún abuso", advirtió Ramos y mencionó que dar un orden de gobierno es la mejor forma de evitar tanto riesgos como sesgos.

Desde el lado de las políticas públicas, en CIPPEC vienen trabajando con los gobiernos en mesas de diálogo para entender la actualidad de cada nivel y qué se está haciendo en materia de IA. Concretamente, están lanzando un relevamiento en todas las provincias para identificar su realidad tecnológica, de infraestructura y sus marcos de gobernanza. "A los Estados les cuesta estar a la misma velocidad y poder adoptar las tecnologías para generar mejores políticas públicas. Entonces, lo primero que hicimos fue generar una guía, capacitaciones concretas que estuvimos haciendo con gobiernos provinciales, donde establecimos algunos criterios para establecer una estrategia concreta", explicó Boix.
Para la especialista, lo ideal es empezar con pasos pequeños y pilotos controlados para resolver problemas concretos. "Generar gobernanza clara dentro del gobierno mismo también, y cooperar mucho con los que están trabajando en estos temas. En Brasil y Chile, por ejemplo, lanzaron el año pasado sus estrategias país con enfoques participativos muy interesantes, donde intervinieron más de 1000 personas en todo este proceso. Ir incorporando esas voces resulta clave para poder tener objetivos claros, programas que le sirvan a alguien", dijo la vocera de CIPPEC, y concluyó: "Con que podamos transparentar, rendir cuentas, ser lo más transparentes posibles, facilita a que podamos entender mejor qué riesgos y qué oportunidades hay detrás".