Mauro Avendaño Socio de Tecnología de KPMG Argentina
Con el objetivo de comprender cómo las personas perciben, usan y confían en la Inteligencia Artificial (IA), KPMG y la University of Melbourne de Australia, realizaron la cuarta edición del estudio mundial titulado "Confianza, actitudes y uso de la inteligencia artificial" ("Trust, attitudes and use of artificial intelligence. A global study 2025 University"). La investigación recopila las opiniones 48.340 personas de 47 países, que representan todas las regiones geográficas del mundo.
El informe proporciona información oportuna y global sobre diversas cuestiones como el grado de confianza, uso y comprensión de los sistemas de IA por parte de las personas; cómo perciben y experimentan los beneficios, riesgos e impactos en la sociedad, el trabajo y la educación; las expectativas sobre la gestión, la gobernanza y regulaciones por parte de organizaciones y gobiernos; cómo los empleados y estudiantes la utilizan; y el apoyo al uso responsable de la IA.
El informe destaca los puntos en común y las diferencias en estas dimensiones clave entre países y subgrupos de la población, y arroja luz sobre cómo han cambiado la confianza y las actitudes hacia la IA en los últimos dos años desde la adopción generalizada de la IA generativa. Lo más destacado de los resultados indica que la confianza y la resistencia a la IA y sus sistemas siguen siendo un desafío importante: más de la mitad (54%) se muestra reticente a confiar en ella.
Además, las personas son más escépticas respecto a la seguridad, la protección y el impacto social de la IA, y confían más en su capacidad técnica, siendo que el 72% acepta su uso. Las personas que respondieron la encuesta de las economías avanzadas, en comparación con las economías emergentes, son menos confiadas (39% frente al 57%) y menos tolerantes (65% frente al 84%), respectivamente.
Los datos se recopilaron entre noviembre de 2024 y mediados de enero de 2025 mediante una encuesta en línea. Los países se seleccionaron con base en tres criterios: 1) representación en las distintas regiones del mundo; 2) liderazgo en la actividad y preparación en IA; y 3) diversidad en el Índice de IA Responsable.
El tamaño de la muestra en cada país osciló entre los 1.000 y 1.100 encuestados. Se adoptó la clasificación del Fondo Monetario Internacional (FMI) de economías avanzadas y emergentes. Las economías emergentes encuestadas son Argentina, Brasil, Chile, China12, Colombia, Costa Rica, Egipto, Hungría, India, México, Nigeria, Polonia, Rumania, Arabia Saudita, Sudáfrica, Turquía y Emiratos Árabes Unidos.
Resultados de Argentina
En líneas generales, la Argentina muestra, como la mayoría de los países emergentes, una mayor adopción, confianza y alfabetización en IA que los de las economías avanzadas. Por ejemplo, el 44% de los encuestados en Argentina considera que los beneficios de la IA superan los riesgos. Este valor está por encima del promedio global (42%) y de varios países desarrollados como EE.UU., Francia o Alemania.
Indicadores clave de Argentina
Indicador Valor Escala Confianza en la IA 4.1 De 1 a 7 Percepción de confiabilidad en la IA 4.7 De 1 a 7 Percepción de que los beneficios superan los riesgos 4.2 De 1 a 7 Adecuación de las regulaciones actuales 3.9 De 1 a 7 Eficacia en el uso de IA (autopercibida) 5.3 De 1 a 7 Aceptación de la IA 3.2 De 1 a 5 Percepción de beneficios 3.9 De 1 a 5 Preocupación por riesgos 3.7 De 1 a 5 Conocimiento sobre IA (autopercibido) 2.8 De 1 a 5 Formación en IA (porcentaje con algún tipo de formación) 49% De 1% a 100%
Argentina vs. Promedio Global
Argentina vs. Región
Los beneficios y el potencial de la IA para la sociedad y las empresas son innegables. Los sistemas de IA se utilizan para agilizar y aumentar la precisión en la detección del cáncer, mejorar la eficiencia de las energías renovables e impulsar la productividad y la innovación en el entorno laboral, entre otros casos de uso.
Sin embargo, a medida que las capacidades y sus alcances se hacen más evidentes, también lo hace la conciencia de riesgos y desafíos, lo que plantea interrogantes sobre la fiabilidad, la regulación y la gobernanza de los sistemas de IA.
La confianza del público en las tecnologías de IA, y su uso responsable y ético, es fundamental para su aceptación y adopción sostenidas, así como para obtener todos los beneficios sociales y económicos que estas tecnologías ofrecen. Los resultados de este informe a nivel global son importantes para fundamentar políticas públicas y prácticas del sector, así como para un enfoque centrado en el ser humano para la integración de la IA en el trabajo y la sociedad.
A continuación, un resumen de los hallazgos clave de la investigación mundial sobre IA:
Uso y comprensión
Dos de cada tres personas (66%) utilizan la IA de forma intencionada y regular, y tres de cada cinco afirman poder usarla eficazmente. Sin embargo, la mayoría (61%) no cuenta con formación en IA y la mitad declara tener conocimientos limitados. Las personas en las economías emergentes reportan un mayor uso regular (80% frente al 58%), formación (50% frente al 32%), conocimiento (64% frente al 46%) y eficacia (74% frente al 51%) que las personas en las economías avanzadas. Las personas más jóvenes, con estudios universitarios, con mayores ingresos y capacitadas en IA, manifiestan mayor confianza, uso y conocimiento.
Beneficios y riesgos
Las personas afirman experimentar tanto beneficios como consecuencias negativas del uso de la IA. Si bien muchos reportan mejoras en la eficiencia, la accesibilidad, la toma de decisiones y la innovación, las preocupaciones sobre la ciberseguridad, la privacidad y la propiedad intelectual, la desinformación, la pérdida de la conexión humana y de empleo, y la descalificación son generalizadas. La ambivalencia del público hacia la IA es evidente, con opiniones divididas sobre si los beneficios superan los riesgos en las economías desarrolladas.
Regulación y gobernanza
Existe un fuerte mandato público para la regulación de la IA: el 70% cree que es necesaria. Sin embargo, solo el 43% cree que las leyes actuales son adecuadas. Las personas esperan leyes internacionales (76%), regulación gubernamental nacional (69%) y co-regulación con la industria (71%). El 87% también desea leyes y verificación de datos para combatir la desinformación generada por la IA.
Adopción en el trabajo
Tres de cada cinco (58%) empleados utilizan la IA en el trabajo de forma intencionada y regular, y un tercio la utiliza semanalmente. Las herramientas de IA generativa son las más utilizadas, y muchos empleados optan por herramientas gratuitas y públicas en lugar de las opciones proporcionadas por sus empleadores. Las economías emergentes lideran la adopción por parte de los empleados, con un 72% que la utiliza regularmente, en comparación con el 49% en las economías avanzadas.
Impactos en el trabajo
Más de la mitad de los empleados reportan beneficios en el rendimiento gracias a la IA. Sin embargo, también reportan impactos mixtos en la carga de trabajo, la interacción humana y el cumplimiento normativo, y dos de cada cinco creen que la IA reemplazará puestos de trabajo en su área. Muchos empleados reportan un uso inapropiado, complaciente y poco transparente de la IA en su trabajo, lo que contraviene las políticas generando errores y dependencia. La gobernanza y la capacitación para apoyar el uso responsable de la IA parecen estar retrasadas en su adopción.
Participación estudiantil
Cuatro de cada cinco estudiantes (83%, predominantemente de educación superior) usan IA regularmente en sus estudios, reportando beneficios como eficiencia, personalización del aprendizaje y reducción de la carga de trabajo y estrés. Sin embargo, el uso inapropiado, complaciente y poco transparente de la IA por parte de los estudiantes es generalizado, lo que produce preocupación por la excesiva dependencia y la disminución del pensamiento crítico, la colaboración y la equidad en la evaluación. Solo la mitad afirma que su centro educativo cuenta con políticas, recursos o capacitación para apoyar el uso responsable de la IA.-