Lo que todo CEO necesita saber sobre la nueva Ley de IA de la Unión Europea
La Ley de Inteligencia Artificial fue aprobada por el Parlamento de la UE el 13 de marzo y se espera que pronto se convierta en ley cuando la apruebe también el Consejo Europeo.

Tras aprobar recientemente la Ley de Inteligencia Artificial, la Unión Europea está a punto de poner en vigor algunas de las normativas sobre IA más estrictas del mundo. Las aplicaciones potencialmente peligrosas de la IA fueron calificadas de "inaceptables" y serán ilegales, salvo para el gobierno, las fuerzas de seguridad y el estudio científico en condiciones específicas.

Al igual que ocurrió con el Reglamento General de Protección de Datos de la UE, esta nueva legislación sumará obligaciones para cualquiera que haga negocios en los 27 Estados miembros, no sólo para las empresas con sede en ellos.

Los responsables de su redacción dijeron que el objetivo es proteger los derechos y libertades de los ciudadanos y, al mismo tiempo, fomentar la innovación y el espíritu empresarial. Pero las 460 páginas publicadas de la ley contienen mucho más que eso: Si tenés una empresa que opera en Europa o vendés a consumidores europeos, hay algunas cosas importantes que debés saber.

Acá están los puntos que considero más importantes para cualquiera que quiera estar preparado para cambios potencialmente significativos.

¿Cuándo entra en vigor?

La Ley de Inteligencia Artificial fue adoptada por el Parlamento de la UE el 13 de marzo y se espera que pronto se convierta en ley cuando la apruebe el Consejo Europeo. Tardará hasta 24 meses en entrar en vigor en su totalidad, pero la aplicación de determinados aspectos, como las nuevas prácticas prohibidas, podría empezar en tan solo seis meses.

Al igual que en el caso del RGPD, este retraso es para dar tiempo a las empresas a asegurarse de que cumplen la normativa. Transcurrido este plazo, podrían enfrentarse a importantes sanciones en caso de infracción. Estas sanciones son escalonadas, y las más graves se reservan a quienes incumplan la prohibición de "usos inaceptables". En el extremo superior se sitúan las multas de hasta 30 millones de euros o el 6% de la facturación global de la empresa (la cifra que sea más alta).

La ley establece que "la IA debe ser una tecnología centrada en el ser humano. Debe servir como herramienta para las personas, con el objetivo último de aumentar el bienestar humano".

De todas formas, aún más perjudicial podría ser el impacto en la reputación de una empresa si se descubre que incumple la nueva ley. La confianza lo es todo en el mundo de la IA, y es probable que las empresas que demuestren que no son de fiar sean aún más castigadas por los consumidores.

Algunos usos de la IA estarán prohibidos

La ley establece que "la IA debe ser una tecnología centrada en el ser humano. Debe servir como herramienta para las personas, con el objetivo último de aumentar el bienestar humano".

Para ello, la UE prohibió el uso de la IA para una serie de fines potencialmente perjudiciales, entre ellos:

  • Utilizar la IA para influir o cambiar comportamientos de forma perjudicial.
  • Clasificación biométrica para inferir creencias políticas y religiosas o preferencias u orientaciones sexuales.
  • Sistemas de puntuación social que podrían conducir a la discriminación.
  • Identificación remota de personas mediante biometría en lugares públicos (sistemas de reconocimiento facial, por ejemplo).

Hay algunas excepciones. Hay una lista de situaciones en las que las fuerzas de seguridad pueden utilizar IA "inaceptables", como la prevención del terrorismo y la localización de personas desaparecidas. También hay excepciones para estudios científicos.

Según la ley, "la IA debe ser una tecnología centrada en el ser humano. Debe servir como herramienta para las personas, con el objetivo último de aumentar el bienestar humano". Así que es bueno ver que la limitación de las formas en que podría causar daño fue puesta en el corazón de las nuevas leyes. Sin embargo, hay bastante ambigüedad y cierto grado de estreno en la redacción, lo que podría dejar las cosas abiertas a la interpretación. ¿Podría considerarse que el uso de la IA para orientar el marketing de productos como la comida rápida y las gaseosas con alto contenido en azúcar influye en los comportamientos de forma perjudicial? ¿Y cómo juzgar si un sistema de puntuación social conducirá a la discriminación en un mundo en el que estamos acostumbrados a que una multitud de organismos públicos y privados nos comprueben nuestra solvencia y nos otorguen puntuaciones?

En este ámbito tendremos que esperar a recibir más orientaciones o información sobre cómo se aplicará la normativa para comprender todas sus consecuencias.

La ley decreta que las imágenes generadas por IA deben estar claramente marcadas para limitar el daño que pueden causar el engaño, los deepfakes y la desinformación.

IA de alto riesgo

Aparte de los usos considerados inaceptables, la ley divide las herramientas de IA en otras tres categorías: riesgo alto, limitado y mínimo.

La IA de alto riesgo incluye casos de uso como los autos autodirigidos y las aplicaciones médicas. Las empresas implicadas en estos campos o en otros de riesgo similar se enfrentarán a normas más estrictas, así como a una mayor obligación en torno a la calidad y la protección de los datos.

Los casos de uso limitado y de riesgo mínimo podrían incluir aplicaciones de IA puramente de entretenimiento, como en los videojuegos, o en procesos creativos como la generación de texto, video o sonidos.

Acá habrá menos requisitos, aunque seguirá habiendo expectativas en materia de transparencia y uso ético de la propiedad intelectual.

Transparencia

La ley deja claro que la IA debe ser lo más transparente posible. Acá también hay cierta ambigüedad, al menos a los ojos de alguien que, como yo, no es abogado. Se hacen estipulaciones, por ejemplo, en torno a los casos en los que es necesario "proteger secretos comerciales e información empresarial confidencial". Pero ahora mismo es incierto cómo se interpretará esto cuando los casos empiecen a llegar a los tribunales.

La ley cubre la transparencia de dos maneras. En primer lugar, decreta que las imágenes generadas por IA deben estar claramente marcadas para limitar el daño que pueden causar el engaño, los deepfakes y la desinformación.

También cubre los propios modelos de una forma que parece especialmente dirigida a los proveedores de IA de las grandes tecnológicas, como Google, Microsoft y OpenAI. Los desarrolladores de sistemas de alto riesgo se convierten en obligados a proporcionar amplia información sobre lo que hacen, cómo funcionan y qué datos utilizan. También se establecen estipulaciones sobre la supervisión y la responsabilidad humanas.

Exigir que las imágenes generadas por IA se marquen como tales parece una buena idea en teoría, pero podría ser difícil de aplicar, ya que es inesperado que los delincuentes y los difusores de engaños cumplan la normativa. Por otro lado, podría ayudar a establecer un marco de confianza, que será fundamental para permitir un uso eficaz de la IA.

En cuanto a las grandes empresas tecnológicas, creo que todo se reducirá a una cuestión de cuánto están dispuestas a divulgar. Si los reguladores aceptan las objeciones probables de que documentar algoritmos, ponderaciones y fuentes de datos es información comercial confidencial, entonces estas disposiciones podrían resultar bastante desdentadas.

Es importante señalar, sin embargo, que incluso las empresas más pequeñas que construyen sistemas a medida para sectores y mercados nicho podrían, en teoría, verse afectadas por esto. A diferencia de los gigantes tecnológicos, es posible que no dispongan de la capacidad jurídica necesaria para defenderse ante los tribunales, lo que les pondría en desventaja a la hora de innovar. Hay que tener cuidado para que esto no se convierta en una consecuencia no deseada de la ley.

La Ley de Inteligencia Artificial de la UE es la primera de este tipo, pero se espera que le sigan otras normativas en todo el mundo, incluidas las de Estados Unidos y China.

¿Qué significa esto para el futuro de la regulación de la IA?

En primer lugar, demuestra que los políticos están empezando a hacer algo para afrontar los enormes desafíos normativos que plantea la IA. Aunque en general soy optimista sobre el impacto que espero que la IA tenga en nuestras vidas, no podemos ignorar que también tiene un enorme potencial para causar daños, deliberada o accidentalmente. Por tanto, cualquier voluntad política para abordar este problema es positiva.

Pero redactar y publicar leyes es la parte relativamente fácil. Lo que requiere un verdadero esfuerzo es establecer los marcos normativos, de aplicación y culturales que apoyen el cambio. La Ley de Inteligencia Artificial de la UE es la primera de este tipo, pero se espera que le sigan otras normativas en todo el mundo, incluidas las de Estados Unidos y China. Esto significa que es esencial que los líderes empresariales, dondequiera que estén en el mundo, tomen medidas para asegurarse de que están preparados para los cambios que se avecinan.

Dos conclusiones clave de la Ley de Inteligencia Artificial de la UE son que cada organización tendrá que entender dónde se sitúan sus propias herramientas y aplicaciones en la escala de riesgos y tomar medidas para garantizar que sus operaciones de Inteligencia Artificial sean lo más transparentes posible.

Además, existe una necesidad real de mantenerse informado sobre el siempre cambiante escenario normativo de la IA. El ritmo relativamente lento al que avanza la legislación significa que no debe tomarnos por sorpresa.

Pero, por encima de todo, creo que el mensaje clave es la importancia de crear una cultura positiva en torno a la IA ética. Asegurarse de que los datos están limpios y son imparciales, de que los algoritmos son explicables y de que cualquier posibilidad de causar daños está claramente identificada y reducida es la mejor manera de asegurarse de estar preparado para cualquier legislación que pueda presentarse en el futuro.

*Con información de Forbes US