Así funciona esta herramienta que protege los píxeles de imágenes digitales y lucha contra el robo de la IA
Nightshade, de la Universidad de Chicago, protege los píxeles "envenenando" imágenes digitales con cambios sutiles e invisibles que hacen que los algoritmos de IA los malinterpreten.

Con herramientas de IA generativa como Midjourney, Stable Diffusion y Dall-E alimentando una avalancha de imágenes creadas a partir de mensajes de texto, un número creciente de artistas han expresado su preocupación por el hecho de que su trabajo se esté desechando de Internet para entrenar modelos de IA sin permiso, crédito o compensación.

Nightshade es una nueva herramienta de la Universidad de Chicago cuyo objetivo es ayudar a los artistas a proteger sus obras antes de subirlas online, donde podrían incorporarse a conjuntos de entrenamiento de inteligencia artificial. La herramienta protege los píxeles "envenenando" las imágenes digitales con cambios sutiles e invisibles que hacen que los algoritmos de IA las malinterpreten.

Un artista, por ejemplo, puede dibujar una imagen que sea claramente una flor para cualquiera que la mire. Con Nightshade aplicado, la IA reconocerá la imagen como algo totalmente distinto, como un camión, corrompiendo la precisión de la IA.

"La asimetría de poder entre las empresas de IA y los propietarios de contenidos es ridícula", afirmó en Twitter el equipo responsable de la herramienta, ahora X.

Algunos artistas, sin duda, dicen estar entusiasmados con las posibilidades creativas de la IA, pero otros temen que ponga en peligro su medio de vida. El artista digital polaco Greg Rutkowski no culpa a quienes utilizan su nombre como indicador de texto. Para ellos, "es un experimento genial", explica a MIT Technology Review. "Pero para mí y muchos otros artistas, empieza a parecer una amenaza para nuestras carreras".

Los conjuntos de datos de los grandes modelos de IA pueden constar de miles de millones de imágenes, por lo que cuantas más imágenes envenenadas se incluyan en un modelo, menor será la precisión, señala la publicación, que presentó Nightshade al mundo esta semana.

OpenAI, creadora de ChatGPT y Dall-E, no respondió de inmediato a una solicitud de comentarios.

Un equipo dirigido por Ben Zhao, profesor de informática de la Universidad de Chicago, creó Nightshade con la colaboración de artistas. Los investigadores detallan su trabajo en un artículo que se ha sometido a revisión por pares.

Según Zhao en una entrevista por correo electrónico, Nightshade debería desincentivar a las empresas de IA que entrenan sus algoritmos con imágenes extraídas de cualquier sitio online.

El sistema "está pensado para afectar a los entrenadores de modelos que hacen caso omiso de los derechos de autor, las listas de exclusión voluntaria y las directivas de no raspar", añadió. "Las empresas éticas no deberían tener nada de qué preocuparse por Nightshade".

La herramienta aún no se ha lanzado de ninguna forma.

Sin embargo, eso no impidió que una empresa llamada Turing's Solutions, que ofrece consultoría sobre asuntos relacionados con la IA, publicara un artículo online sobre un "antídoto" contra Nightshade un día después de que se conociera la noticia.

"A medida que los modelos de IA siguen ingiriendo grandes cantidades de datos online, existe el riesgo de que se produzcan ataques de envenenamiento, es decir, datos maliciosos diseñados para engañar y corromper los sistemas de IA", reza el artículo. "La respuesta", continúa el post, "no es más envenenamiento, sino liberar 'antídotos' para detectar y filtrar el contenido envenenado".

Zhao se apresuró a desmentir la existencia de la contramedida, empezando por el hecho de que Nightshade aún no ha salido al mercado.

"Puedes estar seguro de que cualquiera que ofrezca un 'antídoto' está mintiendo", escribió en X. "No puedes probar y mucho menos 'curar' lo que no tienes".

 

Más herramientas para contraatacar

 

En marzo, la Universidad de Chicago lanzó un producto similar que frustra la IA, llamado Glaze, "para proteger a los artistas contra la IA invasiva", esencialmente enmascarando su estilo personal. La revista Time nombró esta semana a Glaze como uno de los mejores inventos de 2023. Pero Nightshade lleva las capacidades de Glaze un paso más allá.

"Glaze solo protege a los artistas contra los modelos que afinan su trabajo", dijo Zhao. "No hace nada para evitar que su trabajo sea raspado sin su consentimiento y utilizado para entrenar modelos base".

Nightshade podría integrarse en Glaze como una mejora opcional, y sus creadores dicen que también podrían lanzar una versión de código abierto.

Sin embargo, ante la velocidad a la que avanza la inteligencia artificial, no todo el mundo está convencido de que Nightshade pueda superar a la tecnología, ni siquiera de que deba hacerlo.

"¿Por qué envenenar tu arte por una generación de IA? Puede que sea lo único que lleve tu arte fuera y mucho después de la humanidad", escribió un usuario de X en un hilo de respuesta al equipo de Nightshade.

Muchos artistas, sin embargo, agradecieron al equipo su innovación y preguntaron cuándo podrían empezar a utilizar Nightshade para envenenar sus propias obras.

"No todos los héroes llevan capa", escribió un usuario de X. "Me alegro de que los verdaderos artistas tengan más herramientas para defenderse".

 

Nota realizada por Forbes US