Esta herramienta elimina las protecciones contra la IA en el arte digital
INTELIGENCIA ARTIFICIAL. Tiempo de lectura 6 minutos.
Una nueva técnica llamada LightShed dificultará a los artistas el uso de las herramientas de protección existentes para impedir que su trabajo sea ingerido para el entrenamiento de la IA.
Se trata del siguiente paso en el juego del gato y el ratón entre la tecnología, el derecho y la cultura que enfrenta desde hace años a artistas y defensores de la inteligencia artificial.
Los modelos generativos de IA que crean imágenes necesitan ser entrenados con una amplia variedad de material visual, y los conjuntos de datos que se utilizan para este entrenamiento supuestamente incluyen arte protegido por derechos de autor sin permiso. Esto preocupa a los artistas, que temen que los modelos aprendan su estilo, imiten su trabajo y les dejen sin trabajo.
Estos artistas tuvieron algunas defensas potenciales en 2023, cuando investigadores crearon herramientas como Glaze y Nightshade para proteger las obras de arte «envenenándolas» contra el entrenamiento de la IA (Shawn Shan fue incluso nombrado Innovador del Año de MIT Technology Review el año pasado por su trabajo en ellas). LightShed, sin embargo, afirma ser capaz de subvertir estas herramientas y otras similares, facilitando que las obras de arte vuelvan a utilizarse para el entrenamiento.
Para que quede claro, los investigadores que están detrás de LightShed no intentan robar el trabajo de los artistas. Simplemente no quieren que la gente tenga una falsa sensación de seguridad. «No puedes estar seguro de si las empresas tienen métodos para eliminar estos bloqueos y nunca te lo dirán», afirma Hanna Foerster, estudiante de doctorado de la Universidad de Cambridge (Reino Unido) y autora principal de un artículo sobre el trabajo. Y si lo hacen, puede que sea demasiado tarde para solucionar el problema».
Los modelos de IA funcionan, en parte, creando implícitamente límites entre lo que perciben como distintas categorías de imágenes. Glaze y Nightshade cambian suficientes píxeles para que una obra de arte sobrepase este límite sin afectar a la calidad de la imagen, haciendo que el modelo la vea como algo que no es. Estos cambios casi imperceptibles se denominan perturbaciones y alteran la capacidad del modelo de IA para comprender la obra de arte.
Glaze hace que los modelos malinterpreten el estilo (por ejemplo, interpretando una pintura fotorrealista como un dibujo animado). En cambio, Nightshade hace que el modelo vea el tema de forma incorrecta (por ejemplo, interpreta un gato en un dibujo como un perro). Glaze se utiliza para defender el estilo individual de un artista, mientras que Nightshade sirve para atacar a los modelos de IA que rastrean Internet en busca de arte.
Foerster trabajó con un equipo de investigadores de la Universidad Técnica de Darmstadt (Alemania) y la Universidad de Texas en San Antonio (EE UU) para desarrollar LightShed, que aprende a ver dónde herramientas como Glaze y Nightshade salpican el arte con este tipo de veneno digital para poder limpiarlo eficazmente. El grupo presentará sus conclusiones en el Simposio de Seguridad Usenix , una de las principales conferencias mundiales sobre ciberseguridad, que se celebrará en agosto.
Los investigadores entrenaron a LightShed alimentándolo con piezas de arte con y sin Nightshade, Glaze y otros programas similares aplicados. Foerster describe el proceso como enseñar a LightShed a reconstruir «sólo el veneno de las imágenes envenenadas». Identificar un límite para la cantidad de veneno que realmente confundirá a una IA hace que sea más fácil «lavar» sólo el veneno.
LightShed es increíblemente eficaz en esta tarea. Mientras que otros investigadores han encontrado formas sencillas de subvertir el envenenamiento, LightShed parece ser más adaptable. Incluso puede aplicar lo que ha aprendido de una herramienta anti-AI -por ejemplo, Nightshade- a otras como Mist o MetaCloak sin verlas de antemano. Aunque tiene algunos problemas para actuar contra pequeñas dosis de veneno, es menos probable que éstas acaben con la capacidad de los modelos de IA para comprender el arte subyacente, por lo que la IA sale ganando, o los artistas que utilizan estas herramientas pierden.
Alrededor de 7,5 millones de personas, muchos de ellos artistas con seguidores pequeños y medianos y menos recursos, han descargado Glaze para proteger su arte. Quienes utilizan herramientas como Glaze las consideran una importante línea técnica de defensa, sobre todo cuando el estado de la regulación en torno a la formación en IA y los derechos de autor sigue en el aire. Los autores de LightShed ven su trabajo como una advertencia de que herramientas como Glaze no son soluciones permanentes. «Es posible que haya que seguir probando para encontrar mejores ideas de protección», afirma Foerster.
Los creadores de Glaze y Nightshade parecen estar de acuerdo: el sitio web de Nightshade advertía de que la herramienta no estaba preparada para el futuro antes de empezar a trabajar en LightShed. Y Shan, que dirigió la investigación de ambas herramientas, sigue creyendo que defensas como la suya tienen sentido aunque haya formas de evitarlas.
«Es un elemento disuasorio», afirma Shan, una forma de advertir a las empresas de IA de que los artistas se toman en serio sus preocupaciones. El objetivo, como él dice, es poner tantos obstáculos como sea posible para que a las empresas de IA les resulte más fácil trabajar con los artistas. Cree que «la mayoría de los artistas entienden que se trata de una solución temporal», pero que crear esos obstáculos contra el uso no deseado de su trabajo sigue siendo valioso.
Foerster espera utilizar lo que ha aprendido en LightShed para crear nuevas defensas para los artistas, como marcas de agua inteligentes que, de algún modo, permanezcan con la obra incluso después de pasar por un modelo de inteligencia artificial. Aunque no cree que esto proteja una obra contra la IA para siempre, piensa que podría ayudar a inclinar la balanza de nuevo a favor del artista.
Por: Peter Hall.
Sitio Fuente: MIT Technology Review