Nightshade: La herramienta que ayuda a los artistas a luchar contra el robo de sus obras por parte de la IA

Nightshade: La herramienta que ayuda a los artistas a luchar contra el robo de sus obras por parte de la IA

Los artistas que quieran proteger sus obras digitales para que las empresas de IA no las utilicen sin su permiso ya pueden descargar y utilizar Nightshade, una herramienta gratuita que les permite «envenenar» sus imágenes de forma que confundan y perjudiquen a los modelos de IA.

Nightshade, desarrollada por un equipo de investigadores de la Universidad de Chicago, funciona alterando sutilmente los píxeles de una imagen para que parezca inalterada al ojo humano, pero sea malinterpretada por los sistemas de IA. Por ejemplo, una imagen de un perro podría modificarse para que a un modelo de inteligencia artificial le pareciera un gato, un coche o un bolso. Si esas imágenes manipuladas se incorporan a un conjunto de entrenamiento de IA, podrían hacer que el modelo resultante produjera resultados erróneos o sin sentido, como generar bolsos en lugar de perros.

Nightshade pretende ser una forma de luchar contra las empresas de IA que utilizan obras de artistas para entrenar sus modelos generativos de IA, como DALL-E, Midjourney y Stable Diffusion, sin el consentimiento o la compensación del creador. Estos modelos son capaces de crear imágenes realistas y diversas a partir de textos o imágenes, pero se basan en grandes cantidades de datos recogidos de Internet, a menudo sin tener en cuenta la fuente o la calidad de los datos.

Según Ben Zhao, profesor de la Universidad de Chicago y uno de los creadores de Nightshade, la herramienta pretende devolver el equilibrio de poder de las empresas de IA a los artistas, creando un poderoso elemento disuasorio contra la falta de respeto a los derechos de autor y la propiedad intelectual de los artistas. Zhao espera que Nightshade sirva para concienciar sobre los problemas éticos y legales que rodean el uso de las obras de los artistas por parte de las empresas de IA, y las anime a adoptar prácticas más responsables y transparentes.

Nightshade es la segunda herramienta desarrollada por el equipo de Zhao como parte del proyecto Glaze, que se centra en capacitar a los artistas frente a los gigantes de la IA. Hace casi un año, el equipo presentó Glaze, un programa independiente diseñado para alterar obras de arte digitales a instancias de un usuario para confundir a los algoritmos de entrenamiento de IA y hacerles creer que la imagen tiene un estilo diferente del que realmente tiene (como colores y pinceladas.

El equipo pretende integrar Nightshade en Glaze, y los artistas pueden elegir si quieren utilizar la herramienta de manipulación de datos o no. El equipo también quiere que Nightshade sea de código abierto, lo que permitiría a otras personas experimentar con él y crear sus propias versiones. Cuanta más gente la utilice y cree sus propias versiones, más potente será la herramienta, afirma Zhao. Los conjuntos de datos de los grandes modelos de IA pueden constar de miles de millones de imágenes, por lo que cuantas más imágenes adulteradas puedan introducirse en el modelo, más daño causará la técnica.

Nightshade está disponible para que los artistas la utilicen en dispositivos Mac y Windows, y requiere una GPU para funcionar. La herramienta puede descargarse desde el sitio web de Glaze Project, donde los usuarios también pueden encontrar más información e instrucciones sobre cómo utilizarla. La herramienta se ha probado con 10 conjuntos de datos muy conocidos, como LAION, FaceScrub y COYO, y ha demostrado su eficacia y solidez frente a varios modelos de IA.

Nightshade es uno de los últimos ejemplos de cómo artistas e investigadores están utilizando la IA para desafiarla y explorar las implicaciones creativas y éticas de la tecnología. A medida que la IA se hace más omnipresente y sofisticada, es importante garantizar que se ajusta a los valores y objetivos humanos, y que respeta los derechos e intereses de los creadores y usuarios de los datos.