Una innovadora técnica denominada LightShed cuestiona la eficacia de las herramientas de protección existentes para evitar que los modelos de inteligencia artificial (IA) utilicen obras de arte protegidas por derechos de autor sin permiso. Esta técnica se considera el próximo paso en la evolución del juego de gato y ratón entre la tecnología, el derecho y la cultura, que enfrenta a artistas y defensores de la IA desde hace años.
Los modelos generativos de IA requieren entrenamiento con una amplia variedad de material visual, lo que implica la utilización de conjuntos de datos que incluyen arte protegido por derechos de autor sin permiso. Esto genera inquietud entre los artistas, que temen que los modelos aprendan su estilo, imiten su trabajo y les quiten oportunidades laborales.
Recientemente, investigadores crearon herramientas como Glaze y Nightshade para proteger las obras de arte «envenenándolas» contra el entrenamiento de la IA. Sin embargo, LightShed afirma ser capaz de subvertir estas herramientas y otras similares, lo que facilitaría el uso de obras de arte para el entrenamiento de la IA.
Los investigadores detrás de LightShed no buscan robar el trabajo de los artistas, sino más bien destacar la importancia de no confiar en medidas de seguridad que pueden ser fácilmente sorteadas. Según Hanna Foerster, estudiante de doctorado de la Universidad de Cambridge y autora principal del artículo sobre LightShed, «no puedes estar seguro de si las empresas tienen métodos para eliminar estos bloqueos y nunca te lo dirán».
Glaze y Nightshade funcionan cambiando píxeles clave en las imágenes para que los modelos de IA las vean como algo diferente. LightShed, por otro lado, aprende a identificar y eliminar este «veneno digital» de manera eficaz. El equipo de investigadores entrenó a LightShed alimentándolo con piezas de arte con y sinNightshade, Glaze y otros programas similares aplicados. Aunque LightShed es muy eficaz en su tarea, los investigadores behind Glaze y Nightshade parecen estar de acuerdo en que estas herramientas no son soluciones permanentes.
Es posible que deban seguir buscando mejores ideas de protección. Los autores de LightShed ven su trabajo como una advertencia de que las herramientas actuales no son suficientes para proteger a los artistas.
El objetivo es crear obstáculos para que a las empresas de IA les resulte más fácil trabajar con los artistas. Foerster espera utilizar lo que ha aprendido en LightShed para crear nuevas defensas para los artistas, como marcas de agua inteligentes que puedan permanecer con la obra de arte incluso después de pasar por un modelo de IA. Aunque no cree que esto proteja una obra contra la IA para siempre, piensa que podría ayudar a inclinar la balanza de nuevo a favor del artista.