Estás leyendo
Nightshade: El “envenenamiento” de los datos para dar a los artistas una oportunidad de luchar contra la IA

Nightshade: El “envenenamiento” de los datos para dar a los artistas una oportunidad de luchar contra la IA

La herramienta, de curioso funcionamiento, ofrece a los artistas una manera de proteger su trabajo contra el uso no autorizado en el entrenamiento de inteligencia artificial, desencadenando un debate sobre la ética y la propiedad en un mundo digital en constante cambio.

El debate ético si se trata de arte e inteligencia artificial está servido. Hace menos de un año, un fotógrafo ganó un prestigioso concurso participando con una fotografía hecha con inteligencia artificial, mientras que varios escritores reconocidos del mundo se han quejado por cómo las empresas responsables de chatbots y otras utilidades entrenan a sus modelos de lenguaje.

Proteger el trabajo artístico de ser utilizado para entrenar modelos de IA sin consentimiento es una batalla cuesta arriba para los artistas. Las solicitudes de exclusión y los códigos de no rastreo confían en que las empresas de IA actúen de buena fe, pero aquellos motivados por el lucro pueden fácilmente ignorar tales medidas.

Nightshade, un proyecto de la Universidad de Chicago, ofrece a los artistas un recurso al “envenenar” datos de imagen, volviéndolos inútiles o disruptivos para el entrenamiento de modelos de IA. Ben Zhao, profesor de ciencias de la computación, compara Nightshade con “poner salsa picante en tu almuerzo para que no te lo roben del refrigerador del trabajo”, según informa el medio Techcrunch, que muestra con ejemplos cómo funciona.

“Estamos demostrando que los modelos generativos en general, sin intención de juego de palabras, son solo modelos”, dijo Zhao. “Nightshade no está destinado a ser un arma extremadamente poderosa para acabar con estas empresas, sino que muestra que estos modelos son vulnerables y que hay formas de atacar”.

Funcionamiento

La herramienta altera las asociaciones entre los textos de referencia, cambiando sutilmente los píxeles en imágenes para engañar a los modelos de IA y generar imágenes completamente diferentes a las que un humano vería.

Estos efectos afectan a conceptos relacionados, de acuerdo a un paper técnico que lo explica. Aunque ha recibido críticas y se le ha llamado un “virus”, Zhao insiste en que es legal y su objetivo es forzar a las empresas de tecnología a pagar por el trabajo con licencia.

Leer también

Para los artistas, ofrece una forma de defenderse hasta que existan regulaciones adecuadas. Aunque la mayoría de las alteraciones que hace esta herramienta deberían ser invisibles para el ojo humano, algunos críticos afirman que puede dañar la comunidad de código abierto. Sin embargo, Zhao sostiene que Nightshade es completamente legal y busca equilibrar el campo de batalla para los creadores de contenido.

De momento, los expertos están divididos sobre su ética y legalidad, pero muchos artistas lo ven como una herramienta vital en la lucha contra el uso no autorizado de su trabajo para entrenar inteligencias artificiales.

A medida que la tecnología avanza, el debate sobre el control y la propiedad del contenido generado por IA continúa, y herramientas como Nightshade representan un intento de nivelar el campo de juego para los creadores de contenido en un mundo digital en constante evolución.

© 2023 - NEXT MEDIA CONTENT Y PRISA MEDIA CHILE
Todos los derechos reservados

Ir arriba