Crean mecanismo para que los artistas «blinden» sus obras contra copias creadas por IA generativa

Nightshade se llama la nueva herramienta creada por un grupo de académicos para que los artistas «enmascaren» sus obras y no puedan ser usadas para entrenar los modelos de IA generativa. Las imágenes generadas no responden al «prompt» de los usuarios.

Hasta el momento, decenas de agencia de imágenes habían detectado que sus catálogos fueron utilizados para entrenar modelos de IA generativa.

Ben Zhao, profesor de la Universidad de Chicago, es el máximo responsable de Glaze, otra herramienta que permite que los artistas «enmascaren» su estilo personal para evitar que sea plagiado por las IAs generativas.

Eso permite manipular los modelos de aprendizaje automático para que interpreten la imagen como algo distinto a lo que realmente se muestra», explicó el portal especializado xacata.com.

Con Nightshade y Glaze se consigue que los modelos actúen de forma defectuosa: cuando uno les pide un gato pueden crear un perro, y cuando pide un coche puede generar una vaca.

En el estudio se ve cómo los modelos corrompidos hacen cosas que no deberían, lo que perjudica su uso. Eliminar las imágenes modificadas es muy difícil, ya que las empresas que las acaban usando deben encontrarlas y borrarlas de forma independiente, por lo que consideran que este método podría proteger de alguna manera el derecho de autor.

Articulos relacionados

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Sigue en contacto a través de

0SeguidoresSeguir
Lamoscanews.com Lamoscanews.com Lamoscanews.com Lamoscanews.com

Lo más reciente