IA générative : Nightshade, outil de lutte contre l’utilisation sans consentement d’images, est enfin disponible

nightshade lutte contre utilisation images par ia est enfin disponible couv
| Pixabay
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

Nightshade, un logiciel conçu pour aider les artistes à lutter contre l’utilisation non consentie de leurs œuvres par des modèles d’IA générative, est désormais accessible au grand public. Ce n’est pas une solution de protection à proprement parler, mais plutôt un outil offensif capable de perturber potentiellement le fonctionnement même des modèles d’IA.

L’émergence des IA génératives s’accompagne de sérieuses préoccupations relatives aux droits d’auteur. Ces systèmes sont entraînés à l’aide de vastes ensembles de données, notamment des images, dont une grande partie est pourtant protégée par le droit d’auteur. Cette situation génère une vive inquiétude chez les artistes, car une fois disponibles en ligne, leurs œuvres sont récupérées sans leur consentement par des entreprises d’IA et sont utilisées pour entraîner des modèles de génération d’images — une technologie désormais très prisée (incluant Midjourney, DALLE-3, etc.).

En réponse, des chercheurs de l’Université de Chicago ont conçu un outil innovant appelé Nightshade. Ce logiciel, développé pour « empoisonner » les œuvres d’art, modifie discrètement les images dans le but d’altérer le fonctionnement des modèles d’IA qui tentent de s’entraîner sur ces œuvres. Ainsi, Nightshade offre une nouvelle ligne de défense pour les droits des créateurs. Présenté pour la première fois en octobre de l’année dernière, cet outil est maintenant accessible au téléchargement. La nouvelle a été annoncée sur X (ex-Twitter) le 19 janvier.

Un outil complémentaire à Glaze

Glaze, un outil qui pourrait être utilisé en parallèle à Nightshade pour la protection des œuvres publiées en ligne, a également été développé par les mêmes chercheurs de l’Université de Chicago. Ces derniers conseillent d’ailleurs d’utiliser les deux logiciels conjointement, afin d’optimiser la protection des œuvres d’art.

Pour bien faire la distinction entre les deux outils : Glaze agit en modifiant discrètement les images au niveau des pixels. Ces ajustements, bien que quasi indétectables, sont significatifs dans la manière dont ils affectent la perception des images par les modèles d’IA.

Nightshade, en revanche, adopte une stratégie quelque peu différente. Plutôt que de se concentrer sur la protection des images, Nightshade vise à « empoisonner » les modèles d’IA en leur fournissant des données trompeuses. Cet outil effectue également des changements subtils dans les images, mais ces modifications sont spécifiquement conçues pour tromper les modèles d’IA quant à ce qu’ils perçoivent. En conséquence, après avoir été entraînées avec ces œuvres altérées, le fonctionnement même des IA sera perturbé. Si par exemple une IA est entraînée avec une grande quantité d’images empoisonnées de chiens, elle pourrait retourner une image de chat (ou autre) au lieu de celle d’un chien suite à la requête d’un utilisateur.

Comment utiliser Nightshade ?

Nightshade est disponible en téléchargement sur son site officiel, qui propose des versions compatibles avec Windows et Mac. Ce logiciel nécessite un ordinateur équipé d’au moins 4 Gb de mémoire GPU Nvidia pour fonctionner correctement. Lors de la première installation, Nightshade procède au téléchargement des bibliothèques d’apprentissage automatique et des modèles pré-entraînés. Si Glaze est déjà installé sur l’ordinateur, Nightshade utilise alors les fichiers de ressources de ce dernier.

Pour une utilisation optimale, l’outil doit être utilisé en dernière étape, avant la mise en ligne d’une image. Il est conseillé de réaliser toutes les modifications, comme la conversion de format ou l’ajout d’un filigrane, avant de l’utiliser. Les développeurs avertissent que ces opérations pourraient altérer ou réduire l’efficacité de la protection offerte par le logiciel si elles sont effectuées après l’utilisation de l’outil. Par ailleurs, les concepteurs déconseillent d’indiquer publiquement qu’une image a été traitée avec Nightshade, par exemple en ajoutant le terme « Nightshaded ». Une telle mention pourrait compromettre l’efficacité de Nightshade en tant qu’outil de confusion pour les modèles d’IA.

Laisser un commentaire