En utilisant l’IA, des ados créent de fausses « nudes » de leurs camarades de classe

en utilisant ia adolescents ont cree fausses nudes leurs camarades classe couv
| Pexels
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

Lorsque l’IA tombe entre de mauvaises mains — comme celles d’ados malveillants —, elle risque de contribuer à des expériences traumatisantes pour certains. En octobre dernier, des filles du lycée de Westfield, dans le New Jersey, en ont fait les frais. Elles se sont découvertes avec stupeur sur des images sexuellement explicites et falsifiées, qui ont rapidement circulé au sein du lycée. Les auteurs de cette infraction : des garçons du même établissement, qui ont clairement abusé des pouvoirs de l’IA.

Les outils IA de génération d’images deviennent de plus en plus performants, permettant la création d’images ultraréalistes parfois difficiles à distinguer des images réelles. Pour prévenir les mauvaises utilisations, la plupart de ces systèmes sont déjà sécurisés. Mais malgré les efforts entrepris en matière de sécurité, les individus malveillants parviennent toujours à contourner les barrières. Récemment, ce sont des adolescents du lycée de Westfield, dans le New Jersey, qui y sont parvenus en créant de fausses images mettant en scène certaines de leurs camarades de classe dénudées.

Les images n’ont évidemment eu aucun mal à circuler (rapidement) dans le lycée pendant plusieurs jours, avant que la direction ait pu intervenir. Une enquête est en cours, mais très peu d’informations sur l’affaire ont été divulguées, d’après ce que rapporte The Wall Street Journal (WSJ), l’établissement étant soumis à des règles de confidentialité strictes.

Les conséquences personnelles du deepfake

Quelques-unes des victimes de l’incident ont accepté de partager leurs ressentis à WSJ. Elles ont notamment évoqué les répercussions personnelles et psychologiques en faisant part de leur crainte que les images puissent réapparaître un jour et leur causer du tort sur différents plans.

Ces images pourraient effectivement nuire à leur réputation et les priver de certaines opportunités de carrière si elles venaient à être partagées à nouveau. Leur vie académique ne serait pas non plus épargnée, le harcèlement par d’autres étudiants, voire des professeurs, n’étant pas rare. Sur le plan social direct, la honte et l’embarras que ces images engendrent peuvent conduire à l’isolement, à l’intimidation et à d’autres formes de détresse émotionnelle. L’impact des deepfakes n’est pas seulement immédiat, mais aussi de long terme, au point parfois d’impacter la vie entière des victimes.

Et la loi dans tout cela ?

Avec l’évolution rapide de la technologie, aucune loi fédérale n’est encore établie au sein de l’État pour limiter le trucage d’images visant à produire des dérivés à caractère sexuel. Selon le WSJ, le sénateur de l’État du New Jersey, Jon Bramnick, prévoit d’examiner sa propre législation pour voir si cette dernière est suffisante pour traiter les problèmes liés aux images sexuelles truquées. S’il s’avère que les lois actuelles ne sont pas adéquates, il envisage de rédiger une nouvelle législation qui aborderait spécifiquement ces questions. D’autres États, tels que ceux de Virginie, de Californie, du Minnesota et de New York ont, quant à eux, déjà mis en place des lois qui rendent illégale la distribution de ce type de contenu.

Récemment, le président Joe Biden a publié un décret appelant à l’adoption de mesures de sécurité pour protéger les individus contre les dommages causés par les technologies d’IA générative. Ce décret présidentiel souligne le besoin d’empêcher la création et la distribution des images intimes non consensuelles de personnes réelles et des images pédopornographiques en utilisant l’IA. Le président s’est adressé à plusieurs agences gouvernementales pour développer des recommandations sur la mise en place des mesures de protection contre la création et la distribution de telles images. Toutefois, la vitesse d’évolution de la technologie et la complexité des enjeux juridiques risquent de prolonger le délai entre l’appel à l’action et la mise en œuvre effective des mesures.

Laisser un commentaire