L’évolution rapide de l’intelligence artificielle (IA) a franchi un seuil critique, amenant même les experts à s’alarmer face à la capacité des outils génératifs de créer du contenu indiscernable de la réalité. Une source anonyme, experte en IA, a partagé avec le site web Axios que les dernières avancées dans les technologies génératives, encore non publiques, permettent de produire des images tellement réalistes qu’il est parfois impossible de les distinguer de la réalité. Un développement surprenant par sa rapidité.
Selon cette source, cette technologie pourrait être largement accessible dès 2024, dans un contexte où les plateformes de médias sociaux semblent assouplir leurs politiques de lutte contre la désinformation et réduire les équipes chargées de leur mise en œuvre, avec des répercussions notables sur les considérations éthiques et la sûreté. Cette tendance est exacerbée par les licenciements massifs dans les départements concernés.
Il convient toutefois de traiter ces informations avec prudence. En effet, l’intention de la source anonyme d’Axios (un site Web d’information américain) pourrait par exemple être teintée d’alarmisme pour promouvoir les technologies d’IA, ou refléter un optimisme excessif quant à ses capacités.
Toutefois, ces avancées en IA générative interviennent dans un contexte préoccupant, avec l’approche des élections présidentielles américaines controversées et la récente utilisation de l’IA dans la guerre de désinformation lors du conflit Israël-Hamas. Ces développements soulignent l’importance de ne pas sous-estimer les risques potentiels et les implications de telles technologies dans des contextes sensibles.
Aux prises avec les réglementations
En 2023, l’évolution rapide des générateurs d’images basés sur l’intelligence artificielle (IA) a suscité une vive inquiétude parmi les experts. Cette année a été marquée par des avertissements constants sur les dangers potentiels de cette technologie. Même le président Joe Biden a exprimé des préoccupations sérieuses après avoir assisté à une projection du film Mission Impossible, une expérience qui a précédé de peu l’émission d’une directive exécutive par la Maison Blanche. Cette directive, bien que vaste, reste floue dans ses détails.
Bruce Reed, assistant au chef de cabinet de la Maison Blanche, a souligné sur la chaîne « PBS » que l’expérience du président avec le film avait renforcé ses appréhensions sur les dérives possibles de l’IA. Bien que la réalité soit encore éloignée des scénarios catastrophiques du film, l’administration Biden et le Congrès américain ont envisagé des solutions temporaires, telles que l’ajout de filigranes aux vidéos générées par IA, pour aider à distinguer le vrai du faux. Toutefois, cette mesure est jugée inefficace par les experts, car facilement contournable.
Selon la source anonyme citée par Axios, les défis actuels liés à l’IA pourraient sembler mineurs comparés à ceux que nous pourrions affronter à l’avenir. Cette année pourrait donc être perçue comme un moment charnière où l’IA a commencé à s’infiltrer dans divers domaines.
Les réponses politiques et sécuritaires à ces défis sont rendues complexes par la nature insaisissable de la technologie générative et la vitesse de son évolution, souvent difficile à appréhender pour le grand public. Cette situation est exacerbée par le manque d’attention portée à certaines politiques éthiques dans le domaine de l’IA. Des initiatives comme le renforcement des filtres, l’éducation du public à reconnaître le contenu généré par l’IA, ainsi que la réglementation et la mise en place de normes industrielles s’avèrent cruciales pour préserver la confiance et l’intégrité dans l’univers numérique de demain.