Une nouvelle IA de DeepMind révolutionne les algorithmes de tri, et potentiellement l’informatique

nouvelle ia deepmind cree performants algorithmes de tri
| Unsplash
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

Google DeepMind tire désormais parti de son expertise en intelligence artificielle pour générer des algorithmes de tri ultra-efficaces, avec son nouveau modèle baptisé AlphaDev. Les chercheurs se sont inspirés de leurs anciennes IA spécialisées dans les jeux (AlphaZero et AlphaGo) pour sa conception. Les algorithmes créés promettent d’accélérer le processus de tri dans les logiciels. Cela pourrait apporter des bénéfices significatifs dans le domaine de l’informatique en général.

Les algorithmes de tri sont des éléments clés des fonctions informatiques, sachant qu’ils sont utilisés des milliards de fois par jour. Dans un monde en perpétuelle demande de calcul, ils sont de plus en plus utilisés. C’est dans ce contexte que DeepMind présente son modèle d’IA baptisé AlphaDev. Avec pour ambition de surpasser les réalisations humaines, celui-ci a pour rôle de découvrir de nouveaux algorithmes capables d’accomplir des tâches spécifiques. Dans une expérience, DeepMind a chargé AlphaDev de générer de nouveaux algorithmes de tri plus efficaces que ceux qu’on connaît actuellement. Les résultats, prometteurs, ont été publiés dans la revue Nature.

Des algorithmes toujours plus rapides

Pour générer un algorithme de tri, le modèle d’IA AlphaDev a utilisé des instructions d’assemblage. Afin de mettre cela en perspective, il faut savoir que les langages de programmation les plus utilisés dans le monde pour les logiciels sont C++, Java ou Python. Ces langages sont dits « de haut niveau », car incompréhensibles par un processeur. Par conséquent, ils doivent être compilés en langage « de bas niveau » dits aussi langages d’assemblage, ou assembleur. Selon DeepMind, le fait d’exploiter ce niveau inférieur aurait permis de découvrir de nombreuses améliorations qui auraient été difficiles à cerner dans un langage de haut niveau. De plus, cela ouvre la voie à une certaine flexibilité sur les opérations informatiques.

Afin de générer un algorithme de tri, AlphaDev a procédé petit à petit en ajoutant une instruction d’assemblage à la fois. Au fur et à mesure, l’IA observait le résultat obtenu et le comparait avec une solution correcte préétablie. Grâce à ce processus, AlphaDev a révélé de nouveaux algorithmes de tri, dont l’un s’est montré 70% plus rapide que le meilleur algorithme connu pour traiter une liste de cinq données, et un autre plus rapide de 1,7% pour une liste de 250 000 éléments.

Des résultats prometteurs sur le long terme

Avec ces nouvelles découvertes, DeepMind espère apporter des améliorations à l’échelle mondiale. D’ailleurs, les algorithmes ont été rendus open source et sont désormais accessibles dans la bibliothèque de tri Libc ++. Avant leur ajout, ils ont d’abord été traduits en C++. « Aujourd’hui, ces algorithmes sont utilisés des milliards de fois par jour et peuvent être utilisés par des millions de développeurs et d’entreprises dans le monde entier », s’enthousiasme Daniel Mankowitz de chez DeepMind.

Selon le représentant de la société, un tel exploit pourrait même compenser les contraintes de développement relatives à la « rupture de loi de Moore ». Pour rappel, la loi de Moore est une sorte de constat prédictif qui stipule que la complexité des circuits intégrés, à savoir le nombre de transistors qu’ils peuvent contenir, double approximativement tous les deux ans, et de ce fait leur puissance — selon une courbe d’évolution exponentielle donc. Cela a longtemps servi de prédiction pour l’évolution de la puissance de calcul et de la miniaturisation en informatique. La « rupture de la loi de Moore » fait référence à l’idée que ce rythme d’accélération ne peut pas continuer indéfiniment pour plusieurs raisons, notamment les limites physiques de la miniaturisation des transistors et les défis croissants en matière de dissipation de chaleur. En d’autres termes, nous approchons un point où il ne sera plus possible de doubler le nombre de transistors sur une puce tous les deux ans.

Mais à en croire les propos de Mankowitz, cette rupture pourrait être évitée, du moins partiellement, par le biais de ces nouveaux algorithmes de tri plus efficaces. Un autre expert, Mark Lee, d’une université britannique, ne partage cependant pas ce point de vue. Selon lui, compenser la rupture de la loi de Moore reste un défi majeur que les algorithmes créés par AlphaDev ou d’autres peineront à relever.

Source : Nature

Laisser un commentaire
Cliquez pour accéder à d'autres articles sur ce sujet.