L’IA DeepMind découvre une nouvelle méthode de calcul pour accélérer les ordinateurs

intelligence artificielle nouvelle méthode calcul matricielle
| Gerd Altmann/Pixabay
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

Une intelligence artificielle (IA) a réussi à créer un nouvel algorithme de calcul matriciel, plus efficace que celui en usage actuellement. La découverte peut paraître un peu obscure pour qui ne s’est pas frotté aux arcanes du calcul matriciel. Pourtant, elle pourrait avoir un impact réel, notamment dans le domaine de l’informatique. Certains calculs pourraient ainsi voir leur vitesse augmenter de pas moins de 20%, selon les chercheurs de DeepMind.

Le « chercheur » à l’origine de cette découverte n’est autre qu’une intelligence artificielle. Autrement dit, un algorithme d’apprentissage automatique, développé par l’entreprise DeepMind. Son petit nom : AlphaTensor. Cela fait deux ans que l’équipe de scientifiques dirigeant le projet l’a mis au travail sur une tâche bien particulière.

L’IA a en effet tenté de surclasser l’intelligence humaine dans le domaine du calcul matriciel. Objectif : trouver un moyen d’effectuer ce type de multiplications en utilisant le moins d’opérations possibles. « Nous nous concentrons sur la tâche fondamentale de la multiplication matricielle et utilisons l’apprentissage par renforcement profond (DRL) pour rechercher des algorithmes de multiplication matricielle dont l’exactitude et l’efficacité sont prouvées », précisent les scientifiques dans un article, publié dans Nature.

Les multiplications matricielles consistent en la multiplication de « matrices » entre elles. Autrement dit, des sortes de tableaux de nombres. Grossièrement, il s’agit donc de multiplier entre elles deux grilles de nombres. Pourquoi diable voudrait-on s’infliger cela ? Tout simplement parce que cela est très utile, dans un grand nombre de domaines.

En effet, le calcul matriciel est notamment une tâche informatique fondamentale. Il est donc utilisé dans une certaine mesure par presque tous les logiciels. Dans certains domaines bien particuliers, comme les graphiques, l’intelligence artificielle (réseaux neuronaux) et les simulations scientifiques, il est même utilisé à très large échelle. Dans ces domaines, même une légère amélioration des performances peut amener un gain de performance important. Cela peut aussi amener les machines à consommer moins d’énergie, puisqu’une puissance de calcul moindre peut être utilisée pour un même résultat.

La première avancée en 50 ans

Selon les scientifiques, cette fameuse vitesse de calcul pourrait être augmentée de quelque 20% sur certains dispositifs, grâce à cette nouvelle méthode. Cela ne s’appliquerait pas forcément directement à tous les appareils, tels que les ordinateurs ou les smartphones. Mais si cette avancée fait beaucoup de bruit, c’est aussi parce que c’est la première depuis près de 50 ans dans le domaine de la multiplication matricielle. Pendant très longtemps, la multiplication matricielle s’effectuait de façon purement proportionnelle au nombre d’éléments multipliés.

En 1969, un mathématicien nommé Volker Strassen a amené une avancée en la matière. Il a prouvé que multiplier une matrice de deux rangées de deux nombres par une autre de même taille n’impliquait pas nécessairement huit multiplications. Il est en effet parvenu à ramener l’opération à sept calculs différents. Cette approche est appelée algorithme de Strassen. D’autres avancées ont été faites depuis, mais qui n’étaient pas applicables dans des domaines concrets.

La réussite d’AlphaTensor suscite donc l’émoi dans le domaine. Pour y parvenir, l’IA a été mise au travail sans aucune connaissance préalable des solutions utilisées actuellement. On lui a demandé de créer un algorithme qui terminerait cette tâche de multiplication en un minimum d’étapes. AlphaTensor a fini par trouver un algorithme qui permet de multiplier deux matrices de quatre rangées de quatre nombres en utilisant 47 multiplications.

Une meilleure performance donc que les 49 multiplications que permettaient jusqu’ici la méthode de Strassen. D’autres techniques ont été trouvées pour des matrices de différentes tailles : 70, au total. Un petit nombre, en comparaison de tous les algorithmes trouvés par l’IA. Par exemple, AlphaTensor a trouvé 14 000 méthodes de calcul différentes uniquement pour les matrices 4X4. En revanche, peu surpassaient le mode de calcul actuel.

Le hic ? Les scientifiques ne comprennent pas très bien comment tout cela fonctionne. « Nous ne savons pas vraiment pourquoi le système a proposé cela », explique ainsi Hussein Fawzi, de DeepMind, dans un article du New Scientist. « Pourquoi est-ce la meilleure façon de multiplier les matrices ? C’est flou. D’une manière ou d’une autre, les réseaux de neurones ont une intuition de ce qui semble bon et de ce qui semble mauvais. Honnêtement, je ne peux pas vous dire exactement comment cela fonctionne. Je pense qu’il y a un travail théorique à faire là-dessus, sur la façon exacte dont l’apprentissage en profondeur parvient à faire ce genre de choses », conclut-il.

Pour Oded Lachish de Birkbeck, chercheur à l’Université de Londres également interrogé par le média, la trouvaille de l’IA est en tout cas prometteuse. Elle pourrait être annonciatrice d’autres avancées similaires. « Je pense que nous verrons des résultats générés par l’IA pour d’autres problèmes de nature similaire, bien que rarement quelque chose d’aussi central que la multiplication matricielle. Il y a une motivation importante pour une telle technologie, car moins d’opérations dans un algorithme ne signifient pas seulement des résultats plus rapides, cela signifie également moins d’énergie dépensée », rappelle-t-il.

Source : Nature

Laisser un commentaire
Cliquez pour accéder à d'autres articles sur ce sujet.