Des scientifiques explorent une nouvelle frontière dans le domaine de l’intelligence artificielle et des calculs quantiques. Ils ont mené une étude proposant un modèle mathématique pour un ordinateur utilisant la chaleur au lieu de l’électricité pour exécuter des algorithmes d’IA. L’objectif de cette étude était de trouver un moyen de réduire considérablement la consommation d’énergie associée aux technologies d’IA modernes tout en conservant leur puissance de calcul.
Dans les ordinateurs, l’électricité est utilisée pour alimenter les composants, qui effectuent des calculs. Cette utilisation de l’électricité peut être très énergivore, surtout pour des tâches complexes comme celles effectuées par les algorithmes d’IA. Ces derniers, ainsi que les réseaux de neurones artificiels, sont particulièrement gourmands en énergie en raison de la grande quantité de calculs qu’ils nécessitent. Pour donner une idée de l’ampleur de la consommation de ces technologies, le chatbot d’OpenAI, ChatGPT, consommerait quotidiennement une quantité d’électricité équivalente à la consommation d’environ 30 000 foyers américains.
Certes, les programmes d’IA sont incroyablement puissants et utiles, mais ils sont aussi très coûteux en énergie. Cela soulève des préoccupations environnementales et économiques qui doivent être abordées si l’on souhaite que ces technologies deviennent durables. Dans ce contexte, des chercheurs suisses et autrichiens ont développé un modèle mathématique permettant aux algorithmes d’utiliser la chaleur au lieu de l’électricité pour effectuer des calculs. Cette potentielle avancée pourrait réduire considérablement la consommation énergétique des systèmes d’IA. Les détails sont disponibles sur la plateforme arXiv.
La chaleur pour substituer l’électricité ?
Il faut savoir que les technologies d’IA intègrent des neurones artificiels interconnectés qui reçoivent, traitent et transmettent des informations. Dans leur nouvelle approche, les chercheurs utilisent des qubits (bits quantiques) pour remplacer ces neurones. Ces qubits ont ici été reliés à ce que l’on appelle des « réservoirs thermiques », des systèmes spéciaux capables d’échanger de la chaleur.
Pour effectuer des calculs, ce système n’utilise pas de signaux électriques. Au lieu de cela, la température de certains réservoirs thermiques est modifiée, et c’est cette variation de température qui influence directement les qubits, changeant leurs états quantiques et leurs niveaux d’énergie. Le but est de guider le système vers un état stable, un peu comme la fin d’un cycle de calcul dans un ordinateur classique. Une fois cet état stable atteint, le système peut générer une sortie à partir d’une entrée donnée, tout comme le ferait un réseau neuronal classique, mais avec une consommation d’énergie beaucoup plus faible.
Un système économe
Dans les ordinateurs traditionnels, la chaleur est un sous-produit indésirable qui nécessite des systèmes de refroidissement énergivores. Dans le modèle proposé par les chercheurs, la chaleur est utilisée de manière productive pour effectuer des calculs. Cela rend l’ensemble du processus plus économe en énergie.
De plus, les chercheurs ont constaté que leur système fonctionnait de manière similaire à un perceptron, un type simple de réseau neuronal artificiel utilisé pour des tâches de classification. Les perceptrons sont moins complexes et souvent plus rapides à entraîner que les réseaux neuronaux plus profonds. Si cette simplicité peut être maintenue tout en offrant des performances comparables, cela pourrait également contribuer à l’efficacité énergétique.
Suite à cette avancée, les chercheurs sont assez confiants dans la validité de leur modèle pour passer à la phase d’expérimentation. Les expériences à petite échelle pourraient aider à valider le concept, à identifier des problèmes potentiels et à apporter des ajustements. Néanmoins, il pourrait être difficile de le mettre à l’échelle pour une production en série, en raison de complexité technique.