D’ordinaire, les intelligences artificielles (IA) sont des systèmes extrêmement spécialisés, entraînés pour réaliser un seul type d’action. En imitant la façon dont notre sommeil nous permet d’ancrer des connaissances acquises durant la journée, elles pourraient plus facilement dépasser cette limite.
Si les IA ont une puissance de calcul amplement supérieure à celle des humains, elles sont habituellement plutôt monotâches : « Une fois correctement formées, il est très difficile de leur enseigner [une] tâche complètement nouvelle », explique Pavel Sanda, co-auteur de l’étude et chercheur à l’Institut d’informatique de l’Académie tchèque des sciences, dans un article de Vice. « Et si vous réussissez à l’entraîner à la nouvelle tâche, vous finissez par endommager l’ancienne mémoire ». Les travaux des chercheurs ont été publiés dans le journal PLOS Computational Biology.
Ce phénomène, dans le domaine des neurosciences, est appelé « oubli catastrophique », explique le scientifique. Heureusement, il existe une méthode pour contrer cette fameuse « catastrophe ». Il s’agit de la « consolidation de la mémoire ». Ce processus nous permet en effet de transformer des souvenirs récents en mémoire à long terme. Cette transformation se produit souvent durant le sommeil paradoxal. Elle serait même l’une des raisons majeures de notre besoin de sommeil.
Si ce sommeil nous est naturel, ce n’est toutefois pas le cas pour une IA. Le terme « intelligence artificielle » se rattache, selon la définition du Conseil de l’Europe, à « une discipline jeune d’une soixante d’années, qui réunit des sciences, théories et techniques (notamment logique mathématique, statistique, probabilités, neurobiologie computationnelle et informatique) et dont le but est de parvenir à faire imiter par une machine les capacités cognitives d’un être humain ».
Une alternance apprentissage-sommeil
Plus concrètement, on parle donc aujourd’hui dans la plupart des cas de « machine learning » (apprentissage automatique). L’intelligence artificielle est donc un système qui est « nourri » d’une grande quantité de données pour « apprendre » et extraire des connexions logiques en vue d’un objectif donné. On parle aussi de « réseau neuronal », car le système de connexions logiques est inspiré des neurones du cerveau.
Dans cette expérience, pour faire simple, les scientifiques ont entraîné un réseau neuronal artificiel à plusieurs tâches, en alternant périodes d’entraînement et périodes de sommeil. Le « sommeil » a été simulé par l’activation des neurones selon un schéma particulier.
Les scientifiques ont d’abord essayé d’entraîner l’IA à deux tâches différentes avant d’introduire une période de sommeil. Cependant, cette méthode n’a pas permis d’empêcher l’effacement des données précédentes. En revanche, il s’est avéré que l’alternance d’apprentissage et de sommeil permettait de préserver l’apprentissage de la session précédente, même dans le cas où il s’agissait d’une tâche différente. Au cours de leurs expériences, ils ont ainsi montré que cette méthode pouvait permettre à une IA d’apprendre deux modèles de recherche de nourriture différents. Elle a pu rechercher des particules de nourriture simulées tout en évitant les particules toxiques. Combiner plusieurs compétences pourrait largement faire évoluer le champ des possibles dans le domaine du machine learning.