Ce concert de Death Metal infini généré par une intelligence artificielle vous donnera les frissons

ia produit death metal en continu
| Steam
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

Le death metal, sous-genre musical extrême du heavy metal, est connu pour être de base très énergique, agressif, et parfois sinistre. De ce fait, qu’y a-t-il de mieux comme base pour produire spontanément de la musique terrifiante par le biais d’une intelligence artificielle ? C’est en tout cas ce qu’une équipe de technologues musicaux a voulu produire dans le cadre du projet Relentless Doppelganger, une diffusion continue et en direct sur YouTube qui révèle les prouesses d’un algorithme produisant du death metal.

Pour commencer, il faut savoir que le réseau de neurones artificiel à l’origine de la musique n’en est pas à son premier coup d’essai. En effet, Dadabots (c’est son nom, ou plutôt le nom du groupe virtuel généré) a déjà produit plusieurs albums complets à ce jour.

Il est fort probable que la musique ainsi produite ne plaise pas à toutes et tous : étant donné que les algorithmes tentent d’imiter les groupes de death metal, les sonorités produites sont très agressives et rapides, et faute de perfection algorithmique (ce qui est tout à fait normal pour une telle application), le rythme et les sons des instruments sont parfois bâclés et très dérangeants.

Mais malgré tous ces inconvénients sonores, nous ne pouvons que rester admiratifs de l’exploit de cet algorithme et du travail de l’équipe l’ayant mis au point. À avoir donné vie à ce projet, ce sont les technologues musicaux CJ Carr et Zack Zukowski, qui expérimentent depuis des années l’utilisation de l’intelligence artificielle pour produire une musique « audible », dans des genres comme le métal, le rock et le punk.

L’apprentissage profond (deep learning) qui se cache derrière la chaîne YouTube a été formé sur des extraits d’un vrai groupe de death metal originaire du Canada, Archspire. Les extraits audio réels sont transmis au réseau neuronal SampleRNNN pour essayer de créer des imitations réalistes.

L’équipe pense que le jeu rapide et agressif d’Archspire convient particulièrement bien à leur approche — en d’autres termes, si le réseau neuronal avait été entraîné avec un autre groupe ou genre musical, le rendu ne serait pas aussi réaliste.

« La plupart des IA que nous avons entraînées faisaient de la musique de merde », a déclaré Carr à Rob Dozier à Motherboard. « Une vraie soupe musicale. Les chansons n’étaient pas stables et ‘s’effondraient’. Ce groupe-ci produisait quelque chose de spécial ».

Sur le même sujet : Une intelligence artificielle révèle les causes moléculaires et génomiques des maladies

« Cet exemple précoce de synthèse neuronale est une preuve de concept sur la façon dont l’apprentissage automatique peut piloter de nouveaux types de logiciels musicaux », écrivent les inventeurs dans un article paru en 2018. « Créer de la musique peut être aussi simple que de spécifier un ensemble d’influences musicales sur lesquelles un modèle s’entraîne ».

Comme d’autres moteurs d’imitation basés sur une intelligence artificielle, SampleRNNN est suffisamment performant pour déterminer s’il a produit un extrait audio assez qualitatif pour l’utiliser sans scrupule. De ce fait, le réseau de neurones définit automatiquement quelle partie de son ensemble est à modifier et améliorer.

Comme tout réseau de neurones, plus il y a de données sur lesquelles SampleRNNN peut être formé, meilleur est le rendu. Dans ce cas, cela signifie que plus le réseau peut écouter de musique du genre exact qu’il doit produire, meilleure en sera la qualité de la prestation.

« Au début de sa formation, les sons qu’il produit sont très agressifs, grotesques et texturaux », avait déclaré Carr. « Au fur et à mesure qu’il s’améliore, on entend de plus en plus d’éléments de la musique originale sur laquelle il a été formé ».

Au départ, SampleRNNN avait été développé pour servir de générateur de synthèse vocale, mais Carr et Zukowski ont décidé de l’adapter afin qu’il puisse fonctionner également pour produire de la musique.

Le réseau neuronal est prédictif : il tente de prédire ce qui devrait être produit, en se basant sur ce qu’il vient de jouer. Il arrive ainsi que l’algorithme fasse des dizaines de milliers de prédictions par seconde pour accomplir cette tâche. Il peut également revenir sur ses erreurs antérieures pour les corriger, bien que cela ne dure que quelques centaines de millisecondes.

Nous vous laissons écouter les prouesses de ce groupe de métal algorithmique acharné :

Et si vous appréciez cette musique (sait-on jamais), vous pouvez sans autre vous rendre sur le site de Dadabots pour y découvrir d’autres créations musicales.

Laisser un commentaire
Cliquez pour accéder à d'autres articles sur ce sujet.