Notre sociรฉtรฉ est profondรฉment marquรฉe, depuis des siรจcles, par les inรฉgalitรฉs sociales. Malgrรฉ les efforts dโajustements de la gouvernance entamรฉs par de nombreux pays, les รฉcarts de richesses ne cessent de se creuser dans le monde, engendrant de vรฉritables explosions sociales dans les rรฉgions les plus vulnรฉrables. Les avancรฉes rรฉcentes de l’intelligence artificielle pourraient aider ร atteindre des objectifs socioรฉconomiques plus รฉquitables, en aidant dans les prises de dรฉcisions. Dans cette optique, la sociรฉtรฉ DeepMind de Google a rรฉcemment dรฉveloppรฉ une IA dite ยซ dรฉmocratique ยป, qui aide ร rรฉpartir les richesses plus รฉquitablement. Testรฉ dans le cadre d’exercices dโinvestissement, le modรจle dโapprentissage renforcรฉ est parvenu ร corriger les dรฉsรฉquilibres de richesses, sanctionner les resquilleurs et remporter le vote sur la meilleure mรฉthode pour les rรฉpartitions financiรจres les plus ยซ justes ยป.
Dans tout groupe social oรน les biens et les ressources doivent รชtre rรฉpartis, il existe presque toujours des inรฉgalitรฉs, oรน certains se retrouvent peu favorisรฉs par rapport aux autres. La notion dโinรฉgalitรฉ sociale peut en effet dรฉcouler de nombreux facteurs en amont, tels que les milieux sociaux oรน l’individu grandit, lโenvironnement scolaire, les moeurs propres ร certaines communautรฉs, etc. Les personnes issues d’un milieu donnรฉ sont comme ยซ รฉtiquetรฉes ยป et ont tendance ร รชtre traitรฉes diffรฉremment et inรฉgalement lorsqu’elles tentent d’intรฉgrer dโautres groupes.
Des notions de valeurs morales ont alors รฉtรฉ instaurรฉes pour tenter dโattรฉnuer ces inรฉgalitรฉs. Cependant, dans tout rรฉgime sociopolitique et de gestion รฉconomique, il existe toujours des divergences dโopinions sur les meilleures faรงons de gรฉrer les choses. Les politiciens, les รฉconomistes et les รฉcologistes sont par exemple trรจs souvent en dรฉsaccord sur lโefficacitรฉ et lโรฉquitรฉ des modรจles sociaux.
Les problรจmes dโinรฉgalitรฉs minent alors de nombreuses facettes de la sociรฉtรฉ, telles que la rรฉpartition des richesses. Mรชme si des efforts ont รฉtรฉ entamรฉs, l’on peut encore observer de grands รฉcarts de richesses dans le monde. Dans les pays les plus pauvres, oรน la corruption est quasi incontrรดlable, des fossรฉs se creusent entre les classes les plus vulnรฉrables et les plus aisรฉes.
Dans la recherche de solutions pour attรฉnuer ce genre de situation, la nouvelle IA de DeepMind tente dโintรฉgrer objectivement des valeurs morales dans les dรฉcisions concernant la rรฉpartition des richesses. Selon lโรฉtude, dรฉcrite dans la revue Nature Human Behaviour, des rรฉsultats bรฉnรฉfiques sur ce que la sociรฉtรฉ souhaite rรฉellement peuvent รชtre obtenus grรขce ร une mรฉthodologie appelรฉe ยซ alignement des valeurs ยป.
Cependant, la tรขche reste compliquรฉe du fait que la sociรฉtรฉ comporte une pluralitรฉ de points de vues. ยซ L’IA dรฉmocrate ยป risque ainsi encore de ne pas savoir sur lesquels (de points de vue) se baser. DeepMind a ainsi optรฉ pour une solution de vote par popularitรฉ.
La mรฉthodologie la plus populaire
Bien que les technologies dโapprentissage automatique rรฉalisent des percรฉes majeures ces derniรจres annรฉes, elles sont tout de mรชme limitรฉes par le simple fait qu’elles peuvent produire des rรฉsultats biaisรฉs par le manque de supervision (notamment des donnรฉes en entrรฉe). De rรฉcentes recherches ont notamment montrรฉ que les systรจmes d’IA basรฉs sur lโapprentissage automatique peuvent prรฉsenter des dรฉfauts et prendre des dรฉcisions politiquement incorrectes.
Pour optimiser la comprรฉhension de la rรฉpartition des richesses, les chercheurs ont alors aidรฉ leur nouvelle IA en intรฉgrant des interactions humaines dans son systรจme dโalgorithmes. La rรฉtroaction humaine se chargeait alors dโorienter l’IA vers les rรฉsultats ยซย prรฉfรฉrรฉsย ยป, ou supposรฉs plus ยซย justesย ยป et compatibles avec nos valeurs morales.
Pour tester la technologie, les chercheurs ont invitรฉ des milliers de volontaires ร effectuer un exercice dโinvestissement sur des biens publics. Dans la simulation, des sommes variables รฉtaient distribuรฉes ร chaque joueur, qui obtenaient ensuite des rendements correspondants aux montants investis. Les participants avaient รฉgalement le choix de conserver leurs gains ou de les partager โ pour ensuite obtenir des bรฉnรฉfices collectifs.
Par ailleurs, la distribution des revenus a รฉgalement suivi les trois paradigmes dโรฉquitรฉ traditionnels (รฉgalitaire strict, libertaire et รฉgalitaire libรฉral), ainsi que deux mรฉcanismes diffรฉrents, dont lโun conรงu par l’homme et lโautre par l’IA dรฉmocrate. Ce dernier, appelรฉ Human Centered Redistribution Mechanism (HCRM), a รฉtรฉ dรฉveloppรฉ grรขce ร un apprentissage renforcรฉ, en utilisant des donnรฉes de rรฉtroaction provenant ร la fois de participants humains et d’agents virtuels conรงus pour imiter le comportement humain.
Les rรฉsultats des expรฉriences ont montrรฉ que le systรจme de rรฉpartition utilisรฉ par l’IA รฉtait plus apprรฉciรฉ que toutes les autres mรฉthodes. La technologie aurait รฉgalement rรฉussi ร recadrer les resquilleurs et ร rรฉรฉquilibrer la rรฉpartition des richesses initiales.
Bien que les possibilitรฉs dโutilisation d’une telle technologie sont multiples, les chercheurs soulignent quโelle peut comporter certaines limites, telle que la confiance en une entitรฉ virtuelle. De plus, l’IA ne serait pas destinรฉe ร destituer un systรจme รฉconomique dรฉjร รฉtabli, mais pourrait plutรดt contribuer ร la prise de dรฉcisions meilleures pour la sociรฉtรฉ.


