Une IA semble mieux distribuer les richesses que l’humain

IA rรฉpartir รฉquitablement argent
| Tirรฉ de l'oeuvre "DeepWealth", par Jonathan Paiano pour Trust My Science (licence accessible ici)
โ‡ง [VIDร‰O]   Vous pourriez aussi aimer ce contenu partenaire

Notre sociรฉtรฉ est profondรฉment marquรฉe, depuis des siรจcles, par les inรฉgalitรฉs sociales. Malgrรฉ les efforts dโ€™ajustements de la gouvernance entamรฉs par de nombreux pays, les รฉcarts de richesses ne cessent de se creuser dans le monde, engendrant de vรฉritables explosions sociales dans les rรฉgions les plus vulnรฉrables. Les avancรฉes rรฉcentes de l’intelligence artificielle pourraient aider ร  atteindre des objectifs socioรฉconomiques plus รฉquitables, en aidant dans les prises de dรฉcisions. Dans cette optique, la sociรฉtรฉ DeepMind de Google a rรฉcemment dรฉveloppรฉ une IA dite ยซ dรฉmocratique ยป, qui aide ร  rรฉpartir les richesses plus รฉquitablement. Testรฉ dans le cadre d’exercices dโ€™investissement, le modรจle dโ€™apprentissage renforcรฉ est parvenu ร  corriger les dรฉsรฉquilibres de richesses, sanctionner les resquilleurs et remporter le vote sur la meilleure mรฉthode pour les rรฉpartitions financiรจres les plus ยซ justes ยป.

Dans tout groupe social oรน les biens et les ressources doivent รชtre rรฉpartis, il existe presque toujours des inรฉgalitรฉs, oรน certains se retrouvent peu favorisรฉs par rapport aux autres. La notion dโ€™inรฉgalitรฉ sociale peut en effet dรฉcouler de nombreux facteurs en amont, tels que les milieux sociaux oรน l’individu grandit, lโ€™environnement scolaire, les moeurs propres ร  certaines communautรฉs, etc. Les personnes issues d’un milieu donnรฉ sont comme ยซ รฉtiquetรฉes ยป et ont tendance ร  รชtre traitรฉes diffรฉremment et inรฉgalement lorsqu’elles tentent d’intรฉgrer dโ€™autres groupes.

Des notions de valeurs morales ont alors รฉtรฉ instaurรฉes pour tenter dโ€™attรฉnuer ces inรฉgalitรฉs. Cependant, dans tout rรฉgime sociopolitique et de gestion รฉconomique, il existe toujours des divergences dโ€™opinions sur les meilleures faรงons de gรฉrer les choses. Les politiciens, les รฉconomistes et les รฉcologistes sont par exemple trรจs souvent en dรฉsaccord sur lโ€™efficacitรฉ et lโ€™รฉquitรฉ des modรจles sociaux.

Les problรจmes dโ€™inรฉgalitรฉs minent alors de nombreuses facettes de la sociรฉtรฉ, telles que la rรฉpartition des richesses. Mรชme si des efforts ont รฉtรฉ entamรฉs, l’on peut encore observer de grands รฉcarts de richesses dans le monde. Dans les pays les plus pauvres, oรน la corruption est quasi incontrรดlable, des fossรฉs se creusent entre les classes les plus vulnรฉrables et les plus aisรฉes.

Dans la recherche de solutions pour attรฉnuer ce genre de situation, la nouvelle IA de DeepMind tente dโ€™intรฉgrer objectivement des valeurs morales dans les dรฉcisions concernant la rรฉpartition des richesses. Selon lโ€™รฉtude, dรฉcrite dans la revue Nature Human Behaviour, des rรฉsultats bรฉnรฉfiques sur ce que la sociรฉtรฉ souhaite rรฉellement peuvent รชtre obtenus grรขce ร  une mรฉthodologie appelรฉe ยซ alignement des valeurs ยป.

Cependant, la tรขche reste compliquรฉe du fait que la sociรฉtรฉ comporte une pluralitรฉ de points de vues. ยซ L’IA dรฉmocrate ยป risque ainsi encore de ne pas savoir sur lesquels (de points de vue) se baser. DeepMind a ainsi optรฉ pour une solution de vote par popularitรฉ.

La mรฉthodologie la plus populaire

Bien que les technologies dโ€™apprentissage automatique rรฉalisent des percรฉes majeures ces derniรจres annรฉes, elles sont tout de mรชme limitรฉes par le simple fait qu’elles peuvent produire des rรฉsultats biaisรฉs par le manque de supervision (notamment des donnรฉes en entrรฉe). De rรฉcentes recherches ont notamment montrรฉ que les systรจmes d’IA basรฉs sur lโ€™apprentissage automatique peuvent prรฉsenter des dรฉfauts et prendre des dรฉcisions politiquement incorrectes.

Pour optimiser la comprรฉhension de la rรฉpartition des richesses, les chercheurs ont alors aidรฉ leur nouvelle IA en intรฉgrant des interactions humaines dans son systรจme dโ€™algorithmes. La rรฉtroaction humaine se chargeait alors dโ€™orienter l’IA vers les rรฉsultats ยซย prรฉfรฉrรฉsย ยป, ou supposรฉs plus ยซย justesย ยป et compatibles avec nos valeurs morales.

Pour tester la technologie, les chercheurs ont invitรฉ des milliers de volontaires ร  effectuer un exercice dโ€™investissement sur des biens publics. Dans la simulation, des sommes variables รฉtaient distribuรฉes ร  chaque joueur, qui obtenaient ensuite des rendements correspondants aux montants investis. Les participants avaient รฉgalement le choix de conserver leurs gains ou de les partager โ€” pour ensuite obtenir des bรฉnรฉfices collectifs.

Par ailleurs, la distribution des revenus a รฉgalement suivi les trois paradigmes dโ€™รฉquitรฉ traditionnels (รฉgalitaire strict, libertaire et รฉgalitaire libรฉral), ainsi que deux mรฉcanismes diffรฉrents, dont lโ€™un conรงu par l’homme et lโ€™autre par l’IA dรฉmocrate. Ce dernier, appelรฉ Human Centered Redistribution Mechanism (HCRM), a รฉtรฉ dรฉveloppรฉ grรขce ร  un apprentissage renforcรฉ, en utilisant des donnรฉes de rรฉtroaction provenant ร  la fois de participants humains et d’agents virtuels conรงus pour imiter le comportement humain.

Les rรฉsultats des expรฉriences ont montrรฉ que le systรจme de rรฉpartition utilisรฉ par l’IA รฉtait plus apprรฉciรฉ que toutes les autres mรฉthodes. La technologie aurait รฉgalement rรฉussi ร  recadrer les resquilleurs et ร  rรฉรฉquilibrer la rรฉpartition des richesses initiales.

Bien que les possibilitรฉs dโ€™utilisation d’une telle technologie sont multiples, les chercheurs soulignent quโ€™elle peut comporter certaines limites, telle que la confiance en une entitรฉ virtuelle. De plus, l’IA ne serait pas destinรฉe ร  destituer un systรจme รฉconomique dรฉjร  รฉtabli, mais pourrait plutรดt contribuer ร  la prise de dรฉcisions meilleures pour la sociรฉtรฉ.

Source : Nature Human Behaviour

Laisser un commentaire
Cliquez pour accรฉder ร  d'autres articles sur ce sujet.