L’IA atteindra-t-elle un jour le niveau de l’intelligence humaine ?

intelligence artificielle niveau humain avis experts
| Shutterstock/whiteMocca
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

L’intelligence artificielle est actuellement au cœur de l’actualité, en grande partie en raison de ChatGPT, dont les performances en ont épaté plus d’un. Mais ce modèle de langage n’est pas le seul à faire preuve de capacités hors norme. D’autres IA génératives (de type DALL-E, Midjourney, etc.), de même que les algorithmes de reconnaissance faciale et vocale ou de diagnostic médical, d’autres réseaux neuronaux informatiques, etc., sont tout autant de formes d’IA qui ont beaucoup évolué ces dernières années. Pourront-elles un jour atteindre le niveau de l’intelligence humaine ? Cinq experts donnent leur avis sur la question.

Selon IDC, le cap des 500 milliards de dollars d’investissements mondiaux dans les logiciels, matériels et services d’IA sera franchi cette année ; en Europe, le marché devrait atteindre 191 milliards de dollars d’ici 2026. « De nombreuses entreprises et gouvernements investissent désormais davantage pour rendre leurs processus plus agiles, efficaces et résilients », a déclaré Martin Nuska, directeur principal de la recherche chez IDC. Aujourd’hui en effet, les IA sont capables d’effectuer de nombreuses tâches aussi bien, voire mieux, que les humains.

De nombreuses tâches, certes, mais pas encore toutes. La question que tout le monde se pose est donc : l’IA pourrait-elle atteindre un niveau d’intelligence qui lui permette de comprendre ou d’apprendre n’importe quelle tâche intellectuelle réalisable par un humain ? Les experts parlent d’« intelligence artificielle générale » (IAG), ou d’« IA forte » si elle est également dotée d’une forme de sensibilité et de conscience. À ce jour, aucune IAG n’existe. Mais selon les cinq experts interrogés par Noor Gillani de The Conversation, ce ne serait qu’une question de temps.

La question n’est pas « si » elle l’atteindra, mais « quand et comment »

Marcel Scharth, Maître de conférences en analyse commerciale à l’Université de Sydney, est catégorique : il n’y a, selon lui, aucune raison de penser que les machines seront incapables d’effectuer les calculs nécessaires pour atteindre des capacités de résolution de problèmes semblables à celles de l’homme. « Les humains eux-mêmes sont la preuve qu’une intelligence hautement flexible et adaptable est permise par les lois de la physique », dit-il.

L’échéance reste toutefois incertaine. Selon la plateforme de prévisions Metaculus, la date médiane de l’annonce du premier système d’IAG est 2031 — une date qu’il juge trop optimiste. Une enquête menée en 2022 auprès d’experts a, quant à elle, estimé à 50% la probabilité que nous parvenions à une IA de niveau humain d’ici 2059. Un résultat que Scharth estime plus plausible, du fait que les systèmes d’IA actuels sont encore loin de pouvoir maîtriser les différents domaines qui caractériseraient l’IAG.

« Sur une période suffisamment longue, il semble probable que l’IA atteindra l’IAG », confirme Paul Formosa, professeur de philosophie et codirecteur du Centre for Agency, Values and Ethics (CAVE), à l’Université Macquarie de Sydney. Il rappelle que l’IA surpasse déjà l’homme dans plusieurs tâches (jeux de stratégie, tests de performance linguistique, examens universitaires, etc.) et comme lui, il lui arrive de se tromper. Elle apparaît donc en bonne voie pour égaler l’intelligence humaine.

Si certains arguent que la conscience reste le seul aspect cognitif qui nous permette de demeurer à jamais supérieurs aux IA, tout dépend selon lui de la définition que l’on a du terme « intelligence » : « L’essor de l’IA suggère qu’il peut y avoir de l’intelligence sans conscience, car l’intelligence peut être comprise en termes fonctionnels. Une entité intelligente peut faire des choses intelligentes comme apprendre, raisonner, rédiger des essais ou utiliser des outils ». Ainsi, l’IA n’aura peut-être jamais de conscience, mais fera de plus en plus de « choses intelligentes » — et ce, bien mieux que nous.

Pour Christina Maher, neuroscientifique informatique et ingénieure biomédicale à l’Université de Sydney, il faudra encore un certain temps avant qu’une IA ne soit capable de raisonner, de résoudre des problèmes et de prendre des décisions comme un humain. Il manque aux modèles existants des caractéristiques humaines telles que le raisonnement critique, ainsi que la compréhension des émotions et des événements qui peuvent les susciter.

Chez les humains, ces capacités sont apprises dès la naissance et tout au long de la vie. « Nous développons un sens de nos « émotions » au fur et à mesure que nous interagissons avec le monde qui nous entoure et que nous en faisons l’expérience », explique la neuroscientifique, qui souligne que notre cerveau prend des années à développer une telle intelligence. Et si le cerveau humain peut apprendre ces caractéristiques, il est probable que l’IA puisse les apprendre aussi, et ce, beaucoup plus rapidement.

Une évolution dépendante des progrès de l’informatique quantique

Seyedali Mirjalili, professeur et directeur du Centre de recherche et d’optimisation de l’intelligence artificielle de l’Université de Torrens partage le point de vue des autres experts : « Une IA plus généralisée n’est plus une possibilité, mais une certitude pour l’avenir », affirme-t-il. L’IA a progressé rapidement et de manière significative et pour lui, ce n’est qu’une question de temps avant qu’elle ne soit dotée de capacités cognitives propres à l’homme telles que l’intuition, l’empathie et la créativité.

Mirjalili s’attend à un « effet boule de neige » : dès que les systèmes d’IA auront atteint de telles capacités cognitives, ils seront capables de s’améliorer eux-mêmes avec une intervention humaine minimale, voire inexistante — une « automatisation de l’intelligence », qui selon lui, « changera profondément le monde ». Il souligne par ailleurs que ceci soulèvera d’importantes questions éthiques et sociétales qu’il sera essentiel de résoudre à mesure des progrès.

Dana Rezazadegan, Maître de conférences en IA et science des données à la Swinburne University of Technology, confirme que les modèles d’IA actuels ne parviennent pas encore à égaler la créativité, l’intelligence émotionnelle et l’intuition des humains. Selon elle, ils sont essentiellement limités par les capacités matérielles actuelles et leur degré d’intelligence « dépendra en grande partie des progrès de l’informatique quantique ».

Elle explique que l’informatique quantique permettra de disposer d’ensembles de données d’entraînement bien plus gros et plus efficaces — des données « comparables à la collecte naturelle de données multimodales réalisée par l’homme en interagissant avec le monde ». Les modèles d’IA qui découleront de cet entraînement seront plus rapides et précis et seront capables de s’améliorer eux-mêmes, sans intervention humaine.

Aucun des experts interrogés n’a évoqué les conséquences pour l’homme de l’émergence d’une IAG (là n’était pas la question), mis à part Seyedali Mirjalili qui a parlé de profonds changements et de questions éthiques et sociétales. Marcel Scharth a rappelé à juste titre que l’IA présente des avantages indéniables par rapport à l’homme, tels qu’une vitesse et une capacité de mémoire supérieures, des contraintes physiques moindres (une IA n’a pas besoin de se nourrir ni de dormir et n’est jamais fatiguée) et la possibilité d’une plus grande rationalité et d’une autoamélioration récursive. Il est donc légitime de s’interroger sur le devenir des humains le jour où l’IA pourra les remplacer dans absolument toutes les tâches.

Source : The Conversation

Laisser un commentaire
Cliquez pour accéder à d'autres articles sur ce sujet.