La situation récente chez OpenAI révèle une série de développements tumultueux, culminant avec le départ temporaire de son PDG, Sam Altman. Selon des sources proches à l’entreprise, tout a commencé par une avancée considérée comme « alarmante pour l’humanité » concernant un algorithme d’intelligence artificielle. Cette avancée aurait été exposée dans une lettre adressée au conseil d’administration par les chercheurs d’OpenAI impliqués, un acte qui semble avoir été un facteur clé dans la mise à l’écart d’Altman.
L’ampleur des événements a été soulignée par une réaction dramatique des employés : plus de 700 d’entre eux ont menacé de démissionner, envisageant de rejoindre Microsoft en solidarité avec Altman. Cette vague de mécontentement aurait été alimentée par des inquiétudes du conseil d’administration sur la commercialisation précipitée des avancées technologiques, sans une « compréhension complète de leurs implications ». Cependant, les détails de la lettre et les préoccupations exactes des chercheurs restent un mystère, car ces documents n’ont pas été rendus publics.
La situation chez OpenAI, caractérisée par des turbulences et des incertitudes, a été accentuée davantage par la confirmation de l’entreprise, dans le cadre d’une communication interne, concernant l’existence d’un projet interne nommé Q* et de la lettre adressée au conseil d’administration. Cette confirmation révèle ainsi une couche supplémentaire de complexité dans les événements récents.
Dans une communication interne, la société a fait allusion à ces éléments, citant un message de Mira Murati, membre éminent de la direction d’OpenAI. Murati aurait prévenu les employés de l’entreprise de se préparer à des récits médiatiques potentiels concernant ces développements. Cette prudence reflète la nature sensible des informations impliquées et souligne les défis éthiques et de gouvernance auxquels l’entreprise doit faire face.
Le mystère du projet Q* et le danger de l’IAG
Le projet Q* est considéré comme une étape potentiellement décisive vers la réalisation de l’intelligence artificielle générale (IAG), d’après une source proche du dossier. L’IAG, définie comme un système capable de surpasser les capacités humaines (bien que cette définition soit encore floue) dans la plupart des tâches, représente l’ultime objectif d’OpenAI. Les performances de Q* dans des problèmes mathématiques, même basiques, ont suscité un optimisme croissant quant à ses capacités futures pour servir le développement de l’IAG.
Cependant, il n’existe à ce jour aucune validation externe des prétentions des chercheurs concernant Q*. Cette lacune engendre des interrogations sur la véracité de ces affirmations et alimente une tension entre les promesses de l’IA et les risques éthiques associés.
Le domaine des mathématiques, dans lequel l’IA générative est actuellement testée, est significatif pour son développement, car il requiert généralement une seule réponse correcte, contrairement à des domaines plus nuancés comme l’écriture ou la traduction. Une grande compétence en mathématiques pourrait indiquer une forme d’intelligence complexe et comparable à celle de l’humain, ouvrant la voie à des applications variées, notamment dans l’innovation scientifique.
L’IAG, capable de généraliser, d’apprendre et de comprendre, dépasserait de loin les capacités d’un simple algorithme et pourrait mener à des applications potentiellement imprévisibles. Les chercheurs ont mentionné à la fois les performances surprenantes du nouvel algorithme et leurs inquiétudes quant à la sécurité, reflétant des débats de longue date sur les dangers d’une IA avancée.
En plus de l’attention portée à Q*, OpenAI a constitué un « groupe de scientifiques IA » visant à optimiser les modèles existants en vue d’améliorer leur raisonnement et de les impliquer dans des travaux scientifiques. Ce groupe, fusion des anciens groupes « Code Gen » et « Math Gen », incarne l’ambition scientifique d’OpenAI.
« À quatre occasions dans l’histoire d’OpenAI, la dernière ayant eu lieu il y a quelques semaines, j’ai eu l’honneur, en tant que professionnel, de faire reculer le voile de l’ignorance, et de repousser la frontière de la découverte », affirma Sam Altman au sommet de la coopération économique Asie-Pacifique, un jour avant son licenciement. Dans la course à l’IAG, Altman a hissé ChatGPT parmi les applications logicielles les plus dynamiques et a attiré d’importants investisseurs, dont Microsoft (qui a investi plus de 10 milliards de dollars dans la firme). Outre le développement continu de nouveaux outils, Altman a évoqué lors d’un sommet à San Francisco la possibilité d’avancées majeures dans un avenir proche.
Les dynamiques sous-jacentes à ces événements révèlent la complexité des enjeux éthiques et des pressions concurrentielles liés au développement de l’IA. L’industrie, guidée par des pionniers tels qu’Altman et des entités comme OpenAI, fait face à des défis aussi bien technologiques qu’humains, où des avancées significatives peuvent rapidement se transformer en épées à double tranchant.