OpenAI subit depuis peu des départs successifs de ses meilleurs talents et de ses employés de haut niveau. Parmi les récents départs figure le cofondateur John Schulman, tandis que le président, Greg Brockman, a annoncé vouloir prendre un congé sabbatique, ne laissant ainsi à l’entreprise que trois de ses fondateurs d’origine. Bien qu’aucune explication précise sur les raisons de ces départs n’ait été fournie, cela suggère d’importantes tensions internes.
En moins de 10 ans d’existence, OpenAI est devenu l’un des principaux acteurs de l’IA, aux côtés de grosses pointures comme Google DeepMind et Anthropic. L’entreprise est surtout connue pour son objectif de devenir la première à créer une IA générale (IAG) sécuritaire et accessible à tous. En d’autres termes, la création de cette technologie ne serait pas effectuée dans un objectif de domination mondiale, mais plutôt de répartition équitable de ses bénéfices.
Chaque année, les employés d’OpenAI votent pour déterminer quand l’IAG pourrait être disponible, selon les avancées réalisées. Cependant, la question de savoir dans quelle mesure l’entreprise pourrait parvenir à créer la technologie est largement débattue. Certaines critiques affirment même qu’elle accumule des milliards de dollars d’investissement sans rien de pertinent quant aux véritables avancées vers l’IAG.
D’un autre côté, OpenAI a également maintes fois été pointée du doigt pour des négligences en matière de sécurité. Dans cette vision, les observateurs craignent qu’une technologie de l’envergure de l’IAG ne devienne facilement incontrôlable. Cette inquiétude est justifiée dans la mesure où même les IA génératives utilisées actuellement sont biaisées et susceptibles de commettre de graves erreurs. Leur coût de développement et de fonctionnement a également tendance à centraliser leur contrôle chez seulement quelques entreprises.
Les départs successifs de ses meilleurs employés seraient-ils liés au fait que l’entreprise peine à réaliser sa vision à long terme ? Ou bien sont-ils plutôt dus à la division perceptible au sein des équipes concernant les problèmes de sécurité ?
« Je ne voulais vraiment pas finir par travailler pour le Titanic de l’IA… »
Schulman a annoncé cette semaine qu’il quittait OpenAI pour rejoindre Anthropic, l’un de ses principaux concurrents. Deng a également démissionné récemment, tandis que Brockman a déclaré vouloir prendre un congé sabbatique. Ces départs permanents ou temporaires indiquent des changements majeurs dans la direction de l’entreprise.
Les départs de ces employés de haut niveau semblent avoir débuté après l’éviction soudaine de Sam Altman, le PDG d’OpenAI, en novembre dernier. Bien que celui-ci ait été réintégré quelques jours plus tard, des dissensions ont commencé à émerger au sein de l’entreprise, concernant notamment sa vocation initiale d’entreprise à but non lucratif et son orientation actuelle vers une motivation plus commerciale.
Ce désaccord aurait divisé la loyauté des équipes, la partageant entre le camp d’Altman et de Brockman et celui du cofondateur et ancien chef scientifique Ilya Sutskever. Ce dernier a démissionné de l’entreprise en mai de cette année et a ensuite fondé Safe Superintelligence, sa propre start-up d’IA, dont l’objectif est d’assurer que la technologie ne devienne pas nuisible à la société (un aspect de l’IA appelé « alignement »). Parallèlement, il a aussi intégré les rangs d’Anthropic, à l’instar de Schulman. Ce dernier a déclaré dans une publication sur X que son départ d’OpenAI vise à « approfondir sa concentration sur l’alignement de l’IA et à entamer un nouveau chapitre de sa carrière où il pourra revenir au travail technique pratique ».
Selon Gary Marcus, éminent psychologue connu pour son scepticisme par rapport à l’IA, le départ de ces hauts responsables serait inconcevable si le lancement de l’IAG était proche ou si des bénéfices majeurs étaient sur le point d’être obtenus. Selon lui, ces départs pourraient altérer la confiance des investisseurs et par extension, faire chuter la valorisation de l’entreprise.
Mis à part ces personnalités clés, l’entreprise a par ailleurs enregistré un important nombre de départs, dont celui de Daniel Kokotajlo (en avril de cette année), ancien chercheur de la division de gouvernance et celui de William Saunder (en juillet), ancien membre de Superalignement, l’ancienne division de sécurité.
Ces anciens employés ont déclaré avoir quitté l’entreprise en l’accusant de prioriser le profit au détriment de la sécurité. « Je ne voulais vraiment pas finir par travailler pour le Titanic de l’IA, et c’est pourquoi j’ai démissionné », avait déclaré Saunder au YouTubeur Alex Kantrowitz. L’intégralité de l’équipe de Superalignement a d’ailleurs été dissoute après le départ de Sutskever, qui la dirigeait à l’époque.
Ces départs successifs ont conduit les internautes à supposer qu’Altman pourrait en être la cause. L’une des principales raisons de son premier licenciement était entre autres son manque de transparence, ce qui pourrait conduire d’autres membres de l’équipe à « quitter le navire » si la situation persiste.