À l’aube de son aventure, OpenAI se distinguait par une ambition noble : concevoir des technologies au service de l’humanité, avec l’objectif de garantir que l’intelligence artificielle soit bénéfique à tous, de manière équitable. Parmi ses aspirations figurait le développement de modèles capables de s’attaquer aux grands défis de notre époque, tels que le changement climatique.
Cependant, à mesure que le public découvrait la portée des produits d’IA d’OpenAI, des voix se sont élevées pour interroger la fidélité de l’entreprise à ses principes fondateurs. En effet, au-delà des licenciements massifs qu’ils ont engendrés, ces modèles d’IA peuvent être détournés à des fins nuisibles, à l’image de nombreux autres outils basés sur la technologie. Gary Marcus, expert en IA reconnu, va jusqu’à envisager un scénario encore plus inquiétant : celui d’une surveillance massive orchestrée par OpenAI et les entreprises associées.
OpenAI : un colosse aux pieds d’argile ?
L’alerte lancée par Gary Marcus s’ancre dans le contexte financier tumultueux que traverse OpenAI. Lors d’un séminaire à l’Université de Stanford tenu en septembre, il a souligné que la société, bien que valorisée à plus de 150 milliards de dollars, ne génère pas les revenus escomptés pour justifier une telle évaluation. La raison : malgré leur potentiel indéniable, les produits d’OpenAI souffrent de défauts de fiabilité qui les rendent inadaptés à une utilisation à grande échelle. Entre hallucinations fréquentes et erreurs diverses, les grandes entreprises clientes hésitent à s’engager.
Les difficultés financières d’OpenAI se manifestent également par des changements structurels significatifs. Initialement fondée en 2015 comme une organisation à but non lucratif, OpenAI a évolué pour attirer les fonds nécessaires à sa croissance. En 2019, elle a créé OpenAI LP, une entité à but lucratif, tout en restant sous l’égide d’une organisation mère non lucrative.
Ce modèle, qui limitait les bénéfices redistribués aux investisseurs et employés, a récemment été révisé. L’entreprise a annoncé une nouvelle stratégie visant à lever ces restrictions, afin d’attirer davantage d’investisseurs, se distançant ainsi du contrôle de l’organisme non lucratif.
Un avenir sous surveillance ?
Marcus envisage donc la possibilité qu’OpenAI exploite ses capacités technologiques pour créer un service de surveillance des données, qui serait sans doute très lucratif, en s’appuyant sur l’expertise de ses IA dans la synthétisation rapide d’informations massives. Cette perspective impliquerait une collaboration avec des clients triés sur le volet, notamment des agences gouvernementales. Une telle démarche, échappant aux lois et normes éthiques, pourrait ouvrir la voie à des manipulations de masse aux conséquences désastreuses.
L’expert n’hésite pas à qualifier cette éventualité de « dystopique », évoquant le sombre univers du roman « 1984 » de George Orwell, où la société est soumise à une surveillance constante par un régime autoritaire. Face à ce danger, Marcus appelle à la vigilance et à la responsabilité des employés d’OpenAI, les incitant à exprimer leur désaccord si l’entreprise s’orientait vers cette voie inquiétante.
Cette inquiétude de Marcus est fondée sur plusieurs facteurs. D’abord, la perspective financière est indéniablement attractive. Dans un monde où l’information est devenue une ressource précieuse, la capacité d’OpenAI à collecter et analyser des données à grande échelle pourrait représenter une source de revenus considérable. Ensuite, l’évolution rapide de l’IA et la demande croissante pour des technologies de surveillance, notamment de la part des gouvernements et des grandes entreprises, augmentent la tentation d’exploiter ces outils à des fins lucratives. Enfin, la pression des investisseurs pour maximiser les profits pourrait pousser OpenAI à explorer des avenues qui s’éloignent de ses idéaux originels, en privilégiant des stratégies plus commerciales et moins éthiques.