Des anciens de Google et d’Apple lancent Oumi, une plateforme d’IA véritablement open source et sans restrictions

Elle pourrait devenir le prochain DeepSeek…

pdg klarna affirme quil pourrait etre remplace ia couv
| Pixabay
⇧ [VIDÉO]   Vous pourriez aussi aimer ce contenu partenaire

En réponse au succès fulgurant de DeepSeek, d’anciens ingénieurs de Google et d’Apple lancent Oumi, une nouvelle plateforme d’IA véritablement open source et sans restrictions. En effet, malgré leur côté open source, l’utilisation de modèles tels que Llama et DeepSeek-R1 reste soumise à certaines conditions. Oumi vise à lever ces restrictions pour démocratiser encore davantage la technologie au bénéfice des chercheurs, des développeurs et des entreprises.

Le récent engouement pour les modèles d’IA de DeepSeek souligne la demande toujours croissante d’IA open source et à moindre coût. En effet, les modèles propriétaires existants, tels que ceux d’OpenAI, sont très restrictifs, surtout pour les développeurs.

D’un autre côté, il existe très peu d’options open source qui soient véritablement ouvertes et faciles à utiliser. La demande est telle que les modèles de la start-up chinoise ont fait chuter dramatiquement les actions des entreprises technologiques américaines, quelques jours à peine après leur lancement.

Le côté open source (ou sous licence MIT) garantit un accès gratuit pour les utilisateurs, leur permettant notamment d’utiliser les modèles à diverses fins sans autorisation, d’étudier leurs composants, de les modifier et de les partager librement. La licence offre ainsi aux développeurs un accès complet à l’architecture de l’IA et à ses capacités.

Cependant, l’accès à ces modèles est tout de même soumis à certaines conditions. En effet, bien que les utilisateurs puissent utiliser les modèles et les déployer eux-mêmes, ils ne savent pas exactement comment ils ont été développés. Le code et les données d’entraînement spécifiques des modèles comme R1 et Janus-Pro de DeepSeek, ou Llama de Meta, n’ont par exemple pas été divulgués. En particulier, les techniques d’apprentissage par renforcement ne sont jamais divulguées malgré la mention open source.

Ces restrictions limitent la capacité des utilisateurs à comprendre et à exploiter pleinement les modèles. La majorité des chercheurs doivent ainsi fournir des efforts considérables pour comprendre comment reproduire les modèles open source actuels. Cela limite les retombées de la recherche collaborative.

« Même les plus grandes entreprises ne peuvent pas y parvenir seules », a affirmé Oussama Elachqar, cofondateur d’Oumi et ancien ingénieur en machine learning chez Apple, à VentureBeat. « Nous travaillions en vase clos au sein d’Apple, et il existe de nombreux autres vases clos dans l’ensemble du secteur. Il doit y avoir une meilleure façon de développer ces modèles de manière collaborative ».

Contrairement aux modèles existants, Oumi se veut sans restrictions, alors que l’accès à ceux de DeepSeek ou Meta reste soumis à des conditions. Oumi fournit un environnement tout-en-un qui rationalise les flux de travail complexes nécessaires à la création de modèles d’IA. La plateforme offre donc aux chercheurs et aux développeurs une boîte à outils complète pour créer et déployer des modèles de base.

Le lancement de la plateforme bénéficie d’ailleurs du soutien de 15 universités et instituts de recherches de renom, dont l’Université de Princeton, l’Université de Stanford, le Massachusetts Institute of Technology (MIT), l’Université de Californie à Berkeley, l’Université d’Oxford, l’Université de Cambridge, l’Université de Waterloo et l’Université Carnegie Mellon.

Plusieurs flux de travail rassemblés dans un seul environnement

Pour développer un modèle d’IA de base, il faut généralement effectuer en parallèle 10 étapes ou plus. Cependant, Oumi adoptera une approche complètement différente en intégrant les outils et tous les flux de travail nécessaires dans un seul environnement. Cela évite aux chercheurs de devoir rassembler des composants développés dans différents environnements.

« Nous n’avons pas à nous occuper de l’enfer du développement open source pour déterminer ce que nous pouvons combiner et ce qui fonctionne bien », explique Manos Koukoumidis, PDG d’Oumi et ancien responsable de l’ingénierie senior de l’IA chez Google Cloud.

La plateforme peut prendre en charge des modèles allant de 10 millions à 405 milliards de paramètres. Cela permettra aux utilisateurs de débuter à petite échelle, en commençant par exemple avec de simples ordinateurs portables pour les premières expériences. Ils peuvent ensuite utiliser des systèmes de calcul plus grands à mesure que les modèles se développent, comme les clusters informatiques universitaires ou des espaces de cloud public – le tout rassemblé dans le même environnement Oumi.

Oumi offre également l’accès à des techniques de formation avancées, telles que SFT, LoRA, QLoRA et DPO, couramment utilisés pour entraîner les grands modèles de langage. Elle est compatible avec les modèles textuels et multimodaux et dispose d’outils de synthèse et de conservation des données.

Par ailleurs, les modèles développés peuvent être déployés par le biais de moteurs d’inférence (permettant aux systèmes experts d’effectuer des raisonnements logiques) nouvelle génération, tels que vLLM et SGLang. Des évaluations complètes pourront être effectuées à l’aide des « LLM en tant que juge » (ou « LLM-as-a-judge »). Ces derniers sont conçus pour évaluer les réponses textuelles en fonction des instructions figurant dans une invite d’évaluation.

Un budget de seulement 10 millions de dollars

Pour créer la plateforme, Elachqar et ses cofondateurs ont levé un fonds de départ de 10 millions de dollars, un budget a priori modeste, mais qu’ils estiment amplement suffisant. À titre de comparaison, le développement des modèles de DeepSeek a nécessité moins de 6 millions de dollars, tandis que ceux des grandes entreprises comme OpenAI et Meta ont nécessité plusieurs milliards de dollars.

Alors qu’OpenAI prévoit d’investir 500 milliards de dollars dans de nouveaux centres de données d’IA centralisés, l’approche décentralisée d’Oumi permettrait de réduire considérablement les coûts. « L’idée selon laquelle il faut des centaines de milliards [de dollars] pour l’infrastructure de l’IA est fondamentalement erronée », affirme Koukoumidis. « Grâce à l’informatique distribuée entre les universités et les instituts de recherche, nous pouvons obtenir des résultats similaires ou meilleurs pour une fraction du coût ».

Oumi prévoit en outre de développer des offres spécialement dédiées aux entreprises pour déployer leurs modèles. « Avec une plateforme open source inconditionnelle, nous ne limiterons pas notre talent, nous encouragerons l’expérimentation et la société en récoltera les fruits », conclut Ganesh Srinivasan, associé chez Venrock, l’une des organisations ayant mené la levée de fonds pour la plateforme.

Laisser un commentaire

Vous voulez éliminer les publicités tout en continuant de nous soutenir ?


Il suffit de s'abonner !


JE M'ABONNE