Habituée à opérer dans la plus grande discrétion, Apple a encore une fois surpris le public récemment en publiant plusieurs grands modèles de langage (LLM) sous le nom de « OpenELM », disponibles en open source. Ces modèles d’IA, qui peuvent fonctionner en local (exécutables directement sur un smartphone par exemple), ont été publiés à l’approche de la très attendue conférence annuelle de l’entreprise. Elles pourraient être intégrées aux prochains systèmes d’exploitation d’Apple.
Ces derniers temps, Apple semble avancer à grands pas en matière d’IA générative, après des années de silence. En janvier par exemple, l’entreprise a présenté Ferret, une IA capable d’analyser des textes et des images pour ensuite générer des informations pertinentes basées sur les données fournies.
Cette semaine, la firme de Cupertino a lancé OpenELM (pour Open source Efficient Language Models), une série de « petits » modèles d’IA générative destinés à être intégrés directement sur ses appareils. Toutefois, des informations plus détaillées concernant le projet seront à découvrir lors de la prochaine Worldwide Developers Conference (WWDC) d’Apple, qui se déroulera du 10 au 14 juin. À cette occasion, les mises à jour des systèmes d’exploitation iOS et macOS seront également présentées. Selon certaines sources, il est probable qu’OpenELM soit officiellement lancé avec iOS 18 et macOS 15.
Des « petits LLM » open source
OpenELM, le projet d’Apple, est désormais accessible en plusieurs versions sur la plateforme Hugging Face, un espace de partage spécialisé dans l’IA rassemblant des développeurs du monde entier. L’entreprise a également publié des extraits de code sur la plateforme GitHub, permettant aux développeurs d’utiliser ces modèles dans leurs propres projets.
La décision d’Apple de rendre ce projet open source en a étonné certains, bien que d’autres géants de la technologie comme Meta misent aussi sur l’open source. Cependant, ce n’est pas la première fois qu’Apple publie son code source. En outre, les détails techniques de ces nouveaux modèles ont été rendus publics sur le serveur de prépublication arXiv.
OpenELM est proposé en plusieurs configurations, chacune avec un nombre différent de paramètres : 270 millions, 450 millions, 1,1 milliard et 3 milliards. Ces modèles sont relativement modestes par rapport à d’autres modèles de grande envergure. À titre de comparaison, le modèle LLama 3 de Meta est conçu avec 70 milliards de paramètres (avec une version encore plus grande de 400 milliards de paramètres en développement).
Cependant, la taille réduite des modèles OpenELM ne signifie pas nécessairement qu’ils sont moins performants. En effet, ces technologies utilisent une technique de mise à l’échelle par couche, améliorant ainsi la précision des résultats.
Un déploiement en local, un avantage majeur
Conformément aux rumeurs antérieures, les IA seront déployées localement, directement sur les appareils de la marque, ce qui s’inscrit dans la stratégie d’Apple visant à rendre ses appareils plus autonomes en matière d’IA. Cette approche pourrait également entraîner une réduction significative de la consommation énergétique (au niveau global et non local), puisque le traitement des données se fera sur les appareils plutôt que sur des serveurs distants. Cela aura également un impact direct en matière de confidentialité.
Les utilisateurs peuvent s’attendre à ce que les modèles OpenELM soient intégrés à diverses fonctionnalités, leur permettant de bénéficier directement des avancées en IA d’Apple. Toutefois, les détails sur le déploiement de ces systèmes dans les produits Apple n’ont pas encore été dévoilés à ce jour.