Bien qu’Apple ait tardé à s’engager dans le domaine de l’intelligence artificielle, la société a récemment intensifié ses efforts après sa conférence mondiale des développeurs. Apple Intelligence proposera des solutions d’IA pour presque tous les produits de la marque, et l’entreprise ne compte pas s’arrêter là. En effet, Apple s’oriente désormais vers des modèles de langage avancés.
La semaine dernière, Apple a lancé DCLM-Baseline-7B, un modèle de langage comportant 7 milliards de paramètres, sur la plateforme Hugging Face. Ce modèle fait partie de l’initiative DataComp for Language Models (DCLM), qui vise à améliorer la qualité des ensembles de données utilisés pour l’entraînement des modèles de langage.
Également : Découvrez comment accéder à GPT-4o mini : 3 méthodes, dont 2 gratuites
Avec ses 7 milliards de paramètres, ce modèle se compare à d’autres modèles populaires tels que Llama 2 et Gemma. Lors des tests sur le benchmark Massive Multitask Language Understanding (MMLU), DCLM-Baseline-7B a montré des performances compétitives, surpassant même Mistral 7B, comme le montre les résultats ci-dessous.
Malgré ses performances impressionnantes, l’un des aspects les plus remarquables de DCLM-Baseline-7B est qu’il s’agit d’un modèle véritablement open-source, avec des « données ouvertes, des modèles de poids ouverts, et un code d’entraînement ouvert », comme l’a souligné Vaishaal Shankar, chercheur chez Apple.
Cette approche est saluée par de nombreux experts, car elle permet à d’autres chercheurs et développeurs de s’appuyer sur ces modèles et de faire progresser les innovations dans ce domaine. Le modèle a été entraîné sur les données DCLM-BASELINE, combinées avec les données de StarCoder et ProofPile2, afin d’acquérir des compétences dans d’autres domaines tels que la programmation et les mathématiques.
Également : Tous les modèles d’iPhone pouvant être mis à jour vers iOS 18 d’Apple (et ceux qui ne le peuvent pas)
En plus de DCLM-Baseline-7B, Apple a également mis à disposition les poids du modèle, le code d’entraînement et l’ensemble de données, incluant une version puissante de 1,4 milliard de paramètres.
Ce n’est pas la première fois qu’Apple s’illustre dans le domaine des modèles d’IA, ayant déjà lancé des modèles tels que Ferret-UI, un modèle de langage multimodal, et Reference Resolution As Language Modeling (ReALM), un système d’IA conversationnelle. À l’automne, avec la sortie d’iOS 18 et d’Apple Intelligence, nous pourrons observer la manière dont Apple se positionne dans le secteur de l’IA et évaluer le potentiel de succès de ses initiatives.
Intelligence Artificielle
Normes éditoriales