Illustration de pommes colorées


Getty Images/Westend61

Bien qu’Apple ait tardé à s’engager dans le domaine de l’intelligence artificielle, la société a récemment intensifié ses efforts après sa conférence mondiale des développeurs. Apple Intelligence proposera des solutions d’IA pour presque tous les produits de la marque, et l’entreprise ne compte pas s’arrêter là. En effet, Apple s’oriente désormais vers des modèles de langage avancés.

La semaine dernière, Apple a lancé DCLM-Baseline-7B, un modèle de langage comportant 7 milliards de paramètres, sur la plateforme Hugging Face. Ce modèle fait partie de l’initiative DataComp for Language Models (DCLM), qui vise à améliorer la qualité des ensembles de données utilisés pour l’entraînement des modèles de langage.

Également : Découvrez comment accéder à GPT-4o mini : 3 méthodes, dont 2 gratuites

Avec ses 7 milliards de paramètres, ce modèle se compare à d’autres modèles populaires tels que Llama 2 et Gemma. Lors des tests sur le benchmark Massive Multitask Language Understanding (MMLU), DCLM-Baseline-7B a montré des performances compétitives, surpassant même Mistral 7B, comme le montre les résultats ci-dessous.

Apple/Hugging Face
Apple/Hugging Face

Malgré ses performances impressionnantes, l’un des aspects les plus remarquables de DCLM-Baseline-7B est qu’il s’agit d’un modèle véritablement open-source, avec des « données ouvertes, des modèles de poids ouverts, et un code d’entraînement ouvert », comme l’a souligné Vaishaal Shankar, chercheur chez Apple.

Nous avons publié nos modèles DCLM sur Hugging Face ! À notre connaissance, ce sont de loin les meilleurs modèles open-source en termes de performances (données ouvertes, modèles de poids ouverts, code d’entraînement ouvert) 1/5

— Vaishaal Shankar (@Vaishaal) 18 juillet 2024

Cette approche est saluée par de nombreux experts, car elle permet à d’autres chercheurs et développeurs de s’appuyer sur ces modèles et de faire progresser les innovations dans ce domaine. Le modèle a été entraîné sur les données DCLM-BASELINE, combinées avec les données de StarCoder et ProofPile2, afin d’acquérir des compétences dans d’autres domaines tels que la programmation et les mathématiques.

Également : Tous les modèles d’iPhone pouvant être mis à jour vers iOS 18 d’Apple (et ceux qui ne le peuvent pas)

En plus de DCLM-Baseline-7B, Apple a également mis à disposition les poids du modèle, le code d’entraînement et l’ensemble de données, incluant une version puissante de 1,4 milliard de paramètres.

Ce n’est pas la première fois qu’Apple s’illustre dans le domaine des modèles d’IA, ayant déjà lancé des modèles tels que Ferret-UI, un modèle de langage multimodal, et Reference Resolution As Language Modeling (ReALM), un système d’IA conversationnelle. À l’automne, avec la sortie d’iOS 18 et d’Apple Intelligence, nous pourrons observer la manière dont Apple se positionne dans le secteur de l’IA et évaluer le potentiel de succès de ses initiatives.

Intelligence Artificielle


Normes éditoriales

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *