Illustration de style art linéaire d'une personne présentant des cheveux noirs souriant et tapant un code de développeur coloré sur un ordinateur portable devant un moniteur plus grand avec un code similaire à côté d'une lampe de bureau noire illuminant une lumière jaune pâle

Crédit : VentureBeat réalisé avec Midjourney V6

Restez informé avec nos mises à jour quotidiennes et hebdomadaires sur les dernières nouvelles et contenus exclusifs concernant l’IA de pointe. En savoir plus


Microsoft, un partenaire clé d’OpenAI, ne souhaite pas laisser cette dernière dominer le secteur de l’IA générative.

Pour illustrer cela, Microsoft a récemment annoncé une nouvelle méthode permettant d’ajuster son modèle de langage Phi-3 sans que les développeurs aient à gérer leurs propres serveurs, et ce, gratuitement (dans un premier temps).

L’ajustement fait référence au processus d’adaptation d’un modèle d’IA via des invites système ou en modifiant ses poids sous-jacents (paramètres) pour qu’il se comporte de manière plus optimale pour des cas d’utilisation spécifiques et des utilisateurs finaux, tout en ajoutant de nouvelles capacités.

Qu’est-ce que Phi-3 ?

La société a présenté Phi-3, un modèle de 3 milliards de paramètres, en avril comme une option économique de qualité entreprise pour les développeurs tiers souhaitant créer de nouvelles applications et logiciels.

Bien que ce modèle soit nettement plus petit que la plupart des autres modèles de langage leaders (par exemple, Llama 3.1 de Meta, qui compte 405 milliards de paramètres), Phi-3 a montré des performances comparables à celles du modèle GPT-3.5 d’OpenAI, selon les déclarations faites à l’époque par Sébastien Bubeck, Vice-Président de l’IA générative chez Microsoft.

Phi-3 a été spécifiquement conçu pour offrir des performances abordables en matière de codage, de raisonnement de bon sens et de connaissances générales.

Il fait désormais partie d’une famille de 6 modèles distincts, chacun ayant un nombre différent de paramètres et de longueurs de contexte (la quantité de tokens, ou représentations numériques des données) que l’utilisateur peut fournir en une seule entrée, allant de 4 000 à 128 000, avec des coûts variant de 0,0003 USD à 0,0005 USD par 1 000 tokens d’entrée.

En termes de tarification plus habituelle par million de tokens, cela revient à 0,3/0,9 USD par million de tokens pour commencer, soit exactement le double des nouveaux tarifs de GPT-4o mini d’OpenAI pour les entrées et environ 1,5 fois plus cher pour les tokens de sortie.

Phi-3 a été conçu pour être sûr pour les entreprises, avec des garde-fous pour réduire les biais et la toxicité. Même lors de son annonce initiale, Bubeck avait mis en avant sa capacité à être ajusté pour des cas d’utilisation spécifiques aux entreprises.

« Vous pouvez intégrer vos données et ajuster ce modèle général pour obtenir des performances exceptionnelles dans des domaines spécifiques », a-t-il déclaré.

Cependant, à ce moment-là, il n’y avait pas d’option sans serveur pour l’ajuster : si vous souhaitiez le faire, vous deviez configurer votre propre serveur Microsoft Azure ou télécharger le modèle et l’exécuter sur votre propre machine locale, qui pourrait ne pas avoir suffisamment d’espace.

L’ajustement sans serveur ouvre de nouvelles possibilités

Aujourd’hui, Microsoft a annoncé la disponibilité générale de son « Modèles en tant que service (point de terminaison sans serveur) » sur sa plateforme de développement Azure AI.

Il a également annoncé que « Phi-3-small est désormais disponible via un point de terminaison sans serveur, permettant aux développeurs de commencer rapidement et facilement le développement d’IA sans avoir à gérer l’infrastructure sous-jacente. »

Phi-3-vision, capable de traiter des entrées d’images, « sera bientôt disponible via un point de terminaison sans serveur », selon le blog de Microsoft.

Cependant, ces modèles sont simplement disponibles « tels quels » via la plateforme de développement Azure AI de Microsoft. Les développeurs peuvent créer des applications basées sur eux, mais ils ne peuvent pas créer leurs propres versions des modèles ajustés à leurs propres cas d’utilisation.

Pour les développeurs souhaitant le faire, Microsoft recommande de se tourner vers Phi-3-mini et Phi-3-medium, qui peuvent être ajustés avec des « données tierces pour créer des expériences d’IA plus pertinentes pour leurs utilisateurs, de manière sécurisée et économique. »

« Étant donné leur faible empreinte de calcul et leur compatibilité avec le cloud et l’edge, les modèles Phi-3 sont bien adaptés pour un ajustement visant à améliorer les performances du modèle de base dans divers scénarios, y compris l’apprentissage d’une nouvelle compétence ou tâche (par exemple, le tutorat) ou l’amélioration de la cohérence et de la qualité des réponses (par exemple, le ton ou le style des réponses dans les discussions/Q&A) », précise la société.

Microsoft indique que l’entreprise de logiciels éducatifs Khan Academy utilise déjà un Phi-3 ajusté pour évaluer les performances de son Khanmigo pour les enseignants, propulsé par le service Azure OpenAI de Microsoft.

Une nouvelle guerre des prix et des capacités pour les développeurs d’IA en entreprise

Les tarifs pour l’ajustement sans serveur de Phi-3-mini-4k-instruct commencent à 0,004 USD par 1 000 tokens (4 USD par million de tokens), tandis qu’aucun tarif n’a encore été annoncé pour le modèle medium.

Bien que cela soit clairement un avantage pour les développeurs souhaitant rester dans l’écosystème Microsoft, cela représente également une concurrence notable pour les efforts d’OpenAI, l’allié de Microsoft, visant à attirer les développeurs d’IA en entreprise.

De plus, OpenAI a récemment annoncé un ajustement gratuit de GPT-4o mini jusqu’à 2 millions de tokens par jour jusqu’au 23 septembre, pour les utilisateurs dits « de niveau 4 et 5 » de son interface de programmation d’application (API), ou ceux qui dépensent au moins 250 ou 1000 USD en crédits API.

Cette annonce intervient également après la sortie par Meta de la famille open source Llama 3.1 et du nouveau modèle Mistral Large 2, qui peuvent également être ajustés pour différents usages. Il est clair que la course pour offrir des options d’IA attrayantes pour le développement en entreprise est en plein essor, et les fournisseurs d’IA courtisent les développeurs avec des modèles de toutes tailles.

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *