Le PDG d’OpenAI, Sam Altman, annonce que le modèle GPT-4o mini représente une avancée vers une intelligence à un coût si bas qu’il est difficile à mesurer.

Avec un tarif de 0,15 $ par million de tokens d’entrée et 0,60 $ par million de tokens de sortie, ce modèle affiche un score MMLU de 82 % et se distingue par sa rapidité.

Ce qui est essentiel, c’est qu’OpenAI est convaincu que les utilisateurs apprécieront réellement ce nouveau modèle.

vers une intelligence à un coût si bas qu’il est difficile à mesurer : https://t.co/76GEqATfws

0,15 $ par million de tokens d’entrée, 0,60 $ par million de tokens de sortie, un MMLU de 82 % et une rapidité impressionnante.

Nous pensons sincèrement que les utilisateurs vont adorer ce nouveau modèle.

— Sam Altman (@sama) 18 juillet 2024

OpenAI s’engage à rendre l’intelligence aussi accessible que possible. Aujourd’hui, nous lançons GPT-4o mini, notre modèle compact le plus économique. Nous anticipons que GPT-4o mini élargira considérablement le champ des applications basées sur l’IA en rendant l’intelligence beaucoup plus abordable. Avec un score de 82 % sur le MMLU, GPT-4o mini surpasse le GPT-41 en matière de préférences de chat sur le classement LMSYS. Son coût est de 0,15 $ par million de tokens d’entrée et de 0,60 $ par million de tokens de sortie, ce qui le rend beaucoup plus abordable que les modèles précédents et plus de 60 % moins cher que le GPT-3.5 Turbo.

GPT-4o mini permet d’exécuter une large gamme de tâches grâce à son faible coût et à sa faible latence, comme les applications qui enchaînent ou parallélisent plusieurs appels de modèles (par exemple, l’appel de plusieurs API), transmettent un volume important de contexte au modèle (comme un code source complet ou l’historique d’une conversation), ou interagissent avec les clients par le biais de réponses textuelles rapides et en temps réel (comme les chatbots de support client).

Actuellement, GPT-4o mini prend en charge le texte et la vision via l’API, avec des entrées et sorties pour le texte, les images, les vidéos et l’audio à venir. Le modèle dispose d’une fenêtre de contexte de 128K tokens, prend en charge jusqu’à 16K tokens de sortie par requête et possède des connaissances à jour jusqu’en octobre 2023. Grâce à un tokenizer amélioré partagé avec GPT-4o, la gestion des textes non anglais est désormais encore plus économique.

Un modèle compact avec une intelligence textuelle supérieure et un raisonnement multimodal

GPT-4o mini surpasse le GPT-3.5 Turbo et d’autres modèles compacts sur les benchmarks académiques, tant en intelligence textuelle qu’en raisonnement multimodal, et prend en charge la même gamme de langues que GPT-4o. Il montre également de solides performances dans l’appel de fonctions, ce qui permet aux développeurs de créer des applications capables de récupérer des données ou d’interagir avec des systèmes externes, tout en offrant une meilleure performance sur des contextes longs par rapport au GPT-3.5 Turbo.

GPT-4o mini a été évalué sur plusieurs benchmarks clés.

Tâches de raisonnement : GPT-4o mini surpasse les autres modèles compacts dans les tâches de raisonnement impliquant à la fois le texte et la vision, avec un score de 82,0 % sur le MMLU, contre 77,9 % pour Gemini Flash et 73,8 % pour Claude Haiku.

Compétences en mathématiques et en programmation : GPT-4o mini excelle dans le raisonnement mathématique et les tâches de codage, surpassant les modèles compacts précédents. Sur le MGSM, qui mesure le raisonnement mathématique, GPT-4o mini a obtenu un score de 87,0 %, contre 75,5 % pour Gemini Flash et 71,7 % pour Claude Haiku. Sur HumanEval, qui évalue les performances en codage, GPT-4o mini a obtenu 87,2 %, contre 71,5 % pour Gemini Flash et 75,9 % pour Claude Haiku.

Raisonnement multimodal : GPT-4o mini affiche également de bonnes performances sur le MMMU, une évaluation de raisonnement multimodal, avec un score de 59,4 % contre 56,1 % pour Gemini Flash et 50,2 % pour Claude Haiku.

Disponibilité et tarification

GPT-4o mini est désormais disponible en tant que modèle texte et vision dans l’API Assistants, l’API de complétion de chat et l’API Batch. Les développeurs paient 0,15 $ par million de tokens d’entrée et 0,60 $ par million de tokens de sortie (ce qui équivaut à environ 2500 pages d’un livre standard). Nous prévoyons de déployer le fine-tuning pour GPT-4o mini dans les jours à venir.

Dans ChatGPT, les utilisateurs Free, Plus et Team pourront accéder à GPT-4o mini dès aujourd’hui, en remplacement de GPT-3.5. Les utilisateurs Enterprise auront également accès à partir de la semaine prochaine, conformément à notre mission de rendre les avantages de l’IA accessibles à tous.

Perspectives d’avenir

Au cours des dernières années, nous avons assisté à des avancées remarquables dans l’intelligence artificielle, accompagnées de réductions de coûts significatives. Par exemple, le coût par token de GPT-4o mini a chuté de 99 % par rapport à text-davinci-003, un modèle moins performant introduit en 2022. Nous sommes déterminés à poursuivre cette tendance de réduction des coûts tout en améliorant les capacités des modèles.

Nous envisageons un avenir où les modèles seront intégrés de manière transparente dans chaque application et sur chaque site web. GPT-4o mini ouvre la voie aux développeurs pour créer et déployer des applications d’IA puissantes de manière plus efficace et abordable. L’avenir de l’IA devient de plus en plus accessible, fiable et intégré dans nos expériences numériques quotidiennes, et nous sommes impatients de continuer à être à la pointe de cette évolution.

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *