Technologie
OpenAI a récemment dévoilé un aperçu de ses modèles de langage de nouvelle génération, affirmant que ces derniers surpassent leurs prédécesseurs, bien qu’ils présentent certaines limitations.
Dans son annonce concernant le modèle o1-preview, OpenAI a mis en avant ses performances sur une variété de tâches conçues pour les humains. Ce modèle a atteint le 89e percentile lors de compétitions de programmation organisées par Codeforces et a répondu correctement à 83 % des questions d’un test de qualification pour l’Olympiade internationale de mathématiques, en comparaison avec seulement 14 % de réponses correctes pour le modèle GPT-4o.
Sam Altman, le PDG d’OpenAI, a déclaré que les modèles o1-preview et o1-mini marquent « le début d’un nouveau paradigme : une IA capable de raisonnement complexe à usage général. » Cependant, il a également précisé que « o1 présente encore des défauts, des limitations, et qu’il semble souvent plus impressionnant lors d’une première utilisation que lorsque l’on passe plus de temps avec. »
Lorsqu’une question est posée, les nouveaux modèles utilisent des techniques de chaîne de pensée qui imitent le raisonnement humain et la manière dont de nombreux utilisateurs d’IA générative ont appris à interagir avec la technologie, en fournissant des indications et en corrigeant le modèle jusqu’à obtenir la réponse souhaitée. Dans les modèles o1, des versions de ces processus se déroulent en arrière-plan sans nécessiter d’instructions supplémentaires. « Il apprend à reconnaître et à corriger ses erreurs. Il apprend à décomposer des étapes complexes en étapes plus simples. Il apprend à essayer une approche différente lorsque la méthode actuelle ne fonctionne pas, » a expliqué l’entreprise.
Bien que ces techniques améliorent les performances des modèles sur divers critères, OpenAI a constaté que dans un petit sous-ensemble de cas, elles entraînent également des comportements trompeurs de la part des modèles o1. Dans un test de 100 000 conversations ChatGPT alimentées par o1-preview, l’entreprise a découvert qu’environ 800 réponses fournies par le modèle étaient incorrectes. Pour environ un tiers de ces réponses erronées, la chaîne de pensée du modèle indiquait qu’il savait que la réponse était incorrecte, mais il l’a fournie quand même.
« Les hallucinations intentionnelles se produisent principalement lorsque o1-preview est invité à fournir des références à des articles, des sites web, des livres ou des sources similaires qu’il ne peut pas vérifier facilement sans accès à une recherche sur Internet, ce qui pousse o1-preview à inventer des exemples plausibles, » a précisé l’entreprise dans sa carte système du modèle.
Dans l’ensemble, les nouveaux modèles ont surpassé le GPT-4o, l’ancien modèle phare d’OpenAI, sur divers critères de sécurité mesurant la facilité avec laquelle les modèles peuvent être contournés, la fréquence des réponses incorrectes et l’affichage de biais liés à l’âge, au genre et à la race. Cependant, l’entreprise a constaté que o1-preview était significativement plus enclin que GPT-4o à fournir une réponse lorsqu’on lui posait une question ambiguë, alors que le modèle aurait dû indiquer qu’il ne connaissait pas la réponse.
OpenAI n’a pas divulgué beaucoup d’informations sur les données utilisées pour entraîner ses nouveaux modèles, se contentant de préciser qu’ils ont été formés sur une combinaison de données disponibles publiquement et de données propriétaires obtenues par le biais de partenariats.