Technologie
Nouvelles fonctionnalités d’OpenAI : Détection avancée des contenus générés par l’IA
OpenAI, le créateur de ChatGPT, s’apprête à introduire de nouvelles fonctionnalités de recherche et de voix. Cependant, l’entreprise dispose également d’un outil qui, selon des sources, est particulièrement efficace pour identifier les articles générés par l’IA qui inondent actuellement le web. Cet outil, en développement depuis près de deux ans, pourrait être activé à tout moment. Néanmoins, la direction d’OpenAI, dirigée par Sam Altman, hésite à le lancer, craignant de mécontenter une partie de sa base d’utilisateurs.
Un système de détection plus précis
Contrairement à l’algorithme de détection d’IA obsolète lancé en 2023, ce nouvel outil est beaucoup plus performant. Selon un rapport du Wall Street Journal, OpenAI est réticent à déployer cet outil de détection, qui fonctionne comme un système de filigrane pour les textes générés par l’IA. Ce système marque les contenus avec des motifs spécifiques, permettant ainsi de les identifier. À l’instar d’autres détecteurs d’IA, l’outil d’OpenAI attribuerait un pourcentage indiquant la probabilité qu’un document ait été rédigé par ChatGPT.
Efficacité impressionnante et défis à relever
OpenAI a confirmé l’existence de cet outil dans une mise à jour d’un article de blog publié en mai. Selon des documents internes, son efficacité serait de 99,9 %, ce qui le rendrait bien plus fiable que d’autres logiciels de détection d’IA développés ces deux dernières années. Bien que l’outil soit efficace contre certaines manipulations, il peut être contourné par des traductions successives via des services comme Google Translate ou en reformulant le texte avec d’autres générateurs d’IA. OpenAI a également mentionné que des utilisateurs malintentionnés pourraient insérer des caractères spéciaux entre les mots pour éviter la détection.
Un soutien pour les enseignants
Les partisans internes de ce programme estiment qu’il pourrait grandement aider les enseignants à déterminer si les devoirs soumis par leurs élèves ont été rédigés par une IA. Cependant, OpenAI a retenu cet outil pendant des années, craignant que près d’un tiers de ses utilisateurs ne l’apprécient pas. Dans une déclaration par e-mail, un porte-parole d’OpenAI a déclaré :
« La méthode de filigrane que nous développons est techniquement prometteuse, mais présente des risques importants que nous évaluons tout en recherchant des alternatives, notamment la vulnérabilité face à des contournements par des acteurs malveillants et l’impact potentiel sur des groupes comme les non-anglophones. Nous pensons que l’approche réfléchie que nous avons adoptée est nécessaire compte tenu des complexités impliquées et de son impact probable sur l’écosystème plus large au-delà d’OpenAI. »
Les préoccupations liées à la divulgation
Un autre défi pour OpenAI est la crainte que, si l’outil est largement diffusé, sa technique de filigrane puisse être déchiffrée. De plus, il existe des inquiétudes quant à un éventuel biais contre les locuteurs non natifs de l’anglais, un problème déjà observé avec d’autres détecteurs d’IA.
Initiatives similaires dans l’industrie
Google a également développé des techniques de filigrane pour les images et les textes générés par l’IA, connues sous le nom de SynthID. Bien que ce programme ne soit pas accessible à la majorité des consommateurs, l’entreprise fait preuve de transparence quant à son existence.
Un besoin croissant de détection efficace
Alors que les grandes entreprises technologiques continuent de créer des contenus générés par l’IA à un rythme effréné, les outils de détection des faux contenus ne sont pas encore à la hauteur. Les enseignants et les professeurs, en particulier, rencontrent des difficultés pour déterminer si leurs élèves soumettent des travaux rédigés par ChatGPT. Les outils de détection actuels, comme Turnitin, affichent un taux d’échec pouvant atteindre 15 %, car l’entreprise préfère éviter les faux positifs.