Technologie
Une récente publication du Wall Street Journal a révélé qu’OpenAI détient un outil capable d’identifier avec précision les essais rédigés par ChatGPT. Cependant, la société a partagé des informations sur ses recherches concernant le marquage des textes et les raisons pour lesquelles elle n’a pas encore mis en œuvre sa méthode de détection. Selon le rapport, des discussions sur la pertinence de rendre cet outil public ont retardé son lancement, bien qu’il soit déjà « prêt ». Dans une mise à jour publiée dimanche, en réponse à un article de blog de mai, OpenAI a déclaré : « Nos équipes ont développé une méthode de marquage des textes que nous continuons à évaluer tout en recherchant d’autres alternatives. »
OpenAI a précisé que le marquage n’est qu’une des nombreuses solutions envisagées, aux côtés de classificateurs et de métadonnées, dans le cadre de ses « recherches approfondies sur la provenance des textes ». La société a noté que cette méthode a montré une « haute précision » dans certaines situations, mais qu’elle est moins efficace face à des formes de manipulation, telles que l’utilisation de systèmes de traduction, la reformulation avec un autre modèle génératif, ou encore l’insertion d’un caractère spécial entre chaque mot avant de le supprimer. De plus, OpenAI a souligné que le marquage des textes pourrait « avoir un impact disproportionné sur certains groupes », en précisant que cela pourrait stigmatiser l’utilisation de l’IA comme outil d’écriture pour les personnes dont l’anglais n’est pas la langue maternelle.
Dans son article de blog, OpenAI a pris en compte ces risques. La société a également indiqué qu’elle privilégie la mise à disposition d’outils d’authentification pour le contenu audiovisuel. Un porte-parole d’OpenAI a déclaré à TechCrunch que l’entreprise adopte une « approche réfléchie » concernant la provenance des textes, en raison des « complexités impliquées et de l’impact probable sur l’écosystème plus large au-delà d’OpenAI ».