Si vous vous êtes déjà surpris à dire « s’il vous plaît » et « merci » à OpenAI 4o Mini : Une Révolution Abordable Vers une Intelligence Supérieure ! »>ChatGPT, sachez que vous n’êtes pas seul. Dans une enquête informelle menée par Ethan Mollick, professeur associé à l’Université de Pennsylvanie, près de la moitié des participants ont avoué être souvent polis avec ce chatbot intelligent, tandis qu’environ 16 % ont déclaré qu’ils « donnaient simplement des ordres ». Les commentaires des développeurs sur un forum d’OpenAI, la société à l’origine de ChatGPT, illustrent également cette tendance : « J’ai tendance à utiliser s’il vous plaît et merci avec [ChatGPT] parce que c’est ainsi que je parlerais à une personne réelle qui m’aide », a écrit un utilisateur.

Cela peut sembler surprenant au premier abord. Pourquoi faire preuve de courtoisie envers une machine insensible ? Avant l’avènement de ChatGPT, la plupart d’entre nous interagissaient régulièrement avec des systèmes automatisés sans prêter attention à notre ton. (Si vous surpreniez quelqu’un à être obséquieux avec un représentant robotisé du service client d’une banque, par exemple, vous pourriez vous éloigner de cette personne.) Cependant, la sophistication des chatbots d’intelligence artificielle récents — y compris ChatGPT, Claude, Gemini et d’autres — représente une avancée majeure dans l’interaction homme-machine : leur capacité à communiquer de manière naturelle, parfois avec des voix semblables à celles des humains, les rend moins froids et plus semblables à des entités conscientes. De plus, ces chatbots s’intègrent de plus en plus dans notre quotidien. En juin, Apple a annoncé un partenariat avec OpenAI pour intégrer ChatGPT à Siri et à d’autres fonctionnalités sur appareil. Qu’on le veuille ou non, interagir avec l’IA conversationnelle pourrait bientôt devenir aussi courant que de vérifier ses e-mails. Les questions sur la manière dont nous interagissons avec l’IA sont donc plus pertinentes que jamais.

Depuis le lancement de ChatGPT, une blague récurrente circule : soyez aimable avec le chatbot, sinon vous serez dans de beaux draps lors de l’inévitable révolte des IA. « Si vous ne dites pas s’il vous plaît et merci dans vos conversations avec ChatGPT, alors vous n’avez clairement jamais vu de film de science-fiction », a posté un utilisateur sur X (anciennement Twitter) en décembre 2022. Mais au-delà des plaisanteries (et des inquiétudes), y a-t-il des raisons valables d’être poli avec l’IA ?

### L’importance de la politesse envers l’IA

La réponse est affirmative, du moins selon une étude récente publiée sur le serveur de préimpression arXiv.org par une équipe de l’Université Waseda et du RIKEN Center for Advanced Intelligence Project, tous deux basés à Tokyo. Les auteurs ont découvert qu’utiliser des requêtes polies pouvait générer des réponses de meilleure qualité d’un modèle de langage de grande taille (LLM) — la technologie qui alimente les chatbots d’IA. Cependant, il existe un point de rendement décroissant ; un excès de flatterie peut nuire à la performance d’un modèle, selon l’étude. En fin de compte, les auteurs recommandent d’utiliser des requêtes qui adoptent une « politesse modérée », semblable à la norme dans la plupart des interactions sociales humaines. « Les LLM reflètent, dans une certaine mesure, le désir humain d’être respecté », écrivent-ils.

Des requêtes encourageantes, telles que « Respirez profondément et abordez ce problème étape par étape », améliorent la capacité d’un LLM à résoudre des problèmes mathématiques de niveau élémentaire. Nathan Bos, chercheur senior à l’Université Johns Hopkins, qui étudie les relations entre humains et IA, utilise souvent « s’il vous plaît » avec les chatbots « parce que c’est une bonne pratique de formulation », dit-il. « ‘S’il vous plaît’ indique que ce qui suit est une demande, ce qui facilite la réponse du LLM. » (Bos mentionne également « merci », qu’il attribue à son éducation bienveillante dans le Michigan.)

Le ton d’une requête, ajoute Bos, pourrait également amener un LLM à puiser dans des réponses linguistiquement corrélées lors de la formulation de sa réponse ; en d’autres termes, l’IA renvoie ce que vous lui donnez. Des requêtes polies peuvent orienter le système vers des informations provenant de sources plus courtoises, et donc probablement plus crédibles, sur Internet. Une requête sarcastique pourrait avoir l’effet inverse, dirigeant le système vers des arguments sur, par exemple, Reddit. « Les LLM pourraient intégrer cela dans leur formation sans jamais enregistrer le concept de ‘positivité’ ou ‘négativité’ et fournir de meilleures ou plus détaillées réponses parce qu’elles sont associées à un langage positif », explique Bos.

Un peu de soutien, semblable à celui qu’un enseignant patient pourrait offrir à un élève en difficulté, peut également influencer la performance du chatbot. Une étude préimprimée publiée l’année dernière par une équipe de chercheurs de Google DeepMind a révélé que des requêtes encourageantes, telles que « Respirez profondément et travaillez sur ce problème étape par étape », augmentent la capacité d’un LLM à résoudre des problèmes mathématiques élémentaires nécessitant des compétences de raisonnement de base. Ici encore, l’explication peut être retracée jusqu’aux données d’entraînement du modèle : un tel langage peut inciter le système à se référer à des sources de tutorat en ligne, qui encouragent souvent les étudiants à décomposer un problème en parties, amenant ainsi l’algorithme à faire de même.

Il semble donc que faire preuve de politesse envers l’IA puisse améliorer sa performance technique. Mais comme toute communication, les échanges avec les chatbots sont des voies à double sens. Alors que nous formons l’IA à se comporter d’une certaine manière, ces interactions peuvent également nous façonner. La véritable raison pour laquelle nous devrions être polis avec nos assistants IA, selon cette perspective, est que cela peut simplement nous aider à rester dans l’habitude d’être civilisés envers nos semblables.

### La politesse comme reflet de notre humanité

La politesse envers l’IA est « un signe de respect » — non pas envers une machine, mais envers soi-même, affirme Sherry Turkle, psychologue clinicienne et directrice fondatrice de l’Initiative sur la technologie et le soi au Massachusetts Institute of Technology. « Cela concerne vous », dit-elle. Le danger, selon elle, est que nous puissions nous habituer à utiliser un langage grossier, irrespectueux et autoritaire avec l’IA, puis agir de la même manière avec d’autres êtres humains sans nous en rendre compte. Le monde a peut-être déjà entrevu ce type de désensibilisation : certains parents se plaignent ces dernières années que leurs enfants, habitués à donner des ordres à des assistants virtuels automatisés comme Siri et Alexa, sont devenus moins respectueux. En 2018, Google a tenté de remédier à cela en introduisant une fonctionnalité appelée « Pretty Please » pour Google Assistant, afin d’encourager les enfants à utiliser un langage poli lors de leurs demandes. « Nous devons nous protéger », dit Turkle, « car ce sont nous qui devons établir des relations avec de vraies personnes. »

Nos interactions avec l’IA influenceront l’évolution des normes sociales humaines à mesure qu’elle s’intègre de plus en plus dans nos vies quotidiennes, déclare Autumn P. Edwards, professeur de communication à l’Université de Western Michigan et experte en interaction homme-machine. « C’est un moment où nous pouvons soit nous adapter complètement à une interaction basée sur des commandes et changer ce que cela signifie d’engager une communication humaine à grande échelle », dit-elle, « soit nous pouvons préserver [notre humanité] et essayer d’intégrer le meilleur de la communication humaine dans nos dialogues avec ces entités. »

Edwards souligne également que certaines entreprises engagent des humains pour se faire passer pour des chatbots, car les attentes des clients en matière de qualité de service peuvent diminuer si les gens croient interagir avec une IA plutôt qu’avec un travailleur vivant, ce qui peut réduire les exigences de temps et de responsabilité d’une entreprise. « Ces personnes ont rapporté des effets psychologiques assez horribles en raison des choses qui leur sont dites », dit-elle. « Nous pensons que nous lançons des abus à un système… sans réaliser qu’il y a quelqu’un de l’autre côté qui pourrait devoir les voir. »

Les avancées en matière d’IA générative se produisent à un rythme effréné. GPT-4o, qu’OpenAI a lancé en mai, peut communiquer dans une variété de voix automatisées qui sonnent de manière frappante comme des humains. (Les représentants d’OpenAI ont refusé d’être interviewés pour cet article.) Les innovations dans la vidéo générée par l’IA rendent également probable que certains chatbots soient bientôt dotés de visages virtuels très expressifs, nous rapprochant ainsi de l’autre côté de la vallée dérangeante. Ce que Turkle appelle nos « boutons darwiniens » — l’impulsion évolutive d’attribuer une certaine agency à tout ce qui semble humain — sera manipulé plus habilement que jamais. Les entreprises technologiques ont des incitations financières claires à promouvoir de telles avancées. Les conséquences psychologiques pour les individus et les sociétés restent à déterminer. Pour l’instant, cependant, il semble que faire preuve de civilité envers les chatbots d’IA en vaille la peine — pour votre propre bien-être et celui de votre entourage.

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *