Des jeux dans des jeux

Les participants rejettent davantage les offres de l’IA, probablement pour inciter celle-ci à être plus généreuse.

technologie Un marteau de juge près d'une pile de petites pièces.

Agrandir / Dans les expériences, les participants devaient évaluer ce qui constituait une offre monétaire équitable.

Dans de nombreux cas, les intelligences artificielles (IA) sont formées à partir de contenus créés ou sélectionnés par des humains. Cela pose un défi majeur pour éviter que l’IA ne reproduise les biais de ses concepteurs et de la société dans laquelle ils évoluent. Les enjeux sont considérables, surtout lorsque ces IA sont utilisées pour prendre des décisions médicales ou financières.

Cependant, des chercheurs de l’Université de Washington à St. Louis ont découvert une dimension supplémentaire à ces défis : les personnes impliquées dans la formation de l’IA peuvent modifier leur comportement en sachant que cela influencera les choix futurs de l’IA. Dans certains cas, ces changements de comportement se manifestent même dans des situations qui ne sont pas liées à la formation de l’IA.

Technologie : Prêt à jouer ?

Les chercheurs ont demandé à des volontaires de participer à une forme simple de théorie des jeux. Deux participants se voyaient attribuer un pot d’argent de 10 dollars. L’un d’eux devait proposer une fraction de cette somme à l’autre, qui pouvait choisir d’accepter ou de rejeter l’offre. Si l’offre était rejetée, aucun des deux ne recevait d’argent.

Sur le plan économique rationnel, les individus devraient accepter toute offre, car cela leur permettrait de gagner plus que s’ils n’acceptaient rien. Pourtant, dans la réalité, les gens ont tendance à rejeter les offres qui s’écartent trop d’une répartition équitable de 50/50, car ils estiment qu’une répartition déséquilibrée est injuste. Ce rejet leur permet de punir celui qui a fait une offre inéquitable. Bien qu’il existe des différences culturelles quant à ce qui est considéré comme injuste, ce phénomène a été observé à maintes reprises, y compris dans cette étude.

La nouveauté de cette recherche, menée par Lauren Treiman, Chien-Ju Ho et Wouter Kool, réside dans le fait qu’ils ont informé certains participants que leur partenaire était une IA, et que les résultats de leurs interactions seraient utilisés pour améliorer les performances futures de l’IA.

Cela rend explicite ce qui est implicite dans un cadre de théorie des jeux : le fait que le rejet d’offres peut aider les partenaires à déterminer ce qui est considéré comme équitable. Les participants, en particulier ceux du groupe expérimental informés qu’ils formaient une IA, pouvaient facilement déduire que leurs actions influenceraient les futures offres de l’IA.

Les chercheurs se sont demandé si cela influencerait le comportement des participants humains. Ils ont comparé cela au comportement d’un groupe témoin qui a simplement participé au test standard de théorie des jeux.

Technologie : Entraînement à l’équité

Treiman, Ho et Kool avaient préenregistré plusieurs analyses multivariées qu’ils prévoyaient d’effectuer avec les données. Cependant, ces analyses n’ont pas toujours produit des résultats cohérents entre les expériences, probablement en raison d’un nombre insuffisant de participants pour détecter des effets subtils avec une confiance statistique adéquate, et aussi parce qu’un grand nombre de tests pourrait entraîner des résultats positifs par hasard.

Nous allons donc nous concentrer sur la question la plus simple abordée : le fait d’être informé qu’on formait une IA modifie-t-il le comportement d’un individu ? Cette question a été explorée à travers plusieurs expériences très similaires. (Une des principales différences entre elles était la présence d’une icône de caméra, car les gens modifient parfois leur comportement s’ils savent qu’ils sont observés.)

La réponse à cette question est un oui catégorique : les gens modifient effectivement leur comportement lorsqu’ils pensent qu’ils forment une IA. À travers plusieurs expériences, les participants étaient plus enclins à rejeter des offres injustes lorsqu’ils savaient que leurs sessions serviraient à entraîner une IA. Dans certaines expériences, ils étaient également plus susceptibles de rejeter ce qui était considéré comme des offres équitables (dans les populations américaines, le taux de rejet augmente considérablement lorsqu’une personne propose une répartition de 70/30, ce qui signifie que 7 dollars vont à la personne qui fait la proposition). Les chercheurs soupçonnent que cela est dû à une tendance accrue à rejeter des offres borderline « équitable » comme une répartition de 60/40.

Ce phénomène s’est produit même si le rejet d’une offre entraîne un coût économique pour les participants. De plus, les participants ont continué à adopter ce comportement même lorsqu’ils ont été informés qu’ils n’interagiraient plus jamais avec l’IA après la formation, ce qui signifie qu’ils ne bénéficieraient pas personnellement des changements de comportement de l’IA. Ainsi, il semble que les gens soient prêts à faire un sacrifice financier pour entraîner l’IA d’une manière qui profiterait à autrui.

Fait intéressant, dans deux des trois expériences de suivi, les participants ont continué à rejeter des offres à un taux plus élevé deux jours après leur participation à la formation de l’IA, même lorsqu’ils ont été informés que leurs actions n’étaient plus utilisées pour entraîner l’IA. Ainsi, dans une certaine mesure, participer à la formation de l’IA semble avoir modifié leur propre comportement.

Évidemment, cela n’affectera pas tous les types de formation d’IA, et une grande partie du travail nécessaire à la création de matériel utilisé pour former un modèle de langage de grande taille n’aura pas été réalisé en sachant qu’il pourrait être utilisé pour entraîner une IA. Cependant, il existe de nombreux cas où les humains sont directement impliqués dans la formation, il est donc important de reconnaître que cela constitue une autre voie par laquelle des biais peuvent s’infiltrer.

PNAS, 2024. DOI: 10.1073/pnas.2408731121

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *