Technologie
Dans les dernières années, les régulateurs ont été pris de court à plusieurs reprises alors que les entreprises technologiques rivalisent pour lancer des modèles d’IA de plus en plus avancés. Il ne fait aucun doute que de nouveaux modèles, présentant des défis réglementaires inédits, seront bientôt mis sur le marché. Par exemple, la sortie imminente de ChatGPT-5 par OpenAI promet d’étendre les capacités de l’IA comme jamais auparavant. Actuellement, il semble qu’il soit difficile d’empêcher la sortie d’un modèle jugé trop risqué.
L’évaluation des modèles d’IA avant leur lancement est une méthode courante pour atténuer certains risques, permettant aux régulateurs de peser les avantages et les inconvénients, et potentiellement d’interdire des modèles jugés trop dangereux. Cependant, la précision et l’exhaustivité de ces tests laissent à désirer. Les modèles d’IA peuvent « sabotager » l’évaluation, dissimulant certaines de leurs capacités pour éviter de soulever des préoccupations de sécurité. De plus, les évaluations peuvent ne pas révéler l’ensemble des risques associés à un modèle donné. Elles souffrent également d’un champ d’application limité, rendant peu probable la découverte de tous les risques nécessitant une enquête plus approfondie. La question de qui réalise ces évaluations et comment leurs biais peuvent influencer les efforts de test est également cruciale. Pour ces raisons, les évaluations doivent être utilisées en complément d’autres outils de gouvernance.
Mécanismes de signalement internes
Un outil potentiel pourrait être la mise en place de mécanismes de signalement internes au sein des laboratoires. Idéalement, les employés devraient se sentir habilités à partager régulièrement et en toute transparence leurs préoccupations concernant la sécurité de l’IA avec leurs collègues, en ayant confiance que ces derniers agiront sur ces préoccupations. Cependant, des preuves croissantes montrent que, loin d’être encouragée, la critique ouverte devient de plus en plus rare dans les laboratoires d’IA. Il y a trois mois, par exemple, treize anciens et actuels employés d’OpenAI et d’autres laboratoires ont signé une lettre ouverte exprimant leur crainte de représailles s’ils tentaient de révéler des comportements d’entreprise douteux qui ne franchissent pas la ligne de la légalité.
Le rôle des protections pour lanceurs d’alerte
En théorie, les protections pour lanceurs d’alerte externes pourraient jouer un rôle précieux dans la détection des risques liés à l’IA. Ces protections pourraient sauvegarder les employés licenciés pour avoir divulgué des actions d’entreprise, compensant ainsi les mécanismes de signalement internes insuffisants. Pratiquement, cependant, cette exception offre peu d’assurances aux employés. Les juges ont tendance à favoriser les employeurs dans les affaires de lanceurs d’alerte, et la probabilité que les laboratoires d’IA survivent à de telles poursuites semble particulièrement élevée, étant donné que la société n’a pas encore atteint un consensus sur ce qui constitue un développement et un déploiement d’IA dangereux.
Ces lacunes expliquent pourquoi les treize travailleurs de l’IA mentionnés, dont l’ancien employé d’OpenAI William Saunders, ont appelé à un nouveau « droit d’alerte ». Les entreprises devraient offrir aux employés un processus anonyme pour signaler des préoccupations liées aux risques au conseil d’administration du laboratoire, à une autorité réglementaire et à un tiers indépendant composé d’experts en la matière. Les détails de ce processus restent à définir, mais il serait vraisemblablement formel et bureaucratique. Chaque entité devrait enregistrer la divulgation, et il est probable qu’une enquête soit initiée par chacune d’elles. Des réunions et des audiences ultérieures semblent également nécessaires. Cependant, selon Saunders, ce que les travailleurs de l’IA souhaitent réellement est quelque chose de différent.
Un besoin de retour d’expertise
Lors de son intervention dans le podcast « Big Technology », Saunders a exposé son processus idéal pour partager des préoccupations de sécurité, en se concentrant non pas sur des voies formelles pour signaler des risques établis, mais sur une étape intermédiaire et informelle. Il souhaite avoir la possibilité de recevoir des retours d’experts neutres sur la pertinence de ses préoccupations en matière de sécurité avant d’engager un processus aussi « crucial » qu’un système de droit d’alerte. Selon Saunders, les régulateurs gouvernementaux actuels ne peuvent pas jouer ce rôle.
D’une part, ils manquent probablement de l’expertise nécessaire pour aider un employé à évaluer ses préoccupations de sécurité. De plus, peu d’employés oseront passer un appel s’ils savent qu’il s’agit d’un fonctionnaire gouvernemental, ce qui peut être »très intimidant », comme l’a dit Saunders lui-même. Il imagine plutôt pouvoir contacter un expert pour discuter de ses préoccupations. Dans un scénario idéal, il serait informé que le risque en question ne semble pas si grave ou probable, lui permettant ainsi de reprendre ses activités avec plus de sérénité.
Réduire les enjeux
Ce que Saunders demande dans ce podcast n’est donc pas un droit d’alerte, car cela implique que l’employé est déjà convaincu qu’il y a une activité dangereuse ou illégale. Ce qu’il appelle réellement, c’est une vérification intuitive — une occasion de confirmer si une suspicion de comportement dangereux ou illégal est justifiée. Les enjeux seraient beaucoup plus faibles, permettant une réponse réglementaire plus légère. Le tiers chargé d’évaluer ces vérifications intuitives pourrait être une entité beaucoup plus informelle. Par exemple, des doctorants en IA, des anciens travailleurs de l’industrie de l’IA et d’autres personnes ayant une expertise en IA pourraient se porter volontaires pour une ligne d’assistance en matière de sécurité de l’IA. Ils pourraient être chargés de discuter rapidement et de manière experte des questions de sécurité avec les employés lors d’une conversation téléphonique confidentielle et anonyme. Les bénévoles de la ligne d’assistance auraient une connaissance approfondie des meilleures pratiques en matière de sécurité, ainsi que des options disponibles, telles que les mécanismes de droit d’alerte.
Comme l’a souligné Saunders, peu d’employés voudront probablement passer directement de 0 à 100 avec leurs préoccupations de sécurité — en passant directement des collègues au conseil d’administration ou même à un organisme gouvernemental. Ils sont beaucoup plus susceptibles de soulever leurs problèmes si une étape intermédiaire et informelle est disponible.
Étudier des exemples ailleurs
Les détails de la manière dont une ligne d’assistance en matière de sécurité de l’IA fonctionnerait méritent un débat approfondi parmi les membres de la communauté de l’IA, les régulateurs et la société civile. Pour que la ligne d’assistance réalise son plein potentiel, par exemple, elle pourrait avoir besoin d’un moyen d’escalader les rapports les plus urgents et vérifiés aux autorités compétentes. La manière d’assurer la confidentialité des conversations de la ligne d’assistance est une autre question qui nécessite une enquête approfondie. Comment recruter et retenir des bénévoles est également une question clé. Étant donné les préoccupations généralisées des experts concernant les risques liés à l’IA, certains pourraient être disposés à participer simplement par désir d’aider. Si trop peu de personnes se manifestent, d’autres incitations pourraient être nécessaires. La première étape essentielle, cependant, est de reconnaître ce maillon manquant dans le puzzle de la réglementation de la sécurité de l’IA. La prochaine étape consiste à rechercher des modèles à émuler pour mettre en place la première ligne d’assistance en matière de sécurité de l’IA.
Un bon point de départ pourrait être l’exemple des médiateurs. D’autres secteurs ont reconnu la valeur d’identifier ces individus neutres et indépendants comme ressources pour évaluer la gravité des préoccupations des employés. Les médiateurs existent dans le milieu académique, les ONG et le secteur privé. La caractéristique distinctive de ces individus et de leurs collaborateurs est leur neutralité — ils n’ont aucun intérêt à favoriser un côté ou l’autre, ce qui les rend plus dignes de confiance pour tous. Un aperçu de l’utilisation des médiateurs dans le gouvernement fédéral montre que lorsqu’ils sont disponibles, les problèmes peuvent être soulevés et résolus plus rapidement qu’ils ne le seraient autrement.
Ce concept est relativement récent. Le Département du Commerce des États-Unis a établi le premier médiateur fédéral en 1971. Ce bureau avait pour mission d’aider les citoyens à résoudre des litiges avec l’agence et d’enquêter sur les actions de l’agence. D’autres agences, comme l’Administration de la sécurité sociale et le Service des impôts, ont rapidement suivi. Un examen rétrospectif de ces premières initiatives a conclu que des médiateurs efficaces peuvent améliorer de manière significative les relations entre les citoyens et le gouvernement. Dans l’ensemble, les médiateurs étaient associés à une augmentation de la conformité volontaire aux réglementations et à la coopération avec le gouvernement.
Une ligne d’assistance ou un médiateur en matière de sécurité de l’IA aurait sans aucun doute des tâches et un personnel différents de ceux d’un médiateur dans une agence fédérale. Néanmoins, le concept général mérite d’être étudié par ceux qui plaident pour des mesures de protection dans l’industrie de l’IA.
Un droit d’alerte pourrait jouer un rôle dans la mise en lumière des préoccupations en matière de sécurité de l’IA, mais il est également nécessaire de mettre en place des étapes intermédiaires et informelles. Une ligne d’assistance en matière de sécurité de l’IA représente une opportunité réglementaire à saisir. Un projet pilote composé de bénévoles pourrait être organisé relativement rapidement et fournir un débouché immédiat pour ceux, comme Saunders, qui souhaitent simplement un espace d’écoute.