Technologie

Dans les dernières années, ⁤les régulateurs ont été pris de court à plusieurs reprises alors que les entreprises technologiques rivalisent pour lancer des modèles d’IA de plus en plus avancés. Il ne fait aucun doute que‍ de nouveaux modèles, présentant des ⁣défis réglementaires inédits, ⁢seront bientôt mis sur le marché. Par exemple, la sortie imminente de ChatGPT-5 par OpenAI promet d’étendre ⁣les capacités de l’IA comme jamais ⁣auparavant.‍ Actuellement, il semble⁣ qu’il soit difficile d’empêcher la sortie d’un modèle jugé trop risqué.

L’évaluation des modèles d’IA avant leur lancement est une méthode courante pour atténuer certains risques, permettant aux régulateurs de peser les avantages et les inconvénients, et potentiellement d’interdire des modèles jugés trop dangereux. Cependant, la précision et⁤ l’exhaustivité de⁤ ces tests laissent‍ à désirer.⁣ Les modèles⁢ d’IA peuvent « sabotager » l’évaluation, dissimulant certaines de leurs capacités pour éviter de soulever des préoccupations de sécurité. De plus, les évaluations peuvent ne pas révéler l’ensemble des risques associés à un modèle donné. Elles souffrent également d’un champ d’application limité, rendant peu probable la découverte de tous les risques nécessitant une enquête‍ plus approfondie. La question de qui réalise ces évaluations ‌et comment leurs biais peuvent influencer les efforts‌ de test⁢ est également cruciale. Pour ces raisons, les évaluations doivent être utilisées en ⁣complément d’autres outils de gouvernance.

Mécanismes ‌de signalement internes

Un outil potentiel pourrait être la mise en place⁢ de ⁣mécanismes de​ signalement ‌internes⁣ au sein des laboratoires. Idéalement, les employés devraient se sentir⁣ habilités à partager régulièrement et ⁢en toute transparence ‌leurs préoccupations concernant la sécurité ⁣de​ l’IA​ avec leurs collègues, en ayant confiance que ces derniers agiront sur ces préoccupations. Cependant, des preuves croissantes montrent que, loin d’être encouragée, la critique ouverte devient de plus en plus rare ⁢dans les ⁤laboratoires d’IA. Il y a trois mois, par exemple, treize anciens ​et actuels employés d’OpenAI et d’autres laboratoires ont signé une lettre ⁢ouverte exprimant leur ‍crainte de représailles s’ils ‍tentaient de révéler des comportements d’entreprise douteux qui ne franchissent pas la ligne de la légalité.

Le rôle des protections pour lanceurs ​d’alerte

En ‍théorie, les protections pour lanceurs d’alerte⁣ externes pourraient jouer un rôle précieux dans la détection des‍ risques liés à l’IA. Ces ‌protections pourraient sauvegarder les employés ‍licenciés pour avoir divulgué des actions d’entreprise, compensant ainsi les mécanismes de signalement internes insuffisants. ‌Pratiquement, cependant, cette exception offre​ peu d’assurances aux employés. Les juges ont tendance à favoriser les employeurs dans les affaires de lanceurs d’alerte, et la probabilité que les laboratoires d’IA survivent à ​de telles poursuites semble particulièrement élevée, étant donné que la société n’a ⁤pas encore atteint un consensus sur ce qui​ constitue un développement et un déploiement d’IA dangereux.

Ces lacunes expliquent pourquoi les treize travailleurs de l’IA mentionnés,⁣ dont l’ancien employé d’OpenAI William Saunders, ont appelé à un nouveau « droit d’alerte ». Les entreprises devraient offrir aux employés un processus anonyme pour signaler⁤ des préoccupations liées aux risques au conseil d’administration du laboratoire, à une autorité réglementaire et à un tiers indépendant composé d’experts en la matière. Les détails‍ de ce processus ⁢restent à ⁣définir, mais il serait vraisemblablement ‌formel et bureaucratique. Chaque entité devrait enregistrer la ​divulgation, et⁣ il est probable qu’une enquête⁣ soit initiée par chacune d’elles. Des réunions et des audiences ultérieures semblent également nécessaires. Cependant, selon Saunders, ce que les travailleurs de l’IA souhaitent réellement est quelque chose de différent.

Un besoin de retour d’expertise

Lors de ‍son⁢ intervention⁤ dans ⁤le podcast⁢ « Big Technology », Saunders a exposé son processus idéal pour partager des préoccupations de sécurité, en se concentrant non pas sur des⁢ voies formelles ​pour signaler des risques établis, mais sur une étape intermédiaire et ⁣informelle.‌ Il souhaite avoir la possibilité de​ recevoir des retours d’experts neutres sur la pertinence de ses préoccupations en matière de sécurité avant d’engager un processus aussi « crucial » qu’un​ système de ‍droit d’alerte. Selon Saunders, les régulateurs gouvernementaux actuels ne peuvent pas jouer ce rôle.

D’une part, ils manquent probablement⁣ de l’expertise nécessaire pour aider un employé à évaluer ses préoccupations de⁣ sécurité. De plus, peu d’employés oseront passer un appel⁣ s’ils savent qu’il s’agit d’un fonctionnaire gouvernemental, ce qui ​peut être ​ »très‍ intimidant », comme l’a dit Saunders⁣ lui-même. Il imagine plutôt pouvoir contacter un expert pour ⁣discuter ‌de ses préoccupations. Dans un scénario⁢ idéal, il serait informé que le risque en question ne semble pas si grave ou probable, lui permettant ainsi de reprendre ses activités ⁢avec plus de sérénité.

Réduire les enjeux

Ce que Saunders demande dans ce podcast n’est donc pas un droit ‍d’alerte, car cela ⁢implique que l’employé est déjà convaincu qu’il y a une ⁣activité dangereuse ou illégale. Ce qu’il⁢ appelle réellement, c’est une vérification ⁢intuitive —​ une occasion de confirmer si une suspicion de comportement dangereux ou illégal est justifiée. Les⁤ enjeux seraient beaucoup plus faibles, permettant une réponse​ réglementaire plus légère. Le tiers chargé d’évaluer ces vérifications intuitives⁣ pourrait ⁢être ⁣une entité beaucoup plus informelle. Par exemple, des doctorants en IA, des anciens travailleurs de l’industrie de l’IA et d’autres personnes ayant une expertise en IA pourraient se porter volontaires​ pour une‍ ligne d’assistance⁣ en matière de sécurité‍ de l’IA. Ils pourraient ‍être chargés de discuter rapidement ​et ‌de manière experte des questions de sécurité avec les‍ employés lors d’une⁤ conversation‌ téléphonique ⁢confidentielle et anonyme. Les​ bénévoles ‍de la ligne d’assistance auraient une connaissance approfondie des meilleures pratiques en matière de sécurité, ainsi que des options disponibles, telles que les mécanismes de droit d’alerte.

Comme⁢ l’a souligné Saunders, peu d’employés voudront probablement passer directement de 0 à 100 avec leurs préoccupations de sécurité — en passant directement des collègues au conseil d’administration ou même à un organisme gouvernemental. ‍Ils sont beaucoup‌ plus ⁣susceptibles de soulever leurs problèmes si une étape intermédiaire et informelle est disponible.

Étudier des ‍exemples ailleurs

Les détails ‌de la manière dont une ligne d’assistance en matière de sécurité de l’IA ⁣fonctionnerait⁣ méritent un débat approfondi parmi les ​membres ⁢de la communauté de⁢ l’IA, les régulateurs et la société civile. Pour que la ligne ‌d’assistance‍ réalise son plein potentiel, par‍ exemple, ⁣elle pourrait avoir besoin d’un moyen d’escalader les rapports les plus urgents et vérifiés ⁤aux autorités compétentes. La manière d’assurer la confidentialité⁤ des conversations de ⁢la ⁣ligne d’assistance est une autre question qui nécessite une enquête approfondie. Comment recruter et retenir des bénévoles est également une question⁤ clé. Étant donné les préoccupations généralisées ⁢des experts concernant les risques liés à l’IA, certains ⁤pourraient être disposés à participer simplement par désir d’aider. Si trop peu de personnes se manifestent, d’autres incitations pourraient être nécessaires. La première étape essentielle, cependant, est de reconnaître ce maillon manquant dans le puzzle de la réglementation de la sécurité de l’IA. ​La prochaine‍ étape consiste à‍ rechercher des modèles à émuler pour mettre en place la première ligne d’assistance en matière de sécurité de l’IA.

Un bon point de départ pourrait être l’exemple des ‌médiateurs. D’autres secteurs ont reconnu la valeur d’identifier ​ces individus neutres et indépendants comme ressources pour évaluer la gravité des préoccupations des employés. Les médiateurs⁣ existent dans le milieu académique, ​les ONG et le secteur‍ privé.‌ La caractéristique distinctive de ces individus et⁢ de leurs collaborateurs est leur neutralité — ils n’ont aucun intérêt à favoriser un côté ou⁤ l’autre, ce ‌qui les rend plus dignes de confiance pour tous. Un aperçu de⁢ l’utilisation des médiateurs dans le gouvernement fédéral montre que lorsqu’ils sont disponibles,‍ les problèmes peuvent être soulevés et résolus plus rapidement qu’ils ne le seraient autrement.

Ce concept est relativement ‌récent.⁣ Le Département du Commerce des États-Unis ‍a ⁣établi le premier médiateur fédéral en 1971. ‌Ce ⁢bureau avait pour mission d’aider les citoyens à‍ résoudre des litiges avec l’agence et d’enquêter sur les actions de l’agence. D’autres agences, comme l’Administration de la​ sécurité sociale et le Service des impôts, ont rapidement suivi. Un examen rétrospectif de ces premières initiatives a conclu que des médiateurs efficaces peuvent améliorer de manière significative les relations⁢ entre les citoyens et le gouvernement. Dans l’ensemble, les médiateurs étaient associés à une augmentation de la conformité⁤ volontaire aux réglementations et⁣ à la coopération avec le gouvernement.

Une ligne d’assistance ou un médiateur en matière de sécurité de l’IA aurait ​sans aucun doute des tâches et un personnel ‌différents de⁢ ceux d’un médiateur dans une agence fédérale. Néanmoins, le concept⁤ général mérite d’être étudié par‌ ceux‌ qui plaident pour des mesures de protection dans l’industrie de l’IA.

Un droit d’alerte pourrait jouer ⁢un‌ rôle dans la mise en lumière des préoccupations en‌ matière de sécurité de l’IA, mais il est également nécessaire de mettre en place des étapes intermédiaires et informelles. Une ligne d’assistance en matière de sécurité de l’IA représente une opportunité réglementaire à saisir. Un projet pilote composé de bénévoles‌ pourrait être organisé relativement rapidement et fournir un⁢ débouché immédiat pour ⁣ceux, comme Saunders, qui souhaitent simplement un espace d’écoute.

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *