Un an après la signature des engagements volontaires, le paysage de l’intelligence artificielle (IA) a connu des évolutions notables. Le 21 juillet 2023, sept entreprises majeures du secteur de l’IA — Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI — ont pris des engagements auprès de la Maison Blanche pour développer l’IA de manière sécurisée et fiable. Ces engagements incluaient des promesses d’améliorer les tests et la transparence des systèmes d’IA, ainsi que de partager des informations sur les risques potentiels.
À l’occasion de cet anniversaire, le MIT Technology Review a interrogé ces entreprises sur leurs avancées. Les réponses reçues indiquent que le secteur technologique a réalisé des progrès appréciables, bien que des réserves demeurent. Les engagements ont été pris à un moment où l’engouement pour l’IA générative atteignait son paroxysme, avec des entreprises en compétition pour lancer des modèles toujours plus performants. Parallèlement, des préoccupations ont émergé concernant des enjeux tels que les droits d’auteur et les deepfakes. Des figures influentes, comme Geoffrey Hinton, ont également exprimé des inquiétudes sur les risques existentiels que l’IA pourrait poser pour l’humanité, entraînant un débat urgent sur la nécessité de rendre l’IA plus sûre.
Historiquement, le développement de l’IA a été un véritable Far West. Les États-Unis ont souvent hésité à réglementer leurs géants technologiques, préférant leur laisser le soin de s’auto-réguler. Les engagements volontaires représentent une première tentative de règles prescriptives pour le secteur de l’IA, bien qu’ils restent non contraignants. Depuis, la Maison Blanche a émis un décret exécutif qui élargit ces engagements à d’autres entreprises technologiques et départements gouvernementaux.
Merve Hickok, présidente et directrice de recherche au Center for AI and Digital Policy, a noté que, bien que certaines bonnes pratiques aient été mises en place, il reste encore un long chemin à parcourir en matière de gouvernance et de protection des droits. De nombreuses entreprises continuent de faire des affirmations non fondées sur leurs produits, prétendant qu’ils peuvent surpasser l’intelligence humaine.
Un des points saillants des réponses des entreprises est leur engagement accru dans des solutions techniques, telles que les tests de red-teaming, où des experts examinent les modèles d’IA pour en identifier les failles, ainsi que l’utilisation de filigranes pour le contenu généré par l’IA. Cependant, il reste à déterminer si ces engagements ont réellement conduit à des changements significatifs ou si les entreprises auraient mis en œuvre ces mesures de toute façon.
Depuis la signature des engagements, des changements notables ont eu lieu, comme le départ de Mustafa Suleyman, fondateur d’Inflection AI, qui a rejoint Microsoft pour diriger ses efforts en matière d’IA. Robyn Patterson, porte-parole de la Maison Blanche, a exprimé sa gratitude pour les progrès réalisés par les entreprises, tout en appelant le Congrès à adopter une législation bipartisane sur l’IA.
Sans une législation fédérale complète, la meilleure option pour les États-Unis est d’exiger que les entreprises respectent ces engagements volontaires. Brandie Nonnecke, directrice du CITRIS Policy Lab à l’UC Berkeley, souligne que ces entreprises sont en quelque sorte les juges de leurs propres performances, ce qui soulève des questions sur la rigueur de leur auto-évaluation.
Évaluation des engagements des entreprises d’IA
Engagement 1 : Tests de sécurité
Les entreprises s’engagent à effectuer des tests de sécurité internes et externes de leurs systèmes d’IA avant leur lancement. Ces tests, en partie réalisés par des experts indépendants, visent à prévenir des risques majeurs liés à l’IA, notamment en matière de bio-sécurité et de cybersécurité.
Tous les signataires, à l’exception d’Inflection, affirment mener des exercices de red-teaming pour identifier les failles de leurs modèles. OpenAI, par exemple, dispose d’une équipe dédiée à la préparation qui teste ses modèles contre des menaces variées. Anthropic a collaboré avec des experts du UK AI Safety Institute pour tester son modèle Claude 3.5 avant son déploiement. Google et Microsoft ont également mis en place des évaluations similaires pour leurs modèles respectifs.
Cependant, il ne suffit pas de déclarer que des actions sont entreprises ; il est essentiel de démontrer leur efficacité. Par exemple, Amazon et Anthropic ont mentionné leur collaboration avec l’organisation Thorn pour protéger les enfants des risques liés à l’IA, mais des précisions sur l’impact de ces interventions seraient souhaitables.
Résultat : Positif. L’accent mis sur le red-teaming et les tests pour divers risques est une initiative importante, bien que l’accès des chercheurs indépendants aux modèles des entreprises pourrait être amélioré.
Engagement 2 : Partage d’informations
Les entreprises s’engagent à partager des informations sur la gestion des risques liés à l’IA avec d’autres acteurs de l’industrie, les gouvernements, la société civile et le milieu académique. Cela inclut les meilleures pratiques en matière de sécurité et les tentatives de contournement des mesures de protection.
Suite à la signature des engagements, Anthropic, Google, Microsoft et OpenAI ont fondé le Frontier Model Forum, une organisation à but non lucratif visant à faciliter les discussions sur la sécurité et la responsabilité en matière d’IA. Bien que l’engagement avec des organisations à but non lucratif financées par ces entreprises puisse soulever des questions, le forum pourrait favoriser la coopération entre elles pour échanger des informations sur la sécurité.
Tous les signataires font également partie du Consortium de l’Institut de Sécurité de l’Intelligence Artificielle (AISIC), établi par le National Institute of Standards and Technology (NIST), qui élabore des lignes directrices et des normes pour la politique de l’IA et l’évaluation de ses performances.
Engagement des entreprises en matière d’IA : Un aperçu des initiatives et des défis
Collaboration entre secteurs public et privé
Un ensemble diversifié d’acteurs, tant du secteur public que privé, participe activement aux discussions sur l’intelligence artificielle (IA). Des géants technologiques tels que Google, Microsoft et OpenAI sont également représentés au sein du Haut Conseil Consultatif des Nations Unies sur l’Intelligence Artificielle. Ces entreprises mettent en avant leurs collaborations avec le milieu académique pour renforcer la recherche en IA. Par exemple, Google est membre de MLCommons, où il collabore avec des chercheurs sur un benchmark de sécurité en IA intersectoriel. De plus, Google contribue à des projets comme le programme pilote de la National Science Foundation, qui vise à rendre la recherche en IA plus accessible aux États-Unis.
Engagements en matière de sécurité des modèles d’IA
Les entreprises se sont engagées à investir dans la cybersécurité et à mettre en place des mesures de protection contre les menaces internes pour sécuriser les poids de modèles non publiés. Ces poids sont cruciaux pour le fonctionnement des systèmes d’IA, et les entreprises conviennent qu’ils ne doivent être divulgués qu’avec prudence, en tenant compte des risques de sécurité.
Au cours de l’année écoulée, plusieurs entreprises ont renforcé leurs mesures de cybersécurité. Microsoft, par exemple, a lancé l’Initiative Futur Securisé pour faire face à l’augmentation des cyberattaques. La société affirme que ses poids de modèles sont chiffrés pour réduire le risque de vol, et elle applique des contrôles d’identité stricts lors du déploiement de modèles propriétaires avancés. Google a également mis en place une Initiative de Défense Cybernétique, tandis qu’OpenAI a introduit de nouvelles mesures de sécurité, y compris un programme de subventions pour la cybersécurité, permettant aux chercheurs d’accéder à ses modèles pour développer des défenses.
Amazon a également pris des mesures spécifiques pour contrer les attaques ciblant l’IA générative, telles que l’empoisonnement de données et l’injection de prompts. Peu après avoir signé ces engagements, Anthropic a partagé des détails sur ses protections, qui incluent des pratiques de cybersécurité courantes, comme le contrôle d’accès aux modèles et l’inspection de la chaîne d’approvisionnement tierce.
Audit et transparence des systèmes d’IA
Les entreprises se sont engagées à faciliter la découverte et le signalement des vulnérabilités dans leurs systèmes d’IA par des tiers. Bien que des problèmes puissent persister après le lancement d’un système d’IA, un mécanisme de signalement robuste permet de les identifier et de les corriger rapidement. L’une des réponses les plus populaires à cet engagement a été la mise en place de programmes de récompense pour les bogues, qui incitent les chercheurs à signaler les failles dans les systèmes d’IA. Anthropic, Google, Microsoft, Meta et OpenAI ont tous mis en place de tels programmes.
Cependant, des experts comme Brandie Nonnecke soulignent que la mise en œuvre d’audits par des tiers pourrait prendre des années et pose des défis à la fois techniques et socio-techniques. Elle s’inquiète que les premières entreprises à adopter ces audits puissent établir de mauvais précédents en matière de gestion des risques socio-techniques liés à l’IA.
Mécanismes techniques pour la transparence
Les entreprises se sont engagées à développer des mécanismes techniques robustes pour informer les utilisateurs lorsque le contenu est généré par une IA, comme un système de filigrane. Cela favorise la créativité tout en réduisant les risques de fraude et de tromperie. Plusieurs entreprises ont déjà mis en place des outils de filigrane pour le contenu généré par l’IA. Par exemple, Google a lancé SynthID, un outil de filigrane pour divers types de contenu, tandis qu’Amazon ajoute un filigrane invisible à toutes les images générées par son générateur d’images Titan.
En outre, la plupart des entreprises signataires font partie de la Coalition pour la Provenance et l’Authenticité du Contenu (C2PA), qui intègre des informations sur la création et l’édition de contenu par l’IA dans les métadonnées des images. Microsoft et OpenAI attachent automatiquement ces métadonnées aux images générées par DALL-E 3.
Rapport sur les capacités et les risques des systèmes d’IA
Les entreprises se sont engagées à rendre compte publiquement des capacités, des limites et des domaines d’utilisation appropriés et inappropriés de leurs systèmes d’IA. Ce rapport doit aborder à la fois les risques de sécurité et les risques sociétaux, tels que les effets sur l’équité et les biais. Cependant, les engagements de la Maison Blanche laissent une grande place à l’interprétation, permettant aux entreprises de répondre à cette exigence avec des niveaux de transparence très variés.
Les solutions les plus courantes proposées par les entreprises technologiques incluent des « cartes de modèle », qui agissent comme des descriptions de produit pour les modèles d’IA. Microsoft, par exemple, publie un rapport annuel sur la transparence de l’IA responsable, offrant un aperçu de la manière dont l’entreprise développe des applications utilisant l’IA générative.
Conclusion
Bien que des progrès aient été réalisés dans l’engagement des entreprises envers la sécurité et la transparence des systèmes d’IA, il reste encore beaucoup à faire. Les initiatives en matière de cybersécurité, d’audit et de transparence sont des étapes positives, mais leur efficacité dépendra de la mise en œuvre concrète et de la collaboration continue entre les différents acteurs du secteur.
Améliorations nécessaires dans la gouvernance de l’IA
Les entreprises d’intelligence artificielle (IA) doivent encore progresser dans plusieurs domaines. Selon Hickok, une des principales améliorations serait d’accroître la transparence concernant leurs structures de gouvernance et les relations financières entre les sociétés. Elle aurait également souhaité que ces entreprises soient plus ouvertes sur l’origine des données, les processus de formation des modèles, les incidents de sécurité et la consommation d’énergie.
Engagement 7 : Priorité à la recherche sur les risques sociétaux
Les entreprises s’engagent à concentrer leurs efforts de recherche sur les risques sociétaux que les systèmes d’IA peuvent engendrer, notamment en évitant les biais nuisibles et la discrimination, ainsi qu’en protégeant la vie privée. L’historique de l’IA met en lumière la nature insidieuse et la prévalence de ces dangers, et les entreprises s’engagent à développer des IA qui les atténuent.
Les entreprises technologiques ont intensifié leurs recherches sur la sécurité et ont intégré leurs découvertes dans leurs produits. Par exemple, Amazon a mis en place des garde-fous pour Amazon Bedrock, capables de détecter les hallucinations et d’appliquer des protections en matière de sécurité, de confidentialité et de véracité. Anthropic a constitué une équipe de chercheurs dédiée à l’étude des risques sociétaux et de la vie privée. Au cours de l’année passée, la société a publié des recherches sur la tromperie, le contournement des systèmes, des stratégies pour réduire la discrimination, ainsi que sur des capacités émergentes, telles que la capacité des modèles à manipuler leur propre code ou à persuader. OpenAI, de son côté, a formé ses modèles pour éviter de produire du contenu haineux et refuse de générer des réponses basées sur des stéréotypes. Google DeepMind a également publié des recherches pour évaluer les capacités dangereuses et a mené une étude sur les abus potentiels de l’IA générative.
Investissements significatifs dans la recherche sur la sécurité
Ces entreprises ont investi massivement dans ce domaine de recherche. Par exemple, Google a alloué des millions de dollars à la création d’un nouveau fonds de sécurité de l’IA pour promouvoir la recherche à travers le Frontier Model Forum. Microsoft a annoncé un engagement de 20 millions de dollars en crédits informatiques pour étudier les risques sociétaux via le National AI Research Resource et a lancé son propre programme d’accélérateur de recherche sur les modèles d’IA pour les universitaires, appelé le programme Accelerating Foundation Models Research. De plus, la société a recruté 24 chercheurs spécialisés dans l’IA et la société.
Évaluation : Très bon. Cet engagement est relativement facile à respecter, étant donné que les signataires sont parmi les plus grands et les plus riches laboratoires de recherche en IA au monde. Bien que la recherche sur la sécurité soit une étape bienvenue, certains critiques estiment que cette focalisation détourne l’attention et les ressources des recherches sur des problèmes plus immédiats, tels que la discrimination et les biais.
Engagement 8 : Utilisation de l’IA pour relever les défis sociétaux
Les entreprises s’engagent à développer et déployer des systèmes d’IA avancés pour aider à résoudre les plus grands défis de la société. Que ce soit pour la prévention du cancer, l’atténuation du changement climatique ou d’autres enjeux, l’IA, si elle est bien gérée, peut contribuer de manière significative à la prospérité, à l’égalité et à la sécurité de tous.
Depuis cet engagement, les entreprises technologiques ont abordé une variété de problèmes. Par exemple, Pfizer a utilisé Claude pour analyser les tendances dans la recherche sur le traitement du cancer après avoir rassemblé des données pertinentes et du contenu scientifique. Gilead, une entreprise biopharmaceutique américaine, a utilisé l’IA générative d’Amazon Web Services pour évaluer la faisabilité d’études cliniques et analyser des ensembles de données.
Google DeepMind a un bilan particulièrement solide dans le développement d’outils d’IA pouvant aider les scientifiques. Par exemple, AlphaFold 3 peut prédire la structure et les interactions de toutes les molécules de la vie. AlphaGeometry résout des problèmes de géométrie à un niveau comparable à celui des meilleurs lycéens en mathématiques. GraphCast est un modèle d’IA capable de faire des prévisions météorologiques à moyen terme. Pendant ce temps, Microsoft a utilisé des images satellites et l’IA pour améliorer les réponses aux incendies de forêt à Maui et cartographier les populations vulnérables au climat, ce qui aide les chercheurs à identifier des risques tels que l’insécurité alimentaire, la migration forcée et les maladies.
OpenAI, quant à elle, a annoncé des partenariats et des financements pour divers projets de recherche, notamment un projet explorant comment les modèles d’IA multimodaux peuvent être utilisés en toute sécurité par les éducateurs et les scientifiques en laboratoire. Elle a également proposé des crédits pour aider les chercheurs à utiliser ses plateformes lors de hackathons sur le développement d’énergies propres.
Évaluation : Très bon. Certaines initiatives visant à utiliser l’IA pour stimuler la découverte scientifique ou prévoir des événements météorologiques sont véritablement prometteuses. Bien que les entreprises d’IA n’aient pas encore utilisé l’IA pour prévenir le cancer, cela reste un objectif ambitieux.
Dans l’ensemble, des changements positifs ont été observés dans la manière dont l’IA est développée, tels que les pratiques de red-teaming, les filigranes et de nouvelles méthodes pour que l’industrie partage les meilleures pratiques. Cependant, ces solutions techniques ne suffisent pas à résoudre le problème complexe des dommages causés par l’IA, et un travail considérable reste à accomplir. Un an après ces engagements, il est également surprenant de constater que les discussions portent sur des risques hypothétiques, tels que les bioweapons, tout en omettant des sujets cruciaux comme la protection des consommateurs, les deepfakes non consensuels, les données et le droit d’auteur, ainsi que l’empreinte environnementale des modèles d’IA. Ces omissions semblent particulièrement étranges aujourd’hui.