Dans le cadre de la série continue de TechCrunch sur les femmes dans l’IA, qui vise à mettre en lumière les contributions des femmes dans le domaine de l’intelligence artificielle, TechCrunch a eu l’occasion d’interviewer Lakshmi Raman, directrice de l’IA à la CIA. Nous avons discuté de son parcours vers ce poste ainsi que de l’utilisation de l’IA par la CIA, en soulignant l’importance d’un déploiement responsable de cette technologie.
Raman a une longue expérience dans le domaine du renseignement. Elle a rejoint la CIA en 2002 en tant que développeuse de logiciels après avoir obtenu son diplôme de premier cycle à l’Université de l’Illinois à Urbana-Champaign et sa maîtrise en informatique à l’Université de Chicago. Quelques années plus tard, elle a évolué vers des postes de direction au sein de l’agence, finissant par diriger les efforts globaux de science des données à la CIA.
Elle souligne qu’elle a eu la chance de bénéficier de modèles et de mentors féminins au sein de la CIA, un domaine historiquement dominé par les hommes. « J’ai encore des personnes vers qui je peux me tourner pour demander des conseils et comprendre à quoi ressemble le prochain niveau de leadership », a-t-elle déclaré. « Chaque femme doit naviguer à travers des défis spécifiques tout au long de sa carrière. »
En tant que directrice, Raman coordonne et impulse les activités liées à l’IA au sein de la CIA. « Nous considérons que l’IA est là pour soutenir notre mission », a-t-elle expliqué. « C’est l’interaction entre les humains et les machines qui est au cœur de notre utilisation de l’IA. »
L’IA n’est pas une nouveauté pour la CIA. L’agence explore les applications de la science des données et de l’IA depuis environ 2000, notamment dans les domaines du traitement du langage naturel (analyse de texte), de la vision par ordinateur (analyse d’images) et de l’analyse vidéo. La CIA s’efforce de rester à jour sur les nouvelles tendances, comme l’IA générative, avec une feuille de route influencée par l’industrie et le milieu académique.
« Lorsque nous considérons les énormes quantités de données que nous devons traiter au sein de l’agence, la gestion du contenu est un domaine où l’IA générative peut faire une différence », a précisé Raman. « Nous explorons des outils d’aide à la recherche et à la découverte, ainsi que des aides à l’idéation, et nous cherchons à générer des contre-arguments pour contrer les biais analytiques que nous pourrions avoir. »
Il existe une urgence au sein de la communauté du renseignement américain pour déployer des outils susceptibles d’aider la CIA à faire face à des tensions géopolitiques croissantes dans le monde, allant des menaces terroristes liées à la guerre à Gaza aux campagnes de désinformation orchestrées par des acteurs étrangers (comme la Chine et la Russie). L’année dernière, le Special Competitive Studies Project, un groupe de conseillers influents axé sur l’IA dans la sécurité nationale, a fixé un délai de deux ans pour que les services de renseignement nationaux passent au-delà des expérimentations et des projets pilotes limités pour adopter l’IA générative à grande échelle.
Un outil alimenté par l’IA générative développé par la CIA, Osiris, fonctionne de manière similaire à ChatGPT d’OpenAI, mais est spécifiquement adapté aux cas d’utilisation du renseignement. Il résume des données — pour l’instant, uniquement des données non classifiées et disponibles publiquement ou commercialement — et permet aux analystes d’approfondir leurs recherches en posant des questions de suivi en langage clair.
Osiris est désormais utilisé par des milliers d’analystes, non seulement au sein de la CIA, mais également dans les 18 agences de renseignement américaines. Raman n’a pas révélé si l’outil avait été développé en interne ou en utilisant des technologies de tiers, mais a mentionné que la CIA entretient des partenariats avec des fournisseurs de renom.
« Nous tirons parti des services commerciaux », a déclaré Raman, ajoutant que la CIA utilise également des outils d’IA pour des tâches telles que la traduction et l’alerte des analystes pendant leurs heures de repos concernant des développements potentiellement importants. « Nous devons collaborer étroitement avec l’industrie privée pour nous aider à fournir non seulement les services et solutions plus larges que vous avez entendus, mais aussi des services plus spécifiques de fournisseurs non traditionnels que vous n’envisageriez peut-être pas déjà. »
Une technologie délicate
Il y a de nombreuses raisons d’être sceptique et préoccupé par l’utilisation de l’IA par la CIA.
En février 2022, les sénateurs Ron Wyden (D-OR) et Martin Heinrich (D-NM) ont révélé dans une lettre publique que la CIA, bien qu’elle soit généralement interdite d’enquêter sur les Américains et les entreprises américaines, possède un dépôt de données secret et non divulgué contenant des informations collectées sur des citoyens américains. De plus, un rapport du Bureau du directeur du renseignement national a montré que les agences de renseignement américaines, y compris la CIA, achètent des données sur les Américains auprès de courtiers de données comme LexisNexis et Sayari Analytics avec peu de supervision.
Si la CIA venait à utiliser l’IA pour analyser ces données, de nombreux Américains s’y opposeraient sans aucun doute. Cela constituerait une violation claire des libertés civiles et, en raison des limitations de l’IA, pourrait entraîner des résultats gravement injustes.
Plusieurs études ont montré que les algorithmes prédictifs de criminalité de sociétés comme Geolitica sont facilement biaisés par les taux d’arrestation et tendent à cibler de manière disproportionnée les communautés noires. D’autres études suggèrent que la reconnaissance faciale entraîne un taux d’erreur d’identification plus élevé pour les personnes de couleur que pour les personnes blanches.
En plus des biais, même les meilleures IA d’aujourd’hui peuvent « halluciner », c’est-à-dire inventer des faits et des chiffres en réponse à des requêtes. Prenons l’exemple du logiciel de résumé de réunions de Microsoft, qui attribue parfois des citations à des personnes inexistantes. On peut imaginer comment cela pourrait poser problème dans le domaine du renseignement, où la précision et la vérifiabilité sont essentielles.
Raman a affirmé que la CIA respecte non seulement toutes les lois américaines, mais suit également « toutes les directives éthiques » et utilise l’IA « d’une manière qui atténue les biais ».
« Je qualifierais notre approche de [l’IA] de réfléchie », a-t-elle déclaré. « Nous voulons que nos utilisateurs comprennent autant que possible le système d’IA qu’ils utilisent. Construire une IA responsable signifie que tous les acteurs concernés doivent être impliqués ; cela inclut les développeurs d’IA, notre bureau de la vie privée et des libertés civiles, etc. »
Pour appuyer le propos de Raman, peu importe ce que fait un système d’IA, il est crucial que les concepteurs du système clarifient les domaines où il pourrait échouer. Dans une étude récente, des chercheurs de l’Université d’État de Caroline du Nord ont découvert que des outils d’IA, y compris la reconnaissance faciale et les algorithmes de détection de coups de feu, étaient utilisés par des policiers qui n’étaient pas familiers avec ces technologies ou leurs limites.
Dans un exemple particulièrement choquant d’abus de l’IA par les forces de l’ordre, peut-être dû à l’ignorance, le NYPD aurait utilisé des photos de célébrités, des images déformées et des croquis pour générer des correspondances de reconnaissance faciale sur des suspects dans des affaires où les images de surveillance n’avaient pas donné de résultats.
« Toute sortie générée par l’IA doit être clairement comprise par les utilisateurs, ce qui signifie, évidemment, étiqueter le contenu généré par l’IA et fournir des explications claires sur le fonctionnement des systèmes d’IA », a déclaré Raman. « Tout ce que nous faisons au sein de l’agence respecte nos exigences légales, et nous veillons à ce que nos utilisateurs, nos partenaires et nos parties prenantes soient informés de toutes les lois, réglementations et directives pertinentes régissant l’utilisation de nos systèmes d’IA, et nous nous conformons à toutes ces règles. »
Ce journaliste espère sincèrement que cela est vrai.