Technologie
Un rapport récent de Microsoft met en lumière les défis, les opportunités et les urgences liés à la protection des individus contre les dangers associés au contenu généré par l’intelligence artificielle (IA).
Le mardi, l’entreprise a publié de nouvelles recherches sur les efforts visant à prévenir les contenus nuisibles générés par l’IA, tels que la désinformation liée aux élections et les contenus deepfake. Ce document de 50 pages éclaire également l’exposition des individus à divers types d’abus de l’IA, leur capacité à identifier le contenu synthétique, ainsi que les préoccupations croissantes concernant des problèmes tels que les escroqueries financières et le contenu explicite. Le rapport propose également des recommandations aux décideurs politiques alors que les législateurs envisagent de nouvelles réglementations concernant les textes, images, vidéos et audios générés par l’IA.
Ce rapport a été publié dans un contexte de préoccupations croissantes concernant le contenu généré par l’IA, particulièrement en cette saison électorale. Il a également été rendu public le même jour où le Sénat américain a approuvé le Kids Online Safety Act (KOSA), qui, s’il est adopté, pourrait instaurer de nouvelles réglementations pour les réseaux sociaux, les plateformes de jeux et de streaming, y compris de nouvelles règles de contenu concernant les mineurs.
Dans un article de blog présentant le rapport, Brad Smith, vice-président et président de Microsoft, a exprimé l’espoir que les législateurs élargissent les capacités collectives de l’industrie pour promouvoir l’authenticité du contenu, détecter et répondre aux abus liés aux deepfakes, et fournir au public des outils pour comprendre les dangers de l’IA synthétique.
« Nous avons besoin de nouvelles lois pour empêcher les acteurs malveillants d’utiliser des deepfakes pour escroquer les personnes âgées ou abuser des enfants », a écrit Smith. « Bien que nous et d’autres nous soyons concentrés sur les deepfakes utilisés dans l’ingérence électorale, le rôle plus large qu’ils jouent dans d’autres types de crimes et d’abus mérite une attention égale. »
Au cours de la semaine dernière, des vidéos générées par l’IA mettant en scène le président Joe Biden et la vice-présidente Kamala Harris ont soulevé des inquiétudes quant au rôle de la désinformation liée à l’IA lors des élections de 2024. Un des exemples récents est le partage par le PDG de X, Elon Musk, d’un deepfake de Harris. Certains affirment que Musk pourrait avoir enfreint les politiques de sa propre plateforme en le faisant.
Établir des règles pour le contenu généré par l’IA, tant au niveau des entreprises que des gouvernements, nécessite également de définir des seuils pour ce qui devrait être autorisé, selon Derek Leben, professeur associé d’éthique des affaires à l’Université Carnegie Mellon. Il a souligné que cela soulève des questions sur la manière de déterminer ces seuils en fonction du contenu, de l’intention, du créateur et de la personne représentée dans une vidéo. Ce qui est créé comme une parodie peut également devenir de la désinformation en fonction de la manière dont le contenu est partagé et par qui.
Microsoft a raison de plaider pour une réglementation et une sensibilisation accrue du public tout en développant de meilleurs outils de détection de l’IA, a déclaré Leben, qui a mené des recherches et écrit sur l’IA et l’éthique. Il a également noté que mettre l’accent sur le gouvernement et les utilisateurs pourrait réduire la responsabilité des entreprises. Si l’objectif est réellement d’empêcher les gens d’être trompés par la désinformation générée par l’IA en temps réel, a-t-il dit, les étiquettes devraient être bien visibles et nécessiter moins d’efforts de la part des utilisateurs pour déterminer l’authenticité.
« Une grande partie de la parodie dépend des intentions de la personne qui l’a créée, mais elle peut ensuite être diffusée comme de la désinformation là où cela n’était pas prévu », a déclaré Leben. « Il est très difficile pour une entreprise comme Microsoft de dire qu’elle mettra en place des mesures contre les vidéos abusives, mais pas contre les parodies. »
Les experts affirment que le simple ajout de filigranes sur le contenu généré par l’IA ne suffit pas à prévenir complètement la désinformation. Le deepfake de Harris est un exemple de « deepfake partiel » qui combine à la fois de l’audio synthétique et quelques secondes d’audio réel, selon Rahul Sood, directeur produit chez Pindrop, une entreprise spécialisée dans la sécurité de l’IA. Il a indiqué que ces cas deviennent de plus en plus courants et beaucoup plus difficiles à détecter pour les utilisateurs et la presse.
Bien que le filigrane puisse aider, de nombreux experts estiment qu’il ne suffit pas à prévenir les dangers de la désinformation générée par l’IA. Bien que Pindrop suive plus de 350 systèmes de génération de voix par IA, Sood a précisé que seule une majorité de ces outils open-source n’utilisent pas de filigrane. Environ une douzaine d’outils sont disponibles commercialement.
« La technologie existe pour permettre une détection en temps réel sur ces plateformes », a déclaré Sood. « La question est de savoir s’il existe un véritable mandat les obligeant à le faire. »
D’autres entreprises cherchent également des moyens d’aider les gens à détecter les deepfakes. L’une d’elles, Trend Micro, a récemment lancé un nouvel outil pour détecter les vidéos synthétiques lors des appels en conférence. Selon une étude récente de Trend Micro, 36 % des personnes interrogées ont déjà été victimes d’escroqueries, tandis qu’environ 60 % affirment être capables de les identifier.
« Le plus grand défi que nous allons rencontrer avec l’IA dans les années à venir est la désinformation », a déclaré Jon Clay, vice-président de l’intelligence des menaces chez Trend Micro. « Que ce soit l’utilisation de deepfakes, que ce soit en vidéo ou en audio, je pense que cela sera l’un des aspects les plus difficiles pour les gens de discerner ce qui est réel et ce qui ne l’est pas. »