Technologie

Un rapport récent​ de Microsoft met en lumière les défis, les opportunités et les urgences liés à la ‌protection des individus contre les dangers associés ‍au contenu généré ‍par l’intelligence artificielle (IA).

Le mardi, l’entreprise a⁣ publié de nouvelles recherches sur ⁢les efforts visant à prévenir les contenus nuisibles générés par l’IA, tels que la désinformation⁢ liée ‍aux élections et ⁣les contenus⁢ deepfake.‌ Ce document de 50 pages éclaire également l’exposition des individus à divers types d’abus de l’IA, leur capacité à identifier le contenu​ synthétique, ainsi que les préoccupations croissantes concernant des problèmes tels que ‍les ‍escroqueries financières et le contenu explicite. Le rapport propose ​également des recommandations aux‌ décideurs politiques alors ⁢que les législateurs⁢ envisagent de nouvelles réglementations concernant les textes, images, vidéos et audios générés par l’IA.

Ce ​rapport a été publié dans un contexte de préoccupations croissantes concernant le contenu ⁤généré ‌par l’IA, ⁤particulièrement en cette saison électorale. Il a également été rendu public le même jour où le Sénat américain ⁤a approuvé le Kids ⁤Online Safety Act (KOSA), qui, ‍s’il est adopté, pourrait instaurer de nouvelles ‌réglementations pour⁤ les réseaux sociaux, les plateformes ‌de jeux et de⁤ streaming,⁣ y compris de nouvelles règles de contenu concernant les mineurs.

Dans ‌un⁤ article de blog présentant le rapport,‌ Brad Smith, vice-président et président​ de Microsoft, a exprimé l’espoir ⁣que les législateurs élargissent les capacités ⁤collectives de l’industrie pour promouvoir l’authenticité ​du contenu, détecter et répondre aux abus liés aux deepfakes, et fournir au public des outils pour comprendre les dangers de l’IA synthétique.

« Nous avons ​besoin de nouvelles lois pour empêcher les acteurs malveillants⁣ d’utiliser des⁤ deepfakes pour escroquer les personnes ‌âgées ou​ abuser des enfants », a écrit Smith. « Bien que ⁣nous et​ d’autres nous ⁣soyons concentrés sur les deepfakes utilisés dans l’ingérence électorale, le rôle plus large qu’ils jouent dans d’autres types de ​crimes et d’abus mérite une attention ⁤égale. »

Au cours ​de la semaine dernière, des​ vidéos⁣ générées par l’IA‍ mettant​ en scène le ‌président Joe Biden et⁢ la ​vice-présidente Kamala Harris ont ‌soulevé des inquiétudes quant au rôle de la ​désinformation liée à l’IA lors des élections de⁤ 2024. Un des exemples récents est​ le partage⁢ par le PDG de X, Elon Musk, d’un deepfake de Harris. Certains affirment que Musk pourrait avoir enfreint​ les politiques de ​sa ‍propre plateforme en le faisant.

Établir des règles pour le contenu généré par l’IA, tant ​au niveau des entreprises que ⁣des gouvernements,‍ nécessite également ​de définir des seuils pour ce qui devrait être autorisé, selon Derek Leben, professeur associé d’éthique des ​affaires à l’Université Carnegie Mellon. Il a souligné que cela soulève des questions sur la manière de déterminer ces seuils⁢ en ⁢fonction du⁢ contenu, de⁢ l’intention, du ⁢créateur⁢ et de la personne représentée dans‍ une‍ vidéo. Ce‍ qui⁤ est créé comme⁢ une parodie peut également devenir‍ de la désinformation en fonction de la manière dont le contenu est partagé et par qui.

Microsoft a raison de plaider pour une réglementation⁤ et une​ sensibilisation accrue du public tout en développant de ⁢meilleurs ‌outils ⁢de détection de l’IA, a déclaré Leben, qui a‍ mené⁣ des⁣ recherches et écrit ⁢sur l’IA et​ l’éthique. Il a également noté que mettre l’accent sur le gouvernement et les utilisateurs pourrait réduire la responsabilité des entreprises.⁢ Si ⁤l’objectif est réellement d’empêcher ⁤les gens d’être ‌trompés par ‌la désinformation générée par l’IA en temps réel, a-t-il dit, les étiquettes devraient être bien visibles et nécessiter ‌moins d’efforts de la part des utilisateurs pour déterminer‌ l’authenticité.

« Une grande ⁤partie de la parodie dépend des intentions ⁤de la personne ⁤qui l’a⁣ créée, ‌mais elle peut ensuite être diffusée ⁣comme de la désinformation⁤ là où ‌cela n’était pas prévu », a⁢ déclaré Leben. « Il est très difficile pour ⁢une entreprise comme Microsoft de dire qu’elle mettra en place des mesures contre les vidéos abusives, mais pas contre les parodies. »

Les experts affirment que le simple⁤ ajout de ⁤filigranes⁤ sur le contenu généré par l’IA ‍ne suffit pas à⁣ prévenir complètement la désinformation. Le deepfake de Harris est un exemple ​de « deepfake partiel » qui combine à la fois de l’audio synthétique et quelques secondes d’audio réel,⁣ selon Rahul Sood, directeur produit chez Pindrop, une‌ entreprise spécialisée dans la sécurité de l’IA. Il a indiqué ​que ces cas deviennent de plus en plus⁤ courants et beaucoup plus difficiles à détecter⁣ pour les⁢ utilisateurs et la​ presse.

Bien que ‍le filigrane puisse aider, de nombreux experts estiment qu’il ne suffit pas à prévenir les‌ dangers de la‍ désinformation générée par l’IA. Bien que Pindrop suive plus‌ de 350 systèmes de génération ⁢de voix par IA, Sood a précisé que seule ‍une majorité de ces outils open-source⁣ n’utilisent pas de filigrane. Environ une douzaine d’outils sont disponibles​ commercialement.

« La technologie existe⁣ pour permettre une détection en temps réel sur ces plateformes‌ », a déclaré Sood. ⁣« La question ‌est de savoir s’il existe un véritable mandat‍ les obligeant à le faire. »

D’autres entreprises cherchent également des moyens d’aider les gens‍ à détecter les deepfakes. L’une d’elles, Trend Micro, a récemment lancé un nouvel outil pour détecter les vidéos synthétiques lors ‌des appels en conférence. Selon une étude récente de Trend Micro, 36 % des personnes ⁤interrogées ⁤ont déjà été‍ victimes d’escroqueries, tandis qu’environ 60 % affirment être⁢ capables de les identifier.

« Le plus grand défi⁣ que⁣ nous allons rencontrer ​avec l’IA dans les années à venir est la désinformation ​», ‌a⁢ déclaré Jon Clay, vice-président de l’intelligence‍ des menaces chez Trend Micro. « Que ce soit l’utilisation de ⁢deepfakes, ‍que ⁣ce soit en vidéo⁤ ou en ​audio, je pense que cela sera l’un des aspects les plus difficiles pour les gens⁢ de discerner ce ⁣qui est réel et ⁢ce qui ne l’est pas. ‌»

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *