Vous vous réveillez le jour des élections et déverrouillez votre téléphone pour découvrir une vidéo tremblotante de votre capitole d’État. Dans ces images chaotiques, de la fumée s’échappe du bâtiment gouvernemental. D’autres clips publiés en parallèle montrent des coups de feu au loin. Vous vous dites : Il vaudrait peut-être mieux éviter le bureau de vote aujourd’hui. Ce n’est que plus tard que vous réalisez que ces vidéos étaient des contrefaçons générées par l’IA.

Un ami vous appelle, bouleversé. Une connaissance anonyme l’a impliquée dans une série de deepfakes pornographiques, et maintenant les vidéos se propagent de site en site. La police lui a conseillé de contacter un avocat, mais les lettres de cessation et d’abstention ne fonctionnent pas.

Vous êtes un acteur célèbre. Une grande entreprise technologique souhaite que vous soyez la voix de son nouvel assistant IA. Vous refusez. Des mois plus tard, le chatbot est lancé et les gens affirment qu’il ressemble exactement à vous. Vous n’avez jamais consenti à une telle imitation, et maintenant quelqu’un d’autre tire profit de votre voix.

Alors que les contrefaçons générées par l’IA inondent Internet, il est probable que bientôt tout le monde, pas seulement Scarlett Johansson, ait une histoire similaire à raconter. Récemment, des législateurs à travers les États-Unis ont adopté près d’une douzaine de lois et en ont proposé des dizaines d’autres pour réguler les imitations d’IA sous toutes leurs formes. Cependant, cette campagne législative rencontre maintenant des résistances inattendues. Des groupes de défense des droits humains, dirigés par l’American Civil Liberties Union (ACLU) et ses affiliés au niveau des États, construisent une posture juridique visant à restreindre ou même à rejeter bon nombre de ces nouvelles règles. Au cœur de l’argument : les Américains ont un droit constitutionnel de créer des deepfakes de leurs concitoyens.

« Chaque fois que vous voyez de grandes vagues de projets de loi tentant de réguler une nouvelle technologie à travers 50 législatures d’État différentes et Dieu sait combien d’ordonnances communautaires, il y en aura un certain nombre qui traceront des lignes incorrectes », a déclaré Brian Hauss, avocat senior au sein du projet de l’ACLU sur la parole, la vie privée et la technologie. « Je n’ai aucun doute », a-t-il poursuivi, « qu’il y aura beaucoup de litiges concernant ces projets de loi au fur et à mesure de leur mise en œuvre. »

De tels litiges pourraient s’avérer être un moment de vérité inconfortable pour le mouvement croissant visant à réguler l’IA, et mener à un avenir chaotique où nous devrons tous simplement accepter une certaine forme d’imitation générée par des machines.

Tout d’abord, mettez de côté toute idée selon laquelle l’IA elle-même aurait des droits. Ce n’est pas le cas. L’IA « est un outil, comme un grille-pain ou tout autre objet inanimé », a déclaré Hauss. « Mais lorsque j’utilise l’IA pour communiquer quelque chose dans le monde », a-t-il ajouté, « j’ai des droits au titre du Premier Amendement. »

Par analogie, une pancarte colorée proclamant « Merci Dieu pour les soldats morts » n’a pas de privilèges juridiques. Mais lorsque des membres de l’Église baptiste de Westboro brandissent un tel panneau près des funérailles d’un vétéran, ils ont droit aux mêmes protections constitutionnelles qui couvrent tout le monde. Peu importe à quel point le panneau lui-même peut être répréhensible, ces droits sont inaliénables. (En 2010, l’église a été condamnée à verser 5 millions de dollars au père d’un Marine dont les funérailles ont été perturbées. Cette décision a été annulée par la suite, et dans l’affaire de la Cour suprême qui a suivi, l’ACLU a déposé un mémoire juridique en soutien à la position de l’église. La Cour a statué en faveur de l’église.)

Une fois qu’un discours légal existe—qu’il s’agisse d’une pancarte de protestation ou d’un deepfake malveillant que vous avez créé à propos de votre voisin—la jurisprudence du Premier Amendement impose des limites strictes sur quand et pourquoi le gouvernement peut agir pour le cacher aux yeux des autres. « Imaginez un monde où le gouvernement ne restreint pas qui peut parler mais restreint qui peut écouter », déclare Cody Venzke du département national de plaidoyer politique de l’ACLU. « Ces deux droits doivent exister ensemble. » Cette idée est parfois appelée le « droit d’écouter ».

Selon ces critères, de nombreuses lois et réglementations sur l’IA qui ont reçu un soutien bipartisan à travers le pays ne passent tout simplement pas le test constitutionnel. Et il y en a beaucoup.

À l’été dernier, la Commission électorale fédérale a commencé à examiner si une règle existante sur la représentation frauduleuse s’applique aux « publicités de campagne trompeuses générées par l’intelligence artificielle ». L’ACLU, dans une lettre adressée à la FEC, a averti que la règle devrait être strictement limitée aux deepfakes dont les créateurs avaient une intention manifeste de tromper le public, plutôt qu’à tout deepfake qui pourrait tromper certains spectateurs. (La FEC n’a pas encore rendu de décision.)

Parallèlement, en octobre 2023, le président Biden a signé un décret exécutif de grande envergure sur l’IA, qui incluait une directive au département du Commerce pour développer des normes de filigrane pour les productions d’IA. « Chacun a le droit de savoir quand l’audio qu’il entend ou la vidéo qu’il regarde est généré ou modifié par l’IA », a déclaré Biden. L’ACLU et d’autres groupes de défense des libertés civiles sont particulièrement méfiants à l’égard de l’idée d’étiquetage, à la fois parce qu’elle pourrait ne pas être efficace—les acteurs malveillants pourraient trouver des moyens techniques de contourner—et parce qu’elle oblige les gens à exercer un discours qu’ils auraient autrement laissé non exprimé. Par analogie, exiger que tous les deepfakes soient étiquetés serait un peu comme exiger que tous les humoristes crient « Ceci est une parodie ! » avant de commencer une imitation d’un politicien.

Au niveau des États, il y a eu encore plus d’activité législative. Rien qu’en janvier de cette année, les législateurs des États ont introduit 101 projets de loi liés aux deepfakes, selon la BSA, un groupe commercial de logiciels. L’un de ces projets de loi, introduit en Géorgie, ferait de la création ou du partage d’un deepfake dans le but d’influencer une élection une infraction criminelle. Cela a présenté aux avocats et aux défenseurs de l’ACLU de l’État un choix déchirant.

« L’ACLU de Géorgie a, historiquement, été de fervents défenseurs des droits des électeurs », a déclaré Sarah Hunt-Blackwell, avocate en politique du Premier Amendement pour l’organisation. Quelques jours avant que le projet de loi n’atteigne le sol, les électeurs des primaires du New Hampshire avaient reçu des appels dans lesquels la voix deepfake de Joe Biden les exhortait à rester chez eux. C’était « extrêmement préoccupant », a déclaré Hunt-Blackwell.

Cependant, l’équipe a finalement décidé, après consultation avec le bureau national de l’ACLU, que censurer et sur-criminaliser le discours politique mensonger représenterait une menace plus grande. Bien que l’organisation soutienne des règles plus étroitement ciblées contre la désinformation concernant la date, le lieu et l’heure des élections, qu’elle considère comme une forme de suppression des électeurs, elle soutient que les citoyens ont un droit constitutionnel d’utiliser l’IA pour diffuser des mensonges, tout comme ils le font pour mentir sur papier ou dans des commentaires lors d’un rassemblement politique. « La politique a toujours été principalement fondée sur des mensonges », a déclaré un membre senior du personnel de l’ACLU.

Le 29 janvier, lors d’une audition devant le comité judiciaire du Sénat de Géorgie, Hunt-Blackwell a exhorté les législateurs à supprimer les pénalités criminelles du projet de loi et à ajouter des exceptions pour les organisations de médias souhaitant republier des deepfakes dans le cadre de leur reportage. La session législative de Géorgie s’est terminée avant que le projet de loi puisse avancer.

La législation fédérale sur les deepfakes est également sur le point de rencontrer de la résistance. En janvier, des législateurs au Congrès ont introduit le No AI FRAUD Act, qui accorderait des droits de propriété sur l’image et la voix des personnes. Cela permettrait à ceux qui sont représentés dans tout type de deepfake, ainsi qu’à leurs héritiers, de poursuivre ceux qui ont participé à la création ou à la diffusion de la contrefaçon. Ces règles visent à protéger les personnes contre les deepfakes pornographiques et l’imitation artistique. Quelques semaines plus tard, l’ACLU, la Electronic Frontier Foundation et le Center for Democracy and Technology ont soumis une opposition écrite.

Avec plusieurs autres groupes, ils ont soutenu que ces lois pourraient être utilisées pour supprimer bien plus que de simples discours illégaux. La simple perspective de faire face à un procès, soutient la lettre, pourrait dissuader les gens d’utiliser la technologie pour des actes protégés par la Constitution tels que la satire, la parodie ou l’opinion.

Dans une déclaration à WIRED, la sponsor du projet de loi, la représentante María Elvira Salazar, a noté que « le No AI FRAUD Act contient une reconnaissance explicite des protections du Premier Amendement pour le discours et l’expression dans l’intérêt public ». La représentante Yvette Clarke, qui a parrainé un projet de loi parallèle exigeant que les deepfakes représentant des personnes réelles soient étiquetés, a déclaré à WIRED qu’il avait été modifié pour inclure des exceptions pour la satire et la parodie.

Dans des entretiens avec WIRED, des défenseurs des politiques et des avocats de l’ACLU ont noté qu’ils ne s’opposent pas à des réglementations étroitement ciblées visant la pornographie deepfake non consensuelle. Mais ils ont souligné que les lois anti-harcèlement existantes constituent un cadre solide (mais pas parfait) pour traiter le problème. « Il pourrait bien sûr y avoir des problèmes que vous ne pouvez pas réguler avec les lois existantes », a déclaré Jenna Leventoff, conseillère principale en politique de l’ACLU. « Mais je pense que la règle générale est que la loi existante est suffisante pour cibler beaucoup de ces problèmes. »

Cependant, ce point de vue n’est pas unanime parmi les universitaires du droit. Comme l’a déclaré Mary Anne Franks, professeure de droit à l’Université George Washington et défenseure de règles strictes contre les deepfakes, dans un courriel à WIRED, « Le défaut évident de l’argument ‘Nous avons déjà des lois pour traiter cela’ est que si c’était vrai, nous ne serions pas témoins d’une explosion de cet abus sans augmentation correspondante des poursuites pénales. » En général, a déclaré Franks, les procureurs dans une affaire de harcèlement doivent prouver au-delà de tout doute raisonnable que l’auteur présumé avait l’intention de nuire à une victime spécifique—un seuil élevé à atteindre lorsque cet auteur peut même ne pas connaître la victime.

Franks a ajouté : « Un des thèmes constants des victimes de cet abus est qu’il n’existe pas de remèdes juridiques évidents pour elles—et ce sont elles qui le sauraient. »

L’ACLU n’a pas encore poursuivi un gouvernement concernant les réglementations sur l’IA générative. Les représentants de l’organisation n’ont pas voulu dire s’ils préparaient une affaire, mais tant le bureau national que plusieurs affiliés ont déclaré qu’ils surveillaient attentivement le pipeline législatif. Leventoff m’a assuré : « Nous avons tendance à agir rapidement lorsque quelque chose se présente. »

L’ACLU et d’autres groupes ne nient pas les horreurs de l’utilisation abusive de l’IA générative, allant de la désinformation politique aux deepfakes pornographiques en passant par l’appropriation du travail des artistes. L’objectif d’intervenir dans de tels cas ne serait pas d’approuver le contenu offensant. Comme l’a dit Hauss, « Nous représentons une quantité considérable de discours avec lequel nous ne sommes pas d’accord. » Au contraire, le but est d’éviter ce que ces groupes considèrent comme un glissement constitutionnel dangereux. « Si vous avez un régime juridique qui dit que le gouvernement peut supprimer les deepfakes », a déclaré Hauss, « l’une des premières questions qui devrait venir à l’esprit de tout le monde est de savoir comment un fonctionnaire autoritaire utiliserait ces pouvoirs pour supprimer un discours vrai à propos de cette personne ? »

L’année dernière, l’ACLU et de nombreux autres groupes de défense des libertés civiles ont signé une lettre s’opposant à un projet de loi bipartisan du Sénat qui rendrait les plateformes de médias sociaux responsables de l’hébergement de contenu généré par l’IA, y compris les deepfakes. La lettre avertissait qu’en assouplissant les réglementations qui protègent les entreprises de la responsabilité pour le contenu qu’elles hébergent, la loi créerait une ouverture réglementaire pour que les États poursuivent les entreprises pour du contenu non lié à l’IA également. Les auteurs de la lettre ont cité un projet de loi introduit l’année dernière dans la législature du Texas qui criminaliserait l’hébergement « d’informations sur la façon d’obtenir un médicament provoquant un avortement » en ligne. Si ces deux projets de loi, fédéral et étatique, devenaient loi, alors les plateformes de médias sociaux pourraient être poursuivies pour avoir hébergé du contenu lié à l’avortement. Il suffirait qu’un utilisateur publie quelque chose avec l’aide de l’IA—un tweet rédigé avec l’aide de ChatGPT, une image générée par DALL-E. La lettre soutient même que des outils « basiques et courants » tels que l’autocomplétion et la correction automatique pourraient correspondre à la définition de l’IA générative selon le projet de loi du Sénat.

Pour des raisons similaires, l’ACLU et l’EFF ont longtemps été sceptiques quant à l’expansion des soi-disant « droits de publicité », qui ont été proposés pour protéger les artistes contre l’imitation générée par l’IA. Les groupes affirment que ces droits peuvent être utilisés par les riches et puissants pour supprimer des discours qu’ils n’aiment tout simplement pas. Là où Saturday Night Live est légalement protégé lorsqu’un de ses membres imite Tom Cruise, quiconque crée des deepfakes de Tom Cruise pourrait, selon de telles règles, être légalement vulnérable. Cela établirait un précédent dangereux, soutiennent les groupes de défense des libertés civiles. En mars, le Tennessee a adopté une nouvelle loi, l’ELVIS Act, qui interdit l’utilisation de l’IA pour imiter les voix des musiciens. L’ACLU n’a pas commenté publiquement la loi, mais le personnel qui a parlé à WIRED a exprimé des doutes quant à savoir si l’utilisation de contenu créatif pour former des systèmes comme ChatGPT ou DALL-E constitue une violation du droit d’auteur.

L’ACLU a une longue histoire de victoires dans des affaires de liberté d’expression. Leurs défis aux réglementations sur l’IA générative pourraient refroidir les espoirs d’un monde où l’IA omniprésente est maîtrisée uniquement par la loi. Plusieurs avocats de la défense des libertés civiles avec qui j’ai parlé ont suggéré qu’une meilleure éducation et une meilleure culture médiatique seraient une meilleure défense contre les faux générés par l’IA que les législateurs et les juges. Mais cela suffit-il ?

En tant que société, nous avons toujours dû tolérer une certaine quantité de discours désagréables, pas particulièrement utiles, parfois blessants, afin de garantir la protection des discours qui favorisent l’ouverture et la démocratie. Mais les nouvelles technologies de discours falsifié sont si répandues, et les algorithmes qui transportent le contenu vers nos écrans sont si étroitement optimisés en faveur de l’extrême et du corrosif, que certains commencent à se demander si attribuer aux discours générés par l’IA les mêmes protections que ceux des humains pourrait causer plus de mal que de bien. « Nous souffrons d’un problème différent de celui que nous avons jamais connu auparavant », a déclaré Mary Anne Franks, la professeure de droit de l’Université George Washington.

Cela dit, nous sommes encore au début de cette question. Il est possible que les groupes de défense et les régulateurs trouvent un moyen de revenir à ce compromis inconfortable mais finalement fonctionnel qui a toujours caractérisé la jurisprudence sur la liberté d’expression. Au pire, cependant, le combat imminent pourrait forcer un choix entre deux réalités peu appétissantes. Selon une interprétation absolutiste du Premier Amendement, nous pourrions être condamnés à rester passifs devant

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *