Les Deepfakes : Une Nouvelle Forme de Violence Basée sur le Genre
En 2017, une journaliste, Samantha Cole, a mis en lumière un utilisateur de Reddit qui exploitait des technologies d’intelligence artificielle (IA) open-source pour créer des contenus pornographiques non consensuels en utilisant les visages de célébrités. Ce créateur se faisait appeler « deepfake ».
Les premiers deepfakes étaient facilement identifiables en raison de leur aspect glitché et peu réaliste. Cependant, cette technologie a évolué au point que quiconque possédant des compétences informatiques de base et un ordinateur adéquat peut désormais produire, diffuser et vendre des deepfakes de qualité.
Pour créer des images sexualisées réalistes, un deepfaker n’a qu’à trouver des photos de la personne ciblée sur des plateformes publiques comme Instagram.
« La création de ces contenus soulève de véritables questions d’autonomie sexuelle et engendre des préjudices », a déclaré Suzie Dunn, professeure adjointe à l’École de droit Schulich de Dalhousie, lors d’une interview. Elle a ajouté : « Désormais, des individus peuvent violer l’autonomie sexuelle d’autres personnes de manière grave sans même avoir de contact physique avec elles. »
Une Violente Réalité Émergente
La production d’un deepfake sexualisé constitue une atteinte à l’autonomie sexuelle, c’est-à-dire le droit d’un individu à prendre des décisions concernant son corps et sa sexualité sans ingérence.
La diffusion de deepfakes en ligne, tout en prétendant qu’il s’agit de contenus sexuels réels, équivaut à la distribution non consensuelle d’images intimes, car le préjudice public est identique.
Selon le rapport de Sensity AI, « L’État des Deepfakes 2019 : Paysage, Menaces et Impact », 96 % des deepfakes sont utilisés pour créer des contenus sexuels non consensuels, dont 99 % concernent des images de femmes. Cela représente une nouvelle forme de violence basée sur le genre.
« Au Canada et à l’échelle mondiale, les préjudices causés par les deepfakes sexuels sont de plus en plus reconnus. Lorsque ces contenus ont commencé à apparaître sur Reddit, de nombreuses personnes les ont publiés sur Pornhub et d’autres plateformes. Rapidement, la plupart des entreprises de médias sociaux, y compris Pornhub, ont mis en place des politiques interdisant ce type de contenu, le classant dans la même catégorie que d’autres règles sur les images non consensuelles », a expliqué Dunn.
Noel Martin, une Australienne, a été ciblée par un individu qui l’a trouvée sur Internet. Cet individu a commencé à créer des contenus pornographiques falsifiés, puis des deepfakes d’elle.
Martin a plaidé pour des changements législatifs, y compris l’ajout du terme « images altérées » aux lois australiennes sur les images non consensuelles. Cela signifie que quiconque partage une image sexuelle, qu’il s’agisse d’une véritable ressemblance ou d’un deepfake, sans consentement, est passible de poursuites.
En revanche, le droit pénal canadien ne prévoit pas cette disposition. Ainsi, si une image sexuelle est diffusée sans consentement, il faut que ce soit le corps nu de la personne pour pouvoir porter plainte.
Les lois civiles en Colombie-Britannique, en Alberta, en Saskatchewan, en Nouvelle-Écosse et à Terre-Neuve-et-Labrador incluent des images altérées, offrant ainsi la possibilité de poursuivre en dommages et intérêts. Dans les provinces et territoires où cette option n’existe pas, une personne peut toujours intenter une action en justice, mais cela constituerait un argument juridique inédit, établissant un précédent.
Certaines catégories de femmes, comme les journalistes, les joueuses et celles utilisant le service de streaming en direct Twitch, sont particulièrement vulnérables à la transformation en deepfakes.
Les Deepfakes : Des Conséquences Réelles pour les Victimes
« Une fois qu’un deepfake est associé à votre nom et qu’il est facilement trouvable sur Google, même si les gens savent qu’il est faux, cela influence la façon dont ils vous perçoivent », a expliqué Dunn.
Les deepfakes peuvent avoir des répercussions économiques significatives, surtout lorsque les lois du travail sont faibles et ne protègent pas les personnes ciblées par ce type de contenu.
Les conséquences peuvent pousser les femmes à s’isoler ou à souffrir de problèmes de santé mentale. Bien que certaines choisissent de retirer leurs images des plateformes en ligne, de plus en plus de carrières exigent une présence publique, ce qui peut affecter leurs revenus et leur avancement professionnel.
« Il y a une véritable perte d’autonomie sexuelle pour les femmes. Lorsque nous perdons notre autonomie sexuelle, les réactions varient. Pour certains, cela peut être une simple gêne, mais pour d’autres, cela peut être dévastateur et ruiner leur vie », a déclaré Dunn.
Cependant, elle souligne que les lois évoluent et que la plupart des réponses juridiques se concentrent sur la distribution de contenus pornographiques sans consentement.
Certains sites pornographiques ont mis en place des règles de modération concernant qui peut publier et quel type de contenu peut être partagé. Pourtant, sur des plateformes comme Meta, Instagram et TikTok, bien que des règles de modération soient clairement établies, elles ne sont pas toujours appliquées.
« Lorsque je parle de pornographie, je fais référence à des contenus spécifiquement créés pour être vus par le public. En revanche, les matériaux d’abus sexuel ou d’abus d’image ne devraient pas être classés comme de la pornographie. Ce sont des contenus d’abus », a expliqué Dunn.
Lorsqu’un contenu d’abus sexuel basé sur l’image est téléchargé sur des sites pornographiques, plusieurs vérifications doivent être effectuées, y compris la vérification de l’âge et du consentement. Une fois toutes les cases cochées, le contenu devient public.
Cependant, Dunn souligne qu’il est impossible de déterminer si une vidéo a été réalisée avec consentement simplement en la regardant.
Cela reste l’un des grands défis qui nécessite des discussions continues sur les obligations des sites pornographiques et sur la manière dont ils prévoient de garantir que toutes les personnes impliquées ont consenti à la publication du matériel.
Selon Dunn, à moins que des pratiques éthiques solides ne soient intégrées dans leurs systèmes, les sites peuvent facilement publier des contenus d’agression sexuelle basés sur l’image.
Le Système Juridique Doit Évoluer avec la Technologie
Dunn souligne également qu’à mesure que la violence facilitée par la technologie évolue, la société et le système juridique doivent développer un vocabulaire pour désigner les abus facilités par la technologie. Il est essentiel de nommer ces abus avant de pouvoir les catégoriser et identifier les préjudices qu’ils infligent.
Actuellement, le Code criminel canadien n’inclut pas les images altérées. Cependant, Dunn affirme que les inclure ouvre un large débat sur la frontière entre ce qui est criminel et ce qui ne l’est pas. Les images doivent-elles être extraordinairement réalistes ? Cette définition devrait-elle s’étendre aux récits sexualisés et aux dessins animés d’individus ?
Ces questions complexes ne peuvent être abordées que par une évolution des systèmes juridiques, tant pénaux que civils, axée sur la violence de genre alimentée par la technologie, comme les deepfakes.
Pour que les changements soient significatifs, ils doivent être accompagnés de réglementations renforcées pour les entreprises de médias sociaux et les sites pornographiques, afin de garantir que des règles interdisant les images sexualisées ou le contenu pornographique soient en place. Il est également nécessaire d’établir des règles sur la manière de gérer les situations lorsque ce contenu est publié, afin de s’assurer qu’il soit retiré rapidement.
Dunn met en garde contre la nécessité de différencier l’expression sexuelle consensuelle sur Internet de l’abus sexuel. Cela est crucial, car parfois, lorsque des efforts sont déployés pour éliminer le contenu sexuel abusif, tout le contenu sexuel est balayé.
« Il est essentiel de reconnaître le rôle important que joue le contenu sexuellement expressif dans notre société. Ainsi, lorsque nous réfléchissons à l’amélioration de l’accès au contenu sexuel sur Internet, nous devons veiller à ne pas jeter le bébé avec l’eau du bain. Nous voulons une expression sexuelle positive et saine dans nos vies physiques, ce qui est différent de l’agression sexuelle. De la même manière, nous pouvons avoir une expression sexuelle positive et saine dans des espaces numériques, comme des sites pour enfants sur des informations de santé sexuelle, qui pourraient être affectés par cette purge », a déclaré Dunn.
Deepa Mattoo, avocate et directrice exécutive de la Barbra Schlifer Commemorative Clinic à Toronto, a déclaré : « Nous n’avons pas encore vu de cas se présenter, mais lorsque cela se produira, cela posera un défi. La violence en ligne, en général, est en augmentation et l’IA joue certainement un rôle important. »
Mattoo ne pense pas qu’il devrait y avoir un standard juridique différent pour le contenu abusif en ligne. Si un contenu est généré par l’IA et réalisé avec l’intention de harceler sexuellement ou mentalement une personne, d’attaquer sa réputation ou de la faire chanter, alors c’est un crime et cela doit être considéré comme de la violence sexuelle.
« Cela fait partie d’un schéma de coercition et de contrôle qui devrait être pris encore plus au sérieux, car l’intention de l’acte montre que vous l’avez planifié et que vous avez utilisé la technologie. De ce point de vue, cela devrait être considéré comme plus grave que d’autres crimes », a déclaré Mattoo.
Mattoo estime qu’il ne devrait y avoir aucune excuse lorsque quelqu’un obtient délibérément des images et les sexualise dans le but de nuire à la victime.
Elle souligne que la science a établi que le traumatisme résultant de la violence sexuelle peut avoir des répercussions sur la victime pour le reste de sa vie.
Mattoo souhaiterait que le système pénitentiaire devienne un système éducatif, car, selon elle, enfermer quelqu’un dans un espace restreint et limiter ses capacités ne suffit pas à le changer.
« Cela concerne quelque chose qui se produit sans votre consentement, votre autonomie a été retirée. Ainsi, le préjudice psychologique est beaucoup plus profond. Ce qui est vraiment nécessaire, c’est un changement dans la société pour que ces crimes cessent de se produire », a conclu Mattoo.