Technologie
Les deepfakes, bien que préoccupants, ont joué un rôle crucial dans la sensibilisation aux dangers associés à cette technologie. Ils semblent avoir incité les entreprises technologiques et les législateurs à agir.
« La pression a été accrue », déclare Henry Ajder, expert en IA générative qui étudie les deepfakes depuis près de dix ans. Nous sommes à un tournant où la pression des législateurs et la prise de conscience des consommateurs sont si fortes que les entreprises technologiques ne peuvent plus ignorer le problème, ajoute-t-il.
Des avancées encourageantes
Récemment, Google a annoncé qu’il prenait des mesures pour empêcher l’apparition de deepfakes explicites dans ses résultats de recherche. Le géant technologique facilite la demande de suppression d’images explicites non consensuelles. De plus, il filtrera les résultats explicites lors de recherches similaires et supprimera les images en double, ce qui empêchera leur réapparition à l’avenir. Google a également décidé de déclasser les résultats de recherche menant à du contenu explicite. Lorsqu’un utilisateur recherche des deepfakes en incluant un nom, Google s’efforcera de mettre en avant des contenus de qualité, non explicites, comme des articles d’actualité pertinents.
Ajder considère cela comme un pas positif. Les modifications apportées par Google réduisent considérablement la visibilité des contenus pornographiques deepfake non consensuels. « Cela signifie que les gens devront faire beaucoup plus d’efforts pour les trouver s’ils souhaitent y accéder », précise-t-il.
En janvier, j’avais évoqué trois stratégies pour lutter contre les deepfakes explicites non consensuels : la réglementation, les filigranes pour détecter les contenus générés par IA, et des protections pour compliquer l’utilisation de nos images par des attaquants.
Des progrès réglementaires
Huit mois plus tard, bien que les filigranes et les protections soient encore expérimentaux et peu fiables, la réglementation a fait des avancées. Par exemple, le Royaume-Uni a interdit la création et la distribution de deepfakes explicites non consensuels. Cette décision a conduit un site populaire, Mr DeepFakes, à bloquer l’accès aux utilisateurs britanniques, selon Ajder.
La loi sur l’IA de l’UE est désormais en vigueur et pourrait entraîner des changements significatifs en matière de transparence. Cette législation exige que les créateurs de deepfakes divulguent clairement que le matériel a été généré par une IA. De plus, fin juillet, le Sénat américain a adopté le Defiance Act, qui offre aux victimes un moyen de demander des recours civils pour les deepfakes sexuellement explicites. (Cette législation doit encore surmonter plusieurs obstacles à la Chambre pour devenir loi.)
Des efforts supplémentaires nécessaires
Cependant, beaucoup reste à faire. Google peut identifier les sites qui reçoivent du trafic et tente de retirer les sites de deepfakes des résultats de recherche, mais il pourrait aller plus loin. « Pourquoi ne traitent-ils pas cela comme des sites de pornographie juvénile et ne les retirent-ils pas complètement des recherches lorsque c’est possible ? », s’interroge Ajder. Il trouve également étrange que l’annonce de Google ne mentionne pas les vidéos deepfake, mais seulement les images.
En réfléchissant à mon article sur la lutte contre les deepfakes, je réalise que j’aurais dû inclure davantage d’actions que les entreprises peuvent entreprendre. Les changements apportés par Google aux recherches sont un premier pas important. Cependant, les magasins d’applications regorgent encore d’applications permettant de créer des deepfakes nus, et les facilitateurs de paiement continuent de fournir l’infrastructure nécessaire à l’utilisation de ces applications.
Ajder appelle à une refonte radicale de notre perception des deepfakes non consensuels et à une pression sur les entreprises pour qu’elles rendent plus difficile la création ou l’accès à de tels contenus. « Ces contenus devraient être perçus et traités en ligne de la même manière que la pornographie juvénile — quelque chose de profondément dégoûtant, horrible et scandaleux », affirme-t-il. « Cela nécessite que toutes les plateformes prennent des mesures. »
Technologie : Une réflexion sur l’avenir
Décisions de fin de vie : un dilemme complexe
Les décisions concernant la fin de vie sont souvent difficiles et douloureuses. Prenons l’exemple de Sophie, une femme dans la cinquantaine qui a subi un AVC hémorragique, entraînant des lésions cérébrales importantes. Quelle direction devrait prendre ses soins médicaux ? Cette question délicate a été laissée à sa famille, qui n’a pas réussi à se mettre d’accord, créant une situation éprouvante pour tous, y compris pour les médecins de Sophie.
L’IA comme solution potentielle
L’IA pourrait-elle faciliter ces décisions ? David Wendler, bioéthicien aux National Institutes of Health des États-Unis, souligne que ces choix peuvent être extrêmement éprouvants pour les proches. Wendler et son équipe travaillent sur un outil basé sur l’intelligence artificielle qui pourrait aider les proches à prédire ce que le patient aurait souhaité.
Nouvelles tendances technologiques
OpenAI dévoile un nouveau chatbot ChatGPT
OpenAI a lancé un nouveau chatbot qui permet des conversations plus naturelles et fluides, s’inscrivant dans la lignée des assistants vocaux comme Siri et Alexa, mais avec des capacités bien plus avancées.
Meta abandonne ses chatbots AI basés sur des célébrités
Moins d’un an après avoir annoncé le lancement de chatbots AI inspirés de célébrités, Meta a décidé de mettre fin à cette fonctionnalité, réalisant que les utilisateurs n’étaient pas intéressés par des interactions avec des célébrités virtuelles. À la place, Meta introduit AI Studio, permettant aux créateurs de concevoir des avatars AI pour interagir avec leurs fans.
Un outil de détection de plagiat par OpenAI
OpenAI a développé un outil capable de détecter des textes rédigés par une IA avec une précision de 99,9 %, mais n’a pas encore décidé de le rendre public, craignant que cela n’incite les utilisateurs à se détourner de ses produits.
L’IA Act entre en vigueur
Enfin, les entreprises doivent désormais se conformer à l’une des premières lois sur l’IA au monde, visant à limiter les pires abus. Cette législation devrait apporter des changements nécessaires à la manière dont l’IA est développée et utilisée, tant dans l’Union européenne qu’au-delà.
L’impact des bots TikTok sur la violence d’extrême droite au Royaume-Uni
Suite à un tragique incident au Royaume-Uni, le pays a connu une montée de la violence d’extrême droite. Les émeutiers ont utilisé des images générées par IA pour inciter à la haine et propager des stéréotypes nuisibles, tandis que des groupes d’extrême droite ont créé des chansons à contenu xénophobe grâce à des générateurs de musique AI, se propageant rapidement en ligne grâce à des algorithmes de recommandation puissants.