Technologie : Une évolution préoccupante des deepfakes

L’essor des deepfakes en temps réel

Avec l’évolution continue de la technologie des deepfakes, les risques d’utilisation abusive augmentent. Bien que les outils actuels nécessitent encore que les utilisateurs imitent des gestes, des voix et d’autres détails, les avancées en matière de clonage vocal et de synthèse vidéo pourraient permettre de créer des doubles numériques en temps réel de manière encore plus convaincante.

Deep-Live-Cam : Une innovation qui fait parler d’elle

Récemment, un nouveau logiciel nommé Deep-Live-Cam a suscité un vif intérêt sur les réseaux sociaux grâce à sa capacité à générer des deepfakes en temps réel avec une facilité déconcertante. Ce programme utilise une seule photo d’une personne pour superposer son visage sur un flux webcam en direct, en suivant la pose, l’éclairage et les expressions de la personne. Bien que les résultats ne soient pas parfaits, la rapidité avec laquelle cette technologie progresse met en lumière la facilité croissante de tromper autrui grâce à l’intelligence artificielle.

Une viralité inattendue

Le projet Deep-Live-Cam, en développement depuis l’année dernière, a récemment gagné en popularité après la diffusion de vidéos d’exemples en ligne. Ces clips montrent des individus imitant des personnalités célèbres telles qu’Elon Musk et George Clooney en temps réel. Cette montée soudaine en popularité a propulsé le projet open-source en tête des dépôts tendance sur GitHub. Le logiciel gratuit est accessible à quiconque possède des connaissances de base en programmation.

Les inquiétudes croissantes

L’utilisation potentielle de Deep-Live-Cam a suscité des inquiétudes parmi les observateurs de la technologie. L’illustrateur Corey Brickley a souligné que les récentes innovations technologiques sont souvent sujettes à des abus. « Étrange de constater que toutes les grandes innovations technologiques récentes relèvent de la catégorie Fraude », a-t-il tweeté, ajoutant qu’il est important d’établir des mots de code avec ses proches.

Un outil à double tranchant

Bien que le commentaire de Brickley soit teinté d’ironie, il met en lumière le risque que des acteurs malveillants utilisent de tels outils pour tromper autrui. Étant donné la prévalence et l’accessibilité des technologies de deepfake, instaurer un mot de passe pour confirmer son identité auprès de sa famille et de ses amis n’est pas une idée si farfelue.

L’historique des deepfakes

La technologie de substitution de visage n’est pas nouvelle. Le terme « deepfake » a été introduit en 2017 par un utilisateur de Reddit qui l’a utilisé comme pseudonyme. Cet utilisateur postait fréquemment des images et des vidéos où il échangeait le visage d’une actrice de films pour adultes avec celui d’une célébrité. À l’époque, la technologie était lente, coûteuse et loin d’être en temps réel. Cependant, ces techniques primitives ont considérablement évolué. Des projets comme Deep-Live-Cam et d’autres sont désormais plus intelligents et rapides, abaissant les barrières d’entrée et permettant à quiconque possédant un PC standard de créer des deepfakes à l’aide de logiciels gratuits.

Des abus déjà documentés

Les abus potentiels sont déjà bien documentés. En février, des escrocs en Chine ont imité des dirigeants d’entreprise, y compris le directeur financier, lors d’un appel vidéo, trompant un employé pour qu’il effectue des transferts d’argent de plus de 25 millions de dollars. L’employé était la seule personne réelle sur l’appel. Dans un cas similaire, quelqu’un aux États-Unis a récemment cloné la voix de Joe Biden pour dissuader les électeurs de voter lors des primaires du New Hampshire. Avec l’essor de logiciels de deepfake en temps réel comme Deep-Live-Cam, les cas de fraude vidéo à distance pourraient devenir plus fréquents, touchant non seulement des personnalités publiques mais aussi des individus ordinaires.

Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *