Technologie
La nécessité d’une régulation des discours en ligne
« Il arrive un moment où la liberté d’expression peut engendrer des dommages dans la vie réelle, et c’est à ce moment-là que les plateformes de médias sociaux doivent intervenir », a déclaré Helle Thorning-Schmidt, ancienne Première ministre danoise et actuelle présidente du Conseil de surveillance de Meta, lors d’une session à la Conférence TNW 2024.
Une situation alarmante au Royaume-Uni
Un exemple frappant de cette problématique se déroule actuellement au Royaume-Uni. Alors que le pays fait face à une montée de la violence de la part de groupes d’extrême droite dans des centres d’accueil pour demandeurs d’asile, le Premier ministre Keir Starmer a souligné la responsabilité non seulement des individus incitant à la violence, mais aussi des plateformes qui permettent la diffusion de fausses informations et l’organisation de ces actes.
« Je m’adresse également aux grandes entreprises de médias sociaux et à leurs dirigeants : le désordre violent attisé en ligne est également un crime. Cela se produit sur vos plateformes, et la loi doit être respectée partout », a-t-il déclaré lors d’une conférence de presse la semaine dernière.
Des événements tragiques déclencheurs
La violence a éclaté suite à une attaque au couteau par un adolescent de 17 ans à Cardiff, qui a entraîné la mort de trois jeunes filles le 29 juillet. Selon une analyse de Reuters, avant que les autorités ne publient des informations sur le suspect, des allégations selon lesquelles il était demandeur d’asile ou immigrant avaient déjà été vues au moins 15,7 millions de fois sur X, Facebook, Instagram et d’autres plateformes.
Des groupes d’activistes d’extrême droite ont ensuite organisé la diffusion d’une liste de 36 cibles, comprenant des centres d’immigration, des bureaux d’avocats spécialisés dans l’aide aux demandeurs d’asile et des refuges pour demandeurs d’asile.
Appels à l’action des responsables politiques
En écho à l’appel de Starmer, la maire de North East, Kim McGuinness, dont la région a été touchée par la violence, a exhorté les ministres à prendre des mesures contre les « entreprises de médias sociaux distantes et non responsables » qui ont permis à la haine et au désordre de se propager en ligne.
Réactions controversées sur les réseaux sociaux
Ironiquement, Elon Musk, propriétaire de X, a lui-même pris part au débat plus tôt cette semaine en publiant « la guerre civile est inévitable » en réponse à un post blâmant les manifestations violentes sur les effets de la « migration de masse et des frontières ouvertes ». Ce post a jusqu’à présent reçu 9,6 millions de vues.
Parallèlement, le leader de Reform UK, Nigel Farage, a dû faire marche arrière sur une vidéo qu’il a publiée sur X le lendemain de l’attaque, citant « certains rapports » suggérant que le suspect était un migrant connu des services de sécurité. Une semaine plus tard, il a reconnu que sa « source » était l’influenceur extrémiste Andrew Tate.
L’équilibre délicat entre liberté d’expression et discours de haine
Cet incident n’est qu’un exemple parmi tant d’autres à travers le monde des conséquences désastreuses qui peuvent découler de la désinformation à l’ère des médias sociaux. La société est désormais à la merci de ces plateformes et de leurs décisions concernant l’équilibre entre la liberté d’expression et le discours de haine.
Helle Thorning-Schmidt, en tant qu’ancienne Première ministre et membre du Conseil de surveillance de Meta, a partagé ses réflexions lors d’une intervention intitulée Démocratie en péril : 2 millions de voix en 2024.
« Je pense que nous ne verrons plus jamais une élection sans médias manipulés », a déclaré Thorning-Schmidt alors que les électeurs du monde entier se préparent à voter. Cette année sera un véritable test pour les plateformes de médias sociaux sur leur capacité à gérer la désinformation (y compris la montée des deepfakes) diffusée par des utilisateurs ordinaires et des figures publiques. Devront-elles être traitées différemment ?
Les défis de la modération de contenu
Avec un nombre d’utilisateurs aussi élevé à l’échelle mondiale, comment ces plateformes peuvent-elles assurer une modération efficace du contenu ? Les données montrent que X a le plus faible nombre de modérateurs de contenu par utilisateur en Europe, tandis que des plateformes comme Meta, avec 15 000 modérateurs travaillant sur Instagram et Facebook (qui comptent tous deux 260 millions d’utilisateurs dans l’UE), n’ont pas une tâche facile. Comment pouvons-nous tirer parti de l’IA sans confier cette tâche cruciale uniquement à des bots ?
Découvrez les réflexions de Thorning-Schmidt et de Murad Ahmed, rédacteur en chef des nouvelles technologiques pour le Financial Times, sur ces sujets et bien d’autres lors de TNW All Access.