Technologie : Les racines profondes de la désinformation
Le 29 juillet 2024, un événement tragique a marqué les esprits au Royaume-Uni : Axel Rudakubana a tué trois enfants lors d’un cours de danse de Taylor Swift dans la ville de Southport, dans le Merseyside. Tous les trois étaient âgés de moins de 10 ans.
Peu après, des comptes de fausse information et des figures d’extrême droite sur les réseaux sociaux ont commencé à diffuser des mensonges concernant l’attaque, affirmant notamment que l’auteur était Ali Al-Shakati, un migrant musulman récemment arrivé dans le pays. Le lendemain de l’attaque, ce nom erroné avait été mentionné plus de 30 000 fois sur X, et l’algorithme de la plateforme l’avait même recommandé aux utilisateurs comme un sujet tendance.
Des organisateurs et groupes d’extrême droite ont profité de la viralité de ces histoires pour organiser une marche à Southport, qui a rapidement dégénéré en violence. Les participants ont lancé des briques et des bouteilles sur une mosquée locale, incendié des voitures et des fourgons de police déployés pour protéger le bâtiment. La violence s’est ensuite propagée à d’autres mosquées et hôtels abritant des demandeurs d’asile à travers le pays. Lorsque ces cibles n’étaient pas accessibles, les émeutiers ont incendié des bibliothèques, des bureaux d’aide aux citoyens ou des voitures de travailleurs sociaux. Avant que la violence ne s’apaise, des avocats spécialisés en immigration ont commencé à fuir les villes après avoir reçu des menaces de mort de la part de l’extrême droite.
Les semaines suivantes ont vu un examen approfondi du rôle des réseaux sociaux dans cette tragédie. En effet, c’est la désinformation diffusée sur des plateformes comme X qui a initialement alimenté les allégations infondées selon lesquelles les attaques avaient été perpétrées par un migrant étranger. En réponse à ces événements, le gouvernement a renforcé les sanctions, imposant des peines de prison à ceux qui incitaient à la haine raciale et à la violence, ainsi qu’à ceux qui diffusaient des informations dangereuses en ligne.
Cependant, dans le débat public sur les dangers de la désinformation, peu d’attention a été accordée à la manière dont ce problème s’est développé, et si certaines causes profondes sont plus ancrées qu’on ne le pense.
La psychologie de la désinformation
« Il est évident que la désinformation a joué un rôle crucial », déclare Stephan Lewandowsky, psychologue à l’Université de Bristol spécialisé dans ce domaine. « Dans ce cas précis, le lien entre les informations fausses diffusées sur les réseaux sociaux et les actions des émeutiers par la suite était si unique et précis qu’il est difficile de le nier. »
Cependant, cette causalité directe est rare dans notre écosystème d’information complexe, où il est souvent difficile d’identifier des déclencheurs individuels d’événements.
La situation est plus complexe que la simple invention de la désinformation par les réseaux sociaux. « Depuis le début de l’histoire, beaucoup de communication se fait par la fiction. Nous racontons des histoires pour exprimer des idées », explique Walter Scheirer, auteur d’un ouvrage sur l’histoire des fausses informations sur Internet.
Scheirer soutient que la communication humaine est davantage axée sur l’expression d’idées ou de croyances que sur un récit factuel des événements. La différence majeure aujourd’hui est que les réseaux sociaux ont élargi l’audience et accordent une crédibilité égale à toutes les voix, permettant ainsi de donner « un immense mégaphone à quiconque ».
Des besoins psychologiques profonds poussent les gens vers les théories du complot, selon Karen Douglas, experte en psychologie des théories du complot à l’Université de Kent. Les récits, comme ceux entourant les meurtres de Southport, aident les individus à satisfaire à la fois leurs besoins épistémiques – le désir de « clarté et de certitude » – et leurs besoins existentiels – le besoin de « se sentir en sécurité et d’avoir un certain contrôle » sur les événements. Cela rend souvent ces croyances difficiles à déloger.
« Les gens cherchent des moyens de comprendre ce qui se passe et n’aiment pas l’incertitude qui entoure souvent les événements en cours. De plus, une explication simple n’est souvent pas très attrayante. Les gens supposent qu’il doit y avoir une explication plus vaste ou plus complexe », explique-t-elle. « Une fois que les théories du complot sont lancées, il est difficile de les apaiser, surtout lorsque certains faits restent inconnus. Même après cela, une fois que les gens croient à une théorie du complot, il est souvent difficile de les convaincre du contraire. »
Tendances d’accélération
Les réseaux sociaux sont particulièrement bien placés pour accélérer ce type de récits. Lewandowsky explique que ces plateformes créent un effet de « faux consensus » pour les utilisateurs – en reliant des personnes partageant les mêmes idées à travers de grandes distances, elles donnent l’impression qu’un plus grand nombre de personnes partagent leurs opinions que si elles étaient limitées à des interactions physiques. « Nous savons que les gens agissent davantage en fonction de leurs croyances lorsqu’ils sentent que d’autres les partagent », ajoute-t-il.
Ce phénomène peut expliquer pourquoi un néo-nazi en Finlande a été identifié comme l’un des principaux instigateurs de la violence en tant qu’organisateur sur le chat Southport Wake Up sur l’application de messagerie Telegram, où une grande partie des actions d’extrême droite a été planifiée.
« De plus, le modèle économique de ces plateformes repose sur la création d’engagement, car c’est ainsi qu’elles génèrent des revenus. Si nous restons sur la plateforme en interagissant avec le contenu, elles peuvent nous montrer des publicités et gagner de l’argent grâce à celles-ci », ajoute Lewandowsky. « Les êtres humains prêtent attention à des contenus qui suscitent l’indignation et la colère, des émotions négatives. Pour les plateformes, c’est idéal car elles peuvent vendre des publicités… mais ce n’est pas bénéfique pour une société démocratique. »
Les réseaux sociaux ont atteint une taille qui n’était pas prévue lors des débuts d’Internet. Dans le cadre de ses recherches, Scheirer a découvert que même dans les premiers jours du réseautage informatique, il existait des serveurs « sur les OVNI et les conspirations gouvernementales ». Alors que ces communautés étaient par nature auto-contenues, le paysage ouvert des réseaux sociaux signifie qu’un message diffusé « s’amplifie et s’amplifie » jusqu’à atteindre un public mondial massif. Le discours tend alors à se centraliser de plus en plus autour de ces messages ou idées individuelles.
« Une grande partie de mes recherches vise à imaginer un Internet moins hostile. Je pense que la solution réside vraiment dans le fait de se détourner de ces services de médias sociaux mondiaux qui ne servent pas vraiment à grand-chose », dit-il. « Internet n’a jamais été conçu pour être une base de données de faits. L’idée d’un super autoroute de l’information des années 1990 a été formulée par de grandes entreprises technologiques longtemps après la création d’Internet. »
Des politiques spécifiques mises en place par les plateformes elles-mêmes ont également pu faciliter cette tragédie.
« Il ne fait aucun doute que les réseaux sociaux jouent un rôle très important », déclare Joe Mulhall, directeur de la recherche chez Hope Not Hate. Il cite la réintégration d’Andrew Tate et de Tommy Robinson sur X, où ils ont développé d’énormes suivis et ont contribué à diffuser de la désinformation sur les attaques de Southport.
« La portée de Tommy Robinson a augmenté depuis la réactivation de son compte X l’année dernière », explique Mulhall. « Ses deux dernières manifestations à Londres ont attiré des dizaines de milliers de personnes et son nombre d’abonnés sur X dépasse désormais 800 000, ce qui lui confère à nouveau une portée considérable en ligne. »
Cette influence témoigne du fait que l’extrême droite moderne n’est pas la même que celle que la Grande-Bretagne a connue, même récemment dans les années 2000.
Ce que l’on appelle souvent la « droite post-organisation » est beaucoup plus décentralisée et difficile à définir idéologiquement que l’extrême droite d’autrefois, qui était centrée sur des partis politiques ou des groupes individuels. Aujourd’hui, elle est beaucoup plus disparate, définie par des ensembles individualisés et fluides de peurs, de colères et d’idéologies, façonnés par des figures d’extrême droite spécifiques, comme Tommy Robinson ou Andrew Tate, plutôt que par des groupes ou des partis politiques avec des agendas fixes. Même l’extrême droite semble être influencée par des influenceurs des réseaux sociaux.
Le contexte politique est crucial
Cependant, plusieurs personnes interrogées par Computer Weekly ont souligné que, bien que les réseaux sociaux aient joué un rôle clé dans l’embrasement de la situation, le combustible qui a permis à cette étincelle de se transformer en explosion provenait d’ailleurs.
Des recherches antérieures du Centre de surveillance des médias ont révélé que près de 60 % des articles de la presse britannique sur l’islam étaient négatifs ou véhiculaient des stéréotypes infondés sur les musulmans, certains journaux, comme The Mail on Sunday, étant les pires coupables.
Des études académiques ont même montré que la couverture médiatique peut directement soutenir des partis populistes de droite comme le UKIP, tandis que des experts du Centre d’études sur la haine de l’Université de Leicester ont affirmé que les politiciens et les médias peuvent alimenter les crimes de haine au Royaume-Uni.
« Ce qui me frustre dans la couverture médiatique à ce sujet, c’est que tout le monde est très heureux de parler des réseaux sociaux, mais personne ne reconnaît le contexte politique dans lequel cela se déroule depuis 15 ans au Royaume-Uni », déclare Lewandowsky. « Si l’on examine le bilan des médias tabloïds et du gouvernement précédent ainsi que le langage qu’ils utilisent, ces événements des dernières semaines deviennent beaucoup moins surprenants, car le contexte a été créé pour eux. »
À la suite de ce qui semble être des émeutes ayant changé la société, il reste à voir si des questions beaucoup plus difficiles sur la responsabilité seront posées.