View all technologies

La manipulation de l’information

Qu’est-ce que la manipulation de l’information ?

La manipulation de l’information englobe un ensemble de tactiques impliquant la collecte et la diffusion d’informations dans le but d’influencer ou de perturber la prise de décision démocratique. De nombreux types de contenus différents peuvent être impliqués dans la manipulation de l’information, tels que la désinformation, la fausse information, la mésinformation, la malinformation propagande et les discours haineux. Ce contenu peut être utilisé pour influencer les attitudes ou les croyances du public, persuader les gens d’agir ou de se comporter d’une certaine manière – par exemple en supprimant le vote d’un groupe particulier de personnes – ou inciter à la haine et à la violence. Divers acteurs peuvent se livrer à la manipulation de l’information, qu’il s’agisse de gouvernements nationaux, de partis politiques, de campagnes, d’acteurs commerciaux, de gouvernements étrangers ou de groupes extrémistes. Il est possible de manipuler l’information en utilisant des canaux d’information traditionnels tels que la télévision, la presse écrite et la radio, ainsi que les médias sociaux.

La désinformation

La désinformation est une information fausse ou trompeuse diffusée dans l’intention de tromper ou de nuire. La désinformation est toujours intentionnelle et n’est pas nécessairement composée uniquement de mensonges ou de fabrications. L’inclusion de certains faits réels ou de « demi-vérités » hors contexte peut rendre la désinformation plus crédible et plus difficile à reconnaître.

Désinformation = fausse information + l’intention de nuire

La mésinformation

La mésinformation est le partage involontaire d’informations mensongères ou trompeuses. Elle se distingue de la désinformation par l’absence d’intention de tromper ou de nuire et par le fait que la personne qui communique l’information la croit généralement vraie. Les rumeurs diffusées sur les médias sociaux pendant la pandémie de la maladie à COVID-19 au sujet de « remèdes » qui n’étaient pas fondés sur la science médicale constituent un exemple de désinformation.

Mésinformation = information inexacte + erreur

Misinformation, disinformation, malinformation

Claire Wardle & Hossein Derakhshan, 2017

La malinformation

La malinformation est une information véridique présentée sans contexte approprié dans le but de tromper, d’induire en erreur ou de nuire.

Malinformation = information vraie + intention de nuire

Discours de haine[2]

Le discours de haine est l’utilisation d’un langage discriminatoire à l’égard d’une personne ou d’un groupe sur la base de l’identité, y compris la religion, l’appartenance ethnique, la nationalité, les capacités, le sexe ou l’orientation sexuelle d’un individu. Le discours de haine s’inscrit souvent dans le cadre d’efforts plus larges de manipulation de l’information.

La propagande[3]

La propagande est une information destinée à promouvoir un objectif, une action ou un résultat politique. La propagande implique souvent la désinformation, mais peut aussi utiliser des faits, des informations volées ou des demi-vérités pour influencer les individus. Elle fait souvent appel aux émotions, plutôt que de se concentrer sur des pensées ou des arguments rationnels. La propagande est généralement associée à des acteurs affiliés à l’État, mais elle peut également être diffusée par d’autres groupes et individus.

Termes connexes[4]
Discours dangereux

Selon le Dangerous Speech Project, on entend par « discours dangereux » toute forme d’expression (discours, texte ou images) susceptible d’accroître le risque que son public approuve ou participe à des actes de violence à l’encontre de membres d’un autre groupe ». Ce concept fournit un cadre constructif pour réfléchir aux discours de haine susceptibles de provoquer la violence. La déshumanisation (qualifier les gens d’insectes, de bactéries, etc.) et le fait de dire aux gens qu’ils sont confrontés à une menace mortelle de la part d’un groupe minoritaire défavorisé sont des caractéristiques des discours dangereux.

Fake News

Le terme « fake news » n’a pas de définition reconnue et est utilisé à tort comme synonyme de la désinformation. Le terme a été popularisé ces dernières années et est souvent utilisé pour discréditer des informations jugées défavorables, indépendamment de leur véracité. Ainsi, les termes « désinformation », « mésinformation » ou « mal-information » devraient être utilisés à la place de « fake news ».

 

Définitions

La désinformation populaire planifiée : La tentative de créer une impression de soutien ou d’intérêt généralisé de la base pour une politique ou une idée en utilisant de faux comptes en ligne, tels que des réseaux de bots ou de faux groupes de pression.

Bots: Un bot est un logiciel qui effectue des tâches automatisées et répétitives. Dans le cas des médias sociaux, un bot peut faire référence à un compte automatisé de médias sociaux.

Appât à clics: Titre d’article, lien ou vignette sensationnaliste ou trompeur conçu pour inciter les utilisateurs à consulter le contenu.

Cyber violence et cyber intimidation : La cyber-violence désigne les actes d’abus utilisant les médias numériques. La cyber-intimidation est une forme de cyber-violence récurrente caractérisée par une dynamique de pouvoir déséquilibrée.

Hypertrucages: Photos ou vidéos qui ont été modifiées ou entièrement fabriquées par apprentissage machine pour créer une fausse représentation de quelque chose, comme une déclaration imaginaire d’un homme politique. L’utilisation des hypertrucages pour semer la confusion dans l’esprit des électeurs en période électorale en fabriquant des déclarations de candidats et d’agents électoraux est un excellent exemple de manipulation de l’information.

Divulgation de données personnelles sur Internet: Publication en ligne d’informations privées ou d’identification, en particulier d’informations personnelles sensibles, concernant une personne dans une intention malveillante.

Guerre de l’information : L’utilisation des TIC telles que les médias sociaux pour influencer ou affaiblir un adversaire, y compris par la désinformation et la propagande.

Trollage : Créer intentionnellement la discorde dans un espace de discussion en ligne, déclencher des querelles entre utilisateurs ou, d’une manière générale, contrarier les gens en publiant des messages incendiaires, insultants ou hors sujet.

Filtre de téléversement : Les programmes informatiques automatisés qui analysent le contenu téléchargé sur une plate-forme en ligne avant qu’il ne soit publié. Les filtres de téléchargement sont utilisés par les plates-formes de médias sociaux pour identifier les contenus qui enfreignent les conditions d’utilisation des entreprises, tels que les contenus pédopornographiques.

Contenu généré par l’utilisateur (CGU) : Tout contenu tel que les images, les vidéos, le texte et le son qui a été publié par les utilisateurs sur les plates-formes en ligne.

Viralité : La tendance d’une image, d’une vidéo ou d’un élément d’information à circuler rapidement et largement sur les plates-formes en ligne. Lorsqu’un contenu devient « viral », des aspects importants du contexte de l’information partagée, tels que la source, l’auteur et la date de publication, sont souvent perdus (connus sous le phénomène de «l’effondrement du contexte»), ce qui est susceptible de fausser la perception et l’interprétation de l’information par les consommateurs.

Pour d’autres définitions, voir le glossaire de la désinformation de l’EU Disinfo Lab, une collection de plus de 150 termes pour comprendre le désordre de l’informationnel.

Comment la manipulation de l’information perturbe-t-elle et déforme-t-elle l’écosystème de l’information ?

La manipulation de l’information n’est pas une menace nouvelle, mais elle s’est amplifiée à l’ère numérique. Les plates-formes de médias sociaux et les algorithmes qui les sous-tendent facilitent la diffusion d’informations – y compris de fausses informations – à une vitesse sans précédent. Alors que les citoyens du monde entier s’appuient sur les médias sociaux pour leur communication personnelle, la consommation d’informations et, d’une manière générale, pour comprendre au jour le jour ce qui se passe dans le monde, ils deviennent de plus en plus vulnérables à la manipulation de l’information sur ces plates-formes.

Alors que les plates-formes de médias sociaux populaires telles que Facebook, X (anciennement connu sous le nom de Twitter) et YouTube sont souvent critiquées pour leur rôle dans la facilitation de la manipulation de l’information, ce défi s’invite également sur d’autres plates-formes telles que Instagram, TikTok, Reddit et même Pinterest. La manipulation des informations est également courante sur les applications de messagerie cryptées et non cryptées telles que LINE, Telegram, WhatsApp, Facebook Messenger, Signal, WeChat et Viber. L’augmentation du nombre d’acteurs commerciaux proposant des services de désinformation rend plus difficile pour les entreprises de médias sociaux la détection et la lutte contre la manipulation de l’information, car les trolls sont payés pour polluer la sphère de l’information. La distinction entre les comptes de robots automatisés et les contenus créés par des humains est également de moins en moins évidente, certaines études suggérant que moins de 60 % du trafic web mondial est d’origine humaine. Voir la ressource Médias sociaux pour plus d’informations sur la façon dont le modèle de revenu de nombreuses plates-formes de médias sociaux peut décourager davantage la suppression proactive de la désinformation et des comportements inauthentiques.

Formation aux médias pour les journalistes à Sviatohirsk en Ukraine. Les droits de l’homme internationaux fournissent un cadre permettant d’équilibrer la liberté d’expression et d’autres droits. Crédit photo : UCBI USAID.

Des études ont montré que les contenus faux et trompeurs ont tendance à atteindre le public en ligne plus rapidement que les informations factuelles sur le même sujet. Une étude sur la diffusion de mensonges sur X, par exemple, a révélé qu’une fausse information avait tendance à atteindre un public de 1 500 personnes six fois plus rapidement qu’une information exacte. Pourquoi ? Après des évaluations initiales de la désinformation axées sur l’offre – notamment sur la façon dont l’Internet et les médias sociaux ont augmenté la portée, la vitesse et l’ampleur de la désinformation – les chercheurs se sont intéressés à la demande de la désinformation</strong. On a constaté que la psychologie humaine joue un rôle dans la consommation d’information qui renforce les opinions et les préjugés existants, suscite une forte réaction émotionnelle, et/ou diabolise les « groupes externes ». Les plates-formes numériques qui classent et recommandent des contenus pour optimiser l’engagement et le temps passé sur la plate-forme créent des «boucles de rétroaction dégénérées» qui amplifient et aggravent ces tendances.

[7] Des pages de journaux recouvrent un mur en Éthiopie. Le bouleversement du modèle économique de l’édition a été un désastre au ralenti pour les organismes de presse du monde entier. Crédit photo : Jessica Nabongo.

Les innovations en matière d’intelligence artificielle générative, notamment le lancement de ChatGPT et d’autres chatbots avancés similaires à la fin de 2022, ont créé de nouvelles possibilités de manipulation de l’information en rendant la désinformation moins coûteuse et plus facile à produire pour un nombre encore plus grand de théoriciens du complot et d’acteurs malveillants. Ces risques accrus découlent en partie de la capacité des outils d’IA générative à «adapter le langage à certains contextes et à localiser les expressions », ainsi qu’à « multiplier les faux récits avec le même message écrit de plusieurs façons, ce qui pourrait augmenter la quantité de faux contenus [en ligne] et rendre difficile la mesure de leur viralité ». L’IA générative peut également servir à donner une apparence plus humaine aux comptes de robots automatisés et pour créer de fausses photos de profil ou d’autres formes de médias synthétiques tels que les « hypertrucages » (fausses images profondes), qui semblent encore plus réalistes.

Les campagnes de manipulation de l’information en ligne peuvent être facilitées et exacerbées par des pratiques de modération du contenu viciées et des modèles de revenus basés sur la publicité numérique.

Modération du contenu

La diffusion massive de mésinformation, de désinformation, de discours de haine et de harcèlement sur les plates-formes de médias sociaux a braqué les projecteurs sur les politiques et procédures de modération des contenus, qui sont souvent mises en œuvre avec peu ou pas de contrôle. Les plates-formes de médias sociaux ont été critiquées de retirer trop de contenus, de ne pas en retirer assez, de développer des algorithmes qui ne parviennent pas à détecter les nuances des discours haineux et de la mésinformation, et pour employer des modérateurs humains qui souffrent d’une faible rémunération, de mauvaises conditions de travail et de traumatismes induits par les contenus nuisibles qu’ils examinent. Au milieu d’une cacophonie d’opinions sur le contenu qui devrait ou ne devrait pas être autorisé sur les plates-formes, les entreprises de médias sociaux s’efforcent de trouver le juste équilibre entre la liberté d’expression absolue et la protection des utilisateurs contre la manipulation de l’information. Une législation telle que le Règlement sur les services numériques de l’Union européenne donne aux législateurs un instrument pour engager la responsabilité des plates-formes dans la facilitation de la manipulation de l’information et présente « une nouvelle façon de penser la modération du contenu qui est particulièrement précieuse pour la communauté de la contre-désinformation ».

Voir la ressource Médias sociaux[8] pour plus d’informations sur la modération des contenus.

Modèles de publicité numérique

La publicité numérique a contribué à l’autofinancement de sites web et de blogs auteurs de la diffusion de contenus haineux, incendiaires et/ou trompeurs. La publicité programmatique, qui s’appuie sur une technologie automatisée et des outils algorithmiques pour acheter et vendre des publicités, est particulièrement problématique car les annonceurs peuvent finir par financer ces points de vente sans jamais savoir que leurs publicités y ont été placées.

Le mouvement en ligne Sleeping Giants a vu le jour pour justement relever ce défi en alertant les entreprises lorsque leurs publicités sont placées à côté de contenus incendiaires ou controversés. Check My Ads est une autre ressource qui propose des services permettant d’éviter que des marques soient associées à la désinformation et à des discours dangereux. L’initiative Ads for News soutient le journalisme local en fournissant aux consommateurs des marques et des médias une liste structurée, fiable exhaustive mondiale de sites locaux d’information qui ont été sélectionnés pour exclure la désinformation et d’autres contenus inappropriés pour ces marques.

Voir la ressource Médias sociaux[9] pour plus d’informations sur la publicité numérique.

La manipulation de l’information est une pratique courante des régimes autoritaires qui utilisent les médias sociaux et traditionnels pour semer le chaos et la confusion et saper les processus démocratiques. Des entités gouvernementales russes se sont déjà livrées à la manipulation d’informations lors d’élections en Europe et ailleurs en utilisant des comptes de robots automatisés et des usines à trolls fermes à trolls pour partager et amplifier la désinformation sur les médias sociaux dans le but d’approfondir les clivages sociaux et politiques existants dans les pays ciblés.

La pratique de contrefaçon d’opinion par des gouvernements étrangers, des groupes d’intérêt et même des annonceurs est une forme courante de manipulation de l’information. La contrefaçon d’opinion est l’utilisation de multiples identités en ligne (bots) et de faux groupes de pression pour créer la fausse impression d’un large soutien populaire à une politique, une idée ou un produit. Cette technique peut être utilisée pour détourner l’attention des médias ou établir un récit particulier autour d’un événement à un stade précoce du cycle de l’information. D’autres tactiques de manipulation de l’information peuvent inclure la manipulation des moteurs de recherche, les faux sites web, le trollage, les opérations de piratage et de fuite, les prises de contrôle de comptes et la censure.

La manipulation de l’information ne se produit pas seulement dans les espaces en ligne. Elle peut également être diffusée par les médias traditionnels (télévision, radio et presse écrite), ainsi que par le monde universitaire. Par exemple, les médias traditionnels peuvent involontairement amplifier un contenu créé dans le cadre d’une campagne de manipulation de l’information si ce contenu a été partagé par une personnalité politique importante, si le contenu est particulièrement sensationnel et susceptible d’attirer le public, ou même par une couverture visant à contester le contenu de la campagne de manipulation. Un acteur chevronné qui se livre à la manipulation de l’information peut s’emparer d’organes de presse de premier plan ou accorder des subventions à des entités de recherche pour qu’elles produisent des analyses qui soutiennent leurs objectifs.

Haut de page

Comment la manipulation de l'information affecte-t-elle l'espace civique et la démocratie ?

Des vendeurs de journaux préparent leurs stands à Rangoon, au Myanmar. Partout dans le monde, les gouvernements mènent des campagnes de manipulation de l’information ciblant les défenseurs des droits de l’homme et les communautés marginalisées. Crédit photo : Richard Nyberg/USAID.

La manipulation de l’information est autant une atteinte à la confiance qu’à la vérité. Un environnement d’information contestée peut contribuer à diminuer le niveau de confiance du public, car les citoyens ne peuvent ou ne veulent plus faire la distinction entre les sources d’information légitimes et illégitimes. L’affaiblissement de l’industrie des médias traditionnels et l’augmentation de la consommation d’informations via les médias sociaux contribuent à cette tendance, en particulier dans les contextes où la maîtrise de l’information est faible et où les institutions démocratiques sont peu développées. Lors de crises sanitaires, de catastrophes naturelles et d’autres situations d’urgence, le manque de confiance du public, couplé à une désinformation croissante, peut entraver les efforts de riposte et mettre en péril la santé et le bien-être des citoyens.

Les gouvernements non libéraux investissent de plus en plus dans des campagnes de manipulation de l’information visant la société civile, les défenseurs des droits de l’homme et les groupes marginalisés. Au Myanmar, par exemple, le personnel militaire s’est engagé dans une campagne systématique sur Facebook pour diffuser de la propagande et des commentaires incendiaires sur la minorité Rohingya, majoritairement musulmane du pays, ce qui a finalement conduit à une violence généralisée hors ligne et à la migration forcée la plus importante de l’histoire récente. Le harcèlement et trollage de journalistes et candidats politiques (en particulier les femmes) sur les plates-formes numériques peuvent conduire à l’autocensure ou à leur départ pur et simple des espaces en ligne, avec un effet négatif sur la diversité des voix dans l’espace informationnel.

D’autre part, des gouvernements, de Singapour au Kenya en passant par le Cambodge, ont également promulgué et utilisé des lois sur les « fake news » pour restreindre la liberté d’expression et étouffer la dissidence au nom de la lutte contre la manipulation de l’information. Pendant la pandémie de COVID-19, un journaliste égyptien qui avait critiqué la réponse du gouvernement a été accusé de diffuser de fausses nouvelles, d’utiliser abusivement les médias sociaux et de rejoindre un groupe terroriste, une preuve que l’application trop zélée de ces lois peut faciliter la censure. Ces lois sur les « fake news » peuvent parfois même dépasser les frontières nationales, comme dans le cas d’une ONG malaisienne dont le site web a été bloqué à Singapour après la publication d’un article sur les condamnés à mort du pays. Les dispositions juridiques qui permettent de restreindre le contenu peuvent être inscrites dans diverses lois sur la cybercriminalité, la diffamation, les technologies de l’information, la sédition, les médias sociaux, etc.

Comme dans le cas de la guerre entre la Russie et l’Ukraine (qualifiée par certains de première « guerre des médias sociaux » à part entière), les conflits se déroulent désormais non seulement sur le champ de bataille, mais aussi sur le terrain des médias sociaux et d’autres espaces en ligne. La campagne d’information de la Russie contre l’Ukraine comprenait l’utilisation de propagande, de faux comptes de médias sociaux et de vidéos manipulées pour semer la division, créer la confusion et, d’une manière générale, éroder le soutien international à l’Ukraine. Ces efforts ont mieux réussi à influencer l’opinion publique dans certains pays et certaines régions que dans d’autres, mais ils permettent généralement de tirer des enseignements importants quant au rôle que joue la désinformation dans les futurs conflits internationaux.

Manipulation de l'information et élections

Le déploiement stratégique d’informations fausses, exagérées ou contradictoires pendant les élections est un outil puissant pour saper les principes démocratiques. Des lignes délibérément floues entre la vérité et la fiction amplifient la confusion des électeurs et dévalorisent le débat politique fondé sur les faits. Les rumeurs, les ouï-dire et le harcèlement en ligne sont utilisés pour nuire à la réputation politique, exacerber les divisions sociales, mobiliser les partisans, marginaliser les femmes et les groupes minoritaires et saper l’impact des acteurs du changement.

Le contenu destiné à décourager ou à empêcher les citoyens de voter peut prendre la forme d’informations inexactes sur la date d’une élection ou d’efforts visant à persuader les gens qu’une élection est truquée et que leur vote n’aura pas d’importance. La suppression d’électeurs qui remettent en question la légitimité des processus électoraux ou la sécurité des systèmes électoraux peut également entraîner des contestations des résultats électoraux, en raison de la manipulation de l’information. Ce contenu ne nécessite pas d’intention malveillante, car une personne qui partage sans le savoir des informations incorrectes sur la date limite d’inscription sur les listes électorales, par exemple, peut quand même semer la confusion dans l’esprit d’autres citoyens et les empêcher de voter lors de l’élection.

Différents acteurs ont des objectifs différents pour influencer les récits au cours d’une élection. Par exemple, les partis politiques et les campagnes peuvent utiliser la désinformation, la mal-information ou la propagande pour discréditer l’opposition ou manipuler le discours politique de manière à servir leur programme de campagne, tandis qu’un adversaire étranger peut chercher à influencer le résultat de l’élection, à faire avancer des intérêts nationaux ou à semer le chaos. Une campagne de manipulation de l’information coordonnée sur Whatsapp—qui comprenait des photos truquées, des clips audio manipulés et de fausses « vérifications de faits » discréditant des articles d’actualité authentiques – a joué un rôle troublant dans la promotion du candidat d’extrême droite Jair Bolsonaro à la présidence brésilienne en 2018 (voir la section sur les études de cas pour en savoir plus sur le rôle de la manipulation de l’information au Brésil).

En fin de compte, les campagnes de manipulation de l’information peuvent déstabiliser les environnements politiques, exacerber les risques de violence liée aux élections, pervertir la volonté des électeurs, renforcer l’autoritarisme et saper la confiance dans les systèmes démocratiques de manière plus générale. Dans de nombreuses démocraties fragiles, les institutions démocratiques solides qui pourraient aider à contrer l’impact des « fake news » et des campagnes plus larges de manipulation de l’information, telles que des médias indépendants robustes, des partis politiques agiles et des organisations de la société civile avisés, restent balbutiantes.

Haut de page

Que peut-on faire pour lutter contre la manipulation de l'information ?

Des habitants écoutent la radio Ratego FM dans le comté de Siaya au Kenya. Les OSC sont particulièrement bien placées pour faciliter les initiatives d’éducation et de sensibilisation qui permettent aux individus de reconnaître la désinformation. Crédit photo : Amunga Eshuchi.
Vérification des faits

Un outil que les journalistes, les chercheurs et la société civile peuvent utiliser pour contrer la manipulation de l’information est le « fact-checking », ou processus de vérification de l’information et d’analyse précise et impartiale d’une affirmation. Des centaines d’initiatives de vérification des faits par la société civile ont vu le jour ces dernières années autour de points chauds spécifiques, les leçons tirées et l’infrastructure construite autour de ces points chauds étant ensuite appliquées à d’autres questions ayant un impact sur les mêmes écosystèmes d’information. Lors des élections générales mexicaines de 2018, l’initiative Verificado 2018 pilotée par les OSC, s’est associée à Pop-Up News, Animal Político, AJ+ Español et 80 autres partenaires pour vérifier les faits et diffuser des informations relatives aux élections, en particulier auprès des jeunes. Parmi les autres initiatives de vérification des faits couronnées de succès dans le monde, citons Africa Check, le Cyber News Verification Lab à Hong Kong, BOOM en Inde, Checazap au Brésil, les archives Fact Check du Centre pour la démocratie et le développement en Afrique de l’Ouest, et l’initiative Check de Meedan en Ukraine.

Les entreprises de médias sociaux ont également investi dans des équipes et des technologies de vérification des faits, et ont noué des partenariats avec des agences de presse pour contrer les canulars, les théories du complot, les rumeurs et la propagande qui circulent sur leurs plates-formes.

La réfutation préventive

Les vérifications de faits ou les « démenti » sont efficaces, mais ils demandent souvent beaucoup de travail et ne sont pas lus par tout le monde. La «réfutation préventive» est une approche alternative basée sur l’idée de protéger les gens contre les informations fausses ou trompeuses en leur montrant des exemples de manipulation de l’information afin qu’ils soient mieux équipés pour les repérer et les remettre en question à l’avenir. Selon First Draft, il existe trois types principaux de réfutation préventive :

  1. La réfutation préventive factuelle : Correction d’une fausse affirmation ou d’un faux récit spécifique
  2. La réfutation préventive fondée sur la logique : Explication des tactiques utilisées pour manipuler
  3. La réfutation préventive fondée sur la source : Signaler les mauvaises sources d’informations

En 2022, Google a lancé en Pologne, en République tchèque et en Slovaquie une campagne de réfutation préventive utilisant des vidéos pour analyser les différentes techniques qui ont servi à diffuser de fausses informations sur les réfugiés ukrainiens. Les chercheurs ont également créé des jeux en ligne qui permettent aux joueurs de se faire passer pour des trolls diffusant des fakes news, dans le but d’améliorer la compréhension des techniques de constructions des campagnes de manipulation de l’information et, en fin de compte, d’accroître leur scepticisme à leur égard.

Initiation aux médias

Les programmes d’initiation aux médias peuvent contribuer à renforcer la capacité des citoyens à faire la différence entre un contenu factuel et un contenu faux ou trompeur en encourageant l’utilisation de la pensée critique lors de la consommation de contenus médiatiques traditionnels et en ligne. Ces programmes peuvent également sensibiliser à la manière dont la manipulation de l’information nuit de manière disproportionnée aux femmes et aux groupes marginalisés. L’initiation aux médias est un processus qui dure toute la vie et ne devrait être qu’un élément d’un guide complet destiné à contrer la manipulation de l’information.

L’initiative Learn to Discern (L2D) de l’IREX vise à renforcer la résilience des communautés face à la désinformation, à la propagande et aux discours de haine dans les médias traditionnels et en ligne. Après avoir piloté un programme d’initiation aux médias dans des salles de classe, des bibliothèques et des centres communautaires en Ukraine, l’initiative L2D a été étendue à d’autres pays, dont la Serbie, la Tunisie, la Jordanie et l’Indonésie. Des initiatives mondiales telles que le cadre d’alphabétisation Web de la Fondation Mozilla et la bibliothèque d’alphabétisation numérique de Meta permettent d’accéder à des supports d’initiation aux médias et offrent aux utilisateurs la possibilité d’apprendre à naviguer efficacement dans le monde virtuel.

Interventions des plates-formes

Les plates-formes peuvent tirer parti de leurs caractéristiques de conception pour atténuer la manipulation des informations. Par exemple, certaines plates-formes envoient stratégiquement des articles contenant des informations correctives aux utilisateurs qui partagent des contenus erronés. Pendant la pandémie de la maladie à COVID-19, Facebook a montré aux utilisateurs qui avaient diffusé de faux contenus desmessages démystifiant les affirmations, et a également redirigé les utilisateurs qui avaient partagé de fausses informations vers des sources faisant autorité, comme l’Organisation mondiale de la santé (OMS) ou les Centres de contrôle et de prévention des maladies (CDC). Ces interventions, ainsi que les politiques et les dispositifs conçus pour limiter le transfert de contenu viral, visent à réduire l’impact de la manipulation de l’information.

Open source intelligence ((OSINT)

Le renseignement de source ouverte est une méthode de collecte de données et d’informations à partir de sources accessibles au public, notamment les médias sociaux, les sites web et les articles de presse. La collecte et l’analyse d’informations transparentes, menées par des bénévoles et obtenues auprès du grand public peuvent contribuer à démystifier les faussetés et les mythes, y compris dans des contextes tels que la guerre entre la Russie et l’Ukraine. Le groupe de journalistes d’investigation Bellingcat s’est imposé comme leader dans l’exploitation de l’OSINT pour rendre compte des conflits et des violations des droits de l’homme, comme l’utilisation d’armes chimiques dans la guerre civile en Syrie.

Contre-discours

Le contre-discours comprend généralement toutes les réponses directes à un langage haineux ou préjudiciable qui cherche à l’affaiblir. Selon le Dangerous Speech Project, il existe deux types de contre-discours : les campagnes de contre-message organisées et les réponses spontanées et organiques. Le contre-discours peut parfois viser à éduquer l’auteur du contenu préjudiciable, mais le plus souvent il vise à recadrer la discussion en ligne pour les spectateurs, à changer le ton dans les espaces publics en ligne et à évincer le contenu préjudiciable par des messages positifs et inclusifs. Un exemple de contre-discours en action est #jagärhär (#Iamhere), un groupe Facebook d’environ 75 000 membres, principalement basé en Suède, qui s’est mobilisé pour ajouter des notes positives dans les sections de commentaires où la haine et la désinformation étaient répandues.

Haut de page

Que peut faire la société civile pour limiter la manipulation de l'information ?

Une information fiable et authentique est essentielle à une gouvernance transparente, inclusive et responsable, ainsi qu’à la capacité des citoyens à exercer leurs droits et responsabilités civiques. La société civile, en particulier, a un rôle important à jouer pour limiter les effets de la manipulation de l’information et renforcer la résilience des écosystèmes d’information locaux.

  1. Premièrement, la société civile peut jouer le rôle de gendarme. En surveillant de près les médias sociaux, la société civile peut identifier et dénoncer les campagnes de manipulation de l’information qui affectent leurs communautés locales dès qu’elles apparaissent. L’accès continu aux données des médias sociaux pour les chercheurs universitaires et non universitaires est essentiel pour ce travail.
  2. Deuxièmement, la société civile est particulièrement bien placée pour mettre en œuvre des initiatives d’éducation et de sensibilisation, y compris des programmes d’initiation aux médias, qui permettent aux individus de reconnaître la manipulation de l’information. Cela peut nécessiter une coordination avec les écoles, les bibliothèques, les centres communautaires et d’autres parties prenantes.
  3. Troisièmement, la société civile peut faire pression sur les sociétés technologiques, les entreprises et les annonceurs qui, volontairement ou involontairement, hébergent, soutiennent ou encouragent les créateurs de contenus faux et trompeurs.
  4. Quatrièmement, la société civile peut collaborer avec les gouvernements pour remplacer les « lois anti-fake news » et autres restrictions générales de contenu par des lois plus ciblées qui combattent la désinformation tout en protégeant les libertés d’expression.

Haut de page

Questions

Si vous essayez de comprendre comment atténuer les risques de manipulation de l’information dans votre travail, posez-vous les questions suivantes :

  1. Comment mon organisation vérifie-t-elle les informations ? Quels contrôles internes mon organisation a-t-elle mis en place pour empêcher la diffusion involontaire de contenus faux ou trompeurs ?
  2. Quelles formations ou programmes internes devrions-nous entreprendre pour mieux comprendre les risques liés à la manipulation de l’information ?
  3. Comment pourrions-nous réagir à une campagne de manipulation de l’information visant notre organisation ou nos partenaires ?
  4. Quelles stratégies de distribution de contenu, au-delà de l’édition, pourrions-nous envisager pour prévenir et contrer la manipulation de l’information ?
  5. Lorsque nous publions quelque chose par erreur, quelle est notre procédure de correction ?
  6. Quels sont les protocoles de sécurité à mettre en place au cas où un membre du personnel, un participant ou un partenaire serait la cible de désinformation, de violence en ligne, de harcèlement, de « divulgation de données personnelles sur Internet », etc.
  7. Quels programmes ou initiatives pouvons-nous créer et mettre en œuvre pour améliorer l’éducation aux médias dans notre communauté

Haut de page

Études de cas

Opérations d'information russes en Ukraine

Une réalité construite sur des mensonges : 100 jours de guerre d’agression de la Russie en Ukraine

« La caractéristique la plus importante de la campagne de désinformation et de manipulation de l’information menée par le Kremlin à l’encontre de l’Ukraine tout au long de la guerre d’agression russe est sans doute sa capacité d’adaptation aux nouvelles réalités. En d’autres termes, au cours des cent derniers jours, le Kremlin a constamment déplacé les objectifs de sa désinformation afin de redéfinir les objectifs de « l’opération spéciale » et ce que pourrait être le « succès » de l’invasion de l’Ukraine par les forces armées russes… En plus de déplacer les objectifs du succès, les organes de désinformation contrôlés par l’État russe avancent aussi activement de faux récits « humanitaires » dans un autre but. Alors que le monde apprenait inévitablement les atrocités insensées commises par la Russie en Ukraine, qui s’apparentent de plus en plus à des crimes de guerre, l’écosystème de désinformation pro-Kremlin s’est mis à fonctionner à plein régime pour nier, confondre, détourner l’attention, consterner et rejeter la faute sur les autres ».

La désinformation fondée sur le genre porte atteinte aux droits des femmes et à la démocratie

La monétisation de la misogynie

L’initiative mondiale #ShePersisted a interrogé plus d’une centaine de dirigeantes politiques et de militantes dans le monde entier pour tenter de comprendre les schémas, l’impact et le modus operandi des campagnes de désinformation fondées sur le genre contre les femmes en politique. Des études de cas sur le Brésil, la Hongrie, l’Inde, l’Italie et la Tunisie explorent la manière dont la désinformation sexiste a été utilisée par des mouvements politiques, et parfois par le gouvernement lui-même, pour saper la participation politique des femmes et affaiblir les institutions démocratiques et les droits de l’homme. L’étude se penche également sur les responsabilités et les réponses que les acteurs étatiques et les plates-formes numériques ont prises – ou, le plus souvent, n’ont pas prises – pour faire face à ce problème.

Désinformation liée à la COVID-19

Désinfodémique : Décryptage de la désinformation liée à la COVID-19

« En altérant la compréhension du public des différents aspects de la pandémie et de ses effets, la désinformation liée à la COVID-19 a utilisé un large éventail de formules. Nombre d’entre elles ont été élaborées dans le cadre de campagnes anti-vaccination et de désinformation politique. Elles consistaient à introduire fréquemment des mensonges dans la conscience des gens en misant plus sur les croyances plutôt que sur la raison, et sur les sentiments plutôt que sur la déduction. Leur base est fondée sur les préjugés, la polarisation et les politiques identitaires, ainsi que sur la crédulité, le cynisme et la recherche de sens simplifiée par les individus face à la grande complexité et aux changements. L’altération se répand dans le texte, l’image, la vidéo et le son ».

La Chine réussit-elle à façonner les récits mondiaux sur la maladie à COVID-19 ?

Is China Succeeding at Shaping Global Narratives about COVID-19?

« Face aux critiques concernant sa gestion de la pandémie, le gouvernement chinois et ses représentants ont utilisé les médias sociaux, en particulier Twitter, pour diffuser leurs récits et leur propagande à l’étranger… Au début de l’année 2021, les médias chinois ont diffusé des affirmations selon lesquelles les vaccins de Pfizer et de Moderna étaient risqués, voire mortels, en mettant en avant des maladies ou des décès soudains extrêmement rares de personnes ayant reçu le vaccin en France, en Allemagne, au Mexique, en Norvège et au Portugal… Taïwan a été une autre cible importante des tactiques de désinformation chinoises liée à la Covid-19, ce qui n’est pas surprenant étant donné l’utilisation persistante de la désinformation par Pékin à l’encontre de l’île. La Chine a cherché à plusieurs reprises à jeter le doute sur la capacité de Taipei à freiner la propagation du Virus… En plus de critiquer et de diffuser des informations erronées sur la gestion de la pandémie par les autres pays, les médias et les diplomates chinois ont amplifié des théories de conspiration infondées selon lesquelles le SRAS-CoV-2 serait originaire d’un pays autre que la Chine.

La diffusion de la désinformation sur le climat dans les communautés hispanophones

Los Eco-Ilógicos

Green Latinos, avec le soutien de Friends of the Earth [Les Amis de la Terre], a demandé à Graphika d’étudier comment les récits faux et trompeurs sur le changement climatique touchaient les communautés hispanophones en ligne. L’analyse visait à comprendre comment ces récits se propagent dans l’écosystème en ligne des internautes hispanophones, les groupes et les individus qui les alimentent et les diffusent, ainsi que les tactiques employées par ces acteurs. L’analyse a permis à Graphika d’identifier un réseau tentaculaire d’utilisateurs en ligne à travers l’Amérique latine et l’Espagne qui amplifient constamment les récits de désinformation sur le climat en espagnol. Si certains de ces comptes se concentrent spécifiquement sur des conversations liées au climat, la majorité d’entre eux font la promotion des récits idéologiquement de droite, dont certains touchent au changement climatique. De nombreux récits identifiés se recoupent également avec des conversations en ligne existantes sans rapport avec le changement climatique, telles que la désinformation liée à la COVID-19 ou les théories du complot sur une organisation secrète d’élites mondiales totalitaires.

Lutter contre la manipulation de l'information lors des élections africaines

De la réalité à la fiction : Lutter contre la désinformation lors des élections africaines

« La désinformation liée aux élections vise principalement à manipuler la prise de décision des électeurs, à jeter le doute sur le processus électoral et à délégitimer le résultat des élections. Il s’agit d’une tendance dangereuse, en particulier dans les démocraties fragiles où elle est susceptible d’inciter à la haine et de susciter une flambée de violence. La désinformation et la mésinformation ont été des facteurs majeurs dans la recrudescence des violences post-électorales au Kenya à la suite des élections générales de 2017. De même, en 2020, la République centrafricaine a connu des violences post-électorales meurtrières à la suite d’une élection contestée, d’efforts de désinformation ciblés et d’un langage qui sème la discorde. Il en a été de même en Cote d’Ivoire, où 50 personnes ont été tuées lors des violences politiques et intercommunautaires qui ont émaillé l’élection présidentielle du 31 octobre 2020. »

Pour plus de détails, voir également le rapport de juin 2023 du Conseil atlantique sur le paysage de la désinformation en Afrique de l’Ouest et au-delà..

Haut de page

Références

Vous trouverez ci-dessous les ouvrages cités dans cette ressource.

Ressources complémentaires

Haut de page

Categories

Digital Development in the time of COVID-19