Les médias sociaux
Qu’est-ce que les médias sociaux ?
Les médias sociaux offrent aux personnes et aux organisations des espaces pour partager et accéder à l’actualité et aux informations, communiquer avec les bénéficiaires et plaider en faveur du changement. Le contenu des médias sociaux comprend le texte, les photos, les vidéos, les infographies ou tout autre support posté sur un blog, une page Facebook, un compte X (anciennement connu sous le nom de Twitter), etc. pour qu’un public le consomme, interagisse avec et le fasse circuler. Ce contenu est élaboré par les plates-formes et transmis aux utilisateurs en fonction de ce qui est le plus susceptible d’attirer leur attention. La quantité de contenu disponible sur ces plates-formes ne cesse de croître.

En théorie, les médias sociaux permettent à chacun de s’exprimer et d’atteindre des publics dans le monde entier, ce qui peut être un facteur de progrès et de rapprochement. Dans le même temps, une grande partie de ce qui est partagé sur les médias sociaux peut être trompeur, haineux et dangereux, ce qui impose théoriquement aux propriétaires des plates-formes un certain niveau de responsabilité en matière de modération du contenu.
Comment fonctionnent les médias sociaux ?
Les plates-formes de médias sociaux appartiennent à des entreprises privées, dont les modèles économiques reposent généralement sur la publicité et la monétisation des données des utilisateurs. Cela affecte la manière dont le contenu apparaît aux utilisateurs et influence les pratiques de partage des données. La modération du contenu sur ces espaces de médias sociaux comporte ses propres défis et complications, car elle nécessite de trouver un équilibre entre plusieurs libertés fondamentales. Il est essentiel de comprendre les pratiques de modération du contenu et les modèles économiques des plates-formes pour récolter les bénéfices tout en atténuant les risques liés à l’utilisation des médias sociaux.
Modèles économiquesLa plupart des plates-formes de médias sociaux reposent sur la publicité. Les annonceurs paient pour l’engagement, notamment pour les clics, les ”likes“ et les partages. C’est pourquoi les contenus sensationnels et qui attirent l’attention ont plus de valeur. Cela incite les plates-formes à utiliser une technologie de recommandation automatisée qui s’appuie sur une prise de décision algorithmique pour donner la priorité au contenu susceptible d’attirer l’attention. La principale stratégie « d’amplification axée sur l’utilisateur » montre aux utilisateurs le contenu qui est le plus susceptible de les intéresser sur la base des données détaillées qui sont collectées à leur sujet. Pour en savoir plus, consultez la Section Risques sous la rubrique Monétisation des données par les entreprises de médias sociaux et les flux d’informations sur mesure.
L’avènement de la publicité programmatique
La transition de la publicité vers les systèmes numériques a radicalement modifié le secteur de la publicité. Dans un monde analogique, les campagnes publicitaires reposaient sur des données démographiques globales, collectées par les éditeurs et les sociétés de mesure. Ces mesures étaient approximatives et permettaient tout au plus de suivre les abonnés et l’engagement des ménages. Les annonceurs espéraient que leurs annonces seraient vues par un nombre suffisant de personnes appartenant à leur groupe démographique cible (par exemple, des hommes âgés de 18 à 35 ans disposant d’un certain niveau de revenu) pour que cela vaille la peine. Le suivi de l’efficacité des annonces publicitaires s’est avéré encore plus difficile. Les systèmes permettant de mesurer si une annonce a abouti à une vente se limitaient essentiellement à des cartes envoyées par la poste et à des codes de réduction spéciaux.
L’apparition des systèmes numériques a changé la donne. Lancée en grande partie par Google, puis propulsée par Facebook au début du 21e siècle, une nouvelle promesse a vu le jour :« Déposez vos annonces publicitaires sur notre plate-forme et nous nous chargeons de mettre la bonne publicité devant la bonne personne au bon moment. Et non seulement ça, en plus, nous pouvons vous indiquer (en tant qu’annonceur) quels utilisateurs ont vu votre annonce, s’ils ont cliqué dessus et si ce clic a abouti à une « conversion » ou à une vente ».
Mais cette promesse s’est accompagnée d’importantes conséquences involontaires. La façon dont les plates-formes – et l’énorme industrie de la technologie publicitaire qui a rapidement émergé à leurs côtés – tiennent cette promesse nécessite un niveau de collecte de données, de suivi et de surveillance individuelle sans précédent dans l’histoire de l’humanité. Le suivi des comportements individuels, des préférences et des habitudes alimente ce secteur extrêmement rentable de la publicité numérique, dominé par des plates-formes capables de contrôler ces données à grande échelle.
La gestion d’énormes jeux de données sur les consommateurs, à l’échelle et à la vitesse requises pour offrir de la valeur aux annonceurs, s’est traduite par une forte dépendance à l’égard des algorithmes pour la recherche, le tri, le suivi, le positionnement et la diffusion des annonces publicitaires. Ce développement d’algorithmes sophistiqués a conduit à l’émergence de la publicité programmatique, qui consiste à poster des annonces en temps réel sur des sites web sans intervention humaine. La publicité programmatique a représenté environ deux tiers du marché publicitaire mondial de 237 milliards de dollars en 2019.
La numérisation du marché publicitaire, en particulier la domination de la publicité programmatique, a créé des conditions de concurrence très inégales. Les entreprises technologiques disposent d’un avantage considérable en ce sens que ce sont elles qui ont créé les nouvelles structures et fixé les règles d’engagement. Ce qui a commencé comme une plus-value dans le nouvel espace numérique – « Nous donnerons aux annonceurs de l’efficacité et aux éditeurs de nouvelles audiences et de nouveaux flux de revenus » – a évolué de manière à désavantager les deux groupes.
L’un des principaux défis réside dans la manière dont l’engagement du public est mesuré et suivi. Les principaux indicateurs de performance dans le monde numérique sont les vues et les clics. Comme indiqué plus haut, une structure incitative basée sur les vues et les clics (engagement) tend à favoriser les contenus sensationnels et accrocheurs. Dans la course à l’engagement, les contenus trompeurs ou faux, avec des titres dramatiques et des affirmations à l’emporte-pièce, prennent systématiquement le pas sur l’actualité et les informations plus équilibrées. Voir également la section sur la publicité numérique dans le document sur la désinformation.
Contenu motivé par la publicité
Les plates-formes utilisent des outils tels que les hashtags et l’optimisation des moteurs de recherche (SEO) pour classer et regrouper le contenu autour de certains sujets. Malheureusement, la sélection automatisée de contenu motivée par la publicité n’a pas tendance à privilégier les contenus sains, éducatifs ou rigoureux. En revanche, les théories du complot, les contenus choquants ou violents et les « appâts à clics » (phrases trompeuses conçues pour inciter au visionnement) ont tendance à se répandre plus largement. De nombreuses plates-formes disposent de fonctions de « vote positif » (boutons « j’aime ») qui, à l’instar des hashtags et du référencement, influencent la modération algorithmique et favorisent la diffusion de certains contenus à plus grande échelle. Ces fonctions sont à l’origine de la « viralité », l’un des traits caractéristiques de l’écosystème des médias sociaux : la tendance d’une image, d’une vidéo ou d’un élément d’information à circuler rapidement et à grande échelle.
Dans certains cas, la viralité peut susciter un activisme politique et une prise de conscience (comme le mouvement #MeToo), mais elle peut aussi amplifier des tragédies et diffuser des informations inexactes (informations anti-vaccins et autres rumeurs sur la santé, etc.) En outre, les modèles économiques des plates-formes récompensent la quantité plutôt que la qualité (nombre de « likes », de « followers » et de vues), ce qui encourage une logique de croissance qui a conduit au problème de la saturation ou de la surcharge d’informations, en submergeant les utilisateurs avec un contenu apparemment interminable. En effet, des décisions de conception telles que le «défilement interminable» visant à rendre nos espaces de médias sociaux toujours plus grands et plus divertissants ont été associées à des comportements impulsifs, à la distraction accrue, à des comportements de recherche d’attention, à une baisse de l’estime de soi, etc.
De nombreuses stratégies de publicité numérique présentent des risques en matière d’accès à l’information, de respect de la vie privée et de discrimination, notamment en raison de leur omniprésence et de leur subtilité. Le marketing d’influence, par exemple, consiste à parrainer un influenceur de médias sociaux pour promouvoir ou utiliser un certain produit en l’intégrant dans son contenu de médias sociaux, tandis que la publicité native consiste à intégrer des publicités dans ou à côté d’autres contenus non payants. La plupart des consommateurs ne savent pas ce qu’est la publicité native ou indigène et ne savent peut-être même pas quand on leur sert des publicités.
Il n’est pas nouveau que les marques placent leur contenu de manière stratégique. Cependant, aujourd’hui, la publicité est beaucoup plus présente et elle s’est intégrée de manière transparente à d’autres contenus. En outre, la conception des plates-formes rend indiscernables les contenus provenant de sources diverses – annonceurs et agences de presse, experts et amateurs. Le droit à l’information des individus et les garanties fondamentales de transparence sont en jeu si les publicités sont placées sur un pied d’égalité avec le contenu souhaité.
La modération de contenu est au cœur des services offerts par les plates-formes de médias sociaux entre autres, l’hébergement et la sélection du contenu téléchargé par leurs utilisateurs. La modération du contenu ne se limite pas à l’examen du contenu, mais à toutes les décisions de conception prises par les plates-formes, depuis les conditions d’utilisation et les lignes directrices communautaires jusqu’aux algorithmes utilisés pour classer et ordonner le contenu, en passant par les types de contenu autorisés et encouragés par les caractéristiques de conception (« aimer », « suivre », « bloquer », « restreindre », etc.).
La modération du contenu est particulièrement difficile en raison des questions qu’elle soulève en matière de liberté d’expression. Si l’on doit faire face à des quantités massives de contenus nuisibles qui circulent largement, les contenus éducatifs, historiques ou journalistiques se voient souvent purement et simplement censurés par des systèmes de modération algorithmiques. En 2016, par exemple, Facebook a supprimé une publication contenant une image d’une fillette de 9 ans nue fuyant un bombardement au napalm, qui a reçu le prix Pulitzer, et a suspendu le compte du journaliste qui l’avait publiée.
Bien que les nations aient des positions différentes sur la liberté d’expression, les droits de l’homme internationaux constituent un cadre permettant d’équilibrer la liberté d’expression par rapport à d’autres droits et par rapport aux protections des groupes vulnérables. Toujours est-il que les défis de la modération de contenu augmentent à mesure que le contenu lui-même évolue, par exemple avec l’accroissement de la retransmission directe, du contenu éphémère, des assistants vocaux, etc. La modération des mèmes Internet est particulièrement difficile, par exemple, en raison de leur ambiguïté et de leur nature changeante. Pourtant, la culture des mèmes est un outil central utilisé par l’extrême droite pour diffuser son idéologie et glorifier la violence. Certaines manipulations de l’information sont aussi intentionnellement difficiles à détecter, par exemple la « dilogie », qui consiste à envoyer des messages codés à des sous-groupes de la population) et le « détournement cognitif » (manipulation psychologique visant à faire douter les gens de leurs propres connaissances ou de leur propre jugement).
Modération automatisée
La modération du contenu est généralement assurée par une combinaison de l’humain et de l’intelligence artificielle, la combinaison exacte dépendant de la plate-forme et de la catégorie de contenu. Les plus grandes plates-formes à l’instar de Facebook et YouTube utilisent des outils automatisés pour filtrer le contenu au fur et à mesure qu’il est téléversé. Facebook, par exemple, affirme être en mesure de détecter jusqu’à 80 % des discours haineux dans certaines langues au moment de leur publication, avant qu’ils n’atteignent le niveau de l’examen humain. Bien que les conditions de travail des modérateurs humains aient été fortement critiquées, les algorithmes ne constituent pas une alternative parfaite. Leur exactitude et leur transparence ont été contestées, et des experts ont mis en garde contre certains biais inquiétants sdécoulant de la modération algorithmique du contenu.
La complexité des décisions de modération de contenu ne se prête pas facilement à l’automatisation, et la porosité entre le contenu légal
et illégal, ou entre le permissible et l’inadmissible, conduit à la censure du contenu légitime et au passage à travers les filtres du contenu nuisible et illégal (cyber-intimidation, diffamation, etc.).
La modération des contenus publiés sur les médias sociaux a revêtu une importance croissante pendant la pandémie de la maladie à COVID-19, lorsque l’accès à des informations trompeuses et inexactes sur le virus pouvait entraîner des maladies graves ou des lésions corporelles. L’une des caractéristiques de Facebook est qu’il s’agit « d’une plate-forme en guerre contre elle-même : l’algorithme du fil d’actualité fait la promotion sans relâche des appâts irrésistibles sur Bill Gates, les vaccins et l’hydroxy chloroquine ; l’équipe chargée de la confiance et de la sécurité les contrecarre consciencieusement avec des doses de réalité en gras et soulignées. »
Modération des communautés
Certaines plates-formes de médias sociaux en sont venues à compter sur leurs utilisateurs pour la modération des contenus. Reddit a été l’un des premiers réseaux sociaux à populariser la modération communautaire et permet aux subreddits d’ajouter des règles supplémentaires à la politique de contenu principale de l’entreprise. Ces règles sont ensuite appliquées par des modérateurs humains et, dans certains cas, par des robots. Si la décentralisation de la modération donne aux communautés d’utilisateurs plus d’autonomie et de pouvoir de décision sur leurs conversations, elle repose aussi par nature sur un travail non rémunéré et expose des bénévoles non formés à des contenus potentiellement problématiques.
Les notes communautaires de X constituent une autre approche de la modération communautaire. Il s’agit essentiellement d’un système de vérification des faits par la foule. Cette fonction permet aux utilisateurs membres du programme d’ajouter un contexte supplémentaire aux messages (anciennement appelés « tweets ») susceptibles de contenir des informations fausses ou trompeuses. Les autres utilisateurs votent ensuite pour déterminer si le contexte leur semble utile.
Lutte contre les contenus dangereux
Dans certains pays, les lois locales peuvent traiter de la modération du contenu, mais elles concernent principalement les images d’abus d’enfants ou les contenus illégaux qui incitent à la violence. La plupart des plates-formes disposent également de normes communautaires ou de politiques de sûreté et de sécurité qui précisent le type de contenu autorisé et fixent les règles applicables aux contenus préjudiciables. L’application des exigences légales et des normes propres aux plates-formes repose principalement sur le signalement des contenus par les utilisateurs des médias sociaux. Les plates-formes de médias sociaux ne sont responsables des contenus préjudiciables diffusés sur leurs plates-formes qu’à partir du moment où ils leur ont été signalés.
Certaines plates-formes ont mis en place des mécanismes qui permettent aux organisations de la société civile (OSC) de contribuer au processus d’établissement des rapports en devenant ce que l’on appelle des « signaleurs de confiance ». Le programme « Trusted Partner» de Facebook, par exemple, offre aux partenaires un canal spécialisé de remontée d’informations pour signaler les contenus qui violent les normes communautaires de l’entreprise. Cependant, même si des programmes de ce type sont en place, l’accès limité à des plates-formes permettant de soulever les défis et les tendances locales reste un obstacle pour les OSC, les groupes marginalisés et les autres communautés, en particulier dans les pays du Sud.
La question de savoir comment réglementer et appliquer les politiques des plates-formes de médias sociaux est loin d’être résolue. À l’heure où nous écrivons ces lignes, plusieurs approches communes de la réglementation des médias sociaux s’affrontent.
L’autorégulation
Le modèle standard de réglementation des médias sociaux est depuis longtemps l’autorégulation, les plates-formes établissant et appliquant leurs propres normes de sécurité et d’équité. Des incitations à l’autorégulation, notamment en évitant l’imposition d’une réglementation gouvernementale plus restrictive et en renforçant la confiance des consommateurs afin d’élargir la base d’utilisateurs d’une plate-forme (et, en fin de compte, d’augmenter les profits). D’autre part, il existe des limites évidentes à l’autorégulation lorsque ces incitations sont contrebalancées par des coûts perçus. L’autorégulation peut également dépendre de la propriété d’une entreprise, comme le montre l’annulation de nombreuses décisions politiques au nom de la « liberté d’expression » par Elon Musk après son rachat de X (connu à l’époque sous le nom de Twitter).
En 2020, le Conseil de surveillance de Facebook a été créé en tant que mécanisme de responsabilité permettant aux utilisateurs de faire appel des décisions de Facebook de supprimer des contenus qui violent ses politiques contre les messages préjudiciables et haineux. Si les décisions du Conseil de surveillance sur le contenu des dossiers individuels sont contraignantes, ses recommandations politiques plus générales ne le sont pas. Par exemple, Meta a dû supprimer une vidéo postée par le Premier ministre cambodgien Hun Sen qui menaçait ses opposants de violence physique, mais a refusé de se conformer à la recommandation de la Commission de suspendre complètement le compte du Premier ministre. Bien que le mandat et le modèle du Conseil de surveillance soient prometteurs, des inquiétudes ont été exprimées quant à sa capacité à répondre au volume de demandes qu’il reçoit dans des délais raisonnables.
Réglementation gouvernementale
Ces dernières années, des gouvernements individuels et des blocs régionaux ont introduit une législation visant à tenir les entreprises de médias sociaux responsables des contenus préjudiciables diffusés sur leurs plates-formes, ainsi qu’à protéger la vie privée des citoyens compte tenu des quantités massives de données collectées par ces entreprises. L’exemple le plus marquant et le plus ambitieux de ce type de législation est sans doute la Législation sur les services numériques (LSN)de l’Union européenne, qui est entrée en vigueur pour les « très grandes plates-formes en ligne » telles que Facebook et Instagram (Meta), TikTok, YouTube (Google) et X à la fin du mois d’août 2023. En vertu des règles de la LSN, les plates-formes en ligne risquent des amendes importantes si elles ne parviennent pas à prévenir et à supprimer les messages à contenu illégal. La LSN interdit également la publicité ciblée fondée sur l’orientation sexuelle, la religion, l’appartenance ethnique ou les convictions politiques d’une personne et exige des plates-formes qu’elles fassent preuve de plus de transparence sur le fonctionnement de leurs algorithmes.
La réglementation gouvernementale s’accompagne d’un risque de surrèglementation à travers les lois sur les «fake news» et de menaces pour la liberté d’expression et la sécurité en ligne. En 2023, par exemple, des chercheurs en sécurité ont averti que le projet de loi britannique sur la sécurité en ligne compromettrait la sécurité des utilisateurs de services de communication cryptés de bout en bout, tels que WhatsApp et Signal. La proposition de loi brésilienne visant à accroître la transparence et la responsabilité des plates-formes en ligne a également été largement critiquée – et a fait l’objet de vives réactions de la part des plates-formes elles-mêmes – car les négociations se sont déroulées à huis clos, sans véritable engagement de la part de la société civile et d’autres secteurs.
En quoi les médias sociaux sont-ils pertinents à l'espace civique et à la démocratie ?
Les médias sociaux encouragent et facilitent la diffusion d’informations à des vitesses, des distances et des volumes sans précédent. En conséquence, l’information dans la sphère publique n’est plus contrôlée par les « gardiens » du journalisme. Au contraire, les médias sociaux offrent des plates-formes permettant aux groupes exclus des médias traditionnels de se connecter et de se faire entendre. Le journalisme citoyen s’est développé sur les médias sociaux, permettant aux utilisateurs du monde entier de compléter les narratives des médias traditionnels par des perspectives locales sur le terrain qui auraient pu être négligées ou déformées. Pour en savoir plus sur le journalisme citoyen, consultez la Section Opportunités de ce document.
Les médias sociaux peuvent également servir de ressource pour les citoyens et les premiers intervenants lors des urgences, des crises humanitaires et des catastrophes naturelles, comme décrit plus en détail dans la section Opportunités. À la suite du tremblement de terre meurtrier qui a frappé la Turquie et la Syrie en février 2023, par exemple, les personnes piégées sous les décombres se sont tournées vers les médias sociaux pour alerter les équipes de secours de leur emplacement. Les plates-formes de médias sociaux ont également été mises à contribution au cours de cette crise et d’autres pour mobiliser des bénévoles et recueillir des dons en masse pour l’aide alimentaire et médicale.

Cependant, comme toute technologie, les médias sociaux peuvent être utilisés de manière à nuire à la liberté d’expression, au débat démocratique et à la participation civique. Dans le passé, des entreprises à but lucratif comme X se sont conformées aux demandes de retrait de contenu émanant de certains gouvernements, ce qui a suscité des inquiétudes en matière de censure. Lorsque des entreprises privées contrôlent le flux d’informations, la censure peut s’exercer non seulement par le biais de ces mécanismes directs, mais aussi par la détermination des contenus jugés les plus crédibles ou dignes de l’attention du public.
Les effets du harcèlement, des discours haineux et du « trollage » sur les médias sociaux peuvent se répercuter dans les espaces hors ligne, ce qui représente un danger singulier pour les femmes, les journalistes, les candidats politiques et les groupes marginalisés. Selon l’UNESCO, 20 % des personnes interrogées dans le cadre d’une enquête menée en 2020 enquête sur la violence en ligne à l’encontre des femmes journalistes ont déclaré avoir été agressées hors ligne en raison de la violence en ligne. Pour en savoir plus sur la violence en ligne et les attaques numériques ciblées, consultez la section Risques de ce document, ainsi que la section sur la Fracture numérique entre les hommes et les femmes[1].
Les plates-formes de médias sociaux sont de plus en plus présentes dans notre vie quotidienne (l’internaute moyen passe près de 2,5 heures par jour sur les médias sociaux), et ceux qui ne sont pas actifs sur ces plates-formes risquent de manquer des annonces publiques importantes, des informations sur des événements communautaires et des occasions de communiquer avec leur famille et leurs amis. Des caractéristiques de conception telles que le «défilement interminable», qui permet aux utilisateurs de parcourir indéfiniment les contenus sans cliquer, créent intentionnellement une dépendance et sont associées à un comportement impulsif et à une baisse de l’estime de soi. La saturation à l’excès des contenus dans les fils d’actualité structurés fait qu’il est de plus en plus difficile pour les utilisateurs de distinguer les informations factuelles et impartiales de l’assaut des « piège à clics » et des récits sensationnels. Pour en savoir plus sur la diffusion intentionnelle d’informations trompeuses ou fausses dans le but de tromper ou de nuire, consultez notre document sur la Désinformation[2].
Médias sociaux et électionsLes plates-formes de médias sociaux sont de plus en plus importantes pour la mobilisation des citoyens, des candidats et des partis politiques lors des élections, des référendums et d’autres événements politiques. D’une part, les candidats moins connus peuvent tirer parti des médias sociaux pour atteindre un public plus large en menant une action directe et en partageant des informations sur leur campagne, tandis que les citoyens peuvent utiliser les médias sociaux pour communiquer avec les candidats sur les préoccupations immédiates de leurs communautés locales. D’autre part, la désinformation qui circule sur les médias sociaux peut amplifier la confusion des électeurs, réduire le taux de participation, galvaniser les clivages sociaux, étouffer la participation politique des femmes et des populations marginalisées, et dégrader la confiance générale dans les institutions démocratiques.
Les entreprises de médias sociaux comme Google, Meta et X ont l’habitude d’ajuster leurs politiques et d’investir dans de nouveaux produits avant les élections au niveau mondial. Elles collaborent aussi directement avec les autorités électorales et les vérificateurs de faits indépendants pour limiter la désinformation et d’autres préjudices en ligne. Cependant, ces efforts sont souvent insuffisants. À titre d’exemple, malgré les efforts auto-proclamés de Facebook pour préserver l’intégrité des élections, Global Witness a constaté que la plate-forme n’a pas détecté la désinformation liée aux élections dans les publicités précédant l’élection présidentielle brésilienne de 2022 (un schéma similaire a également été découvert au Myanmar, en Éthiopie et au Kenya). Facebook et d’autres plates-formes de médias sociaux ont été vivement critiqués pour leur inaction avant et pendant les émeutes provoquées par les partisans d’extrême droite de l’ancien président Jair Bolsonaro. Dans les démocraties fragiles, les institutions qui pourraient aider à contrer l’impact des fake news et de la désinformation diffusées sur les médias sociaux – telles que les médias indépendants, les partis politiques agiles et les organisations de la société civile avisés- restent balbutiantes.
En parallèle, la publicité politique en ligne a posé de nouveaux défis en matière de transparence et de redevabilité électorales, en raison de la facilité avec laquelle les pages non officielles peuvent être sponsorisées par les campagnes officielles sans être déclarées. Les entreprises de médias sociaux se sont efforcées d’accroître la transparence des publicités politiques en mettant à disposition des « bibliothèques de publicités » dans certains pays et en introduisant de nouvelles exigences pour l’achat et l’identification des publicités politiques. Mais ces efforts ont varié d’un pays à l’autre, l’attention se portant surtout sur les marchés les plus importants ou les plus influents.
La surveillance des médias sociaux peut aider les chercheurs de la société civile à mieux comprendre leur environnement d’information locale, y compris les narratives de désinformation courants pendant les cycles électoraux. Le National Democratic Institute, par exemple, a utilisé la plate-forme de surveillance sociale de Facebook, Crowdtangle, pour suivre l’évolution de l’environnement politique en ligne en Moldavie après la victoire de Maia Sandu aux élections présidentielles de novembre 2020. Cependant, les plates-formes de médias sociaux ont rendu ce travail plus difficile en introduisant des frais exorbitants pour accéder aux données ou en cessant de soutenir les interfaces utilisateur qui facilitent l’analyse pour les utilisateurs profanes.
Les opportunités

Les médias sociaux peuvent avoir des effets positifs lorsqu’ils sont utilisés pour faire avancer la démocratie, les droits de l’homme et les questions de gouvernance. Vous trouverez dans les pages suivantes de plus amples informations quant à comment aborder de manière plus efficace et plus sûre l’utilisation des médias sociaux dans le cadre de votre travail.
Journalisme citoyenLes médias sociaux ont le mérite d’offrir aux citoyens, aux militants et aux experts des canaux pour rendre compte instantanément et directement de la situation, que ce soit en cas de catastrophe, lors de manifestations, au sein des communautés locales, etc. Le journalisme citoyen, également appelé journalisme participatif ou journalisme de guérilla, ne repose pas sur un ensemble défini de principes et constitue un complément important au journalisme traditionnel (sans toutefois s’y substituer). Le journalisme collaboratif défini comme le partenariat entre les citoyens et les journalistes professionnels, ainsi que les stratégies de production participative, sont des techniques supplémentaires facilitées par les médias sociaux qui ont amélioré le journalisme, en aidant à promouvoir les voix du terrain et à amplifier la diversité des voix et des points de vue. France 24 a développé un réseau de 5 000 collaborateurs, les « observateurs », qui sont en mesure de couvrir les événements importants en direct, parce qu’ils sont sur place, et de confirmer l’exactitude de l’information.
Les médias sociaux et les plates-formes de blogs ont permis la décentralisation de l’expertise, jetant un pont entre les formes de connaissances élitistes et non élitistes. En l’absence de vérification des faits, de sources supplémentaires et d’un contexte approprié, les reportages des citoyens comportent des risques pour la sécurité des auteurs eux-mêmes, mais ils constituent une force de démocratisation et une source d’information importantes.
Dans le cadre de la production participative, le public est mobilisé pour partager des données afin de raconter une histoire plus vaste ou d’atteindre un objectif plus important. La production participative peut être une méthode de financement, de journalisme et de reportage, ou simplement de collecte d’idées. En général, un outil logiciel ou une plate-forme est mise en place, auquel le public peut facilement accéder et auquel il peut contribuer. La cartographie de crise, par exemple, est un type de production participative par lequel le public partage des données en temps réel pendant une crise (une catastrophe naturelle, une élection, une manifestation, etc.) Ces données sont ensuite classées et affichées de manière utile. Par exemple, la cartographie de crise peut être utilisée à la suite d’un tremblement de terre pour montrer aux premiers intervenants les zones qui ont été touchées et qui ont besoin d’une assistance immédiate. Ushahidi est un logiciel libre de cartographie de crise développé au Kenya après l’éclatement de violences qui ont suivi les élections de 2007. Cet outil a d’abord été créé pour permettre aux Kenyans de signaler les incidents, de se faire une idée complète et précise de la situation sur le terrain et de partager l’information avec les médias, les gouvernements étrangers, la société civile et les organisations humanitaires concernées. Au Kenya, l’outil a recueilli des textes, des messages et des photos et a permis de dresser des cartes des incidents violents, des fraudes électorales et d’autres abus. Ushahidi dispose aujourd’hui d’une équipe mondiale déployée dans plus de 160 pays et dans plus de 40 langues.
Les médias sociaux ont permis à des mouvements locaux et mondiaux de voir le jour du jour au lendemain, invitant à une large participation et à une grande visibilité. Les hashtags sur Twitter, en particulier, ont joué un rôle essentiel dans la formation de coalitions, la coordination et la sensibilisation du public international, des médias et des gouvernements. Les chercheurs ont commencé à s’intéresser à l’activisme numérique à l’occasion du « Printemps arabe » de 2011, lorsque des mouvements en Tunisie, au Maroc, en Syrie, en Libye, en Égypte et au Bahreïn, entre autres, se sont appuyés sur les médias sociaux pour galvaniser le soutien de la population. Cette tendance s’est poursuivie avec le mouvement Occupy Wallstreet aux États-Unis, le mouvement ukrainien Euromaidan fin 2013 et les manifestations de Hong Kong en 2019.
En 2013, l’acquittement de George Zimmerman pour la mort de Trayvon Martin, un jeune homme de 17 ans non armé, a inspiré la création du hashtag #BlackLivesMatter Ce mouvement s’est renforcé en réponse aux meurtres tragiques de Michael Brown en 2014 et de George Floyd en 2020. Le hashtag, à l’origine d’un mouvement de protestation national organisé, a permis aux gens de participer à une conversation en ligne et d’articuler des récits alternatifs en temps réel sur des sujets auxquels les médias et le reste des États-Unis n’avaient pas accordé suffisamment d’attention : brutalité policière, racisme systémique, profilage racial, inégalité, etc.
Le mouvement #MeToo contre l’inconduite sexuelle dans l’industrie des médias, qui est également devenu un mouvement mondial a permis à une multitude de personnes de participer à un activisme auparavant lié à un certain temps et à un certain lieu.
Certains chercheurs et militants craignent que les médias sociaux ne conduisent à un «activisme paresseux » en donnant aux gens une excuse pour rester chez eux plutôt que de réagir de manière plus dynamique. D’autres craignent que les médias sociaux ne soient finalement insuffisants pour mettre en œuvre un changement social significatif, qui nécessite des arguments politiques nuancés. (Il est intéressant de noter qu’une enquête menée en 2018 par Pew Research sur les attitudes à l’égard de l’activisme numérique a montré que seuls 39 % des Américains blancs estimaient que les médias sociaux étaient un outil important pour s’exprimer, là où 54 % des Noirs faisaient la même déclaration également).
Les médias sociaux ont permis à de nouveaux groupes en ligne de se rassembler et d’exprimer un sentiment commun en guise de solidarité ou de protestation. Surtout après l’apparition de la pandémie de COVID-19, de nombreuses manifestations physiques ont été suspendues ou annulées et remplacées par des manifestations virtuelles.
Les médias sociaux offrent aux OSC une occasion précieuse d’atteindre leurs objectifs et de s’engager auprès de publics existants et nouveaux. Pour développer une présence forte et cohérente sur les médias sociaux, il est indispensable de mettre en place un poste permanent de personnel chargé de développer une stratégie de médias sociaux en accord avec la raison d’être, les valeurs et la culture de l’organisation. Cette personne doit savoir comment rechercher des informations, être consciente des risques et des avantages liés au partage d’informations en ligne et comprendre l’importance de faire preuve de discernement lors de la publication d’informations sur les médias sociaux. Le document de l’USAID intitulé « Social Networking: A Guide to Strengthening Civil Society through Social Media » [Renforcer la société civile par le biais des médias sociaux : un guide pour le réseautage social] propose une série de questions pour guider l’élaboration d’une politique solide en matière de médias sociaux, en demandant aux organisations de réfléchir aux valeurs, aux rôles, au contenu, au ton, à la controverse et à la protection de la vie privée.
Les médias sociaux peuvent être intégrés dans les activités programmatiques pour renforcer la portée et l’impact des programmes, par exemple en faisant connaître les services d’une organisation à un nouveau groupe démographique. Les organisations peuvent promouvoir leurs programmes et services tout en répondant aux questions et en favorisant un dialogue ouvert. Les plates-formes de médias sociaux largement utilisées peuvent être utiles pour atteindre de nouveaux publics dans le cadre d’activités de formation et de conseil par le biais de webinaires ou de réunions individuelles conçues pour les ONG.
La collecte de fonds par le biais des médias sociaux se veut une opportunité importante pour les organisations à but non lucratif. Après l’explosion dans le port de Beyrouth à l’été 2020, de nombreux Libanais ont lancé des pages de collecte de fonds en ligne pour leurs organisations. Les plates-formes de médias sociaux ont été largement mises à contribution pour partager les suggestions de financement avec un public au niveau mondial qui suivait le déroulement de la catastrophe, renforcé par la couverture médiatique traditionnelle. Cependant, les organisations doivent bien réfléchir au type de campagne et aux plates-formes qu’elles choisissent. TechSoup, une organisation à but non lucratif qui offre un soutien technique aux ONG, propose des conseils et un cours en ligne sur la collecte de fonds avec les médias sociaux pour les organisations à but non lucratif.
Dans certains contextes, les acteurs civiques s’appuient sur les plates-formes de médias sociaux pour produire et diffuser des informations essentielles, par exemple lors de crises humanitaires ou de situations d’urgence. Même en cas de catastrophe de grande ampleur, l’Internet reste souvent un canal de communication important, ce qui fait des médias sociaux un moyen utile et complémentaire pour les équipes d’urgence et le public. La dépendance à l’égard de l’Internet accroît toutefois la vulnérabilité en cas d’interruption du réseau.
Risques

L’utilisation des médias sociaux peut également créer des risques dans les programmes de la société civile. Vous trouverez ci-dessous des informations quant aux méthodes pour déceler les dangers potentiels liés aux plates-formes de médias sociaux dans le cadre du travail du DRG, et comment atténuer les conséquences involontaires – et voulues – de ces plates-formes.
Polarisation et ségrégation idéologiqueLa manière dont les contenus circulent et sont présentés sur les médias sociaux en raison des modèles économiques des plates-formes risque de limiter notre accès à l’information, en particulier aux informations qui remettent en cause nos convictions préexistantes, en nous exposant à des contenus susceptibles d’attirer notre attention et de conforter nos opinions. Le concept de bulle de filtre fait référence au filtrage des informations par les plates-formes en ligne afin d’exclure les informations pour lesquelles nous, en tant qu’utilisateurs, n’avons pas encore manifesté d’intérêt. Associées à nos propres préjugés intellectuels, les bulles de filtre aggravent la polarisation en nous permettant de vivre dans des chambres d’écho. On peut facilement s’en rendre compte sur YouTube : lorsque vous recherchez une chanson d’un artiste, vous serez probablement dirigé vers d’autres chansons du même artiste ou d’artistes similaires – les algorithmes sont conçus pour prolonger votre visionnage et supposent que vous voulez plus de choses similaires. La même tendance a été observée pour les contenus politiques. Les algorithmes des médias sociaux encouragent le biais de confirmation, nous exposant à des contenus avec lesquels nous sommes d’accord et que nous apprécions, souvent au détriment de l’exactitude, de la rigueur ou de la valeur éducative et sociale de ces contenus.
Les données massives et précises recueillies par les annonceurs et les entreprises de médias sociaux sur nos préférences et nos opinions facilitent la pratique du micro ciblage, qui consiste à afficher un contenu sur mesure basé sur des données relatives aux comportements en ligne, aux connexions et aux données démographiques des utilisateurs, comme nous l’expliquons plus en détail ci-dessous.
La diffusion de plus en plus personnalisée de l’actualité et d’informations sur les médias sociaux constitue une menace pour le discours politique, la diversité des opinions et la démocratie. Les utilisateurs peuvent se détacher même des informations factuelles qui ne correspondent pas à leur point de vue et s’isoler dans leur propre bulle culturelle ou idéologique.
Étant donné que l’adaptation de l’actualité et d’autres informations sur les médias sociaux est largement déterminée par des algorithmes opaques et non transparents appartenant à des entreprises privées ; il est donc difficile pour les utilisateurs d’éviter ces bulles. L’accès et l’assimilation des informations très diverses disponibles sur les médias sociaux, avec leurs nombreux points de vue, perspectives, idées et opinions, nécessitent un effort explicite de la part de l’utilisateur individuel pour aller au-delà de la consommation passive du contenu qui lui est présenté par l’algorithme.
L’internet et les médias sociaux fournissent de nouveaux outils qui amplifient et modifient le danger présenté par des informations fausses, inexactes ou hors contexte. L’espace en ligne alimente de plus en plus le discours et c’est là qu’une grande partie de la désinformation actuelle prend racine. Pour une vue d’ensemble détaillée de ces problèmes, veuillez-vous référer au document intitulé « Désinformation ».
Les médias sociaux facilitent un certain nombre de comportements violents tels que la diffamation, le harcèlement, l’intimidation, la traque, le «trollage » et la « divulgation de données personnelles sur Internet ». La cyber intimidation chez les enfants, à l’instar de l’intimidation traditionnelle hors ligne, peut nuire aux résultats scolaires des élèves et leur causer de réels dommages psychologiques. La cyber intimidation est particulièrement néfaste car les victimes subissent la violence seules, isolées dans le cyberespace. Souvent, elles ne demandent pas l’aide des parents et des enseignants, qu’elles croient incapables d’intervenir. La cyber intimidation est également difficile à combattre parce qu’elle peut se déplacer d’une plate-forme de médias sociaux à l’autre, commençant sur l’une d’elles et se déplaçant vers une autre. Tout comme la cyber intimidation, le cyber harcèlement a des effets très tangibles hors ligne. Les femmes sont le plus souvent victimes de cyber harcèlement et de cyber violence, parfois par le biais d’un logiciel de harcèlement installé par leur partenaire pour suivre leurs mouvements. Une tendance effrayante au cyber harcèlement s’est accélérée en France pendant la pandémie de COVID-19 sous la forme de comptes « fisha », où des brutes, des agresseurs ou d’anciens petits amis délaissés publiaient et faisaient circuler des photos nues d’adolescentes sans leur consentement.
Les journalistes, les femmes en particulier, sont souvent victimes de cyber harcèlement et de menaces. La violence en ligne contre les journalistes, en particulier ceux qui écrivent sur des sujets socialement sensibles ou politiques, peut conduire à l’autocensure, ce qui affecte la qualité de l’environnement de l’information et du débat démocratique. Les médias sociaux offrent de nouveaux moyens de diffuser et d’amplifier le discours haineux et le harcèlement. L’utilisation de faux comptes, de bots et de bot-nets (réseaux automatisés de comptes) permet aux auteurs d’attaquer, de submerger et même de désactiver les comptes de médias sociaux de leurs victimes. La divulgation d’informations sensibles sur les journalistes par le biais du « doxxing », divulgation de données personnelles sur Internet, est une autre stratégie qui peut être utilisée pour induire l’autocensure.
L’affaire Gamergate de 2014, au cours de laquelle plusieurs développeuses de jeux vidéo ont été attaquées par une campagne de harcèlement coordonnée qui comprenait la divulgation de leurs données personnelles sur Internet et des menaces de viol et de mort, illustre la force et la capacité de groupes haineux en ligne faiblement connectés à se rallier, à infliger une véritable violence et même à étouffer les critiques. De nombreuses actions des trolls les plus actifs du Gamergate étaient illégales, mais leurs identités étaient inconnues. Il est important de noter que les partisans de Gamergate ont laissé entendre que les trolls les plus violents constituaient une « minorité restreinte mais bruyante », ce qui témoigne du pouvoir d’amplification des canaux Internet et de leur utilisation pour coordonner le harcèlement en ligne.
Les canulars, escroqueries et fraudes en ligne, comme dans leurs formes traditionnelles hors ligne, visent généralement à soutirer de l’argent ou des informations sensibles à une cible. La pratique du phishing est de plus en plus courante sur les médias sociaux : un pirate se fait passer pour un contact ou une source fiable afin d’envoyer des logiciels malveillants ou de soutirer des informations personnelles et des identifiants de compte. Le spearphishing est une attaque d’hameçonnage ciblée qui exploite les informations sur le destinataire et les détails liés aux circonstances environnantes pour atteindre ce même objectif.
La plupart des plates-formes de médias sociaux sont gratuites. Les plates-formes de médias sociaux ne perçoivent pas de revenus directement des utilisateurs, comme c’est le cas pour un service d’abonnement traditionnel ; elles génèrent des bénéfices principalement grâce à la publicité numérique. La publicité numérique repose sur la collecte des données des utilisateurs par les entreprises de médias sociaux, ce qui permet aux annonceurs de cibler leurs publicités sur des utilisateurs et des types d’utilisateurs spécifiques. Les plates-formes de médias sociaux surveillent leurs utilisateurs et créent des profils détaillés qu’elles vendent aux annonceurs. Parmi les données suivies figurent des informations sur les connexions et le comportement de l’utilisateur sur la plate-forme, telles que les amis, les messages, les « j’aime », les recherches, les clics et les mouvements de souris. Des données sont également largement collectées en dehors des plates-formes, notamment des informations sur la localisation des utilisateurs, les pages web visitées, les achats en ligne et le comportement bancaire. En outre, de nombreuses entreprises demandent régulièrement l’autorisation d’accéder aux contacts et aux photos de leurs utilisateurs.
Dans le cas de Facebook, cela a donné lieu à une théorie du complot répandue depuis longtemps, selon laquelle l’entreprise écoute les conversations pour diffuser des publicités sur mesure. Personne n’a jamais été en mesure de trouver des preuves irréfutables que cela se produisait réellement. Des recherches ont montré qu’une entreprise comme Facebook n’a pas besoin d’écouter vos conversations, car elle a la capacité de vous suivre de bien d’autres manières: « Non seulement le système sait exactement où vous vous trouvez à chaque instant, mais il sait aussi qui sont vos amis, ce qui les intéresse et avec qui vous passez du temps. Elle peut vous suivre sur tous vos appareils, enregistrer les métadonnées des appels et des SMS sur les téléphones, et même vous regarder écrire quelque chose que vous finissez par effacer et que vous n’envoyez jamais ».
Les données massives et précises recueillies par les annonceurs et les entreprises de médias sociaux sur nos préférences et nos opinions permettent la pratique du micro-ciblage, c’est-à-dire l’affichage d’annonces publicitaires ciblées en fonction de ce que vous avez récemment acheté, recherché ou aimé. Mais tout comme les annonceurs en ligne peuvent nous cibler avec des produits, les partis politiques peuvent nous cibler avec des messages plus pertinents ou personnalisés. Des études ont tenté de déterminer dans quelle mesure le micro-ciblage politique constitue une préoccupation sérieuse pour le fonctionnement des élections démocratiques. Des chercheurs et des défenseurs des droits numériques ont également soulevé la question de savoir comment le micro-ciblage pouvait entraver notre liberté de pensée.
Les contenus partagés sur les médias sociaux peuvent être surveillés par les gouvernements, qui utilisent les médias sociaux à des fins de censure, de contrôle et de manipulation. Les gouvernements dits démocratiques ne sont pas en reste lorsqu’il s’agit de surveiller les médias sociaux à des fins d’application de la loi et de collecte de renseignements. Ces pratiques devraient être guidées par des cadres juridiques solides et des lois sur la protection des données afin de sauvegarder les droits des individus en ligne, malheureusement de nombreux pays n’ont pas encore adopté ce type de législation.
De nombreux exemples de gouvernements autoritaires qui utilisent des données personnelles et d’autres données collectées à travers les médias sociaux pour intimider les militants, faire taire l’opposition et mettre un terme à des projets de développement existent également. Les informations partagées sur les médias sociaux permettent souvent aux acteurs malveillants d’établir des profils détaillés d’individus, ce qui leur permet de mener des attaques ciblées en ligne et hors ligne. Grâce à l’ingénierie sociale, un courriel de phishing peut être soigneusement conçu à partir des données des médias sociaux pour inciter un militant à cliquer sur un lien malveillant qui lui donne accès à son appareil, à ses documents ou à ses comptes de médias sociaux.
Parfois, cependant, une présence forte et en temps réel sur les médias sociaux peut protéger un activiste très en vue contre les menaces du gouvernement. Une disparition ou une arrestation serait immédiatement remarquée par les adeptes ou les amis d’une personne qui devient soudainement silencieuse sur les médias sociaux.
Nous comptons sur les plates-formes de médias sociaux pour nous aider à respecter nos droits fondamentaux (liberté d’expression, de réunion, etc.). Cependant, ces plates-formes constituent des monopoles mondiaux massifs et ont été qualifiées de « nouveaux gouverneurs ». Cette concentration du marché est préoccupante pour les mécanismes nationaux et internationaux de gouvernance. Le simple démantèlement des plus grandes entreprises de plates-formes ne résoudra pas complètement les désordres de l’information et les problèmes sociaux alimentés par les médias sociaux. La société civile et les gouvernements ont également besoin d’une visibilité sur les choix de conception des plates-formes pour comprendre comment remédier aux préjudices qu’elles facilitent.
L’influence croissante des plates-formes de médias sociaux a donné à de nombreux gouvernements des raisons d’imposer des lois sur le contenu en ligne.
On assiste à l’échelle mondiale, à une multiplication des lois réglementant les contenus illicites et préjudiciables, tels que l’incitation au terrorisme ou à la violence, les fausses informations et les discours de haine. Ces lois criminalisent souvent les discours et prévoient des peines d’emprisonnement ou des amendes élevées pour des choses aussi triviales qu’un retweet sur X. Même dans les pays où l’État de droit est respecté, les approches juridiques de la réglementation du contenu en ligne peuvent s’avérer inefficaces en raison des nombreux défis techniques qui se posent à la modération du contenu. Il existe également un risque de violation de la liberté d’expression des internautes en renforçant les pratiques de modération imparfaites et non transparentes et les suppressions on ne peut plus excessives. Enfin, elles constituent un défi pour les entreprises de médias sociaux, qui doivent naviguer entre le respect des lois locales et la défense du droit international en matière de droits de l’homme.
Les médias sociaux ont eu un impact profond sur le journalisme. Si elles ont permis l’émergence du journaliste citoyen, du reportage local et des informations recueillies auprès du grand public, les entreprises de médias sociaux ont déplacé la relation entre la publicité et le journal traditionnel. Cela a créé un système de récompenses qui privilégie le sensationnalisme et le contenu de type « appât à clics » au détriment du journalisme de qualité qui peut être pertinent pour les communautés locales.
Les médias sociaux ont eu un impact profond sur le journalisme. Si elles ont permis l’émergence du journaliste citoyen, du reportage local et des informations recueillies auprès du grand public, les entreprises de médias sociaux ont déplacé la relation entre la publicité et le journal traditionnel. Cela a créé un système de récompenses qui privilégie le sensationnalisme et le contenu de type « appât à clics » au détriment du journalisme de qualité qui peut être pertinent pour les communautés locales.
En outre, le fonctionnement des outils de recherche a un impact considérable sur les éditeurs locaux, car la recherche est un puissant vecteur de nouvelles et d’informations. Les chercheurs ont constaté que les classements de recherche ont un impact marqué sur notre attention. Non seulement nous avons tendance à penser que les informations les mieux classées sont plus fiables et plus pertinentes, mais nous avons également tendance à cliquer plus souvent sur les résultats les plus élevés que sur les moins élevés. Le moteur de recherche Google focalise notre attention sur un nombre restreint de sources d’information, une tendance qui va à l’encontre de la diversité et du pluralisme des médias. Il tend également à aller à l’encontre des recettes publicitaires des petits éditeurs et des éditeurs communautaires, qui sont basées sur l’attention et le trafic des utilisateurs. Dans cette spirale descendante, les résultats de recherche favorisent les plus grands points de vente, et ces résultats stimulent l’engagement des utilisateurs ; à leur tour, leur inventaire devient plus précieux sur le marché de la publicité, et ces éditeurs deviennent plus grands, et ces éditeurs grandissent en générant des résultats de recherche plus favorables et nous continuons.
Questions
Pour comprendre les implications des flux d’informations des médias sociaux et le choix des plates-formes utilisées dans votre travail, posez-vous les questions suivantes :
-
Votre organisation dispose-t-elle d’une stratégie en matière de médias sociaux ? Qu’est-ce que votre organisation espère réaliser grâce à l’utilisation des médias sociaux ?
-
Disposez-vous d’un personnel capable de superviser et de modérer de manière éthique vos comptes et contenus sur les médias sociaux ?
-
Quelle plate-forme comptez-vous utiliser pour atteindre les objectifs de votre organisation ? Quel est le modèle économique de cette plate-forme ? Comment ce modèle économique vous affecte-t-il en tant qu’utilisateur ?
-
Comment le contenu est-il structuré et modéré sur les plates-formes que vous utilisez (par des humains, des bénévoles, l’IA, etc.) ?
-
Où est situé le siège social légal de la plate-forme ? De quelle juridiction et de quel cadre juridique relève-t-elle ?
-
Les plates-formes choisies disposent-elles de mécanismes permettant aux utilisateurs de signaler les cas de harcèlement et de discours haineux afin qu’ils soient examinés et éventuellement supprimés ?
-
Les plates-formes disposent-elles de mécanismes permettant aux utilisateurs de contester les décisions de retrait de contenu ou de blocage de comptes ?
-
Quelles données utilisateur les plates-formes collectent-elles ? Qui d’autre a accès aux données collectées et comment sont-elles utilisées ?
-
Comment la plate-forme fait-elle participer sa communauté d’utilisateurs et la société civile (par exemple, en signalant les contenus dangereux, en donnant son avis sur les caractéristiques de conception, en vérifiant les informations, etc.) La plate-forme emploie-t-elle du personnel local dans votre pays ou région ?
-
La (les) plateforme(s) dispose(nt)-t-elle(s) de fonctions de confidentialité telles que le cryptage ? Si oui, quel niveau de cryptage offrent-elles et pour quels services précis (par exemple, uniquement sur l’application, uniquement dans les fils de messages privés) ? Quels sont les paramètres par défaut ?
Études de cas
Tout le monde a vu venir la violence au Brésil. Sauf les géants des médias sociauxTout le monde a vu venir la violence au Brésil. Sauf les géants des médias sociaux
« Lorsque des émeutiers d’extrême droite ont pris d’assaut les principaux bâtiments gouvernementaux du Brésil le 8 janvier, les entreprises de médias sociaux ont une nouvelle fois été prises au dépourvu. Dans les groupes WhatsApp, dont beaucoup comptent des milliers d’abonnés, les vidéos virales des attaques se sont rapidement répandues comme une traînée de poudre… Sur Twitter, les utilisateurs des médias sociaux ont posté des milliers d’images et de vidéos en soutien aux attaques sous le hashtag #manifestacao, ou protestation. Sur Facebook, le même hashtag a recueilli des dizaines de milliers d’engagements grâce à des « likes », des partages et des commentaires, principalement en faveur des émeutes… En ne parvenant pas à réprimer ce type de contenu, la violence au Brésil met une fois de plus en évidence le rôle central que jouent les entreprises de médias sociaux dans les mécanismes fondamentaux de la démocratie du XXIe siècle. Ces entreprises fournissent désormais des outils numériques tels que des services de messagerie cryptée utilisés par les militants pour coordonner la violence hors ligne et s’appuient sur des algorithmes automatisés conçus pour promouvoir des contenus partisans susceptibles de saper la confiance des citoyens dans les élections ».
Cartographie participative dans les zones de crise : collaboration, organisation et impact
« Dans le cadre d’une crise, la cartographie participative permet de collecter et d’analyser des photos numériques géolocalisées des demandes d’assistance postées sur Twitter, des prises de vues aériennes, des messages Facebook, des SMS et d’autres sources numériques par de nombreux volontaires en ligne… [afin de] comprendre les dégâts dans une zone et d’aider les secouristes à se concentrer sur les personnes dans le besoin. En créant des cartes à partir d’informations provenant de sources multiples, telles que les médias sociaux, il est possible de se faire une idée précise d’une situation d’urgence grâce à la puissance de la « foule ». La cartographie participative a été utilisée dans de nombreux pays lors de catastrophes naturelles, de crises de réfugiés et même pendant les périodes électorales.
Une étude menée en 2022 par l’USC a été l’une des premières à mesurer le lien entre les messages publiés sur les médias sociaux et la participation aux manifestations #BlackLivesMatter après la mort de George Floyd en 2020. « Les chercheurs ont constaté qu’Instagram, en tant que plate-forme de contenu visuel, était particulièrement efficace pour mobiliser des coalitions autour de la justice raciale en permettant à de nouveaux leaders d’opinion d’entrer dans le discours public. Des journalistes indépendants, des activistes, des artistes, des groupes de mèmes et des magazines de mode figurent parmi les nombreux leaders d’opinion qui ont émergé tout au long des manifestations grâce à des communications visuelles devenues virales. Cela contraste avec les plates-formes textuelles comme Twitter qui permettent aux voix ayant un pouvoir institutionnel (comme les politiciens, les médias traditionnels ou les services de police) de contrôler le flux d’informations ».
Myanmar : L’atrocité sociale : Meta et le droit de recours pour les Rohingyas
Un rapport d’Amnesty International datant de 2022 enquête sur le rôle de Meta dans les graves violations des droits de l’homme perpétrées lors de la campagne brutale de nettoyage ethnique menée par les forces de sécurité de Myanmar contre les musulmans Rohingyas à partir d’août 2017. Le rapport a constaté que « les algorithmes de Meta ont amplifié et promu de manière proactive des contenus incitant à la violence, à la haine et à la discrimination contre les Rohingyas – jetant de l’huile sur le feu d’une discrimination longtemps enracinée et augmentant considérablement le risque d’une flambée de violence de masse ».
Comment la Chine utilise les influenceurs pour construire un réseau de propagande
« Alors que la Chine continue d’affirmer sa puissance économique, elle utilise l’écosystème mondial des médias sociaux pour étendre son influence déjà formidable. Le pays a discrètement mis en place un réseau de personnalités des médias sociaux qui répètent comme des perroquets le point de vue du gouvernement dans des messages vus par des centaines de milliers de personnes, et qui fonctionnent pratiquement en vase clos en promouvant les vertus de la Chine, en détournant les critiques internationales sur ses violations des droits de l’homme et en défendant les points de vue de Pékin sur les questions internationales, comme la guerre de la Russie contre l’Ukraine. Certains journalistes chinois affiliés à l’État se sont présentés comme des influenceurs ou des blogueurs tendance sur Instagram. Le pays a également engagé des sociétés pour recruter des influenceurs chargés de transmettre aux utilisateurs des médias sociaux des messages soigneusement élaborés qui renforcent son image. Et il bénéficie d’un groupe d’occidentaux qui ont consacré des chaînes YouTube et des fils d’actualité Twitter à se faire l’écho de narratifs prochinois sur tous les sujets allant du traitement par Pékin des musulmans ouïghours jusqu’à l’athlète olympique Eileen Gu, une Américaine qui a concouru pour la Chine aux Jeux d’hiver [2022]. »
Pourquoi les dirigeants latino-américains sont-ils obsédés par TikTok
« Les chefs d’État latino-américains sont depuis longtemps des adeptes de première heure des nouvelles plates-formes de médias sociaux. Aujourd’hui, ils profiteraient de TikTok pour en faire un outil moins formel et plus efficace pour toutes sortes de messages politiques. Au Venezuela, Nicolas Maduro a utilisé la plate-forme pour partager de petits morceaux de propagande sur les prétendus succès de son programme socialiste, parmi des dizaines de vidéos de lui en train de danser la salsa. En Équateur, en Argentine et au Chili, les présidents utilisent l’application pour donner à leurs partisans un aperçu des coulisses du gouvernement. Au Brésil, l’ancien président Jair Bolsonaro et son successeur Luiz Inácio Lula da Silva se disputent les vues au lendemain d’une élection contestée… Dans une grande partie de l’Occident, TikTok fait l’objet d’une suspicion politique ; en Amérique latine, c’est une pierre angulaire de la stratégie politique. »
Références
Vous trouverez ci-dessous les ouvrages cités dans cette ressource.
- Alegre, Susie, (2020). Protecting Freedom of Thought in the Digital Age. Digital Freedom Fund.
- Anderson, Monica, et al., (2018). Public attitudes toward political engagement on social media. Pew Research Center.
- Andersson, Hilary, (2018). Social media apps are ‘deliberately’ addictive to users. BBC.
- Beckett, Charlie, (2009). The ethical and real hazards of citizen journalism. London School of Economics.
- Bulkley, Kate, (2012). The rise of citizen journalism. The Guardian.
- Clark, Marilyn & Anna Grech, (2017). Journalists under pressure – Unwarranted interference, fear and self-censorship in Europe. Council of Europe.
- Coalition against Stalkerware, (n.d.). What is Stalkerware?
- Dewey, Caitlin, (2014). The only guide to Gamergate you will ever need to read. The Washington Post.
- Douek, Evelyn. (2018). Facebook’s role in the genocide in Myanmar: New reporting complicates the narrative. Lawfare.
- Drabinski, Emily, (2019). The Revolution Won’t Be Live Tweeted: On Jen Schradie’s “The Revolution That Wasn’t: How Digital Activism Favors Conservatives.” Los Angeles Review of Books.
- Ghosh, Dipayan, (2018). What is microtargeting and what is it doing in our politics?
- Global Opinions. (2020). #MeToo is at a crossroads in America. Around the world, it’s just beginning. The Washington Post.
- Hanson, James, (2019). Trolls and Their Impact on Social Media. University of Nebraska-Lincoln.
- Hendrickson, Clara, (2019). Local Journalism in Crisis. Brookings Institute.
- Hunt, Amelia & Doug Specht. (2019). Crowdsourced mapping in crisis zones: collaboration, organisation and impact. Journal of International Humanitarian Action 4.
- Iribarren, Léopoldine, (2019). The impact of ‘citizen journalism’ on the public sphere. Medium.
- Iwańska, Karolina, et al., (2020). Who (really) targets you? Facebook in Polish election campaigns. Panoptykon Foundation.
- King, Gary, Pan, Jennifer & Margaret E. Roberts. (2017). How the Chinese Government Fabricates Social Media Posts for Strategic Distraction, not Engaged Argument.
- Klonick, Kate, (2018). The New Governors: The People, Rules, and Processes Governing Online Speech. Harvard Law Review 131.
- Krasodomski-Jones, Alex, (2017). Talking to Ourselves. Demos.
- Leloup, Damien & Fischer, Sofia, (2020). Sexual harassment: with confinement, the comeback of “fisha” accounts on social networks. Le Monde.
- Lenoir, Theophile, (2019). Challenges of Content Moderation. Institute Montaigne.
- Llansó, Emma, et al., (2020). Artificial Intelligence, Content Moderation, and Freedom of Expression. Transatlantic Working Group.
- Lodewijckx, Ilona, (2020). ‘Slacktivism’: Legitimate Action or Just Lazy Liking? Citizen Lab.
- Maqbool, Aleem, (2020). Black Lives Matter: From social media post to global movement. BBC.
- Mundt, Marcia, Ross, Karen & Charla M. Burnett. (2018). Scaling Social Movements Through Social Media: The Case of Black Lives Matter. Social Media and Society.
- Newton, Casey, (2019). The Trauma Floor. The Verge.
- OfCom, (2019). Use of AI in Online Content Moderatio Cambridge Consultants.
- Pantic, Igor, (2014). Online Social Networking and Mental Health. Cyberpsychology, Behavior and Social Networking 17(10) pp. 652-657.
- Pariser, Eli, (2011). Beware online “filter bubbles.” TED Talk.
- Renaissance Numerique, (2020). Cyberbullying: A Review of the Literature.
- RFI, (2017). “Les Observateurs” de France 24: ten years of participatory journalism.
- Security Magazine, (2020). Coronavirus-Related Spear Phishing Attacks See 667% Increase in March 2020.
- United Nations High Commissioner for Refugees (UNHCR), (n.d.). Social Media in Emergencies.
- USAID, (2014). Social Networking: A Guide to Strengthening Civil Society Through Social Media.
- Vanian, Jonathan, (2019). Google’s Hate Speech Detection A.I. Has a Racial Bias Problem. Fortune.
- Vincent, James, (2016). Zuckerberg criticized over censorship after Facebook deletes ‘napalm girl’ photo. The Verge.
Ressources complémentaires
- BellingCat: un collectif international indépendant de chercheurs, d’enquêteurs et de journalistes citoyens utilisant des logiciels libres et des enquêtes sur les médias sociaux.
- Fondation des droits numériques : Cyber Harassment Helpline.
- Documentaire « Le dilemme social ». L’avant-première est disponible ici.
- Graphika: Une entreprise spécialisée dans la recherche et l’investigation utilise l’intelligence artificielle pour étudier les communautés en ligne, analyser comment les réseaux sociaux en ligne se forment, évoluent et sont manipulés.
- Tufekci, Zeynep. (2017). Twitter and Tear Gas: The Power and Fragility of Networked Protest. Yale University Press. Read this book excerpt.