Avec Modération
La liberté d’expression sur les réseaux sociaux






La liberté d’expression sur les réseaux sociaux
Les réseaux sociaux, en particulier YouTube et Instagram, jouent un rôle central dans la communication moderne, en offrant à chacun une plateforme pour s’exprimer, partager des idées et interagir avec une communauté mondiale. Cependant, cette liberté d’expression s’accompagne de la nécessité d’une modération efficace pour assurer un environnement sécurisé et respectueux. La modération sur ces plateformes se déploie à travers une combinaison de règles d’utilisation, d’interventions humaines et d’algorithmes automatisés, qui sont censés filtrer les contenus nuisibles ou illégaux. Toutefois, cette approche soulève des questions complexes liées à l’équilibre entre liberté d’expression, censure et protection des utilisateurs.
Les plateformes YouTube et Instagram, bien qu’elles partagent des objectifs similaires en matière de régulation, appliquent des mécanismes de modération distincts qui suscitent régulièrement des débats. De nombreux utilisateurs, créateurs de contenu et observateurs dénoncent les effets parfois discriminatoires et injustes de ces systèmes, notamment à travers des pratiques algorithmiques qui pénalisent certaines voix ou communautés.
Ce document a pour objectif d’explorer en profondeur les méthodes de modération de ces deux plateformes, de mettre en lumière les défis et les inégalités qu’elles engendrent et de réfléchir aux enjeux éthiques et sociaux qui découlent de leur mise en œuvre.
YouTube a été lancé en 2005 par 3 anciens employés de PayPal, une entreprise de services de paiement en ligne servant d’alternative sécurisée au paiement par carte bancaire. Ses créateurs voulaient garder la plateforme sans publicités pour privilégier le partage de vidéo et la création de différentes communautés. Tout ça a changé en 2006 quand Google a racheté la plateforme pour la somme de 1,65 milliard de dollars et c’est à ce moment-là que les publicités ont fait leur apparition. On peut cependant payer 12 euros par mois pour ne plus voir ces pubs. Avoir un compte sur YouTube nous permet de nous abonner à des créateurs et créatrices ou partager soi-même du contenu et, en fonction de nos activités sur la plateforme, du contenu personnalisé nous sera présenté.
Instagram est une plateforme un peu plus jeune que YouTube vu qu’elle a été lancée en 2010 par deux ingénieurs de l’Université de Stanford aux Etats-Unis et elle a connu un succès instantané. L’application avait été téléchargée 25.000 fois lors de sa journée de lancement et 3 mois plus tard, il y avait déjà plus d’1 million d’utilisateurs. L’application a été rachetée par Facebook en 2012 pour 1 milliard de dollars. Il est également possible, comme sur YouTube, de payer 13 euros par mois sur la plateforme pour ne plus voir apparaître de publicités et ce, depuis novembre 2023.
Aujourd’hui, ces deux plateformes digitales sont des géantes dans leur domaine et ont possédé pendant longtemps un certain contrôle sur la gouvernance d’Internet. Dans ce document, vous allez retrouver des informations sur les algorithmes, les lois européennes à respecter par les réseaux sociaux, les règles d’utilisation et les sanctions existant sur les réseaux ainsi que des informations sur les discriminations algorithmiques présentes sur les réseaux.
Qu’est-ce qu’un algorithme ?
Un algorithme est la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis en entrée. Sur Internet, quand on cherche une information (le point d’entrée), l’algorithme avec ses calculs va nous fournir des réponses et solutions par rapport à notre demande (le point de sortie).
Chaque site web est conçu à l’aide d’algorithmes, et ceux des réseaux sociaux agissent comme des dominos. En fournissant un contenu adapté aux utilisateurs via les algorithmes, les administrateurs de réseaux peuvent prolonger la durée de la visite des utilisateurs sur la page, ce qui se traduit par une multiplication des opportunités de voir les publicités et, par conséquent, une hausse des bénéfices. Pour les utilisateurs, le fait de recevoir un contenu adapté à leur profil peut contribuer à enrichir leurs connaissances et aussi favoriser l’intégration dans une communauté en ligne.
Les problèmes que posent les algorithmes des réseaux sociaux
Les algorithmes utilisés par YouTube et Instagram ne sont pas exempts de défauts; bien qu’ils soient constamment améliorés. Avant l’instauration du DSA (voir le prochain sous titre), leur fonctionnement restait totalement opaque pour les utilisateurs, qui n’en avaient aucune connaissance. C’est pourquoi ces algorithmes
étaient souvent qualifiés de «boîtes noires». Plusieurs explications ont été avancées pour justifier cette opacité, l’une d’entre elles étant que si tout devenait transparent, des individus malveillants pourraient facilement exploiter ces algorithmes à leur avantage, ce qui pourrait entraîner une augmentation des discours haineux dans notre quotidien.
Il a également été remarqué que «les algorithmes ont tendance à exacerber les conditions d’instabilité et d’inéquité dans les industries médiatiques et culturelles.» (Cotter, 2023)
Les utilisateurs déplorent souvent le manque de clarté des plateformes quant à leur fonctionnement interne, surtout en ce qui concerne les discriminations algorithmiques qui pourraient être ressenties. Le fait d’ « exposer les ensembles de données et les algorithmes d’analyse du Big Data à un examen minutieux –des solutions de transparence – peut améliorer la compréhension individuelle, mais étant donné la complexité indépendante (parfois intentionnelle) des algorithmes, il est déraisonnable de s’attendre à ce que la transparence à elle seule élimine les préjugés. » (Chander, 2017). Exposer l’ensemble des données qui constituent les algorithmes n’éliminera donc pas les préjugés et décisions biaisées, ça les mettra juste en lumière.
Le Digital Service Act (DSA), mis en pratique début 2024, vise à encadrer les géants de la technologie et permet en principe de contrer le cyberharcèlement, les discours haineux qu’ils soient racistes, sexistes, homophobes, la désinformation, les publicités ciblant les mineurs, la discrimination et autres contenus illicites. En tout, c’est 22 géants du web et des réseaux sociaux et plus de 45 millions d’utilisateurs européens qui sont concernés par cet acte.
Concrètement, quelles sont les règles à respecter ? Les réseaux sociaux doivent être en mesure d’expliquer le fonctionnement des algorithmes pour chaque publication suggérée. En un clic, les utilisateurs européens doivent être en mesure de comprendre pourquoi ils ont été ciblés par un contenu. Par exemple, quand on clique sur l’onglet d’une publication sur Instagram « Pourquoi vous voyez cette publication ? » La réponse que nous donne la page est «Nous trouvons et suggérons de nouvelles publications que vous pourriez aimer en fonction de plusieurs facteurs, dont votre activité sur Instagram. »
Si une publication est supprimée, l’utilisateur doit savoir pourquoi, idem si une publication ou un compte est shadowban, une justification concernant cette décision doit être envoyée à l’utilisateur.
Les réseaux sociaux doivent également proposer des recommandations sans algorithme, c’està-dire par ordre chronologique. Il sera interdit pour une plateforme de forcer ses utilisateurs à regarder les contenus dans un ordre qu’ils ne contrôlent pas. Tous les contenus proposés sur les réseaux sociaux doivent pouvoir être triés chronologiquement, sans contenu externe. Pour le moment, ce n’est pas encore le cas, et il sera donc intéressant de voir quand cette règle sera appliquée. Les publicités ciblées envers les mineurs vont également être interdites.
En s’inscrivant sur un site, la dernière démarche implique généralement l’acceptation des conditions d’utilisation, souvent réalisée en cochant une case. La faible probabilité que les utilisateurs prennent le temps de lire et de comprendre les conditions d’utilisation et les instructions lors de leur inscription sur une plateforme augmente le risque de confusion et réduit d’autant plus la capacité de la réglementation d’Instagram à influencer positivement le comportement des individus. (Witt et al., 2019)
Les règles d’utilisation de YouTube font 4756 mots, ce qui fait un peu plus de 10 pages A4. La partie principale des conditions d’utilisation d’Instagram comprend 10 pages au format A4, auxquelles s’ajoutent plusieurs pages secondaires qui font également partie intégrante des conditions d’utilisation.
L’ensemble de ces règles et conditions d’utilisation est incorporé et programmé dans les algorithmes des plateformes, ce qui joue un rôle crucial dans la modération des contenus publiés.
Quelques règles d’utilisation :
- L’âge requis pour s’inscrire sur les réseaux sociaux varie selon les pays, mais en Belgique, il est nécessaire d’avoir au moins 13 ans, avec l’accord des parents au préalable.
- Concernant notre identité, il est possible de ne pas afficher notre nom et prénom sur notre profil. Cependant, il est impératif de fournir des informations précises lors de l’inscription. Il est évident que l’usurpation d’identité est inacceptable, tout comme la tentative de transfert, d’achat ou de vente de notre compte à autrui. À l’opposé, les plateformes peuvent choisir de modifier notre nom d’utilisateur du jour au lendemain et de l’attribuer à un autre utilisateur.
- Il est clairement stipulé par les plateformes que la publication de contenus incitant à la violence ou à caractère pornographique est prohibée. Normalement, les plateformes effacent les contenus qui présentent des menaces sérieuses ou propagandent la haine, ainsi que ceux qui s’en prennent à des personnes pour les abaisser ou les humilier. Elles retirent aussi les informations personnelles utilisées pour le chantage ou le harcèlement, en plus des messages indésirables envoyés de manière répétée.
Si Instagram juge que nous enfreignons les Conditions d’utilisation ou leurs politiques, ou si cela est exigé par la loi, elle peut effacer tout contenu ou information que nous avons partagé sur la plateforme.
- Concernant la décision de supprimer notre propre contenu sur Instagram, il est important de noter que, tant que nos publications n’ont pas été repartagées, elles ne sont plus accessibles
une fois qu’elles sont effacées. Sur YouTube, nous pouvons supprimer notre contenu, mais la page peut conserver des copies de ce contenu supprimé.
Les modérations non algorithmiques
Deux autres méthodes de modération sont également employées pour surveiller le contenu, et toutes les deux reposent sur l’intervention humaine.
En tant qu’utilisateur, il est possible de devenir modérateur du contenu en signalant certaines publications. Sur Instagram, il est possible de signaler une publication simplement parce qu’elle ne plaît pas, ou si elle contient des fausses informations, des discours haineux, des symboles de haine, ou des offres de produits illégaux ou réglementés. Sur YouTube, il est possible de signaler des contenus que nous jugeons à caractères sexuels, violents ou inacceptables, trompeurs, etc.
Cette forme de modération n’est pas sans risques et peut amener à des déboires, car les signalements ne doivent pas forcément être fondés sur quelque chose de vrai et certaines
personnes profitent de cette faille du système pour attaquer certains groupes de personnes, souvent minorisés, (se référer au chapitre lié aux discriminations pour plus d’informations).
Un autre type de modération humaine implique les personnes appelées « travailleurs du clic ». En tant qu’utilisateur, si l’on s’aperçoit qu’une ou plusieurs de nos contributions ont été signalées ou enlevées, nous avons la possibilité de contester ces décisions et de faire appel. Que ce soit sur Instagram ou YouTube, des modérateurs humains, travaillant pour les plateformes ou pour des entreprises externes, vont examiner le contenu ainsi que les motivations de notre appel. En principe, il s’agit d’une initiative très positive, car elle permet de rectifier les erreurs faites par l’algorithme, dues à son manque de subtilité ou aux dérives des signalements effectués par les humains. En réalité, «les « travailleurs du clic » sont souvent mal payés et les employeurs exigent souvent que les modérateurs prennent des décisions concernant le contenu en « quelques secondes », ce qui contribue à s’appuyer sur des réponses instinctives et chargées de valeurs, qui sont potentiellement problématiques.» (Witt et al., 2019) Tout cela rend les modérateurs humains tout aussi susceptibles que les algorithmes d’avoir des jugements biaisés ou injustes en raison de leurs propres valeurs, sans avoir le temps nécessaire pour évaluer chaque publication de manière impartiale. En plus de ça, les travailleurs du clic sont constamment, jour après jour, en train de modérer des contenus à sujets sensibles ou qui peuvent heurter la sensibilité.
«Les modérateurs de contenu sont souvent tenus de signer des accords de non-divulgation pour empêcher tout débat public sur les processus décisionnels internes et les conditions de travail.» (Witt et al., 2019).
Chaque jour, plus de 100 millions de vidéos ou de photos sont téléchargées sur Instagram (Asselin, s. d.) et plus de 720 000 heures sont publiées sur YouTube (Sansonetti, 2024), ce qui témoigne de l’énorme charge de travail que cela représente quotidiennement pour chaque créateur de contenu. Pour ceux qui s’intéressent à la réalité des travailleuses et travailleurs du clic, un documentaire intitulé «Invisibles: les travailleurs du clic» a été réalisé par France Tv en 2022 et est disponible en ligne.
Du fait que l’inscription aux réseaux sociaux est gratuite, les publicités représentent la majeure partie des revenus des sites. Sur YouTube, ces publicités apparaissent avant, pendant ou après les vidéos, tandis que sur Instagram, elles se trouvent dans le fil d’actualité ou en stories. Comme indiqué dans l’introduction, il est possible de souscrire un abonnement mensuel sur les deux plateformes afin d’éliminer ces publicités de notre compte.
L’une des principales raisons du grand nombre de règles d’utilisation et de modération sur YouTube est que depuis 2017, la plateforme a traversé plusieurs crises appelées «Adpocalypse» (l’apocalypse de la publicité), qui ont radicalement affecté le domaine publicitaire du site. Pendant le premier scandale, des entreprises telles que
Coca-Cola et Johnson & Johnson ont choisi de retirer leurs publicités du site en raison de la diffusion de vidéos par des créateurs influents, rassemblant des millions d’abonnés, qui véhiculaient des messages racistes et néonazis, sans que la plateforme n’intervienne pour les modérer. En raison de la dégradation de la réputation de la plateforme, les règles imposées aux créateurs et aux utilisateurs ont été renforcées.
Un terme fréquemment évoqué sur les réseaux sociaux est le «shadowban», qui signifie littéralement «bannissement dans l’ombre». Il désigne une situation où, sans préavis ni explication, les publications d’un utilisateur, quel que soit son nombre d’abonnés, ne sont plus visibles à divers endroits de la plateforme, que ce soit dans le fil d’actualité de ses abonnés ou dans l’onglet «explorer». Cette situation peut se produire aussi bien sur Instagram que sur Youtube.
Le shadowban est perçu par les utilisateurs comme une forme de punition due à des infractions aux politiques de la plateforme, mais comprendre la raison de cette pénalité s’avère être un véritable casse-tête.
Instagram a voulu démystifier le « mythe » du shadowbanning en présentant trois explications variées. Premièrement, la plateforme a évoqué des problèmes techniques. Instagram a également suggéré que la perception de shadowbanning chez les influenceurs pourrait simplement être due à leur échec à proposer du contenu qui suscite de l’engagement. Troisièmement, Instagram a indiqué que ce qui paraît être un shadowbanning pourrait échaper à l’emprise de la plateforme, et que cela relèverait du pur hasard. (Cotter, 2023)
Dans tous les cas, les préoccupations exprimées au sujet du shadowbanning mettent souvent en lumière le sentiment de manque de contrôle ressenti par les utilisateurs et les influenceurs sur leur contenu en relation avec l’application des normes. Il existe aussi une forme de méfiance qui peut se manifester chez les utilisateurs envers les plateformes, étant donné que leur ressenti de l’expérience sur le réseau est régulièrement contesté et démenti par les responsables.
€La rémunération des créateurs sur YouTube est fortement affectée par les sanctions. Une vidéo peut subir une démonétisation, signifiant ainsi que le créateur ne touchera pas de revenus pour son contenu. Des publicités limitées peuvent également être diffusées, ce qui peut entraîner une diminution ou un retrait des revenus publicitaires, car la vidéo ne correspond généralement pas aux attentes de la plupart des annonceurs. Une limite d’âge peut être instaurée, empêchant ainsi les individus âgés de moins de 18 ans d’accéder à la vidéo. Lorsque la vidéo subit des signalements immédiatement après sa publication, elle ne sera pas éligible à la monétisation durant 24 à 48 heures, ce qui nuit au créateur, puisque c’est dans les deux premiers jours suivant sa sortie qu’une vidéo génère le plus de profits. Pour les cas les plus critiques,
la suppression de la vidéo peut être envisagée. Dans l’éventualité où des plaintes répétées seraient déposées contre la chaîne pour un même motif, des avertissements pourraient lui être notifiés. La chaîne sera définitivement éliminée si elle en cumule trois en moins de trois mois. (Règles de Monétisation des Chaînes YouTube - Aide YouTube, s. d.)
Étant donné qu’Instagram ne rémunère pas ses créateurs et utilisateurs, aucune sanction financière n’est appliquée.
Lorsqu’on est utilisateur, il n’est pas facile de joindre des personnes travaillant pour les plateformes en cas de difficultés avec les algorithmes ou la modération. Par exemple, sur Youtube, lorsque l’on reçoit un mail concernant le signalement d’une vidéo, l’adresse de l’expéditeur est noreply@youtube.com. Même si nous arrivons à entrer en communication avec quelqu’un, il est peu probable que le problème soit traité sérieusement si notre nombre d’abonnés est faible. Ce n’est que lorsque nous avons dépassé un seuil d’abonnés qui atteint plusieurs milliers et qu’une certaine notoriété est acquise, des membres du personnel des réseaux sociaux sont désignés, ce qui aide à gérer plus facilement de possibles conflits.
YouTube et Instagram contribuent tous deux à des pratiques discriminatoires vis-à-vis de leurs utilisateurs. Les discriminations subies peuvent se manifester par le racisme, le sexisme ou la phobie envers les personnes LGBTQ+.
Dans notre société, il n’est plus surprenant de constater que les médias traditionnels exploitent la nudité et la sexualisation des femmes comme une stratégie efficace pour capter l’attention du public, que ce soit en publicité ou au cinéma. Ainsi, grâce à l’émergence des réseaux sociaux, un grand nombre de femmes et de féministes ont cherché à réinventer l’image que la société a de leur corps, et si elles apparaissent de façon séduisante, c’est par leur propre volonté et à travers leurs propres créations.
Comme abordé dans les chapitres qui précèdent, les systèmes de modération et les algorithmes des plateformes sociales reproduisent les disparités de notre société, qu’ils soient intentionnels ou non. «La modération des médias sociaux peut donc reproduire le regard masculin où l’homme actif code les directives de la communauté pour modérer la femme passive en tant que spectacle érotique, objet sexuel à consommer, mais confiné pour la sécurité des téléspectateurs, un regard qui peut provenir de la main-d’œuvre en grande partie masculine de la Silicon Valley.» (Are, 2022). De plus, vu qu’ils
sont fondés sur une logique informatique,»les mécanismes de l’algorithme sont incapables de distinguer les mots de l’intention».» (Osborn & Tinkcom, 2020)
Sur Instagram, les femmes font souvent l’objet d’une attention particulière liée à leur apparence physique et à leurs comportements, en raison de multiples types de modération. Il n’est pas rare qu’une femme soit confrontée à des réactions variées, allant de l’appréciation à la dévaluation, ainsi qu’à des menaces de la part des utilisateurs, sur l’une de ses publications, et que celle-ci soit éventuellement supprimée par la plateforme.
Les utilisatrices observent une net incohérence dans la politique de modération de la plateforme. D’une part, la nudité est strictement condamnée, alors que d’autre part, les images hypersexualisées de célébrités sont non seulement acceptées, mais parfois même promues. Cela s’explique par la peur de la plateforme de faire face à un scandale si elle choisit de censurer ces célébrités, qui disposent d’un grand nombre d’abonnés. (Are, 2022) De nombreux internautes, ainsi que des défenseurs des droits et des médias, ont largement
critiqué le filtrage de la nudité sur Instagram, en particulier suite à l’interdiction des images de tétons féminins alors que ceux des hommes ne sont pas concernés. Ce choix a provoqué des réactions à l’international, y compris en ligne et hors ligne, avec des mouvements comme #freethenipple, qui demeure populaire jusqu’à présent.
De manière générale, les règles concernant la nudité et les vêtements sont plus sévères que celles qui s’appliquent aux autres contenus souvent perçus comme offensants sur les plateformes. Bien que Zuckerberg (président du groupe Meta, anciennement Facebook) ait des difficultés à définir les termes « vêtements révélateurs » et « positions sexuellement suggestives », il reconnaît que les algorithmes de Facebook sont capables d’ « identifier proactivement 96 % de la nudité », alors qu’ils n’atteignent que 52 % en ce qui concerne les discours de haine.» (Are, 2022).
Quant aux signalements que les utilisateurs peuvent faire sur les contenus d’autrui, la nudité, la sexualisation et la sexualité féminine sont jugées de la même manière que la violence explicite, assimilant les mamelons féminins à des actes de maltraitance animale, de démembrement ou de cannibalisme, ce qui renforce également la stigmatisation de l’activité sexuelle et des individus impliqués dans le secteur du sexe. On note une absence de nuances en général.
Certaines communautés, comme celle de la pole dance, subissent les conséquences sévères du phénomène de censure. Les pratiquants de la pole dance qui publient leurs performances
sur Instagram rencontrent fréquemment des problèmes de shadowban ou constatent que leur contenu est supprimé, même lorsqu’il n’y a rien de suggestif dans leurs posts. Cette réalité s’explique par la perception selon laquelle la pole dance est étroitement connectée à l’industrie du strip-tease. La nudité dans ce sport découle du besoin des participants de porter le moins de vêtements possible, ce qui permet d’exposer la peau des bras et des jambes, indispensables pour créer de la friction sur la barre et améliorer leurs performances. Ce cas précis illustre le fait que, même lorsque les utilisateurs prennent conscience et appliquent les conditions d’utilisation, les plateformes continuent de vouloir réglementer certains comportements des femmes. (Are, 2022).
Le fait de se concentrer uniquement sur Instagram en tant qu’illustration de sexisme et de misogynie ne sous-entend pas que YouTube soit exempt de ces problématiques. Toutefois, nous allons désormais examiner l’homophobie à l’égard des membres de la communauté LGBTQ+ sur la plateforme YouTube.
Le fonctionnement de YouTube présente certaines spécificités par rapport à la communauté LGBTQ+, dans la mesure où, depuis 2013, il est devenu courant pour la plateforme de partager et de mettre en avant du contenu mettant en valeur la communauté LGBTQ+ durant la Pride. Sur le blog du site, on peut trouver des déclarations selon lesquelles Youtube est « inspiré et émerveillé par la manière dont les personnes LGBTQ+ ont utilisé Youtube pour diffuser leur message, responsabiliser leur communauté et même catalyser le changement social ». Cependant, le reste de l’année est marqué par une certaine censure qui survient à chaque fois que du contenu LGBTQ+ est partagé par les créateurs et créatrices de la plateforme.
Youtube applique ses règles de manière inégale : les vidéos dédiées à l’éducation sexuelle pour les lesbiennes sont supprimées, alors que les contenus éducatifs à sujet hétérosexuel continuent d’être diffusés. La plateforme a autorisé la publication de contenus montrant les corps de victimes de suicide, tout en acceptant des publicités qui laissent entendre que l’homosexualité est un péché néfaste. Cela s’est produit en 2018, lorsque des créateurs LGBTQ+ ont constaté que des publicités de ce type étaient diffusées avant leurs propres vidéos. (Rodriguez, 2021)
Une recherche a également démontré que toutes les vidéos contenant des titres LGBTQ+ ainsi que celles évoquant des relations ou des attirances entre personnes du même sexe étaient souvent soumises à des restrictions d’âge ou étaient démonétisées après avoir été signalées à tort comme du contenu pour adultes. (Rodriguez, 2021) Les espaces numériques pour
les communautés LGBTQ+ sont d’une grande importance, surtout parce que les jeunes queer passent plus de temps en ligne et ont souvent plus d’amis que ceux qui ne s’identifient pas comme LGBTQ+. En outre, beaucoup parmi celles et ceux qui n’ont pas encore fait leur coming out dans la vie de tous les jours ont déjà pris cette étape sur différentes plateformes digitales.
En 2019, plusieurs créateurs appartenant à la communauté LGBTQ+ ont déposé une plainte contre YouTube ainsi que sa société mère, Google. Parmi les plaintes évoquées, on retrouve l’inégale application des politiques par la plateforme, le traitement de faveur accordé aux créateurs ayant beaucoup de followers, ainsi que la promotion de contenus (par le biais de la publicité) qui sont ouvertement hostiles aux communautés gays, lesbiennes et LGBTQ+ en général. Par la suite, un juge de Californie a décidé de rejeter cette action.
Lors de sa défense, Youtube a dit «Nos politiques n’ont aucune notion d’orientation sexuelle ou d’identité de genre et nos systèmes ne restreignent ni ne démonétisent les vidéos sur la base de ces facteurs ou de l’inclusion de termes comme « gay » ou « transgenre ». De plus, nous avons des politiques strictes interdisant les discours de haine, et nous supprimons rapidement les contenus qui enfreignent nos politiques et fermons les comptes qui le font à plusieurs reprises. La plateforme a, de manière paradoxale, reconnu que ses systèmes automatisés avaient signalé le contenu LGBTQ+ de façon involontaire et a exprimé des excuses pour ce désagrément. Le mea culpa n’a pas empêché la stigmatisation des vidéos LGBTQ+ ni la diffusion de publicités anti-LGBTQ+ à côté
des contenus des créateurs sur la plateforme. (Osborn & Tinkcom, 2020)
Le processus de monétisation, ou plutôt la situation de la démonétisation, vient surtout renforcer l’idée que le contenu LGBTQ+ n’est pas considéré comme inapproprié par les dirigeants de la plateforme.
Comme ces exemples le prouvent, il est évident que les plateformes adoptent de nombreuses stratégies pour contrôler de manière excessive le contenu des divers groupes d’utilisateurs. Cependant, il est à noter que Instagram et YouTube présentent un manque d’implication dans la lutte contre le racisme et la xénophobie, affichant une attitude plutôt passive.
Les fonctionnalités d’Instagram sont problématiques, car elles contribuent à des micro-agressions et à des discriminations, avec des filtres permettant aux personnes blanches de réaliser du «blackface numérique» et d’autres filtres qui éclaircissent automatiquement la peau des personnes racisées.
«Les sociétés affirment que les utilisateurs sont les principaux responsables du contenu corrosif qui monte en haut des fils d’actualité et se répercute entre les plateformes. Cet argument sert à exonérer ces entreprises multimilliardaires de toute responsabilité quant au rôle que jouent leurs propres produits dans l’exacerbation de la haine. Les individus ont certainement la responsabilité de ne pas se laisser entraîner dans des contenus extrémistes. Mais si vous êtes une plateforme comme Google, vous ne pouvez pas simplement souligner la responsabilité de l’individu et occulter complètement le fait que votre énorme plateforme a permis au contenu extrémiste en ligne de s’envenimer et de devenir si populaire.» (Center For Technology And Society, 2023)
Des groupes extrémistes choisissent de cibler un utilisateur ou un ensemble d’utilisateurs appartenant à une minorité, qu’elle soit d’origine raciale ou religieuse, et organisent des «Hate parties», des événements de haine, où ils laissent des commentaires offensants sur les publications de ces individus ou signalent leur compte sans justification afin que les plateformes les censurent, limitent leur portée, ou même les bannissent.
C’est une vraie propagation et promotion de la haine sur les réseaux sociaux.
En 2021, des chercheurs américains se sont intéressés à la manière dont les plateformes réagissaient lorsque des utilisateurs signalaient des insultes ou des menaces. Parmi les personnes ayant subi des menaces physiques, 41 % ont indiqué que la plateforme n’avait pris aucune action concernant les messages
menaçants. Parmi les personnes ayant reçu un message avec une menace physique, seulement 14 % ont signalé que la plateforme avait retiré le contenu menaçant, ce qui représente une forte diminution par rapport aux 22 % de l’année précédente. (ADL, 2021)
Avec la démocratisation de l’intelligence artificielle, une nouvelle forme de haine visuelle commence également à émerger, où certains groupes choisissent de générer des images variées pour perpétuer leur hostilité.
La discrimination se fait aussi de manière financière : les créateurs constatent que Youtube applique des tarifs différents aux annonceurs pour cibler les consommateurs des régions les plus défavorisées, entraînant ainsi des revenus moins élevés pour les créateurs de ces zones par rapport à ceux provenant d’économies plus prospères. Et contrairement aux créateurs LGBTQ+ qui sont démonétisés par leur contenu, les personnes de couleurs trouvent qu’elles sont démonétisées en raison de leur identité. (Kingsley et al, 2022)
€La cause de l’inaction des plateformes face à ces différentes manifestations de haine est identique à celle qui sous-tend l’existence de toutes les conditions d’utilisation : il s’agit de l’argent. La haine et l’extrémisme favorisent l’engagement sur
ces plateformes, et cet engagement génère des profits. C’est l’une des raisons pour lesquelles les entreprises technologiques multimilliardaires n’ont pas encore trouvé de solution à ce problème. Face à la pression accrue du public, soutenue par des initiatives de sensibilisation comme Stop Hate for Profit, les plateformes ont mis en place une série de modifications dans leurs politiques. Cependant, ces changements ne sont pas encore très perceptibles pour les utilisateurs. (ADL, 2021)
La modération sur YouTube et Instagram joue un rôle crucial dans la gestion de la sécurité et de l’expérience utilisateur sur ces plateformes. Bien que les deux géants des réseaux sociaux aient mis en place des systèmes sophistiqués d’intelligence artificielle et d’humains pour détecter et supprimer les contenus nuisibles, leurs approches diffèrent par leur ampleur et leurs méthodes. YouTube se concentre particulièrement sur la gestion des vidéos et des commentaires, avec un système de signalement et de filtrage des contenus violents ou extrémistes, tout en faisant face à des défis de transparence et d’application uniforme. Instagram, quant à lui, privilégie la modération des images et des vidéos partagées dans un environnement davantage centré sur l’image, avec des outils de détection de discours de haine et de contenu inapproprié, mais avec également des préoccupations liées à la modération des contenus générés par les influenceurs et la publicité.
L’entrée en vigueur du DSA de l’Union européenne, qui impose des obligations accrues aux grandes plateformes numériques en matière de transparence, de responsabilité et de protection des utilisateurs, marque un tournant dans la manière dont ces entreprises abordent la modération. Le DSA oblige YouTube, Instagram et d’autres géants du web à adopter des pratiques de modération plus rigoureuses et transparentes, notamment en matière de suppression des contenus illégaux, de signalement des violations et de protection des mineurs. Il impose également des mécanismes
de recours permettant aux utilisateurs de contester les décisions de modération, ce qui pourrait améliorer l’équilibre entre la protection des utilisateurs et la liberté d’expression.
Malgré ces avancées, la modération reste un terrain complexe où la limite entre liberté d’expression et protection contre les abus est constamment redéfinie. Les défis rencontrés incluent non seulement la lenteur d’application des règles et les risques de censure excessive, mais aussi les biais algorithmiques qui peuvent nuire à la diversité d’opinion. En outre, la rapidité d’évolution des contenus et des nouvelles formes d’abus sur ces plateformes rend la tâche de la modération de plus en plus difficile.
En début d’année 2025, Marc Zuckerberg, PDG de Meta, a déclaré qu’il mettrait fin à la vérification des faits (fact checking) sur les divers réseaux sociaux appartenant au groupe, y compris Facebook, Instagram, Threads et WhatsApp.
Grâce à cette technique de modération faite en partenariat avec des médias et ONG du monde entier, la plateforme évitait de faire circuler des fake news et des informations erronées au public.
À l’heure actuelle, seules les États-Unis seront concernés par cette directive. Si Meta décidait de mettre fin au fact-checking en Europe, bien que ce ne soit pas une option envisagée pour l’instant, le DSA interviendrait pour rappeler aux réseaux sociaux leurs obligations, à l’instar des mesures prises durant la période du Covid, où Facebook avait été sanctionné pour la propagation de fausses informations.
Voici ce qui était annoncé sur le processus de fact-checking par Meta avant le changement de directive : «Nous nous appuyons sur des médias
de vérification indépendants pour examiner et évaluer l’exactitude des informations à partir de rapports originaux, notamment, par exemple, en interviewant les sources principales, en consultant les données publiques et en analysant les médias, tels que les photos et les vidéos. À chaque fois qu’un média de vérification évalue un contenu comme faux sur nos plateformes, nous réduisons largement la diffusion de ce contenu afin qu’il soit vu par moins de personnes, nous lui ajoutons une étiquette et nous informons les personnes qui tentent de le partager. Les médias de vérification ne retirent aucun contenu, compte ni Page de nos applications. Nous retirons les contenus qui enfreignent nos Standards de la communauté, ce qui est un processus distinct du programme de vérification des informations.» (Meta | Meta Journalism Project, s. d.)
Voici ce que le groupe a choisi d’implanter à présent :
«Nous allons nous débarrasser des factcheckers et les remplacer par des notes de la communauté, similaires à celles disponibles sur le réseau X, en commençant par les EtatsUnis», a déclaré le patron du groupe dans un message sur les réseaux sociaux.» Cette décision d’arrêter le fact checking s’inscrit dans une approche de gouvernance où la liberté d’expression est poussée à l’extrême, à l’image de X (anciennement Twitter) racheté par Elon Musk. Selon X, « les Notes de la Communauté visent à créer un monde mieux informé en permettant aux utilisateurs de X de collaborer en ajoutant un contexte à des posts potentiellement trompeurs. Les contributeurs peuvent laisser des notes sur n’importe quel post. Si un nombre suffisant de contributeurs de différents points de vue jugent une note utile, celle-ci est affichée
publiquement dans un post.» (À Propos de Notes de la Communauté Sur X, s. d.)
Basé sur la collaboration de bénévoles anonymes, le système de notes de la commuanuté rappelle le fonctionnement de Wikipédia. Donc presque n’importe qui peut devenir contributeur, puisqu’il suffit de réunir les conditions suivantes, selon X : avoir un numéro de téléphone valide, être inscrit sur le réseau depuis au moins six mois et ne pas en avoir enfreint les règles récemment. N’importe quel tweet peut faire l’objet d’une note. L’utilité de celle-ci est ensuite évaluée par d’autres contributeurs sous forme de vote. Derrière le choix de publication des notes, aucune intervention humaine. La plateforme laisse à un algorithme «de notation» le soin de faire le tri. Plus une note reçoit le soutien de personnes qui ont été en désaccord par le passé, plus elle a de chances d’être publiée.(Dao, 2023)
Une étude publiée en septembre 2024 et portant sur plus de 237 000 community notes postées sur X entre 2022 et 2024 présente des résultats contrastés. Les effets positifs du système y sont soulignés : lorsqu’elles sont apposées à un message mensonger sur X, elles réduisent de 62 % les chances que le contenu en question soit partagé. Elles augmentent aussi de 103 % les chances que son auteur supprime son message.
Mais la vitesse de publication d’une community note y est critiquée. Il faut souvent de nombreuses heures (61,4 heures en moyenne selon l’étude) avant qu’une note apparaisse sous un message X. Raison pour laquelle X a annoncé vouloir développer des « notes éclairs » pouvant être publiées en quinze minutes.
Surtout, les observateurs notent les failles béantes des community notes, qui peuvent être fausses elles aussi, et sont loin d’apparaître sous tous les messages X mensongers. NewsGuard ( entreprise américaine, se déclarant contrôleur autonome de la désinformation et fondée après les élections de 2016 aux États-Unis) démontre par exemple que sur 25 messages trompeurs à forte audience, postés en 2023 lors des débuts de la guerre entre Israël et le Hamas, seul l’un d’entre eux a reçu une community note. Lors des élections européennes de juin 2024, une autre étude d’un réseau européen de lutte contre la désinformation montrait que plus de deux tiers de 894 messages ayant pourtant été évalués comme faux ou trompeurs par des rédactions n’avaient reçu aucune note de communauté.
Enfin, un rapport publié par le Center for Countering Digital Hate, une organisation de lutte contre la diffusion de haine en ligne, analysant 283 messages contenant des mensonges liés aux élections américaines de 2024, montre que 74 % d’entre eux n’avaient reçu aucune community note. Ces 209 messages mensongers ont, en tout, cumulé plus de 2,2 milliards de vues sur X.» (Croquet & Szadkowski, 2025)
En conclusion, bien que la modération sur YouTube et Instagram ait fait des progrès significatifs, notamment avec l’introduction du DSA, il est essentiel de continuer à affiner les processus pour garantir une expérience utilisateur équilibrée, sécurisée et respectueuse des principes démocratiques, tout en prenant en compte les spécificités et la diversité des communautés présentes sur ces plateformes.
À propos de Notes de la Communauté sur X. (s. d.). X Centre D’assistance. https://help.x.com/ fr/using-x/community-notes Meta Journalism Project. (s. d.).
ADL (2021). Online Hate and Harassment : The American Experience 2021. Consulté le 10 juin 2024, à l’adresse https://www.adl.org/ resources/report/online-hate-and-harassmentamericanexperience-2021
Asselin, C. (s. d.). Instagram, les chiffres incontournables pour 2024 France et monde. https://blog.digimind.com/fr/agences/ instagramchiffres-incontournables-2020-franceet-monde
Are. C (2022) The shadowban Cycle : an autoethnography of pole dancing, nudity and censorship on Instagram, Feminist media Studies, 22:8, 2002-2019, DOI : 10.1080/14680777.2021.1928259
Center For Technology And Society. (2023). From Bad to Worse : Amplification and AutoGeneration of Hate. Adl. https://www.adl.org/ resources/ report/bad-worse-amplification-andautogeneration-hate
Chander, A. (2017). The racist algorithm ? Michigan Law Review, 115.6, 1023. https://doi.org/10.36644/ mlr.115.6.racist
Cotter, K (2023) «Shadowbanning is not a thing» balck box gaslighting and the power to independently know and credibly critique algorithms, information, communication
and society. 26:6, 1226-1243, DOI : 10.1080/1369118X.2021.1994624
Croquet, P., & Szadkowski, M. (2025, 13 janvier). Les « community notes » , un outil de modération communautaire à double tranchant. Le Monde.fr. https://www.lemonde.fr/pixels/ article/2025/01/09/les-community-notes-unoutil-de-moderation-communautaire-a-doubletranchant_6490193_4408996.html
Dao, L. (2023, 19 septembre). VRAI OU FAUX. Les « community notes » du réseau social X luttentelles efficacement contre la désinformation ? Franceinfo. https://www.francetvinfo.fr/vraiou-fake/vrai-ou-faux-les-community-notesdu-reseau-social-x-luttent-elles-efficacementcontre-la-desinformation_6051188.html
Kingsley, S., Sinha, P., Wang, C., Eslami, M., & Hong, J. I. (2022). « Give Everybody [..] a Little Bit More Equity » : Content Creator Perspectives and Responses to the Algorithmic Demonetization of Content Associated with Disadvantaged Groups. Proceedings Of The ACM On Humancomputer Interaction, 6(CSCW2), 1-37. https://doi. org/10.1145/3555149
Lang, N. (2021, 8 janvier). This lawsuit alleging YouTube discriminates against LGBTQ+ users was just tossed out. Them. https://www.them.us/ story/lawsuit-alleging-youtube-discriminatesagainstlgbtq-users-tossed-out
Meta | Meta Journalism Project. https://www. facebook.com/formedia/mjp/programs/thirdparty-fact-checking
Osborn, J., & Tinkcom, M. (2020). YouTube as an Ally of Convenience : The Platform’s Building
and Breaking with the LGBTQ+ Community. DigitalGeorgetown. https://repository. library. georgetown.edu/handle/10822/1059448
Règles de monétisation des chaînes YouTubeAide YouTube. (s. d.). https://support.google.com/ youtube/
Rodriguez, J. A. (2021). LGBTQ YouTube: Community and Branding through New Media. UC Santa Cruz. ProQuest ID: Rodriguez_ ucsc_0036E_12389. Merritt ID: ark:/13030/ m5nd2z0r. Retrieved from https://escholarship. org/uc/item/13g3817g
Sansonetti, J. (2024, 2 avril). Statistiques YouTube 2024 : Utilisateurs, chiffres et tendances du réseau social. https://www.wizishop.fr/blog/ chiffresyoutube#
Wikitubia, C. T. (s. d.). YouTube Adpocalypse. Wikitubia. https://youtube.fandom.com/wiki/ YouTube_Adpocalypse
Witt, A., Suzor, N., & Huggins, A. (2019). The Rule of Law on Instagram : An Evaluation of the Moderation of Images Depicting Women’s Bodies. University Of New South Wales Law Journal, 42(2). https://doi.org/10.53637/ipmc9544
Éditeur responsable : Renaud Bellen — GSARA asbl www.gsara.be