Human Rights Watch (HRW) a pointé du doigt la censure systémique de contenus pro-palestiniens par Meta et a dénoncé un impact négatif sur les droits humains des utilisateurs palestiniens, tout en appelant à revoir les politiques de modération et à l’amélioration de la transparence.
Les politiques et systèmes de modération de contenus de Meta réduisent de plus en plus au silence les voix en faveur de la Palestine sur Instagram et Facebook, à la suite de la reprise des hostilités entre les forces israéliennes et les groupes armés palestiniens, a déclaré Human Rights Watch dans un rapport rendu public aujourd’hui. Le rapport de 51 pages, intitulé « Meta’s Broken Promises: Systemic Censorship of Palestine Content on Instagram and Facebook » (« Les promesses non tenues de Meta : Censure systémique de contenus pro-palestiniens sur Instagram et Facebook »), documente une tendance excessive à la suppression de discours protégés, y compris l’expression pacifique en faveur de la Palestine et le débat public sur les droits humains des Palestiniens. Human Rights Watch a constaté que le problème provient des politiques de Meta qui sont problématiques et de leur mise en œuvre incohérente et erronée, d’une dépendance excessive à l’égard d’outils automatisés de modération et d’une influence excessive des gouvernements sur les suppressions de contenus.
« La censure par Meta de certains contenus en faveur de la Palestine est particulièrement nocive dans une période de terribles atrocités et de répression qui étouffent déjà les voix des Palestiniens », a déclaré Deborah Brown, directrice adjointe par intérim de la division Technologies et droits humains de Human Rights Watch. « Les réseaux sociaux constituent une plateforme essentielle permettant aux gens de témoigner et de dénoncer les abus, alors que la censure par Meta contribue à l’effacement des souffrances des Palestiniens. »
Human Rights Watch a examiné 1 050 cas de censure en ligne dans plus de 60 pays. Bien qu’il ne s’agisse pas nécessairement d’une analyse représentative de la censure, ces cas sont cohérents avec les conclusions auxquelles sont parvenues après des années de documentation et de plaidoyer des organisations palestiniennes, régionales et internationales de défense des droits humains, détaillant la censure par Meta de contenus pro-palestiniens.
Après l’attaque lancée par le Hamas en Israël le 7 octobre 2023, qui a tué 1 200 personnes, pour la plupart des civils, selon les responsables israéliens, les attaques lancées par Israël à Gaza ont tué environ 20 000 Palestiniens, selon le ministère de la Santé de Gaza. Les restrictions illégales imposées par Israël à l’acheminement de l’aide ont contribué à une catastrophe humanitaire continue pour les 2,2 millions d’habitants de ce territoire, dont près de la moitié sont des enfants.
Human Rights Watch a identifié six modèles clés de censure, chacun récurrent dans au moins une centaine de cas : suppressions de contenus ; suspension ou suppression de comptes ; incapacité d’interagir avec les contenus ; incapacité de suivre ou de marquer des comptes ; restrictions à l’utilisation de fonctionnalités telles qu’Instagram/ Facebook Live ; et « bannissement furtif », terme désignant une diminution significative de la visibilité des publications, des stories ou du compte d’un individu sans notification préalable. Dans plus de 300 cas, les utilisateurs n’ont pu faire appel de la suppression d’un contenu ou d’un compte en raison d’un dysfonctionnement du mécanisme prévu à cet effet, les privant de recours.
Dans des centaines de cas documentés, Meta a invoqué sa politique sur les « Organismes et individus dangereux » (« Dangerous Organizations and Individuals », DOI), qui intègre pleinement les listes d’« organisations terroristes » désignées par les États-Unis. Meta a cité ces listes et les a largement suivies pour restreindre les discours légitimes sur les affrontements entre Israël et les groupes armés palestiniens.
Meta a également mal appliqué ses politiques en matière de contenus violents et explicites, de violence et d’incitation et à la violence, de discours de haine, ainsi que de nudité et d’activité sexuelle. Il a appliqué de manière incohérente sa politique d’« autorisation digne d’intérêt médiatique », supprimant des dizaines d’éléments de contenus documentant les blessures et la mort de Palestiniens qui avaient une valeur médiatique, a relevé Human Rights Watch.
Meta est consciente que l’application de ces politiques est problématique. Dans un rapport en date de 2021, Human Rights Watch a documenté la censure par Facebook des discussions sur les questions de droits humains liées à Israël et à la Palestine, concluant que Meta « réduit au silence de nombreuses personnes arbitrairement et sans explication ».
Une enquête indépendante menée par Business for Social Responsibility et commandée par Meta a révélé que la modération de contenus par l’entreprise en 2021 « semble avoir eu un impact négatif sur les droits humains des utilisateurs palestiniens », affectant négativement « leur capacité à partager des informations et des idées sur leurs expériences au fur et à mesure qu’elles sont vécues ».
En 2022, en réponse aux recommandations de l’enquête ainsi qu’à celles de son conseil de surveillance, Meta s’est engagée à modifier ses politiques de modération de contenus et leur mise en œuvre. Cependant, près de deux ans plus tard, Meta n’a pas respecté ses engagements en matière de droits humains, a constaté Human Rights Watch, une situation qui l’a conduite à perpétuer et amplifier ses abus passés.
Human Rights Watch a partagé ses conclusions avec Meta et sollicité son point de vue. En réponse, l’entreprise a cité sa responsabilité en matière de droits humains et ses principes fondamentaux en la matière comme orientant ses « mesures immédiates de réponse à la crise » depuis le 7 octobre.
Pour s’acquitter de ses responsabilités de diligence raisonnable en matière de droits humains, Meta devrait aligner ses politiques et pratiques de modération de contenus sur les normes internationales en matière de droits humains, en garantissant que les décisions de retrait de contenus soient transparentes, cohérentes et non systématiques ou biaisées.
Meta devrait autoriser l’expression protégée, y compris sur les violations des droits humains et les mouvements politiques, sur ses plateformes, a préconisé Human Rights Watch. Meta devrait commencer par réviser sa politique des « organismes et individus dangereux » pour la rendre conforme aux normes internationales des droits humains. Meta devrait vérifier sa politique d’« autorisation digne d’intérêt médiatique » pour s’assurer qu’elle ne supprime pas des contenus qui sont dans l’intérêt public et garantir son application équitable et non discriminatoire. L’entreprise devrait également faire preuve de diligence raisonnable quant à l’impact sur les droits humains des modifications momentanées apportées à ses algorithmes de recommandation introduits en réponse aux récentes hostilités.
« Au lieu d’excuses déjà entendues et de promesses vides, Meta devrait démontrer sa volonté sérieuse de s’attaquer une fois pour toutes à la censure liée à la Palestine en prenant des mesures concrètes en faveur de la transparence et de la remédiation », a conclu Deborah Brown.
Communiqué
Donnez votre avis