Par Taysir Mathlouthi, chargée de plaidoyer en droits numériques pour l’ONG 7amleh.
Alors que le genocide à Gaza perdure depuis près de deux ans, le rôle des réseaux sociaux en son sein se clarifie. Le rapport de l’ONG palestinienne 7amleh publié ce mois-ci démontre la complicité de Meta, qui a laissé prospérer, voire amplifié, les appels à la haine et au génocide, tout en censurant massivement les voix palestiniennes.

La tragédie en cours à Gaza ne se joue pas seulement sur le terrain, mais aussi dans le paysage numérique façonné par Meta, géant du numérique et propriétaire de Facebook, Instagram et WhatsApp. Avec 3,35 milliards d’utilisateurs quotidiens en 2024, Meta est omniprésente tant dans la vie des Palestiniens que des Israéliens : plus de 65 % des Palestiniens et 87 % des Israéliens utilisent ses plateformes. Là où la presse est censurée ou freinée, ces réseaux sont devenus des bouées de sauvetage, des archives des crimes de guerre, des espaces de témoignage et de lutte pour la dignité des Palestiniens.
Pourtant, la responsabilité de Meta ne s’arrête pas à la connectivité. Comme l’a montré le rapport de l’ONG 7amleh, cette entreprise ne s’est pas contentée d’être passive durant le génocide à Gaza. Elle a activement amplifié la violence et la déshumanisation, en autorisant l’incitation à la haine et à l’extermination sous couvert de discours politiques, tout en censurant systématiquement les récits palestiniens. Le cas Gaza s’inscrit ainsi dans une continuité inquiétante : après les précédents du Myanmar (contre les Rohingya) et de l’Éthiopie (contre les Tigréens), Meta démontre une incapacité structurelle à empêcher la transformation de ses algorithmes en armes de masse.
L’histoire comme avertissement : médias et violence de masse
Les leçons du passé sont claires. En 1946, le Tribunal militaire international de Nuremberg a condamné Julius Streicher, propagandiste nazi, pour crimes contre l’humanité. Le jugement soulignait que « sans Streicher et son journal, le régime nazi n’aurait pas pu persécuter et exterminer les Juifs comme il l’a fait ». Déjà à cette époque, avant même l’incrimination juridique de génocide, on reconnaissait que la parole haineuse constituait un outil décisif d’extermination. En 1994, la Radio-Télévision Libre des Mille Collines (RTLM) a joué un rôle central dans le génocide des Tutsis au Rwanda, en les qualifiant de « cafards » afin de déshumaniser la cible, transformer l’horreur en nécessité et provoquer la tuerie à grande échelle. Aujourd’hui, le vocabulaire n’a guère changé. Dans le contexte de Gaza, des responsables israéliens qualifient les Palestiniens d’« animaux humains », de « virus », de « cafards », ou appellent ouvertement à leur « extermination » et leur « transfert ». Des ministres, des officiers militaires et même des institutions officielles diffusent ces appels à l’élimination sur Meta, parfois dans des campagnes publicitaires payantes. Des hashtags comme « #TransferNow », « Erase Gaza », ou le recours à l’expression de « Nakba », la catastrophe vécue en 1948, sont normalisés et partagés sans entrave.
L’algorithme, nouveau bras armé de la haine
Meta n’est pas seulement le réceptacle ; son algorithme devient catalyseur. Au Myanmar, les systèmes automatisés de Facebook ont amplifié de manière virale les discours de haine anti-Rohingya, favorisant le nettoyage ethnique. En Éthiopie, l’inaction de Meta face aux alertes internes a laissé prospérer la haine envers les Tigréens, facilitant assassinats, déplacements forcés et destruction de communautés entières. En Palestine, l’échec de Meta est double : non seulement la modération du contenu en hébreu est défaillante (par manque d’outils, de classificateurs linguistiques et de personnel dédié), mais la modération du contenu en arabe ou pro-palestinien est excessive, allant jusqu’à censurer, suspendre et supprimer des comptes pour des termes anodins ou des images de destruction. Cette disparité, relevée par les experts de l’ONU, constitue une ségrégation algorithmique aux conséquences mortelles.
Documenter l’incitation à la haine : la lourde tâche de la société civile
Entre octobre 2023 et mai 2025, 7amleh, à travers l’Observatoire Palestinien des Violations des Droits Numériques, a catalogué plus de 2 265 cas de contenus violents rien que sur Facebook, Instagram et WhatsApp : discours haineux, appels à l’extermination, glorification des crimes de guerre, campagnes de désinformation. Ces exemples incluent des publications de soldats en service célébrant les bombardements, des ministres appelant à « raser » Gaza ou la Cisjordanie, des groupes extrémistes incitant à arrêter l’aide humanitaire et à intensifier le siège contre Gaza. 7amleh a mis en avant les lacunes flagrantes des classificateurs linguistiques de Meta : plus de 2,5 millions de messages en hébreu contenant des propos violents ont été recensés en 2024, dont des dizaines de milliers relèvent clairement de l’incitation à la haine ou au crime. Malgré les signalements, le travail de modération repose quasi exclusivement sur la vigilance des ONG palestiniennes, tandis que Meta se contente de mesures superficielles.
WhatsApp : l’infrastructure cachée des pogroms
Loin d’être neutre, WhatsApp est utilisée comme plateforme clandestine d’organisation de la violence : des groupes coordonnent des attaques de colons en Cisjordanie, échangent des informations sur les cibles, organisent les déplacements et partagent des menaces. Selon l’ONU, en 2024, 4 250 Palestiniens ont été déplacés et 1 760 structures détruites suite à des violences de colons, souvent orchestrées via WhatsApp et passées sous silence par Meta et les autorités israéliennes. Les métadonnées de WhatsApp ont également été largement utilisées par l’armée israélienne : le simple fait d’apparaître dans un groupe où figure un membre présumé du Hamas ou du Jihad islamique pouvait suffire à classer une personne comme cible potentielle. Cette exploitation révèle une faille de sécurité majeure de la part de Meta, dont les données ont pu être utilisées à des fins militaires. Même sans preuve d’une coopération directe de l’entreprise, l’usage détourné de ces métadonnées privées a contribué à la désignation massive de civils à Gaza.
L’incitation publicitaire et la monétisation du crime
Meta n’a pas seulement laissé prospérer ces discours haineux ; elle en a tiré profit. Le rapport cite de nombreux exemples de publicités payantes sur Facebook et Instagram approuvées malgré leur incitation à la violence et au nettoyage ethnique : appels à expulser les Palestiniens vers la Jordanie, campagnes pour collecter de l’argent en faveur de l’expansion des colonies ou de l’achat d’équipements militaires, et même publicités prônant l’assassinat de militants pro-palestiniens. Les dispositifs de contrôle sont soit défaillants, soit rétroactifs, toujours après que le mal est fait.
Deux poids, deux mesures : l’apologie du crime d’un côté, la censure de l’autre
Alors qu’Israël n’a enquêté sur aucun cas d’incitation au génocide par ses dirigeants publics, plus de 400 procédures ont été ouvertes contre des citoyens palestiniens pour simple expression, post ou slogan protestataire. L’impunité est institutionnalisée pour les acteurs israéliens et systématique pour Meta : alors que des centaines de publications et comptes sont supprimés côté palestinien, les usages génocidaires prospèrent en hébreu, malgré les alertes des Nations Unies et des ONG.
Une complicité qui interroge la légalité
Les implications juridiques de cette inaction sont majeures. En droit international, la Convention pour la prévention et la répression du crime de génocide ainsi que le Statut de Rome de la Cour pénale internationale établissent que les individus qui incitent, favorisent ou tolèrent la propagande génocidaire peuvent être poursuivis. Si les entreprises ne sont pas pénalement responsables en tant que personnes morales devant les juridictions internationales, elles n’en demeurent pas moins soumises à des obligations en matière de respect des droits humains. Dans le cadre des Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme, comme dans certains droits nationaux et européens, elles peuvent être poursuivies au civil, mises en cause pour complicité, ou sanctionnées via des mécanismes de régulation et de devoir de vigilance.
Pour une responsabilisation efficace : recommandations
Le rapport de 7amleh ne s’arrête pas au constat. Il propose des mesures concrètes :
-
Investir dans des mécanismes linguistiques et de modération robustes pour l’hébreu.
-
Arrêter de faire porter la charge de la modération sur la société civile.
-
Réaliser une analyse de risques indépendante, urgente et transparente.
-
Alignement total avec les droits humains et le droit international.
- Mise en place d’un contrôle externe et de mécanismes transparents d’audit des contenus et des algorithmes.
La responsabilité ne doit pas seulement incomber à Meta, mais aussi aux États et aux législateurs, qui doivent garantir la conformité des plateformes aux exigences internationales en matière de prévention du génocide et du discours de haine.
Si la neutralité algorithmique n’existe pas, l’irresponsabilité non plus. À Gaza, Meta n’est plus seulement un vecteur numérique : la plateforme est devenue un acteur central dans la diffusion et la normalisation du discours haineux, voire du projet exterminateur. Le rapport de 7amleh constitue aujourd’hui une base d’action essentielle pour la société civile, les juristes et les instances supranationales, afin d’exiger justice, vérité et redevabilité. La guerre ne se limite plus aux armes et aux tribunaux : elle se joue aussi sur les serveurs et les réseaux sociaux, là où la parole peut tuer. Meta doit être tenue responsable de ses prises de position ainsi que de ses silences.