X

Modération de contenu sur Facebook et Instagram critiquée dans le conflit Israël-Hamas

Modération de contenu sur Facebook et Instagram critiquée dans le conflit Israël-Hamas
Mercredi 20 Décembre 2023 - 09:07
Zoom

Les réseaux sociaux Facebook et Instagram, propriétés de Meta, ont récemment retiré de manière agressive des contenus violents liés au conflit entre Israël et le Hamas. Cependant, le conseil de surveillance de Meta a émis des reproches mardi, accusant les plateformes d'avoir adopté une politique de modération jugée trop restrictive.

Suite à une "recrudescence exceptionnelle de contenus violents et graphiques" après les attaques du 7 octobre, Meta a décidé de "temporairement abaisser les seuils des systèmes de classification automatique" chargés d'identifier et de supprimer les contenus violents et les discours de haine, selon le conseil de surveillance de Meta. Ces mesures ont été appliquées aux contenus provenant d'Israël et de Gaza dans toutes les langues.

Bien que le conseil reconnaisse l'importance de la modération, il estime que cette politique a accru le risque de suppression erronée de contenus liés au conflit qui ne contrevenaient pas aux règlements de la plateforme.

Actuellement, lorsque des contenus potentiellement en infraction sont signalés, ils sont rapidement retirés s'ils sont considérés comme à haut risque et proviennent d'utilisateurs non identifiés. Le conseil de surveillance a examiné deux cas spécifiques, l'un concernant une vidéo sur Facebook montrant une prise d'otage lors de l'attaque du Hamas, et l'autre sur Instagram montrant les conséquences d'une frappe à Gaza.

Dans les deux cas, le conseil a annulé la décision initiale de suppression, mais a approuvé la décision de Meta de restaurer les publications avec un avertissement. Le conseil souligne que, compte tenu des risques pour la liberté d'expression et l'accès à l'information, Meta aurait dû ajuster sa politique plus rapidement face à l'évolution rapide des circonstances.

Créé en 2020, le conseil de surveillance de Meta, composé de membres internationaux, a été formé pour examiner les décisions de modération du contenu sur les plateformes de Meta. Le conflit entre Israël et le Hamas a suscité des émotions mondiales et a posé des défis aux plateformes sociales pour gérer la diffusion de contenus violents et de désinformation.


Lire la suite