Meta doit restaurer le contenu lesbien après une décision du conseil
Le conseil de surveillance de Meta a jugé que l'entreprise a supprimé à tort des publications lesbiennes sur Instagram. Que signifie cela pour les droits de modération ?
Photo : Rédaction RainbowNews
Le conseil de surveillance de Meta a jugé que l'entreprise a supprimé à tort le contenu lesbien sur Instagram. Le conseil a déclaré que ces suppressions violaient les propres règles de Meta. Meta doit maintenant restaurer les publications et revoir ses systèmes de modération. La décision a été publiée fin avril 2026.
Le conseil de surveillance est un organisme indépendant. Il examine les décisions difficiles prises par Meta concernant le contenu. Ses décisions obligatoires pour les publications individuelles. Les conseils politiques ne sont pas obligatoires, mais Meta répond généralement dans les 60 jours.
De quoi parlait cette affaire
L'affaire concernait plusieurs publications Instagram d'utilisatrices lesbiennes. Les publications utilisaient des mots comme dyke et lesbienne de manière positive. Les systèmes automatisés de Meta ont marqué le contenu comme discours de haine. Des modérateurs humains ont ensuite confirmé les suppressions.
Les utilisatrices ont contesté ces décisions. Elles ont dit que les mots étaient utilisés comme auto-description, non comme insultes. Le conseil de surveillance a accepté cet argument. Selon la décision, Meta n'a pas reconnu le langage récupéré. Le langage récupéré signifie qu'un groupe utilise une ancienne insulte positivement.
Le conseil a écrit que les suppressions ont limité la liberté d'expression. Il a aussi dit que la modération a nui à la visibilité des utilisatrices lesbiennes. La propre politique de Meta autorise les insultes récupérées quand l'auteur appartient au groupe.
Contexte : comment fonctionne la modération
Meta utilise des outils automatisés et des examinateurs humains. Les systèmes automatisés analysent des milliards de publications chaque jour. Ils cherchent des mots et des images qui enfreignent les règles. Les publications signalées vont aux modérateurs ou sont supprimées directement.
Le système a des problèmes connus. Les outils automatisés manquent souvent le contexte. Un mot peut être offensant dans une publication et positif dans une autre. Les groupes LGBTQ+ se plaignent de cela depuis des années. Ils disent que leur contenu est supprimé plus souvent que d'autres.
En 2021, l'organisation de droits humains GLAAD a rapporté que les publications LGBTQ+ étaient supprimées plus fréquemment. Meta a dit qu'elle travaillait sur ce problème. Plusieurs rapports de recherche depuis montrent que le problème continue.
Ce que cela signifie en pratique
Meta doit restaurer les publications spécifiques de l'affaire. L'entreprise doit aussi expliquer ce qu'elle changera. Le conseil de surveillance a demandé à Meta de :
- Améliorer la détection du langage récupéré
- Former les modérateurs au contexte LGBTQ+
- Être plus transparent sur les raisons de suppression
- Donner aux utilisateurs des options d'appel plus claires
Les recommandations du conseil ne sont pas juridiquement contraignantes. Mais Meta a accepté de répondre publiquement. Dans les affaires précédentes, Meta a accepté la plupart des conseils politiques.
Cadre juridique en Europe
Cette décision arrive à un moment important. La loi sur les services numériques de l'Union européenne est maintenant complètement active. Elle exige que les grandes plateformes traitent le contenu équitablement. Les plateformes doivent expliquer les suppressions. Les utilisateurs doivent avoir un processus d'appel clair.
L'article 17 de la loi dit que les utilisateurs doivent recevoir une raison. L'article 20 exige un système de plainte interne. L'article 21 donne aux utilisateurs le droit à un règlement des litiges externe.
La Commission européenne peut infliger des amendes jusqu'à 6 % du chiffre d'affaires mondial pour des violations graves. Meta est l'une des plateformes sous supervision directe de l'Union européenne.
Réactions de tous les côtés
Les groupes LGBTQ+ ont accueilli favorablement la décision. ILGA-Europe a dit que la décision montre que la modération automatisée échoue souvent. Le groupe demande des règles plus claires sur toutes les plateformes. GLAAD a dit que Meta doit agir plus vite sur ses promesses.
Meta a dit qu'elle accepte la décision du conseil sur les publications individuelles. Un représentant a dit que l'entreprise étudiera les recommandations plus larges. Meta a noté qu'elle supprime des millions de publications chaque semaine. L'entreprise a dit que les erreurs peuvent survenir à cette échelle.
Certains groupes de liberté d'expression ont aussi commenté. Ils ont dit que la décision montre les risques des règles de modération strictes. Ils veulent que les plateformes suppriment moins de contenu, pas plus. D'autres groupes ont dit que Meta en fait encore trop peu contre la vraie haine.
Ce que peuvent faire les utilisateurs
Les utilisateurs qui pensent que leur contenu a été supprimé à tort ont plusieurs options. La première étape est le bouton d'appel dans l'application. Meta doit répondre dans un délai fixé.
Si l'appel échoue, les utilisateurs de l'Union européenne peuvent aller auprès d'un organisme certifié de règlement extrajudiciaire. Ces organismes sont listés sur le site de la Commission européenne. Le service est gratuit ou à faible coût pour les utilisateurs. Les décisions ne sont pas obligatoires mais ont du poids.
Les utilisateurs peuvent aussi déposer plainte auprès de leur coordinateur national des services numériques. Aux Pays-Bas, c'est l'Autorité des consommateurs et des marchés. En Allemagne, c'est la Bundesnetzagentur.
Contexte plus large
Cette affaire est l'une de plusieurs concernant le contenu LGBTQ+ en ligne. Plus tôt cette année, le conseil a jugé sur des publications transgenres. Dans ce cas aussi, le conseil a trouvé les règles de Meta peu claires. TikTok et YouTube font face à des plaintes similaires.
Des chercheurs de l'Université d'Amsterdam ont étudié 10 000 publications LGBTQ+ en 2024. Ils ont trouvé que 14 % ont été supprimées ou cachées à tort. La même étude a trouvé des taux d'erreur plus bas pour le contenu non-LGBTQ+.
En avant
Meta a 60 jours pour répondre aux recommandations politiques. Le conseil de surveillance publiera cette réponse. La Commission européenne regarde aussi cette affaire. Elle peut utiliser les conclusions dans ses propres révisions de la loi.
Pour l'instant, la décision fixe une ligne claire. Les plateformes doivent tenir compte du contexte. Le langage récupéré n'est pas la même chose que la haine. La façon dont Meta appliquera cela en pratique deviendra claire dans les prochains mois.