Disinformation

Le changement de Meta vers une modération dirigée par les utilisateurs : un terreau pour la désinformation ?

Illustration showing the conflict between online free speech and the rise of misinformation.

La décision de Meta de mettre fin à la vérification des faits par des tiers : implications pour les utilisateurs des réseaux sociaux

Dans un changement significatif, Meta a annoncé la fin de son programme de vérification des faits par des tiers, un mouvement qui a suscité des inquiétudes parmi les experts concernant l'impact potentiel sur la désinformation et les discours haineux en ligne. Établi en 2016, le programme était conçu pour collaborer avec des vérificateurs de faits indépendants à l'échelle mondiale afin de lutter contre la désinformation sur des plateformes telles que Facebook, Instagram, Threads et WhatsApp.

Transition vers une modération participative

Alors que Meta met progressivement fin à son initiative de vérification des faits, l'entreprise se tourne vers une approche participative rappelant les Community Notes de X. Ce changement confie aux utilisateurs la responsabilité de la modération du contenu, suscitant des inquiétudes quant à l'augmentation de la diffusion d'informations trompeuses sur des sujets critiques tels que le changement climatique et la santé publique.

Conséquences pour les utilisateurs

Angie Drobnic Holan, directrice du Réseau international de vérification des faits (IFCN), souligne que ce changement affecte principalement les utilisateurs de Meta qui devront désormais gérer eux-mêmes la vérification des faits. "Le programme a bien fonctionné pour réduire la viralité des canulars et des théories du complot," note-t-elle, exprimant son inquiétude face à la quantité écrasante de fausses informations à laquelle les utilisateurs devront faire face.

Justification et critiques de Meta

Dans une récente vidéo, le PDG de Meta, Mark Zuckerberg, a déclaré que cette décision favorise la liberté d’expression, tout en qualifiant les vérificateurs de faits de "trop politiquement biaisés". Il a indiqué que les anciennes initiatives de vérification des faits avaient abouti à un nombre significatif d'erreurs, compromettant la crédibilité du programme.

Impact sur la modération du contenu

L'ancien programme de vérification des faits servait de tampon essentiel contre la désinformation, avec un contenu signalé ayant des restrictions de visibilité et des avertissements factuels superposés. Sans ce système, les experts craignent que des revendications fausses non vérifiées ne conduisent à une propagation rapide de la désinformation.

Un changement vers l'influence politique ?

La nouvelle approche de Meta coïncide avec des spéculations selon lesquelles l'entreprise tente d'apaiser des figures comme le président élu Trump. L'ajout de figures politiques à la direction de Meta soulève des questions sur les motivations et la direction de la surveillance du contenu.

Inquiétudes des groupes de défense

Les défenseurs de la sécurité en ligne s'inquiètent du fait que des récits nuisibles, en particulier contre les communautés marginalisées, deviendront de plus en plus répandus. Nicole Sugerman de Kairos identifie ce changement comme susceptible de causer des préjudices dans le monde réel en raison de la désinformation non vérifiée entourant des questions de race et de genre.

Réactions des scientifiques et des environnementalistes

Les scientifiques et les organisations environnementales ont également exprimé leur inquiétude face à la décision de Meta. L'Union of Concerned Scientists a averti que permettre à des contenus anti-scientifiques de se répandre sans contrôle pourrait poser de graves risques pour les discussions environnementales cruciales. Michael Khoo de Friends of the Earth souligne que la désinformation peut miner des efforts essentiels liés aux énergies renouvelables et à la politique climatique.

Le tableau d'ensemble

Alors que Meta se tourne vers une modération de contenu dirigée par les utilisateurs, les experts de l'industrie soulignent la nécessité pour les entreprises technologiques d'assumer la responsabilité de la désinformation propagée à travers leurs plateformes. Les répercussions de cette décision vont au-delà des réseaux sociaux et pourraient renforcer des récits nuisibles qui affectent de vraies communautés.

Conclusion

Le retrait de Meta d'un mécanisme de vérification des faits structuré soulève des questions vitales sur l'avenir de la désinformation sur les réseaux sociaux. Alors que les responsabilités de modération du contenu se déplacent vers les utilisateurs, l'efficacité et la sécurité du discours en ligne sont en jeu, nécessitant une vigilance de la part des utilisateurs et des défenseurs.

En lire plus

LG StanbyME 2 portable TV with carrying strap showcasing its features.
AI-powered livestreaming assistant demonstration with virtual key light effect.

Laisser un commentaire

Tous les commentaires sont modérés avant d'être publiés.

Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.