Facebook, YouTube et Twitter ont convenu de permettre à des tiers de vérifier comment ils traitent les contenus préjudiciables tels que les discours de haine à la suite d’un boycott de leurs plateformes par les principaux annonceurs.

Une obligation d’audit indépendant

L’accord, qui a pris plus d’un an à négocier, exige que les plateformes de médias sociaux subissent un audit indépendant sur la façon dont elles catégorisent, signalent et éliminent les contenus préjudiciables. L’objectif est de réaliser ces audits d’ici la fin de l’année, ou de mettre en place un plan pour les mettre en œuvre.

Les plateformes devront également développer des systèmes qui donnent aux annonceurs un plus grand contrôle sur le type de contenu qui accompagne leurs marques.

« En tant que financeurs de l’écosystème en ligne, les annonceurs ont un rôle essentiel à jouer dans la conduite de changements positifs et nous sommes heureux d’avoir conclu un accord avec les plateformes sur un plan d’action et un calendrier », a déclaré Stephan Loerke, directeur général de la FMA, dans une déclaration.

Des plaintes lancées par les annonceurs

Les annonceurs se plaignent depuis des années de voir leurs publicités apparaître à côté de contenus racistes ou violents sur les médias sociaux. L’année dernière, YouTube a été confronté à un grand désistement de la part des annonceurs. Mais l’inquiétude s’est accrue après l’assassinat de George Floyd et, en juillet, des dizaines de grandes entreprises ont rejoint le boycott de Facebook (FB) pendant un mois, en raison de ce que les organisateurs de la campagne ont décrit comme des échecs répétés dans la lutte contre les discours haineux et la désinformation.

L’accord annoncé mercredi a été négocié par l’Alliance mondiale pour des médias responsables, que la FB a lancée l’année dernière afin de faire pression sur les plateformes de médias sociaux pour qu’elles fassent plus pour lutter contre la diffusion de la haine et de la désinformation en ligne.

Catégories : Blog