Le réseau social joue la transparence sur sa modération et publie pour la première fois le détail de ses interventions. Même s’il semble détecter efficacement les tentatives de manipulation, leur ampleur reste impressionnante.
Critiqué pour avoir laissé pulluler les fake news durant la campagne présidentielle américaine ou ne pas être intervenu assez vite contre les dérapages en direct de certains utilisateurs, Facebook s’efforce de lutter plus efficacement contre les contenus qui violent ses règles.
Il inaugure cette semaine un rapport d’un nouveau genre dressant le bilan de ses actions de modération. Le document ne s’intéresse qu’aux posts qui sont apparus sur les écrans des utilisateurs et qui n’ont donc pas été recalés préalablement par les systèmes de détection automatique.
La période prise en compte court d’octobre à mars 2018. Et les chiffres sont impressionnants. Ce qui n’est pas surprenant vu que la plateforme cumule 2 milliards d’utilisateurs actifs et que la majeure partie de la population de certains pays occidentaux s’y connecte.
4% des utilisateurs actifs seraient liés à de faux comptes
Premier bilan qui laisse pantois, le nombre de faux comptes supprimés, qui s’élève à 583 millions de janvier à mars 2018, contre 694 millions d’octobre à décembre 2017.
Facebook estime ainsi que 3 à 4% des utilisateurs actifs mensuels sont en réalité de faux comptes. Certains sont créés manuellement par des individus, mais le plus souvent, ils sont produits à la chaîne par des bots ou des scripts. Leur évolution est cyclique et fortement influencée par les vagues de cyberattaques. Facebook souligne qu’il est impératif de les détecter le plus vite possible, car ils sont souvent le point de départ d’autres violations comme le spam ou des tentatives d’escroquerie. La plateforme semble lutter efficacement contre ce phénomène puisqu’elle est parvenue à détecter 98,5% de la totalité des faux comptes signalés par des utilisateurs lors du premier trimestre 2018.
Souvent lié aux faux comptes, le spam est un autre combat de Facebook. Qui le définit comme toute activité « automatisée (publiée par des robots ou des scripts, par exemple) ou coordonnée (utilisant plusieurs comptes pour diffuser et promouvoir un contenu trompeur) », peut-on lire dans le rapport. « Cela inclut le spam commercial, la publicité mensongère, la fraude, les liens malveillants et la promotion de produits contrefaits », précise le géant des réseaux sociaux.
Là encore, il s’agit d’intervenir le plus rapidement possible pour éviter que le spam ne se propage. Facebook déclare être intervenu sur 837 millions de contenus de janvier à mars et contre 727 millions d’octobre à décembre. Dans ce domaine, il frôle l’excellence puisqu’il se targue de détecter 99,7% des spams avant qu’ils ne soient signalés.
La propagande terroriste difficile à quantifier
Il y a toutefois des problèmes que Facebook a du mal à quantifier. Il s’agit en premier lieu de la propagande terroriste. Il reconnaît tout simplement être incapable d’évaluer de manière fiable le nombre de contenus concernés, mais souligne que leur proportion apparaît extrêmement faible comparée à la masse de contributions violentes ou sexuelles.
Non sans autosatisfaction, Facebook avance aussi la thèse que sa modération automatique fonctionnerait tellement bien que la plupart des contenus faisant la promotion du terrorisme seraient supprimés avant même d’être vus. Il concède toutefois être intervenu sur 1,9 million de contenus déjà en ligne au premier trimestre et s’enorgueillit d’en avoir découvert 99,5% avant qu’ils ne soient signalés.
Facebook peine à modérer les contenus haineux
Son point faible, ce sont les discours de haine. Parce qu’ils sont excessivement délicats à repérer. Le problème : la compréhension du contexte. Et pour le moment, l’intelligence artificielle n’est pas d’un grand secours. Ce qui explique que cette catégorie affiche les moins bonnes performances de modération avec seulement 38% des contenus détectés avant signalement des utilisateurs en ce début d’année.
Autre difficulté, la représentation de la nudité et du sexe. On connaît la célèbre histoire du tableau de Gustave Courbet L’Origine du monde, censuré à plusieurs reprises par Facebook. Le réseau social a beau admettre désormais certaines représentations artistiques de nus, il reste extrêmement sourcilleux sur ce point. Il estime être intervenu sur 21 millions de contenus au premier trimestre.
Enfin, il y a ce que Facebook appelle la « violence graphique », c’est-à-dire tout contenu qui « glorifie la violence ou célèbre la souffrance ou l’humiliation des autres ». Cette fois, la probabilité d’y être confronté est beaucoup plus élevée puisque sur 10 000 contenus vus sur un écran, entre 22 et 27 sont catalogués « violents ». Ce pourcentage a augmenté en partie parce que Facebook a amélioré sa technologie de détection, mais la plateforme concède également l’émergence d’un plus grand volume de contenus concernés.
De passage à Paris pour animer un « Content Summit », la directrice de la politique des contenus de Facebook Monica Bickert a déclaré au journal Le Monde qu’une équipe de 7500 modérateurs francophones veillait à tour de rôle 24 heures sur 24 aux contenus dans notre langue.