Liens d'accessibilité

Dernières nouvelles

Facebook mesure pour la première fois ses efforts contre les contenus répréhensibles


Facebook a publié pour la première fois un bilan chiffré de ses efforts pour supprimer de sa plateforme les contenus contrevenant à ses règles d'utilisation, qu'il s'agisse d'images à caractère sexuel, de commentaires haineux ou de propagande terroriste.

Selon ce rapport inédit, qui s'inscrit dans des efforts de transparence du groupe confronté au scandale Cambridge Analytica, 3,4 millions d'images violentes ont été supprimées ou assorties d'avertissements au premier trimestre 2018, presque le triple du trimestre précédent.

>> Lire aussi : Facebook engagé dans une vaste refonte des contenus

Un bond lié principalement, selon le réseau, à une amélioration de ses technologies d'analyse, qui font de plus en plus appel à l'intelligence artificielle. Dans près de 86% des cas, ces images ont été détectées par le réseau avant même d'avoir été préalablement signalées, et elles ont représenté moins de 0,3% des contenus visionnés sur sa plateforme entre janvier et mars.

Concernant les images de nudité ou d'activité sexuelle (hors pédopornographie), le groupe déclare 21 millions d'éléments supprimés au premier trimestre, autant que fin 2017. Cela représente moins de 0,1% des contenus visionnés, et dans près de 96% des cas les images sont supprimées avant tout signalement. Parfois avec trop de zèle, comme lorsque le réseau censure certaine oeuvres d'art pourtant tolérées par ses règles, à l'image de "La liberté guidant le peuple" de Delacroix.


Concernant la propagande terroriste, le groupe a confirmé des chiffres de fin avril : 1,9 million de contenus ont été supprimés au premier trimestre, soit 73% de plus qu'au 4e trimestre 2017, grâce à des améliorations technologiques. 99,5% des contenus supprimés l'ont été avant tout signalement.

Le groupe a également révélé dans ce rapport avoir désactivé 583 millions de faux comptes au 1er trimestre, "dont la plupart l'ont été quelques minutes après leur inscription", ce qui s'ajoute "aux millions de tentatives de création de faux comptes" déjouées quotidiennement par le réseau. Malgré ces mesures, le groupe a estimé que les faux comptes représentaient 3 à 4% de ses comptes actifs au 1er trimestre.

>> Lire aussi : Facebook interdit de pub les pages renvoyant vers des fausses infos

En outre, Facebook fait état de 837 millions de contenus supprimés sur la même période, car assimilés à des spams, "dont près de 100% ont été détectés" par ses technologies, avant tout signalement.

Facebook peine en revanche à détecter les messages de haine. Le groupe dit en avoir supprimé 2,5 millions au 1er trimestre (56% de plus qu'au trimestre précédent), mais seuls 38% ont été détectés avant tout signalement. Malheureusement, Facebook n'a pas fourni d'estimation de leur prévalence sur sa plateforme.

Le groupe explique avoir du mal à repérer ces messages car l'intelligence artificielle peine encore à trier le bon grain de l'ivraie: des insultes racistes ou homophobes peuvent par exemple être "réappropriées" par les minorités qu'elles visent, ou relayées dans le but de les dénoncer, ce qui est normalement permis par la plateforme. Et seules les attaques contre les personnes sont interdites, pas celles visant une croyance, idéologie ou institution.

Venue présenter ces données à Paris, la responsable de la politique du groupe en matière de contenus et d'antiterrorisme, Monika Bickert, a expliqué que Facebook allait continuer ses efforts pour améliorer l'application de ses règles, tout en s'efforçant de mieux expliquer ses procédures.

Elle a précisé en outre que le groupe, comme il s'y était engagé l'an dernier, avait recruté 3.000 personnes supplémentaires pour contrôler les contenus litigieux. "Nous en étions en début d'année à plus de 7.500 personnes (dédiées à cette tâche, contre 4.500 un an plus tôt, ndlr) et ce nombre va continuer d'augmenter", a-t-elle souligné.

Avec AFP

XS
SM
MD
LG