Après Google, c’était au tour de Facebook de clarifier lundi ses règles sur ce qu’il est convenable de publier, concernant des sujets sensibles tels que la violence, les discours haineux ou encore l’apologie du terrorisme.
Les nouvelles normes annoncées par la plate-forme sont conçues pour créer un environnement où l’usager se sent encouragé à traiter les autres avec empathie et respect, précisent des responsables du groupe.
Pourquoi cette décision ? Le statu quo n’est plus une option, explique Nicolas Arpagian, rédacteur en chef de la revue Prospective stratégique, et coordonnateur d'enseignements à l'Institut national des hautes études de la sécurité et de la justice (Paris, France). Si Facebook, Google, Twitter et d'autres plateformes ne prennent pas des mesures, elles pourraient leur être imposées, déclare-t-il dans une interview avec la Voix de l’Amérique (VOA).
« En quelque sorte ils craignent que la loi leur impose les mêmes responsabilités qu’un éditeur. C'est-à-dire comme un directeur de journal, de télévision ou radio, qui a la responsabilité intégrale de ce qui est diffusé sur son antenne ».
Jusqu’à présent, poursuit M. Arpagian, Facebook ou Google n’ont que la responsabilité d’un « hébergeur ». Donc, on leur signale des contenus qui posent problème, mais sans que cela engage leur responsabilité. Tout change, « a posteriori, ils vont se mettre à décider de retirer tel ou tel contenu, voire selon tel ou tel pays, de manière à respecter localement la règlementation ».
Toujours selon M. Arpagian, « il s’agit de montrer une bonne foi, une réactivité, car leur hantise, leur crainte, c’est qu’on la loi leur impose de faire eux-mêmes la sélection, le tri des informations qui sont mises en permanence sur leurs plateformes ». Ce qui représenterait un coût financier, et un coût humain puisqu’il leur faudrait alors y consacrer des ressources que ces grandes entreprises ne sont pas prêtes à leur allouer.