Facebook dit avoir "rapidement" retiré la vidéo en direct du tireur, mais l'enregistrement dure quelque 17 minutes. La vidéo a ensuite été reprise sur d'autres plateformes comme YouTube et Twitter, et des séquences étaient encore visibles vendredi.
Au moins 49 personnes ont été tuées et des dizaines d'autres blessées dans l'attaque de deux mosquées à Christchurch, en Nouvelle-Zélande.
Les plus grandes plateformes internet ont promis d'endiguer le partage d'images violentes et autres contenus inappropriés par le biais de systèmes automatisés et d'un contrôle humain. Mais cela ne fonctionne pas, selon des observateurs.
"Il n'y a aucune excuse au fait que le contenu de cette transmission en direct soit encore en train de circuler sur les réseaux sociaux en ce moment", juge ainsi Lucinda Creighton, ancienne ministre irlandaise aujourd'hui conseillère au Counter Extremism Project, qui fait campagne pour retirer les contenus violents des plateformes internet.
Ces dernières "disent avoir leurs propres technologies mais nous ne savons pas lesquelles. Il n'y a pas de transparence, et ça ne marche clairement pas", poursuit-elle.
Son organisation a développé une technologie qui combattrait certains types de contenus violents et l'a proposée à des compagnies d'internet, en vain.
- "Plateforme sans modérateurs"? -
La police de Nouvelle-Zélande avait exhorté dans un tweet vendredi à ne pas partager les "images extrêmement éprouvantes" des massacres de Christchurch, qui ont circulé, selon des internautes, sur Reddit, 4chan et d'autres plateformes.
"Nous oeuvrons à faire retirer tout enregistrement" des tueries, avait ajouté la police.
Twitter et YouTube ont dit travailler à retirer les vidéos en question et tout contenu leur étant lié.
Twitter affirme avoir "une procédure rigoureuse et une équipe dédiée pour gérer les situations délicates et d'urgence comme celle-ci". "Nous coopérons également avec la police pour faciliter ses enquêtes", a poursuivi Twitter.
Quant à YouTube, la plateforme a dit dans un tweet avoir "le coeur brisé" par "la terrible tragédie en Nouvelle-Zélande", et a tenu à faire savoir qu'elle "oeuvrait activement à retirer toute vidéo violente" de ses pages.
Facebook n'avait pas répondu dans l'immédiat à une question sur le temps pris à arrêter la vidéo en direct, mais a dit dans un communiqué avoir interrompu cette transmission et l'avoir retirée à la suite d'une requête de la police, et bloqué les comptes Facebook et Instagram du tireur.
"Nous retirons également tout soutien ou apologie du crime et du ou des tireurs dès que nous en voyons", a dit Facebook.
Bien trop peu, selon Jennifer Grygiel, enseignante en communication à l'université de Syracuse qui suit de près les réseaux sociaux.
"Facebook est une plateforme sans modérateurs où vous pouvez transmettre ce que vous voulez", accuse-t-elle, estimant qu'aucune mesure d'ampleur n'a été prise depuis la diffusion en direct sur Facebook en 2017 d'un meurtre à Cleveland, dans l'Ohio.
Il est devenu courant, selon Mme Grygiel, pour les auteurs de crimes d'utiliser les réseaux sociaux pour diffuser leurs actes, et ces derniers sont ensuite réenregistrés puis partagés, encore et encore.
Selon elle, des plateformes comme YouTube ont la capacité de trouver et de retirer ces vidéos violentes avec des recherches par mots-clés, mais il faudrait davantage de personnes pour le travail de modération et de surveillance.
Les outils d'intelligence artificielle peuvent aider, poursuit-elle, mais "aucun algorithme ne peut être conçu pour cela, parce qu'on ne peut pas prévoir l'avenir".