Environ 4.000 employés avaient signé mardi le texte qui a commencé à circuler il y a trois mois pour exiger du groupe qu'il renonce à utiliser ses outils d'intelligence artificielle pour aider les militaires à rendre leurs drones plus efficaces pour identifier leurs cibles, selon des médias américains.
Le site spécialisé Gizmodo a aussi indiqué qu'une "douzaine" d'employés de Google avaient démissionné pour des raisons éthiques.
>> Lire aussi : Cambridge Analytica a accédé aux données de 87 millions d'utilisateurs de Facebook
L'entreprise américaine n'a pas répondu mardi aux sollicitations de l'AFP à propos de cette collaboration désignée par les pétitionnaires sous le nom de "Projet Maven" et qui selon eux utilise l'intelligence artificielle pour aider les drones de l'armée à distinguer les humains des objets.
"Nous pensons que Google ne devrait pas participer au commerce de la guerre", selon le texte de la pétition disponible sur internet. "En conséquence, nous demandons à ce que le projet Maven soit annulé et que Google rédige, rende publique et mette en oeuvre une politique claire disant que Google ou ses sous-traitants ne construiront jamais de technologie de guerre", disent encore les signataires.
L'armée américaine, comme d'autres pays, utilise des drones (commandés à distance par des humains) pour des missions de reconnaissance, de renseignement ou procéder à des bombardements, en Afghanistan par exemple.
>> Lire aussi : Mark Zuckerberg accepte de témoigner devant le Congrès américain
L'"Electronic Frontier Foundation" (EFF), qui défend les droits sur internet, ainsi que le Comité international pour le contrôle des armes-robots (ICRAC), soutiennent cette pétition.
Même si Google a officiellement indiqué que ses travaux destinés à améliorer la capacité des machines à reconnaître des objets n'ont pas d'objectifs offensifs, certains "documents publiés" sont inquiétants, affirmait l'EFF récemment sur son site internet.
Selon l'EFF, ces outils "signaleraient des gens ou des objets vus par les drones" pour que les images soient contrôlées par des humains et "dans certains cas, cela conduirait à des frappes de missiles sur ces personnes ou ces objets", ce qui constitue un problème éthique énorme, "même avec des humains dans la boucle".
Pour l'ICRAC, cela ouvre même la voie à une suppression totale de l'intervention humaine.
>> Lire aussi : Facebook se lance dans les sites de rencontres
"Si les chefs militaires voient que les algorithmes de reconnaissance d'objets sont fiables, il sera tentant de limiter voire de supprimer le contrôle humain sur ces systèmes", craint dans une lettre ouverte soutenant les signataires l'organisation qui lutte contre les "robots-tueurs" ou armes autonomes.
"Nous ne sommes donc pas loin d'autoriser des drones autonomes à tuer automatiquement", sans contrôle humain, dit-elle encore.
L'ONU a lancé en avril une nouvelle série de discussions officielles sur les armes autonomes, pour tenter notamment de les définir précisément.
Selon des experts, des systèmes d'armement automatisés avec la capacité d'identifier et d'éliminer des cibles sans qu'une action humaine soit nécessaire devraient prochainement être opérationnels sur les champs de bataille.
Au 31 mars, Google employait 85.000 personnes.
Avec AFP