Les autorités de la ville de San Francisco sont revenues sur leur décision d'autoriser la police de déployer des robots pour tuer des suspects. La manœuvre fait suite aux protestations des citoyens et des groupes de défense des droits civils. Toutefois, le revirement n'est pas permanent. La question est désormais sous examen par un comité pour une discussion plus approfondie. Le tableau ravive le débat mondial sur la possibilité d'une utilisation éthique de tels outils.
À l'origine, le conseil d'administration avait approuvé une politique autorisant le Département de la police de San Francisco (SFPD) à lancer ces outils pour tuer des suspects que les forces de l’ordre considèrent comme une menace suffisante pour que « le risque de mort pour les membres du public ou les officiers soit imminent et l’emporte sur toute autre option à la disposition des policiers. » La police entendait déployer des robots équipés de charges explosives « pour entrer en contact, neutraliser ou désorienter un suspect violent, armé ou dangereux » lorsque des vies sont en jeu.
On parle de robots pouvant être pilotés à distance par des humains. Le cas du sniper de Dallas qui s’est retranché dans un parking et qui a pu tuer 5 officiers de police l’illustre. C’est avec un robot Remotec F5A équipé de charges explosives que les forces de l’ordre ont pu le mettre hors d’état de nuire.
Cette politique a été vivement critiquée par les groupes de défense des droits civiques qui ont déclaré qu'elle témoignait de la militarisation croissante et inquiétante des forces de l'ordre américaines. Dans une lettre de protestation signée par 44 groupes communautaires, les critiques ont déclaré que la politique mettrait « inutilement des vies en danger » et que le public est « naturellement mal à l'aise avec l'utilisation de robots armés dans n'importe quelle situation. »
« Il n'y a aucune raison de croire que les robots transportant des explosifs pourraient être une exception à l'utilisation excessive de la force meurtrière par la police. L'utilisation de robots conçus pour désarmer des bombes afin de les livrer est un parfait exemple de ce modèle d'escalade et de la militarisation des forces de police qui préoccupe tant de personnes dans la ville », indique la lettre.
De tels arguments semblent avoir convaincu le conseil de surveillance de San Francisco. L'un des superviseurs ayant initialement voté en faveur de la mesure a déclaré dans un message qu'il était depuis lors « de plus en plus mal à l'aise avec notre vote et le précédent qu'il crée pour d'autres villes. »
« Je ne pense pas que le fait de rendre la violence d'État plus éloignée, distante et moins humaine soit un pas en avant. Je ne pense pas que les robots dotés d'une force létale renforceront notre sécurité ni qu'ils préviendront ou résoudront des crimes », ajoute Gordon Mar.
Un autre superviseur qui avait précédemment voté contre la mesure a également célébré ce revirement. « Nous venons d'arrêter l'utilisation de robots tueurs à San Francisco. Retournement complet par rapport à la semaine dernière. Le bon sens l'a emporté », lance-t-il.
C’est du bien commun dont il est question sur ces débats en lien avec la mise à contribution de robots tueurs. Sur la question, le Comité d’éthique de l’armée française prend position et signe : « De tels systèmes sont acceptables à condition qu’ils soient toujours supervisés par l’Homme. En revanche, les systèmes d'armes létales complètement autonomes, qui excluent tout contrôle humain, pourraient donc se révéler dangereux et doivent être interdits. » La France indiquait ainsi jusqu’à quel niveau elle serait prête à aller dans l’utilisation de tels outils. D’ailleurs, les dix-huit membres civils et militaires de ce comité avaient indiqué que « la France confirme qu’elle ne développera et n’emploiera pas de systèmes d’armes létaux pleinement autonomes. »
Et vous ?
Pour ou contre les robots tueurs utilisés par la police ? Dans quelle mesure ?
Voir aussi :
Intelligence artificielle : Amazon, Microsoft ou Intel seraient en bonne place pour la création potentielle de "Skynet", d'après une étude
Que se passera-t-il si des robots tueurs sont piratés ou détournés ? La question fait débat au sein de la communauté scientifique
L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA, à travers son projet ATLAS, selon un rapport
San Francisco revient sur son projet d'autoriser la police à déployer des robots capables de tuer des humains
Et ravive le débat mondial sur la possibilité d'une utilisation éthique de tels outils
San Francisco revient sur son projet d'autoriser la police à déployer des robots capables de tuer des humains
Et ravive le débat mondial sur la possibilité d'une utilisation éthique de tels outils
Le , par Patrick Ruiz
Une erreur dans cette actualité ? Signalez-nous-la !