San Francisco va permettre à la police de déployer des robots capables de tuer des humains
Et ravive le débat mondial sur la possibilité d'une utilisation éthique de tels outils
Le 2022-11-30 17:17:32, par Patrick Ruiz, Chroniqueur Actualités
Le Comité de surveillance de la ville de San Francisco a voté pour donner à la police la possibilité de déployer des robots capables de tuer des humains. Le Département de police de la ville pourra donc lancer ces outils pour tuer des suspects que les forces de l’ordre considèrent comme une menace suffisante pour que « le risque de mort pour les membres du public ou les officiers soit imminent et l’emporte sur toute autre option à la disposition des policiers. » La décision divise l’opinion sur la possibilité d’une utilisation éthique des robots tueurs.
La police de San Francisco entend déployer des robots équipés de charges explosives « pour entrer en contact, neutraliser ou désorienter un suspect violent, armé ou dangereux » lorsque des vies sont en jeu. Ces robots peuvent pilotés à distance par des humains être utiles dans de telles situations. Le cas du sniper de Dallas qui s’est retranché dans un parking et qui a pu tuer 5 officiers de police l’illustre. C’est avec un robot Remotec F5A équipé de charges explosives que les forces de l’ordre ont pu le mettre hors d’état de nuire.
L’Electronic Frontier Foundation reste néanmoins d’avis que la police ne devrait pas avoir la permission de tuer des humains à l’aide de robots. « Cette décision permettrait à la police d'amener des robots armés à chaque arrestation et à chaque exécution d'un mandat de perquisition dans une maison, un véhicule ou un appareil. Selon la façon dont la police choisit de définir les mots "critique" ou "urgent", elle pourrait même amener des robots armés à une manifestation », commente l’EFF.
C’est du bien commun dont il est question sur ces débats en lien avec la mise à contribution de robots tueurs. Sur la question, le Comité d’éthique de l’armée française prend position et signe : « De tels systèmes sont acceptables à condition qu’ils soient toujours supervisés par l’Homme. En revanche, les systèmes d'armes létales complètement autonomes, qui excluent tout contrôle humain, pourraient donc se révéler dangereux et doivent être interdits. » La France indiquait ainsi jusqu’à quel niveau elle serait prête à aller dans l’utilisation de tels outils. D’ailleurs, les dix-huit membres civils et militaires de ce comité avaient indiqué que « la France confirme qu’elle ne développera et n’emploiera pas de systèmes d’armes létaux pleinement autonomes. »
Et vous ?
Pour ou contre les robots tueurs utilisés par la police ? Dans quelle mesure ?
Voir aussi :
Intelligence artificielle : Amazon, Microsoft ou Intel seraient en bonne place pour la création potentielle de "Skynet", d'après une étude
Que se passera-t-il si des robots tueurs sont piratés ou détournés ? La question fait débat au sein de la communauté scientifique
L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA, à travers son projet ATLAS, selon un rapport
La police de San Francisco entend déployer des robots équipés de charges explosives « pour entrer en contact, neutraliser ou désorienter un suspect violent, armé ou dangereux » lorsque des vies sont en jeu. Ces robots peuvent pilotés à distance par des humains être utiles dans de telles situations. Le cas du sniper de Dallas qui s’est retranché dans un parking et qui a pu tuer 5 officiers de police l’illustre. C’est avec un robot Remotec F5A équipé de charges explosives que les forces de l’ordre ont pu le mettre hors d’état de nuire.
L’Electronic Frontier Foundation reste néanmoins d’avis que la police ne devrait pas avoir la permission de tuer des humains à l’aide de robots. « Cette décision permettrait à la police d'amener des robots armés à chaque arrestation et à chaque exécution d'un mandat de perquisition dans une maison, un véhicule ou un appareil. Selon la façon dont la police choisit de définir les mots "critique" ou "urgent", elle pourrait même amener des robots armés à une manifestation », commente l’EFF.
C’est du bien commun dont il est question sur ces débats en lien avec la mise à contribution de robots tueurs. Sur la question, le Comité d’éthique de l’armée française prend position et signe : « De tels systèmes sont acceptables à condition qu’ils soient toujours supervisés par l’Homme. En revanche, les systèmes d'armes létales complètement autonomes, qui excluent tout contrôle humain, pourraient donc se révéler dangereux et doivent être interdits. » La France indiquait ainsi jusqu’à quel niveau elle serait prête à aller dans l’utilisation de tels outils. D’ailleurs, les dix-huit membres civils et militaires de ce comité avaient indiqué que « la France confirme qu’elle ne développera et n’emploiera pas de systèmes d’armes létaux pleinement autonomes. »
Et vous ?
Voir aussi :
-
GLDavidExpert confirméNon, pire, ED-209 (du film Robocop d'ailleurs).
Ah, San Francisco, auparavant, capitale des hippies, connue pour son Summer Of Love...
Maintenant, régie par les grandes sociétés de technologie qui imposent aux gouvernants leurs choix...
@++le 01/12/2022 à 8:53 -
BleAcheDMembre confirméQuelle bonne idée ! ... (non)le 01/12/2022 à 9:31
-
mith06Membre expérimentéLa police de San Francisco entend déployer des robots équipés de charges explosives « pour entrer en contact, neutraliser ou désorienter un suspect violent, armé ou dangereux
Mettez des pattes à un missile et ca devient un robot tueur... donc immorale...LOL
La décision de "neutraliser"(tuer) reste prise par un humain.
Le cap sera franchi quand cette décision sera autonome
Par contre j'avoue que j'aurais les boules de me faire contrôler/interpellé par un robot ...le 01/12/2022 à 10:22 -
C'est juste l'extension de l'arme donc je ne vois pas le problème de son utilisation, pour sauver la vie ou les vies des agents, c'est pas comme si il prenait ses décisions tout seul.le 01/12/2022 à 11:23