IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

San Francisco revient sur son projet d'autoriser la police à déployer des robots capables de tuer des humains
Et ravive le débat mondial sur la possibilité d'une utilisation éthique de tels outils

Le , par Patrick Ruiz

11PARTAGES

14  0 
Les robots de la police de San Francisco sont autorisés à tuer dans des situations dangereuses,
selon un projet de politique approuvé à l'unanimité

Le département de police de San Francisco demande actuellement au conseil de surveillance de la ville l'autorisation de déployer des robots pour tuer des suspects que les forces de l'ordre considèrent comme une menace suffisante pour que « le risque de mort pour les membres du public ou les officiers soit imminent et l'emporte sur toute autre force option à la disposition de SFPD ».

Cette proposition s'est d'abord heurtée à une forte opposition tant à l'intérieur qu'à l'extérieur du conseil de direction. Puis, le comité des règles composé de trois membres, présidé par Aaron Peskin, a approuvé à l'unanimité le projet et l'a soumis à l'ensemble du conseil de surveillance pour un vote le 29 novembre. Peskin a tenu à noter « qu'il pourrait y avoir des scénarios où l'utilisation de la force meurtrière serait la seule option ».


Le département de police de San Francisco propose une nouvelle politique qui donnerait aux robots le droit de tuer. Le brouillon de cette politique, qui décrit comment le SFPD (San Francisco Police Department) peut utiliser des armes de type militaire, stipule que les robots peuvent être « utilisés comme une option de force meurtrière lorsque le risque de mort pour des membres du public ou des officiers est imminent et l'emporte sur toute autre option de force ».

Les membres du comité des règles du conseil de surveillance de la ville examinent la nouvelle politique d'équipement depuis plusieurs semaines. La version originale du projet n'incluait aucun langage entourant l'utilisation de la force meurtrière par les robots jusqu'à ce qu'Aaron Peskin, le doyen du conseil de surveillance de la ville, ait initialement ajouté que « les robots ne doivent pas être utilisés comme recours à la force contre qui que ce soit ».

Cependant, le SFPD a renvoyé le brouillon avec une ligne rouge barrant l'ajout de Peskin, le remplaçant par la ligne qui donne aux robots le pouvoir de tuer des suspects. Selon un média, Peskin a finalement décidé d'accepter le changement, car « il pourrait y avoir des scénarios où le déploiement d'une force létale est la seule option ». Le comité des règles de San Francisco a approuvé à l'unanimité une version du projet la semaine dernière, qui sera soumise au conseil de surveillance le 29 novembre.

Comme indiqué dans la politique d'équipement, la SFPD dispose actuellement de 17 robots télépilotés, mais seuls 12 sont fonctionnels. En plus d'accorder aux robots la capacité d'utiliser la force meurtrière, la proposition les autorise également à être utilisés dans « la formation et les simulations, les arrestations criminelles, les incidents critiques, les circonstances urgentes, l'exécution d'un mandat ou lors d'évaluations d'appareils suspects ».

Alors que la plupart des robots répertoriés dans l'inventaire du SFPD sont principalement utilisés pour désamorcer des bombes ou traiter des matières dangereuses, les nouveaux modèles Remotec ont un système d'armes en option, et le F5A existant du département dispose d'un outil appelé le disrupteur PAN qui peut charger un fusil de chasse de calibre 12. Il est généralement utilisé pour faire exploser des bombes à distance. Le QinetiQ Talon du département peut également être modifié pour contenir diverses armes (une version armée du robot est actuellement utilisée par l'armée américaine et peut être équipée de lance-grenades, de mitrailleuses ou même d'un fusil antimatériel de calibre 50).


« La SFPD a toujours eu la capacité d'utiliser la force létale lorsque le risque de mort pour des membres du public ou des officiers est imminent et l'emporte sur toute autre option de force disponible », a déclaré l'officier du SFPD Eve Laokwansathitaya. « La SFPD n'a aucune sorte de plan spécifique en place, car les opérations inhabituellement dangereuses ou spontanées où le besoin de la SFPD de fournir une force mortelle grâce à un robot seraient une circonstance rare et exceptionnelle ».

Le département de police de Dallas a utilisé un robot pour exercer une force meurtrière pour la première fois en 2016. Il a utilisé un robot de déminage (le même modèle Remotec F5A appartenant au SFPD) armé d'un engin explosif pour tuer un suspect qui a tué cinq policiers et en a blessé plusieurs autres. À l'époque, le chef de la police de Dallas, David Brown, a déclaré que le département « n'avait pas d'autre choix que d'utiliser notre robot de déminage et de placer un appareil sur son extension pour qu'il explose là où se trouvait le suspect ».

Le mois dernier, un rapport a révélé que le département de police d'Oakland en Californie envisageait également de laisser les robots Remotec F5A équipés de fusils de chasse utiliser une force mortelle. Peu de temps après la publication du rapport, le département de police d'Oakland a annoncé sur Facebook qu'il avait décidé de ne pas ajouter de « véhicules télécommandés armés au département » :

« Le département de police d'Oakland (OPD) n'ajoute pas de véhicules armés à distance au département. L'OPD a participé aux discussions du comité ad hoc avec la commission de police d'Oakland et les membres de la communauté pour explorer toutes les utilisations possibles du véhicule. Cependant, après d'autres discussions avec le chef et l'équipe de direction, le département a décidé qu'il ne voulait plus explorer cette option particulière ».


Pendant ce temps, un groupe de fabricants de robots, dont Boston Dynamics, a signé un engagement de ne pas armer leurs robots plus tôt cette année.

Alors que San Francisco n'a jamais explicitement autorisé les robots à prendre des vies humaines, les armes létales autonomes sont de plus en plus courantes dans la guerre moderne. Les mines antipersonnel, l'une des premières itérations d'armes automatisées, sont interdites depuis 1997 (mais dites-le aux mines déjà dans le sol) et des défenses entièrement automatisées comme les systèmes Phalanx à bord des navires sont utilisées depuis les années 1970. Les systèmes offensifs autonomes, tels que les drones et les drones de combat, sont utilisés depuis des années, mais ont toujours exigé qu'un « humain au courant » assume la responsabilité de faire feu sur un ennemi. Maintenant, la SFPD (le même département qui coûte régulièrement à la ville des montants à six chiffres pour son usage excessif de la force et s'oppose activement aux enquêtes sur son affinité pour les passages à tabac à la matraque) veut exercer ce même pouvoir de vie ou de mort sur les civils de San Francisco.

Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA

La question de l'utilisation de l'IA pour le développement des armes autonomes agite de plus en plus le monde scientifique et militaire. Et c'est d'autant plus sérieux à cause des tentatives de développement d'armes autonomes de la part des industriels. En août 2016 déjà, les États-Unis d'Amérique et l'armée irakienne testaient leurs prototypes d'arme autonome. De même, les experts de l'IA n'hésitent pas à s'opposer au développement de ces armes. En 2017, un groupe d'experts de l'IA a appelé le Canada et l'Australie à lutter pour l'interdiction des robots tueurs autonomes. L'ONU aussi ne cesse de militer contre ces armes. Fin 2018, plus de 2400 professionnels de l’intelligence artificielle et de la robotique représentant 150 entreprises de 90 pays à travers le monde ont signé un engagement contre le développement des armes autonomes.

Durant la conférence mixte internationale sur l’intelligence artificielle de 2018 à Stockholm, un engagement a été signé pour exiger des gouvernements, des industries et des universités, la création « de normes, régulations et lois internationales contre les armes létales autonomes ». Le Future of Life Institute, organisateur de la conférence, définit les armes létales autonomes, ou robots tueurs, comme des armes capables d’identifier, de cibler et de tuer une personne. « Ceci étant dit, aucun humain ne prend la décision finale d’autoriser la force létale », ajoute l’institut.

« L’intelligence artificielle a un immense potentiel pour aider le monde si nous empêchons qu’on en abuse. Les armes contrôlées par intelligence artificielle qui décident en toute indépendance de tuer des gens sont aussi répugnantes et déstabilisantes que les armes biologiques, et donc, devraient être traitées de la même manière », avait alors déclaré Max Tegmark, le président de l’institut.

En septembre 2018, le Parlement européen a adopté une résolution demandant une interdiction internationale des robots soi-disant tueurs. Il vise à anticiper le développement et l'utilisation de systèmes d'armes autonomes capables de tuer sans intervention humaine.

Une position affirmée qui peut être expliquée par le fait que les négociations à l’ONU n’ont pas abouti à un consensus, certains pays ayant déclaré que les avantages des armes autonomes devaient être explorés.

Néanmoins, l’Europe n’est pas encore unanime. En effet, certains députés craignent que la législation ne limite les progrès scientifiques de l'intelligence artificielle. D’autres ont déclaré que cela pouvait devenir un problème de sécurité si certains pays autorisaient de telles armes alors que d’autres ne le faisaient pas.

« Je sais que cela pourrait ressembler à un débat sur un futur lointain ou sur la science-fiction. Ce n'est pas le cas », a déclaré Federica Mogherini, chef de la politique étrangère et de sécurité de l'UE lors du débat au Parlement européen.

En février 2019, un groupe de scientifiques a appelé à l'interdiction du développement d'armes contrôlées par l'intelligence artificielle. Le groupe insiste sur le fait que les armes autonomes peuvent mal fonctionner de manière imprévisible et tuer des innocents. Les experts en éthique soutiennent également que permettre à des systèmes boostés par une IA de tuer sans aucune intervention humaine ne relève pas de la morale.

Ces commentaires ont été faits lors de la réunion...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !