IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le département de police de San Francisco ne devrait pas armer les robots,
Selon EFF

Le , par Bruno

3PARTAGES

14  0 
Le département de police de San Francisco a introduit une demande auprès du conseil de surveillance de la ville pour une autorisation de déployer des « Robots tueurs » contre des suspects que les forces de l'ordre considèrent comme une menace suffisante pour que « le risque de mort pour les membres du public ou les officiers soit imminent et l'emporte sur toute autre force option à la disposition de ». Le 29 novembre, le conseil des superviseurs de San Francisco a approuvé à 8 voix contre 3, en première instance, la demande qui autoriserait officiellement la police de San Francisco à déployer une force meurtrière par le biais de robots télécommandés.

Cette proposition s'était d'abord heurtée à une forte opposition tant à l'intérieur qu'à l'extérieur du conseil de direction. Puis, le comité des règles composé de trois membres, présidé par Aaron Peskin, a approuvé à l'unanimité le projet et l'a soumis à l'ensemble du conseil de surveillance pour le vote du 29 novembre.


Peskin a tenu à noter « qu'il pourrait y avoir des scénarios où l'utilisation de la force meurtrière serait la seule option ». Pour certains, la majorité est tombée dans le piège du théâtre de la sécurité : « faire n'importe quoi pour donner l'impression de lutter contre le crime, sans se soucier de savoir si cela a ou non un effet positif sur la sécurité publique. »

Ces superviseurs de San Francisco semblent non seulement prêts à approuver un langage dangereusement large sur le moment où la police peut déployer des robots équipés d'explosifs en tant que force mortelle, mais ils sont également prêts à dénigrer ceux qui osent remettre en question ces abus possibles en les qualifiant de sensationnalistes, d'anti-flics et de malhonnêtes.

Les robots énumérés dans la directive ne doivent pas être utilisés en dehors de la formation et des simulations, des appréhensions criminelles, des incidents critiques, des circonstances exigeantes, de l'exécution d'un mandat ou pendant les évaluations de dispositifs suspects.

Les robots ne seront utilisés comme une option de force mortelle que lorsque le risque de perte de vie pour les membres du public ou les officiers est imminent et les officiers ne peuvent pas maîtriser la menace après avoir utilisé d'autres options de force ou de tactiques de désescalade, ou concluent qu'ils ne seront pas en mesure de maîtriser la menace après avoir évalué d'autres options de force ou de tactiques de désescalade. Seuls le chef de police, le chef adjoint ou le chef adjoint des opérations spéciales peuvent autoriser le recours aux options de force mortelle du robot.

« Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ont averti Elon Musk et une centaine de spécialistes de l'IA et la robotique, dans une lettre ouverte en 2017. Dans cette lettre, ils appelaient les Nations Unies à agir le plus vite possible et bannir les robots tueurs.

La police peut utiliser la force meurtrière après avoir « évalué les options de force alternatives ou les tactiques de désescalade », ce qui signifie qu'elle n'a pas besoin de les essayer avant de tuer quelqu'un à distance avec un robot équipé d'une bombe. Le superviseur Hillary Ronen a proposé un amendement qui aurait obligé la police à essayer ces options non mortelles, mais le conseil l'a rejeté.

Jusqu'où la France est-elle prête à aller sur la question de « Robots tueurs » ?

La France dit « Non » aux « robots tueurs », mais la porte reste ouverte aux armes robotisées pilotées par l’homme. C’est en substance le contenu d’un avis rendu le 29 avril par le comité d’éthique de la défense, une structure de réflexion adossée au ministère français des Armées pour le conseiller sur les sujets les plus sensibles. Les membres de cette structure indépendante avaient approuvé ainsi l’introduction d’une certaine dose d’autonomie dans les systèmes d’armes, mais pas question d'entériner le principe de « robots tueurs », qui excluent tout contrôle humain. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles.

Le comité d’éthique de la défense ne voit ainsi pas d’objection à l’introduction d’une certaine dose d’autonomie et donc de recours aux SALIA (systèmes d’armes létaux intégrant de l’autonomie). Ce qui distinguerait les SALA des SALIA, « c'est une différence de nature qui tient à la place de l'humain dans certaines fonctions critiques », peut-on lire dans le rapport.

En clair, le comité d’éthique ouvre la voie à des armes ou des robots qui pourront certes tuer, mais seront « incapables d’agir seuls, sans contrôle humain, de modifier leurs règles d’engagement et de prendre des initiatives létales », en s’adaptant de manière indépendante à un théâtre de guerre, par exemple. Cette définition peut concerner diverses catégories d’armes, comme des mules de transports, certains missiles ou drones.

En avril 2021, les élèves officiers de l’école militaire de Saint-Cyr Coëtquidan ont pu s’entraîner avec le produit phare de Boston Dynamics, Spot. Spot est un robot quadrupède. Il est agile, discret. Il peut cheminer dans des environnements hostiles et emporter sur son dos divers capteurs. L’entreprise espère bien convaincre les armées de son utilité sur les futurs champs de bataille.

« Nous pensons que l'armée, dans la mesure où elle utilise la robotique pour mettre les gens hors d'état de nuire, est une utilisation parfaitement valable de cette technologie », a déclaré le vice-président du développement commercial de Boston Dynamics, Michael Perry, en avril en s’adressant à un média. « Avec ce modèle de déploiement avancé dont vous discutez, c'est quelque chose que nous devons mieux comprendre pour déterminer si oui ou non il est activement utilisé pour nuire aux gens ».

Source : EFF

Et vous ?

Pour ou contre les robots tueurs utilisés par la police ? Dans quelle mesure ?

Quel commentaire faites-vous de l'adoption par le conseil des superviseurs de San Francisco de la demande du département de police ?

Que pourrait-il se passer si les robots tueurs venaient à être piratés ? Un risque suffisant pour repenser l'éthique autour de l'armement des robots ou un risque qui peut être classé comme celui de perdre son arme ?

Voir aussi :

« Robots tueurs » : le « non, mais » du comité d'éthique de l'armée. Jusqu'où la France est-elle prête à aller ?

Les robots de la police de San Francisco sont autorisés à tuer dans des situations dangereuses, selon un projet de politique approuvé à l'unanimité par le conseil de surveillance de la ville

Une erreur dans cette actualité ? Signalez-nous-la !