IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les États-Unis rejettent les appels à réglementer ou à interdire les « robots tueurs ».
Un responsable américain propose un « code de conduite non contraignant » aux Nations Unies

Le , par Stéphane le calme

36PARTAGES

19  0 
Les États-Unis ont rejeté les appels à un accord contraignant réglementant ou interdisant l'utilisation de « robots tueurs », proposant plutôt un « code de conduite » aux Nations Unies.

S'exprimant lors d'une réunion à Genève axée sur la recherche d'un terrain d'entente sur l'utilisation de ces armes autonomes dites létales, un responsable américain a rechigné à l'idée de réglementer leur utilisation par le biais d'un « instrument juridiquement contraignant ».

La réunion a vu des experts gouvernementaux se préparer à des pourparlers de haut niveau lors d'une conférence d'examen de la Convention sur certaines armes classiques du 13 au 17 décembre.

« À notre avis, le meilleur moyen de progresser (...) serait de développer un code de conduite non contraignant », a déclaré le responsable américain Josh Dorosin lors de la réunion.

Les Nations Unies organisent des pourparlers diplomatiques à Genève depuis 2017 dans le but de parvenir à un accord sur la manière de lutter contre l'utilisation de robots tueurs.

Des militants et un certain nombre de pays ont appelé à une interdiction totale de toutes les armes qui pourraient utiliser la force meurtrière sans qu'un humain supervise le processus et rende l'ordre de mise à mort final.

En novembre 2018, le chef de l'ONU, António Guterres, s'est joint à l'appel à une interdiction, mais jusqu'à présent, les pays ne sont même pas d'accord sur la nécessité de réglementer les armes.

En 2019, Michael Møller, qui était alors directeur général de l’Office des Nations unies à Genève, a déclaré :

« Comme je l'ai dit à plusieurs reprises, les machines ayant le pouvoir et la discrétion de tuer sans intervention humaine sont politiquement inacceptables, moralement répugnantes et devraient être interdites par le droit international.

Cela reflète ce que je considère comme le sentiment dominant à travers le monde. Je ne connais aucun État ou force armée en faveur de systèmes d'armes entièrement autonomes habilités à tuer des humains.

Les principes directeurs possibles que vous avez convenus l'année dernière ont fait un pas vers la consolidation de cette norme. Ces principes délimitaient une ligne de démarcation importante dans le sable, déclarant que "la responsabilité humaine des décisions sur l'utilisation des systèmes d'armes doit être conservée, car la responsabilité ne peut pas être transférée aux machines".

Il existe encore diverses approches possibles pour garantir que la responsabilité humaine pour l'usage de la force est préservée. Je suis conscient que certains d'entre vous pensent qu'une nouvelle loi est nécessaire. D'autres plaident en faveur de mesures et de lignes directrices politiques.

C'est à vous maintenant de réduire ces différences et de trouver la voie la plus efficace pour aller de l'avant. Je suis convaincu que cela est possible dans un cadre tel que la Convention sur certaines armes classiques. Mais bien sûr, cela exigera des compromis, de la créativité et de la volonté politique ».

Au cours du débat de jeudi, un certain nombre de pays, dont l'Inde et les États-Unis, ont critiqué l'idée d'un accord juridiquement contraignant.

Dorosin a insisté sur le fait qu'un code de conduite « aiderait les États à promouvoir un comportement responsable et le respect du droit international ».

Les militants n'étaient pas d'accord.

« Les États ont une opportunité historique d'assurer un contrôle humain significatif sur l'utilisation de la force et d'empêcher un monde dans lequel les machines prennent des décisions de vie ou de mort », a déclaré Clare Conboy de la Campaign to Stop Killer Robots (littéralement Campagne pour arrêter les robots tueurs).

« Un processus indépendant pour négocier une nouvelle loi sur les robots tueurs serait plus efficace et inclusif que les pourparlers diplomatiques actuels », a déclaré Bonnie Docherty, chercheuse principale en armement à HRW, dans un communiqué.

La politique de la Nouvelle Zélande

Le gouvernement d'Aotearoa en Nouvelle-Zélande a annoncé qu'il ferait pression pour l'adoption d'une nouvelle loi internationale interdisant et limitant les systèmes d'armes autonomes. La politique engage la Nouvelle-Zélande à jouer « un rôle de chef de file dans la constitution d'une coalition inclusive d'États, d'experts et de la société civile » pour atteindre cet objectif.

Selon le ministre du Désarmement et du Contrôle des armements, Phil Twyford, la perspective de déléguer la décision de prendre la vie humaine à des machines est « odieuse et incompatible avec les intérêts et les valeurs de la Nouvelle-Zélande ».

En effet, tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective.

L'ANZKRC, l'Aotearoa New Zealand Campaign to Stop Killer Robots (littéralement Campagne Aotearoa de Nouvelle-Zélande pour arrêter les robots tueurs) s'est félicitée de la nouvelle position politique de la Nouvelle-Zélande sur les systèmes d'armes autonomes, publiée par le ministre du Désarmement et du Contrôle des armements.

« Nous sommes impressionnés par les efforts déployés pour obtenir un accord de l'ensemble du gouvernement et de l'industrie technologique sur une position de principe sur AWS. La nouvelle politique est une bonne base pour aller de l'avant face à cette menace sans précédent pour l'humanité, pour la paix et la sécurité mondiales et pour les fondements du droit international », a déclaré la coordinatrice de l'ANZKRC, Edwina Hughes.

La publication de la politique intervient à un moment critique alors que des dizaines d'États se préparaient à deux réunions de la Convention sur certaines armes classiques (CCW - Certain Conventional Weapons) ce décembre pour discuter de mesures efficaces pour empêcher le développement et la prolifération de systèmes d'armes robotiques conçus pour utiliser des algorithmes et l'intelligence artificielle dans l'optique de sélectionner indépendamment les cibles et attaquer, sans aucune intervention humaine au-delà de l'activation initiale.

Il existe d'importantes préoccupations éthiques, juridiques, techniques, opérationnelles et de sécurité humaine concernant ces armes, qui ont été largement condamnées par le système des Nations Unies, les États membres des Nations Unies, les parlements et le Comité international de la Croix-Rouge (CICR), ainsi que des milliers de chercheurs en IA, de roboticiens et d'experts en technologie, d'organisations non gouvernementales, de chefs religieux et de réseaux de jeunes de par le monde.

Les appels à l'action sur les systèmes d'armes autonomes ont été et restent axés sur la nécessité d'un nouveau droit international, ainsi que d'une législation nationale, pour conserver un contrôle humain significatif sur l'utilisation de la force en interdisant et en réglementant ces armes.

La campagne Stop Killer Robots, le CICR et d'autres ont défini les trois exigences clés de la nouvelle loi sur les armes autonomes, comme suit :
  • une obligation générale de maintenir un contrôle humain significatif sur l'usage de la force ;
  • les interdictions de systèmes d'armes autonomes qui ne peuvent pas être utilisés avec un contrôle humain significatif et les interdictions de systèmes qui cibleraient des êtres humains ; et
  • des obligations positives pour garantir qu'un contrôle humain significatif est maintenu sur les systèmes qui ne sont pas interdits.

Les pays développent rapidement des robots tueurs autonomes

De nombreux pays consacrent davantage d'efforts au développement de robots tueurs dotés d'IA et capables de tuer de manière indépendante. Pourtant, les menaces liées à ces armes ont été démontrées à plusieurs reprises. Entre autres menaces, elles sont faillibles au piratage et peuvent être détournées pour se comporter de manière indésirable. Selon une lettre ouverte adressée aux Nations Unies par Elon Musk et cosignée par une multitude de spécialistes en IA, « elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre ».

Cependant, les pays continuent de développer rapidement ces armes autonomes, alors qu’ils ne font aucun progrès dans la mise en place des règles communes à l’échelle mondiale concernant leur utilisation dans les guerres à venir. Les États-Unis et Israël ont récemment dévoilé des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.

Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.

Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.

De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un “adolescent”.

Les robots tueurs devraient-ils être interdits ?

Les avis sont partagés sur cette question. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont confrontés à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.

En 2017, la Russie soutenait que « l’absence de réglementation claire sur de tels systèmes d’armement reste le principal problème dans la discussion sur les lois », mais « il est difficilement acceptable que l’encadrement des SALA restreigne la liberté de profiter des avantages des technologies autonomes qui représentent l’avenir de l’humanité ». De leur côté, les États-Unis ont estimé qu’il est encore « prématuré » d’envisager une interdiction des SALA, même si l’administration Trump disait soutenir le processus de la CCAC.

Ainsi, l'on estime qu'en 2018, les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie auraient empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs. C'est à la fin de 2013 que les Nations Unies ont mis le sujet à l'ordre du jour, mais depuis lors, peu de choses se sont produites. L'organisation n'a même pas été en mesure de s'entendre sur une définition des armes létales entièrement autonomes. Les militants des droits de l’homme devraient davantage s’armer de courage pour continuer le combat.

Sources : site officiel du gouvernement néo-zélandais, ONU

Et vous ?

Êtes-vous pour ou contre le développement des armes létales autonomes ? Pourquoi ?

Voir aussi :

« Robots tueurs » : le « non, mais » du comité d'éthique de l'armée. Jusqu'où la France est-elle prête à aller ?
L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille, le pays affirme que seuls les humains doivent décider des questions de vie ou de mort
Un ancien travailleur de Google craint que des « robots tueurs » ne provoquent des atrocités massives, l'ingénieur logiciel prévient que l'IA pourrait aussi déclencher accidentellement une guerre
La résistance contre les robots tueurs grandit : des militants de 35 pays à Berlin pour s'opposer à ces armes et réclamer une initiative allemande
L'armée américaine veut créer des robots lourds semi-autonomes armés de missiles pour accomplir certaines des tâches les plus dangereuses des soldats
Carmel, le nouveau char d'Israël, sera équipé de contrôleurs X-Box et d'une IA perfectionnée avec les jeux "StarCraft II" et "Doom" dans un cockpit de style F-35
Les pays développent rapidement des "robots tueurs" dotés d'IA qui tuent de manière indépendante, mais ne parviennent pas à s'entendre sur des règles pour contrôler ces armes, avertissent des experts

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 07/12/2021 à 9:10
L'Histoire Humaine est un éternel recommencement.

Il a fallu la 1ère guerre mondiale pour interdire l'usage des armes chimiques.
Il a fallu la 2nde guerre mondiale et beaucoup de temps pour que l'on interdise la prolifération des armes nucléaires.

Il en sera de même pour les armes autonomes. Espérons juste que Terminator reste de la fiction, et qu'après la première guerre des robots, ceux-ci ne souhaitent pas prendre le contrôle des humains...
7  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 07/12/2021 à 10:53
Citation Envoyé par Stéphane le calme Voir le message
Êtes-vous pour ou contre le développement des armes létales autonomes ? Pourquoi ?
Les USA ont tendance à partir dans un paranoïa "si ça se trouve nos ennemis développent tel type d'arme, donc nous devons nous aussi le développer" et c'est comme ça qu'il y a eu les première bombes atomiques et plein de projets bizarre pendant la guerre froide.

Les USA ne veulent pas se faire devancer, donc ils doivent être en train de développer des robots tueurs.
Les USA n'ont pas peur d'utiliser des armes interdites (agent orange, napalm, phosphore blanc, munition à uranium appauvri, etc), donc ça ne sert pas à grand chose d'interdire les robots tueurs.
Vietnam: l’agent orange, une bombe à retardement
De 1964 à 1973, pendant la guerre du Vietnam, les Américains ont déversé sur ce pays 80 millions de litres d’un puissant herbicide, l’agent «orange». Près de 40 ans plus tard, ce produit continue à intoxiquer la population. Alors que les USA refusent toujours de reconnaître leur responsabilité, la Corée du Sud vient de condamner les fabricants du produit.
RAQQA : DU PHOSPHORE BLANC UTILISÉ PAR LA COALITION DIRIGÉE PAR LES ÉTATS-UNIS

Enquête sur les crimes de guerre : Washington menace les magistrats de la CPI

Quand t'as la plus forte armée du monde, personne ne vient te faire chier, parce que tout le monde a peur de toi, c'est la stratégie étasunienne.
Comme le vainqueur écrit l'histoire, à la fin il peut mettre tous les crimes de guerres sur le dos de l'ennemi.
6  2 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 06/12/2021 à 18:23
Bloquer les débats permet aux pays partisans des SALA de développer et de fait, refuser, plus ils progressent, les discussions qui ne sont plus en adéquation avec les avancées des pays opposants. Donc l'opposition aux robots-tueurs doit passer outre à ce blocage et sortir une loi contraignante pour lutter contre ces abominations.
2  0 
Avatar de
https://www.developpez.com
Le 07/12/2021 à 12:09
Complètement cinglés.

Là les développeurs concernés doivent prendre leurs responsabilités et empêcher ça.
2  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 10/12/2021 à 13:45
Citation Envoyé par walfrat Voir le message
[...]

Heureusement aujourd'hui les robots tueurs peuvent marcher pour des assassinats, mais à grand échelle, dans une guerre donc, un simple brouillage électromagnétique aura tôt fait que les rendre inutile.
Bonjour, on ne parle pas de simples drones (ex, ceux que les USA utilisent pour leurs frappent en général correctes car pas toujours guidées depuis le terrain, avec un pilote "à la maison" dans une cabine de type simulateur), mais d'armes autonomes.
Il se dit que la Turquie en aurait utilisé. ça n'a rien à voir et c'est insensible au brouillage. On dit au robot d'aller patrouiller dans telle zone, et de manière autonome, si le robot voit quelque chose qui ressemble à sa cible (ex, un mec qui a l'air armé), il le tue automatiquement. Même si on brouille le signal GPS, le robot pourrait très bien s'orienter par observation du relief et du ciel, compas, centrale inertielle (Il y avait cette crainte dans la SF depuis longtemps ; Ursula le Guin, Pierre Bordage...)
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 10/12/2021 à 13:55
Citation Envoyé par Fagus Voir le message
Même si on brouille le signal GPS
Il y a moyen de faire beaucoup plus que ça :
E-Bomb
La E-Bomb (Electromagnetic Bomb en anglais) ou bombe électromagnétique est une arme électromagnétique de nouvelle génération inventée dans les années 1950, capable de produire une impulsion électromagnétique (IEM) sans explosion nucléaire.

En explosant, la bombe libère une onde électromagnétique très brève et de forte amplitude, qui détruit les appareils électriques dans une zone de quelques dizaines à quelques centaines de mètres, ce qui permet des frappes chirurgicales.

Les pays qui étudient cette technologie gardent le secret sur l'avancée de leurs recherches.
1  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 11/12/2021 à 12:25
Citation Envoyé par Jon Shannow Voir le message
L'Histoire Humaine est un éternel recommencement.

Il a fallu la 1ère guerre mondiale pour interdire l'usage des armes chimiques.
Il a fallu la 2nde guerre mondiale et beaucoup de temps pour que l'on interdise la prolifération des armes nucléaires.
Et beaucoup de temps pour que l'on interdise la prolifération des armes biologiques,
mais cela n'a pas empêché la création de Covid ....

Sans vouloir être méchant, tu semble croire que tous les pays du monde auraient signé ces traités. L'esclavage et la torture de prisonnier sont encore légal dans beaucoup de pays.

Ne vous trompez pas, si vous développez l'intelligence artificielle, vous devez vous attendre à ce que cela soit utiliser à des fins militaires. La surveillance faciale et auditive est déjà une réalité.
3  2 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 07/12/2021 à 9:31
Si tu veux pouvoir interdire les robots tueurs, il faut que tu sois capable non seulement de te défendre d'eux sur ton propre territoire, mais aussi de donner la réplique a ton voisin qui envoi ses robots.

Tu fais donc ça comment sans tes propres robots tueurs ? On leur envoi une arme atomique ? Une armée composé d'être humain face à des vagues de robots qui sont plus facile à produire et en plus grand nombre ?

Faut prendre l'ensemble de la problématique en question.

Heureusement aujourd'hui les robots tueurs peuvent marcher pour des assassinats, mais à grand échelle, dans une guerre donc, un simple brouillage électromagnétique aura tôt fait que les rendre inutile.
0  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 11/12/2021 à 15:23
Citation Envoyé par Ryu2000 Voir le message
Il y a moyen de faire beaucoup plus que ça :
E-Bomb
Oui, enfin, c'est pas spécifiquement contre les armes autonomes. Une armée conventionnelle brutalement sans aucun appareil électronique ou électrique serait presque autant dans l'embarras.

D'ailleurs, il y a une protection, ça s'appelle le blindage (cage de Faraday). Le matériel militaire est sans aucun doute blindé. Je connais même un centre de calcul d'une société civile à l'abri du besoin, qui a été construit dans une sorte de bunker partiellement enterré et blindé, alors les militaires...
0  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 12/12/2021 à 11:40
Citation Envoyé par Fagus Voir le message
Oui, enfin, c'est pas spécifiquement contre les armes autonomes. Une armée conventionnelle brutalement sans aucun appareil électronique ou électrique serait presque autant dans l'embarras.

D'ailleurs, il y a une protection, ça s'appelle le blindage (cage de Faraday).
Une cage de faraday demande une mise au sol. Alors tous ce qui est "mobile" et/ou à piles va griller.
0  0