S'exprimant lors d'une réunion à Genève axée sur la recherche d'un terrain d'entente sur l'utilisation de ces armes autonomes dites létales, un responsable américain a rechigné à l'idée de réglementer leur utilisation par le biais d'un « instrument juridiquement contraignant ».
La réunion a vu des experts gouvernementaux se préparer à des pourparlers de haut niveau lors d'une conférence d'examen de la Convention sur certaines armes classiques du 13 au 17 décembre.
« À notre avis, le meilleur moyen de progresser (...) serait de développer un code de conduite non contraignant », a déclaré le responsable américain Josh Dorosin lors de la réunion.
Les Nations Unies organisent des pourparlers diplomatiques à Genève depuis 2017 dans le but de parvenir à un accord sur la manière de lutter contre l'utilisation de robots tueurs.
Des militants et un certain nombre de pays ont appelé à une interdiction totale de toutes les armes qui pourraient utiliser la force meurtrière sans qu'un humain supervise le processus et rende l'ordre de mise à mort final.
En novembre 2018, le chef de l'ONU, António Guterres, s'est joint à l'appel à une interdiction, mais jusqu'à présent, les pays ne sont même pas d'accord sur la nécessité de réglementer les armes.
En 2019, Michael Møller, qui était alors directeur général de l’Office des Nations unies à Genève, a déclaré :
« Comme je l'ai dit à plusieurs reprises, les machines ayant le pouvoir et la discrétion de tuer sans intervention humaine sont politiquement inacceptables, moralement répugnantes et devraient être interdites par le droit international.
Cela reflète ce que je considère comme le sentiment dominant à travers le monde. Je ne connais aucun État ou force armée en faveur de systèmes d'armes entièrement autonomes habilités à tuer des humains.
Les principes directeurs possibles que vous avez convenus l'année dernière ont fait un pas vers la consolidation de cette norme. Ces principes délimitaient une ligne de démarcation importante dans le sable, déclarant que "la responsabilité humaine des décisions sur l'utilisation des systèmes d'armes doit être conservée, car la responsabilité ne peut pas être transférée aux machines".
Il existe encore diverses approches possibles pour garantir que la responsabilité humaine pour l'usage de la force est préservée. Je suis conscient que certains d'entre vous pensent qu'une nouvelle loi est nécessaire. D'autres plaident en faveur de mesures et de lignes directrices politiques.
C'est à vous maintenant de réduire ces différences et de trouver la voie la plus efficace pour aller de l'avant. Je suis convaincu que cela est possible dans un cadre tel que la Convention sur certaines armes classiques. Mais bien sûr, cela exigera des compromis, de la créativité et de la volonté politique ».
Cela reflète ce que je considère comme le sentiment dominant à travers le monde. Je ne connais aucun État ou force armée en faveur de systèmes d'armes entièrement autonomes habilités à tuer des humains.
Les principes directeurs possibles que vous avez convenus l'année dernière ont fait un pas vers la consolidation de cette norme. Ces principes délimitaient une ligne de démarcation importante dans le sable, déclarant que "la responsabilité humaine des décisions sur l'utilisation des systèmes d'armes doit être conservée, car la responsabilité ne peut pas être transférée aux machines".
Il existe encore diverses approches possibles pour garantir que la responsabilité humaine pour l'usage de la force est préservée. Je suis conscient que certains d'entre vous pensent qu'une nouvelle loi est nécessaire. D'autres plaident en faveur de mesures et de lignes directrices politiques.
C'est à vous maintenant de réduire ces différences et de trouver la voie la plus efficace pour aller de l'avant. Je suis convaincu que cela est possible dans un cadre tel que la Convention sur certaines armes classiques. Mais bien sûr, cela exigera des compromis, de la créativité et de la volonté politique ».
Au cours du débat de jeudi, un certain nombre de pays, dont l'Inde et les États-Unis, ont critiqué l'idée d'un accord juridiquement contraignant.
Dorosin a insisté sur le fait qu'un code de conduite « aiderait les États à promouvoir un comportement responsable et le respect du droit international ».
Les militants n'étaient pas d'accord.
« Les États ont une opportunité historique d'assurer un contrôle humain significatif sur l'utilisation de la force et d'empêcher un monde dans lequel les machines prennent des décisions de vie ou de mort », a déclaré Clare Conboy de la Campaign to Stop Killer Robots (littéralement Campagne pour arrêter les robots tueurs).
« Un processus indépendant pour négocier une nouvelle loi sur les robots tueurs serait plus efficace et inclusif que les pourparlers diplomatiques actuels », a déclaré Bonnie Docherty, chercheuse principale en armement à HRW, dans un communiqué.
La politique de la Nouvelle Zélande
Le gouvernement d'Aotearoa en Nouvelle-Zélande a annoncé qu'il ferait pression pour l'adoption d'une nouvelle loi internationale interdisant et limitant les systèmes d'armes autonomes. La politique engage la Nouvelle-Zélande à jouer « un rôle de chef de file dans la constitution d'une coalition inclusive d'États, d'experts et de la société civile » pour atteindre cet objectif.
Selon le ministre du Désarmement et du Contrôle des armements, Phil Twyford, la perspective de déléguer la décision de prendre la vie humaine à des machines est « odieuse et incompatible avec les intérêts et les valeurs de la Nouvelle-Zélande ».
En effet, tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective.
L'ANZKRC, l'Aotearoa New Zealand Campaign to Stop Killer Robots (littéralement Campagne Aotearoa de Nouvelle-Zélande pour arrêter les robots tueurs) s'est félicitée de la nouvelle position politique de la Nouvelle-Zélande sur les systèmes d'armes autonomes, publiée par le ministre du Désarmement et du Contrôle des armements.
« Nous sommes impressionnés par les efforts déployés pour obtenir un accord de l'ensemble du gouvernement et de l'industrie technologique sur une position de principe sur AWS. La nouvelle politique est une bonne base pour aller de l'avant face à cette menace sans précédent pour l'humanité, pour la paix et la sécurité mondiales et pour les fondements du droit international », a déclaré la coordinatrice de l'ANZKRC, Edwina Hughes.
La publication de la politique intervient à un moment critique alors que des dizaines d'États se préparaient à deux réunions de la Convention sur certaines armes classiques (CCW - Certain Conventional Weapons) ce décembre pour discuter de mesures efficaces pour empêcher le développement et la prolifération de systèmes d'armes robotiques conçus pour utiliser des algorithmes et l'intelligence artificielle dans l'optique de sélectionner indépendamment les cibles et attaquer, sans aucune intervention humaine au-delà de l'activation initiale.
Il existe d'importantes préoccupations éthiques, juridiques, techniques, opérationnelles et de sécurité humaine concernant ces armes, qui ont été largement condamnées par le système des Nations Unies, les États membres des Nations Unies, les parlements et le Comité international de la Croix-Rouge (CICR), ainsi que des milliers de chercheurs en IA, de roboticiens et d'experts en technologie, d'organisations non gouvernementales, de chefs religieux et de réseaux de jeunes de par le monde.
Les appels à l'action sur les systèmes d'armes autonomes ont été et restent axés sur la nécessité d'un nouveau droit international, ainsi que d'une législation nationale, pour conserver un contrôle humain significatif sur l'utilisation de la force en interdisant et en réglementant ces armes.
La campagne Stop Killer Robots, le CICR et d'autres ont défini les trois exigences clés de la nouvelle loi sur les armes autonomes, comme suit :
- une obligation générale de maintenir un contrôle humain significatif sur l'usage de la force ;
- les interdictions de systèmes d'armes autonomes qui ne peuvent pas être utilisés avec un contrôle humain significatif et les interdictions de systèmes qui cibleraient des êtres humains ; et
- des obligations positives pour garantir qu'un contrôle humain significatif est maintenu sur les systèmes qui ne sont pas interdits.
Les pays développent rapidement des robots tueurs autonomes
De nombreux pays consacrent davantage d'efforts au développement de robots tueurs dotés d'IA et capables de tuer de manière indépendante. Pourtant, les menaces liées à ces armes ont été démontrées à plusieurs reprises. Entre autres menaces, elles sont faillibles au piratage et peuvent être détournées pour se comporter de manière indésirable. Selon une lettre ouverte adressée aux Nations Unies par Elon Musk et cosignée par une multitude de spécialistes en IA, « elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre ».
Cependant, les pays continuent de développer rapidement ces armes autonomes, alors qu’ils ne font aucun progrès dans la mise en place des règles communes à l’échelle mondiale concernant leur utilisation dans les guerres à venir. Les États-Unis et Israël ont récemment dévoilé des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.
Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.
Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.
De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un “adolescent”.
Les robots tueurs devraient-ils être interdits ?
Les avis sont partagés sur cette question. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont confrontés à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.
En 2017, la Russie soutenait que « l’absence de réglementation claire sur de tels systèmes d’armement reste le principal problème dans la discussion sur les lois », mais « il est difficilement acceptable que l’encadrement des SALA restreigne la liberté de profiter des avantages des technologies autonomes qui représentent l’avenir de l’humanité ». De leur côté, les États-Unis ont estimé qu’il est encore « prématuré » d’envisager une interdiction des SALA, même si l’administration Trump disait soutenir le processus de la CCAC.
Ainsi, l'on estime qu'en 2018, les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie auraient empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs. C'est à la fin de 2013 que les Nations Unies ont mis le sujet à l'ordre du jour, mais depuis lors, peu de choses se sont produites. L'organisation n'a même pas été en mesure de s'entendre sur une définition des armes létales entièrement autonomes. Les militants des droits de l’homme devraient davantage s’armer de courage pour continuer le combat.
Sources : site officiel du gouvernement néo-zélandais, ONU
Et vous ?
Êtes-vous pour ou contre le développement des armes létales autonomes ? Pourquoi ?
Voir aussi :
« Robots tueurs » : le « non, mais » du comité d'éthique de l'armée. Jusqu'où la France est-elle prête à aller ?
L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille, le pays affirme que seuls les humains doivent décider des questions de vie ou de mort
Un ancien travailleur de Google craint que des « robots tueurs » ne provoquent des atrocités massives, l'ingénieur logiciel prévient que l'IA pourrait aussi déclencher accidentellement une guerre
La résistance contre les robots tueurs grandit : des militants de 35 pays à Berlin pour s'opposer à ces armes et réclamer une initiative allemande
L'armée américaine veut créer des robots lourds semi-autonomes armés de missiles pour accomplir certaines des tâches les plus dangereuses des soldats
Carmel, le nouveau char d'Israël, sera équipé de contrôleurs X-Box et d'une IA perfectionnée avec les jeux "StarCraft II" et "Doom" dans un cockpit de style F-35
Les pays développent rapidement des "robots tueurs" dotés d'IA qui tuent de manière indépendante, mais ne parviennent pas à s'entendre sur des règles pour contrôler ces armes, avertissent des experts