IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les pays développent rapidement des "robots tueurs" dotés d'IA qui tuent de manière indépendante
Mais ne parviennent pas à s'entendre sur des règles pour contrôler ces armes, avertissent des experts

Le , par Stan Adkens

137PARTAGES

12  0 
La menace que représentent les "robots tueurs" ou armes autonomes létales a été largement démontrée. Entre autres, ils peuvent être faillibles au piratage et détournés pour se comporter de manière indésirable, « elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », selon une lettre ouverte adressée aux Nations Unies par Elon Musk et co-signée par une multitude de spécialistes en IA.

Cependant, les pays continuent de développer rapidement ces armes autonomes, dotées d'une intelligence artificielle qui tuent de manière indépendante, alors qu’ils ne font aucun progrès dans la mise en place des règles communes à l’échelle mondiale concernant leur utilisation dans les guerres à venir, avertissent les experts en technologie et en droits de l'homme, selon un reportage de Nita Bhalla de Reuters.


Selon Bhalla, les systèmes d'armes semi-autonomes, y compris les drones, les missiles, les chars et les sous-marins, sont utilisés depuis des décennies pour éliminer des cibles dans les guerres modernes. Mais ils ne prennent pas de décisions autonomes hors de toute supervision de l'homme. Maintenant, des pays comme les États-Unis, la Russie et Israël investissent dans le développement de systèmes d'armes autonomes meurtriers (LAWS) qui peuvent identifier, cibler et tuer une personne par eux-mêmes – mais à ce jour, aucune loi internationale ne régit leur utilisation, s’inquiètent ces experts.

« Une sorte de contrôle humain est nécessaire... Seuls les êtres humains peuvent porter des jugements sur la distinction, la proportionnalité et les précautions à prendre au combat, en fonction du contexte », a déclaré Peter Maurer, président du Comité international de la Croix-Rouge (CICR). « (La recherche du consensus) est la grande question à laquelle nous sommes confrontés et, sans surprise, ceux qui ont aujourd'hui investi beaucoup de capacités et possèdent certaines compétences qui leur promettent des avantages, sont plus réticents que ceux qui ne le font pas », a-t-il ajouté.

Selon le rapport, les chercheurs d'Amnesty International, les analystes de la défense et les roboticiens affirment que les LAWS, telles que les robots militaires, ne sont plus confinés au domaine de la science-fiction ou des jeux vidéo, mais qu'elles progressent rapidement, passant des planches de graphisme aux laboratoires d'ingénierie de la défense. Ils continuent en disant qu’en quelques années, ils pourraient être déployés sur le champ de bataille par les armées des États, en peignant des scénarios dystopiques de nuées de drones se déplaçant dans une ville ou un village, balayant et tuant sélectivement leurs cibles en quelques secondes.

« Vous ne pouvez tout simplement pas faire confiance à un algorithme – aussi intelligent soit-il – pour rechercher, identifier et tuer la bonne cible ? »

À la lumière de ce qui précède, des groupes de défense des droits de l'homme et certains experts en technologie affirment que donner aux machines le pouvoir de la vie et de la mort viole les principes de la dignité humaine. Selon eux, non seulement les LAWS sont vulnérables à l'ingérence et au piratage, ce qui entraînerait une augmentation du nombre de décès de civils, mais leur déploiement soulèverait des questions quant à savoir qui serait tenu responsable en cas d'utilisation abusive.

« Ne vous laissez pas tromper par l'absurdité de l'intelligence de ces armes », a déclaré Noel Sharkey, président du Comité international pour le contrôle des armes robotisées. Sharkey, qui est également expert en IA et en robotique à l'université britannique de Sheffield, a ajouté que « Vous ne pouvez tout simplement pas faire confiance à un algorithme - aussi intelligent soit-il - pour rechercher, identifier et tuer la bonne cible, surtout dans la complexité de la guerre ».

Laura Nolan, un ancien travailleur de Google, qui a démissionné de l’entreprise en 2018 en signe de protestation contre son affectation dans un projet visant à améliorer considérablement la technologie des drones militaires du Pentagone, a demandé l'interdiction de toutes les machines à tuer qui ne sont pas utilisées par des humains. L’ex-ingénieur logiciel de Google a averti que ce nouveau type d’armes pourrait accidentellement déclencher une guerre ou provoquer des atrocités de masse.

Les Nations Unies travaillent sur la question des armes entièrement autonomes dotées d'IA afin de l’emmener à un niveau formel qui pourrait déboucher sur un traité qui interdit ces robots tueurs, mais le bout du tunnel semble bien loin. Mais une série de réunions, tenues en fin août 2018, se sont terminées sans que les pays participants se rapprochent de règles internationales contraignantes. Les pays se sont juste entendus sur une liste de recommandations non contraignantes. Un petit nombre de pays – notamment les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie – auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs.

Selon le reportage de Bhalla, une enquête menée en 2019 par Human Rights Watch (HRW) et la coalition mondiale Campaign to Stop Killer Robots a révélé que 61 % des personnes dans 26 pays, dont les États-Unis et Israël, s'opposaient au développement d'armes meurtrières totalement autonomes. Cependant, selon Mary Wareham, directrice du plaidoyer de la division des armes de HRW, ces pays ont tenu huit réunions dans le cadre de la Convention des Nations Unies sur certaines armes classiques depuis 2014 pour discuter de la question, et il n'y a eu aucun progrès.


« Il ne suffit pas que nous avancions dans le XXIe siècle sans règles établies », a déclaré Wareham, ajoutant que sans surveillance, davantage de nations développeraient des armes autonomes mortelles. « Nous devons avoir un nouveau traité international comme nous l'avons fait pour les mines terrestres et les armes à sous-munitions. Nous devons prévenir la tragédie évitable qui se prépare si nous ne réglementons pas nos robots tueurs », a-t-elle ajouté.

Les robots tueurs ne seront pas la proie d'émotions humaines telles que la peur ou la vengeance et réduiront le nombre de décès

Selon les experts en systèmes d'IA basés sur la défense, ces armes autonomes, si elles sont bien développées, peuvent rendre la guerre plus humaine, a rapporté Bhalla. Elles seront plus précises et plus efficaces, ne seront pas la proie d'émotions humaines telles que la peur ou la vengeance et réduiront au minimum les décès de civils et de soldats, ajoutent-ils.

« Du point de vue militaire, la préoccupation première est de protéger la sécurité du pays avec le moins de pertes de vies humaines - et cela signifie ses soldats », a déclaré Anuj Sharma, président de l'India Research Centre, qui travaille sur la guerre de l'IA. « Donc si vous pouvez retirer l'humain de l'équation autant que possible, c'est une victoire parce que cela signifie moins de sacs mortuaires pour rentrer chez soi - et c'est ce que tout le monde veut », a-t-il ajouté.

Selon le rapport, trente pays, dont le Brésil, l'Autriche et le Canada, sont en faveur d'une interdiction totale, tandis que des dizaines d'autres veulent un traité pour établir une forme de contrôle sur l'utilisation des LAWS, a déclaré Wareham. Selon elle, cela est dû en grande partie à quelques nations puissantes comme les États-Unis et la Russie qui disent qu'il est prématuré d'aller vers une réglementation, sans d'abord définir ces armes.

Quant aux États-Unis, ils disent qu’ils soutiennent les discussions à l'ONU, mais que « dicter un format particulier pour un résultat avant de travailler sur le fond" ne donnerait pas le meilleur résultat, d’après le rapport. Dans un communiqué, un porte-parole du département d'État a déclaré : « Les États-Unis se sont opposés aux appels à l'élaboration d'une interdiction et ne sont pas favorables à l'ouverture de négociations, que ce soit sur un instrument juridiquement contraignant ou sur une déclaration politique, pour le moment ».

« Nous ne devons pas être contre la technologie et nous devons nous garder de porter des jugements hâtifs sur les technologies émergentes ou futures, surtout compte tenu du fait que les armes "intelligentes" à guidage de précision ont permis à des militaires responsables de réduire les risques pour les civils lors d'opérations militaires », a-t-il ajouté.

Selon un commentateur qui s’insurge contre l'argument selon lequel l’IA est précise donc moins meurtrière, si l’IA peut être utilisée de façon plus sélective, elle peut également être utilisée pour tuer des villes entières. Il a par ailleurs ajouté que « quand vous pouvez aller à la guerre et qu'aucun de vos gens ne meurt, vous irez à la guerre plus souvent ». Qu’en pensez-vous ?

Source : Reuters

Et vous ?

Qu’en pensez-vous ?
Les robots tueurs réduiront au minimum les décès de civils et de soldats. Qu’en pensez-vous ?
Pensez-vous que des règles contraignantes pour contrôler ces armes pourront être mises en œuvre un jour à l’échelle mondiale ?

Lire aussi

Un ancien travailleur de Google craint que des « robots tueurs » ne provoquent des atrocités massives, l'ingénieur logiciel prévient que l'IA pourrait aussi déclencher accidentellement une guerre
L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille, et appelle à interdire les robots-tueurs
Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA, en évoquant de nombreux problèmes sous-jacents
Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations, menées au niveau des Nations Unies

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Patrick Ruiz
Chroniqueur Actualités https://www.developpez.com
Le 01/01/2022 à 12:13
Course aux armements : l’Organisation des Nations Unies échoue à nouveau dans l’établissement de règles internationales contraignantes
Visant à interdire l’utilisation des robots tueurs autonomes

La Convention des Nations unies sur certaines armes classiques s’est à nouveau penchée sur la question de l'interdiction des armes autonomes lors de sa dernière réunion d'examen quinquennale à Genève du 13 au 17 décembre 2021. Résultat : pas de consensus des parties prenantes sur l’établissement de règles internationales contraignantes visant à interdire l’utilisation des robots tueurs autonomes. Sur le terrain pourtant, des rapports font état de ce que la machine sait déjà prendre la décision d'appuyer sur la gâchette sans intervention humaine.

Les avis demeurent partagés sur la question de savoir si les robots tueurs autonomes doivent faire l’objet d’interdiction. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont face à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.

« Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.

Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis et Israël par exemple sont sur des des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.

Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.

Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.

De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un adolescent.


Ce nouvel échec des discussions à l’ONU fait suite à des sorties d’experts de la filière visant à avertir contre les dangers de l’utilisation des robots autonomes tueurs : « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »

Source : Reuters

Et vous ?

Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ?
Avez-vous espoir que les négociations aboutissent à l'interdiction de ces armes ?

Voir aussi :

Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur
9  0 
Avatar de SoyouzH2
Membre régulier https://www.developpez.com
Le 20/01/2020 à 14:39
"si elles sont bien développées, peuvent rendre la guerre plus humaine, a rapporté Bhalla"

Lol.
4  0 
Avatar de fodger
Membre averti https://www.developpez.com
Le 20/01/2020 à 16:48
Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
3  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 20/01/2020 à 17:19
Citation Envoyé par fodger Voir le message
Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
c'est assez simple en fait, si toi dans ton pays tu décides de ne pas le faire, ton voisin lui le fera peut-être, et pourra alors avoir un avantage stratégique/technologique et éventuellement menacer ton pays.
c'est tristement logique, et l'application directe de la sélection naturelle, si tu ne veux pas être en position d'être menacé, alors tu dois être dans le peloton de tête dans la course à l'armement dissuasif.
3  0 
Avatar de Cpt Anderson
Membre chevronné https://www.developpez.com
Le 05/01/2022 à 9:55
Ceux qui financent les Nations-Unis sont les mêmes que ceux qui fabriquent des armes. Cette demande est donc caduque, c'est pour amuser la plèbe et alimenter la presse.
2  0 
Avatar de Christian_B
Membre éclairé https://www.developpez.com
Le 09/01/2022 à 10:57
L'impuissance fréquente de l'ONU ne concerne pas que cette question.
Le principe même du Conseil de Sécurité, où certains états ont un droit de veto, est défectueux.

Un exemple extrême et qui ne pas préoccuper grand monde est qu'en principe les armes nucléaires sont interdites depuis le 23 janvier 2021 (signature par un cinquantième état du traité d'interdiction).
Résultat zéro.
Tous les états ayant l'arme atomique sont contre. Les "états", c'est à dire les dirigeants, diplomates, etc, ne demandant pas l'avis des populations.

Cette situation est certes affaire de mégalomanie et de gros intérêts.
Mais aussi de la société dans son ensemble. Combien de gens se préoccupent réellement des pires menaces comme celle-ci ou celle évoquée par l'article et sont réellement pour un désarmement multilatéral, le font savoir et en tiennent compte, par exemple lors des élections dans les pays où il y en a ?

Parfois je me demande si l'espèce humaine n'est pas près d'atteindre son "niveau d'incompétence" comme disait un livre connu, dans une optique plus individuelle.
2  0 
Avatar de gallima
Membre averti https://www.developpez.com
Le 22/01/2020 à 9:12
Est ce qu'il est humain de déployer des troupes humaines face à des robots tueurs ?

C'est la question qui a été posé l'année dernière par le ministère de la défense.

La réponse consensuelle(état major) semble être de dire qu'il faut être en capacité de développer rapidement ce genre d'arme si un ennemi identifié le fait.
Donc il faut que le travail de recherche soit fait même si l'assemble final ne l'est jamais.

C'est la loi de la guerre: "dura lex sed lex".
1  0 
Avatar de marsupial
Expert confirmé https://www.developpez.com
Le 01/01/2022 à 13:29
Les différentes parties sont déjà trop engagées dans leurs projets pour arrêter. Mais, pour la premières fois, les décideurs parlent de sécurité. source Ars Technica de fin novembre. En effet, qu'en serait-il si une personne malintentionnée ou un groupe terroriste venait à en prendre le contrôle ?...

Ensuite peut-on faire confiance à Poutine, Israël ou les Etats-Unis pour en faire bon usage ? La plupart des conflits du XXIe siècle se passent dans des conditions de guerilla contre armée classique. Donc au milieu de populations civiles.
1  0 
Avatar de TJ1985
Membre expérimenté https://www.developpez.com
Le 08/01/2022 à 13:07
Il faut en finir avec cette hypocrisie. Une fois qu'une arme a été crée, elle sera utilisée. Point, barre. Les robots sont extrêmement tentants, comment résister ? Ils sont redoutablement faciles à construire à partir de composants du marché, tant hard que soft, bon marchés et efficaces.
Même si l'ONU gesticule un brin, n'importe quel groupe de plus de 0 personnes est capable de se construire un bidule mortel au fond de son garage. Le tout est de le savoir, et de réfléchir à la manière de s'en prémunir, ce qui oblige à être créatif. C'est sans doute là que ça cloche, si les politiciens étaient doués, ça se saurait.
1  0 
Avatar de FrostWilson
Membre régulier https://www.developpez.com
Le 20/01/2020 à 15:01
C'est un gros problème, vous voulez dire que c'est comme des militaires mais qui utilisent leur intelligence ?
Rupture totale... "commencer à réfléchir c'est commencer à désobéir".

Ou comme disait Einstein:
"Celui qui est capable de marcher derrière une musique militaire n’a pas besoin de cerveau : une moelle épinière lui suffit."
0  0