Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les pays développent rapidement des "robots tueurs" dotés d'IA qui tuent de manière indépendante
Mais ne parviennent pas à s'entendre sur des règles pour contrôler ces armes, avertissent des experts

Le , par Stan Adkens

75PARTAGES

12  0 
La menace que représentent les "robots tueurs" ou armes autonomes létales a été largement démontrée. Entre autres, ils peuvent être faillibles au piratage et détournés pour se comporter de manière indésirable, « elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », selon une lettre ouverte adressée aux Nations Unies par Elon Musk et co-signée par une multitude de spécialistes en IA.

Cependant, les pays continuent de développer rapidement ces armes autonomes, dotées d'une intelligence artificielle qui tuent de manière indépendante, alors qu’ils ne font aucun progrès dans la mise en place des règles communes à l’échelle mondiale concernant leur utilisation dans les guerres à venir, avertissent les experts en technologie et en droits de l'homme, selon un reportage de Nita Bhalla de Reuters.


Selon Bhalla, les systèmes d'armes semi-autonomes, y compris les drones, les missiles, les chars et les sous-marins, sont utilisés depuis des décennies pour éliminer des cibles dans les guerres modernes. Mais ils ne prennent pas de décisions autonomes hors de toute supervision de l'homme. Maintenant, des pays comme les États-Unis, la Russie et Israël investissent dans le développement de systèmes d'armes autonomes meurtriers (LAWS) qui peuvent identifier, cibler et tuer une personne par eux-mêmes – mais à ce jour, aucune loi internationale ne régit leur utilisation, s’inquiètent ces experts.

« Une sorte de contrôle humain est nécessaire... Seuls les êtres humains peuvent porter des jugements sur la distinction, la proportionnalité et les précautions à prendre au combat, en fonction du contexte », a déclaré Peter Maurer, président du Comité international de la Croix-Rouge (CICR). « (La recherche du consensus) est la grande question à laquelle nous sommes confrontés et, sans surprise, ceux qui ont aujourd'hui investi beaucoup de capacités et possèdent certaines compétences qui leur promettent des avantages, sont plus réticents que ceux qui ne le font pas », a-t-il ajouté.

Selon le rapport, les chercheurs d'Amnesty International, les analystes de la défense et les roboticiens affirment que les LAWS, telles que les robots militaires, ne sont plus confinés au domaine de la science-fiction ou des jeux vidéo, mais qu'elles progressent rapidement, passant des planches de graphisme aux laboratoires d'ingénierie de la défense. Ils continuent en disant qu’en quelques années, ils pourraient être déployés sur le champ de bataille par les armées des États, en peignant des scénarios dystopiques de nuées de drones se déplaçant dans une ville ou un village, balayant et tuant sélectivement leurs cibles en quelques secondes.

« Vous ne pouvez tout simplement pas faire confiance à un algorithme – aussi intelligent soit-il – pour rechercher, identifier et tuer la bonne cible ? »

À la lumière de ce qui précède, des groupes de défense des droits de l'homme et certains experts en technologie affirment que donner aux machines le pouvoir de la vie et de la mort viole les principes de la dignité humaine. Selon eux, non seulement les LAWS sont vulnérables à l'ingérence et au piratage, ce qui entraînerait une augmentation du nombre de décès de civils, mais leur déploiement soulèverait des questions quant à savoir qui serait tenu responsable en cas d'utilisation abusive.

« Ne vous laissez pas tromper par l'absurdité de l'intelligence de ces armes », a déclaré Noel Sharkey, président du Comité international pour le contrôle des armes robotisées. Sharkey, qui est également expert en IA et en robotique à l'université britannique de Sheffield, a ajouté que « Vous ne pouvez tout simplement pas faire confiance à un algorithme - aussi intelligent soit-il - pour rechercher, identifier et tuer la bonne cible, surtout dans la complexité de la guerre ».

Laura Nolan, un ancien travailleur de Google, qui a démissionné de l’entreprise en 2018 en signe de protestation contre son affectation dans un projet visant à améliorer considérablement la technologie des drones militaires du Pentagone, a demandé l'interdiction de toutes les machines à tuer qui ne sont pas utilisées par des humains. L’ex-ingénieur logiciel de Google a averti que ce nouveau type d’armes pourrait accidentellement déclencher une guerre ou provoquer des atrocités de masse.

Les Nations Unies travaillent sur la question des armes entièrement autonomes dotées d'IA afin de l’emmener à un niveau formel qui pourrait déboucher sur un traité qui interdit ces robots tueurs, mais le bout du tunnel semble bien loin. Mais une série de réunions, tenues en fin août 2018, se sont terminées sans que les pays participants se rapprochent de règles internationales contraignantes. Les pays se sont juste entendus sur une liste de recommandations non contraignantes. Un petit nombre de pays – notamment les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie – auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs.

Selon le reportage de Bhalla, une enquête menée en 2019 par Human Rights Watch (HRW) et la coalition mondiale Campaign to Stop Killer Robots a révélé que 61 % des personnes dans 26 pays, dont les États-Unis et Israël, s'opposaient au développement d'armes meurtrières totalement autonomes. Cependant, selon Mary Wareham, directrice du plaidoyer de la division des armes de HRW, ces pays ont tenu huit réunions dans le cadre de la Convention des Nations Unies sur certaines armes classiques depuis 2014 pour discuter de la question, et il n'y a eu aucun progrès.


« Il ne suffit pas que nous avancions dans le XXIe siècle sans règles établies », a déclaré Wareham, ajoutant que sans surveillance, davantage de nations développeraient des armes autonomes mortelles. « Nous devons avoir un nouveau traité international comme nous l'avons fait pour les mines terrestres et les armes à sous-munitions. Nous devons prévenir la tragédie évitable qui se prépare si nous ne réglementons pas nos robots tueurs », a-t-elle ajouté.

Les robots tueurs ne seront pas la proie d'émotions humaines telles que la peur ou la vengeance et réduiront le nombre de décès

Selon les experts en systèmes d'IA basés sur la défense, ces armes autonomes, si elles sont bien développées, peuvent rendre la guerre plus humaine, a rapporté Bhalla. Elles seront plus précises et plus efficaces, ne seront pas la proie d'émotions humaines telles que la peur ou la vengeance et réduiront au minimum les décès de civils et de soldats, ajoutent-ils.

« Du point de vue militaire, la préoccupation première est de protéger la sécurité du pays avec le moins de pertes de vies humaines - et cela signifie ses soldats », a déclaré Anuj Sharma, président de l'India Research Centre, qui travaille sur la guerre de l'IA. « Donc si vous pouvez retirer l'humain de l'équation autant que possible, c'est une victoire parce que cela signifie moins de sacs mortuaires pour rentrer chez soi - et c'est ce que tout le monde veut », a-t-il ajouté.

Selon le rapport, trente pays, dont le Brésil, l'Autriche et le Canada, sont en faveur d'une interdiction totale, tandis que des dizaines d'autres veulent un traité pour établir une forme de contrôle sur l'utilisation des LAWS, a déclaré Wareham. Selon elle, cela est dû en grande partie à quelques nations puissantes comme les États-Unis et la Russie qui disent qu'il est prématuré d'aller vers une réglementation, sans d'abord définir ces armes.

Quant aux États-Unis, ils disent qu’ils soutiennent les discussions à l'ONU, mais que « dicter un format particulier pour un résultat avant de travailler sur le fond" ne donnerait pas le meilleur résultat, d’après le rapport. Dans un communiqué, un porte-parole du département d'État a déclaré : « Les États-Unis se sont opposés aux appels à l'élaboration d'une interdiction et ne sont pas favorables à l'ouverture de négociations, que ce soit sur un instrument juridiquement contraignant ou sur une déclaration politique, pour le moment ».

« Nous ne devons pas être contre la technologie et nous devons nous garder de porter des jugements hâtifs sur les technologies émergentes ou futures, surtout compte tenu du fait que les armes "intelligentes" à guidage de précision ont permis à des militaires responsables de réduire les risques pour les civils lors d'opérations militaires », a-t-il ajouté.

Selon un commentateur qui s’insurge contre l'argument selon lequel l’IA est précise donc moins meurtrière, si l’IA peut être utilisée de façon plus sélective, elle peut également être utilisée pour tuer des villes entières. Il a par ailleurs ajouté que « quand vous pouvez aller à la guerre et qu'aucun de vos gens ne meurt, vous irez à la guerre plus souvent ». Qu’en pensez-vous ?

Source : Reuters

Et vous ?

Qu’en pensez-vous ?
Les robots tueurs réduiront au minimum les décès de civils et de soldats. Qu’en pensez-vous ?
Pensez-vous que des règles contraignantes pour contrôler ces armes pourront être mises en œuvre un jour à l’échelle mondiale ?

Lire aussi

Un ancien travailleur de Google craint que des « robots tueurs » ne provoquent des atrocités massives, l'ingénieur logiciel prévient que l'IA pourrait aussi déclencher accidentellement une guerre
L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille, et appelle à interdire les robots-tueurs
Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA, en évoquant de nombreux problèmes sous-jacents
Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations, menées au niveau des Nations Unies

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de SoyouzH2
Membre régulier https://www.developpez.com
Le 20/01/2020 à 14:39
"si elles sont bien développées, peuvent rendre la guerre plus humaine, a rapporté Bhalla"

Lol.
4  0 
Avatar de fodger
Membre habitué https://www.developpez.com
Le 20/01/2020 à 16:48
Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
3  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 20/01/2020 à 17:19
Citation Envoyé par fodger Voir le message
Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
c'est assez simple en fait, si toi dans ton pays tu décides de ne pas le faire, ton voisin lui le fera peut-être, et pourra alors avoir un avantage stratégique/technologique et éventuellement menacer ton pays.
c'est tristement logique, et l'application directe de la sélection naturelle, si tu ne veux pas être en position d'être menacé, alors tu dois être dans le peloton de tête dans la course à l'armement dissuasif.
2  0 
Avatar de gallima
Membre actif https://www.developpez.com
Le 22/01/2020 à 9:12
Est ce qu'il est humain de déployer des troupes humaines face à des robots tueurs ?

C'est la question qui a été posé l'année dernière par le ministère de la défense.

La réponse consensuelle(état major) semble être de dire qu'il faut être en capacité de développer rapidement ce genre d'arme si un ennemi identifié le fait.
Donc il faut que le travail de recherche soit fait même si l'assemble final ne l'est jamais.

C'est la loi de la guerre: "dura lex sed lex".
1  0 
Avatar de FrostWilson
Membre régulier https://www.developpez.com
Le 20/01/2020 à 15:01
C'est un gros problème, vous voulez dire que c'est comme des militaires mais qui utilisent leur intelligence ?
Rupture totale... "commencer à réfléchir c'est commencer à désobéir".

Ou comme disait Einstein:
"Celui qui est capable de marcher derrière une musique militaire n’a pas besoin de cerveau : une moelle épinière lui suffit."
0  0 
Avatar de eldran64
Membre extrêmement actif https://www.developpez.com
Le 20/01/2020 à 15:31
Soyons optimiste, il y aura un jour un gros massacre de masse avec l'une de ces machines à cause de (choisissez l'option que vous préférez):
- piratage de la dite machine
- bug logiciel
- mauvaise programmation
- simplement volonté de faire un massacre avec

Et dans le meilleur des scénarios, on aura ensuite une prise de conscience qui obligera le monde à légiférer dessus (un peu comme les bombes nucléaires).
0  0 
Avatar de Cpt Anderson
Membre expérimenté https://www.developpez.com
Le 20/01/2020 à 15:41
Qui est étonné ? C'est dans la logique des choses !
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 20/01/2020 à 15:45
Citation Envoyé par Stan Adkens Voir le message
Elles seront plus précises et plus efficaces, ne seront pas la proie d'émotions humaines telles que la peur ou la vengeance et réduiront au minimum les décès de civils et de soldats, ajoutent-ils.
D'un côté ça se tient.
Vous avez déjà vu le film Outrages avec Michael J. Fox ?
Ça parle de soldats US qui ont violés des vietnamiennes, c'est le genre de chose que des robots ne pourront pas faire, donc ça fait moins de victime civil.

Les robots ne feront pas ça non plus :
Torture, humiliations... Les photos qui ont révélé l'horreur d'Abou Ghraib
En avril 2004, le traitement des détenus à la prison d'Abou Ghraib, située à 20 km à l'ouest de Bagdad (Irak), choque le monde entier. Via des clichés pris en octobre, novembre et décembre 2003, on apprend que les prisonniers y sont physiquement et sexuellement abusés, torturés, violés et exécutés.
Il y a des armées qui droguent leur soldats pour qu'ils puissent faire des choses horribles.
L'héroïne fait des ravages dans l'armée américaine (apparemment c'est une news de Septembre 1971 )
Un rapport américain avait conclu, en mai dernier, que de 10 à 15 % des soldats stationnés au Vietnam, soit, à l'époque, de vingt-sept mille à quarante mille hommes, s'adonnaient à l'usage des stupéfiants, en particulier l'héroïne
Pendant la seconde guerre mondiale les anglais avaient la benzédrine, les allemands avaient la pervitine.

=====
Un robot vise mieux et suit les ordres, c'est le soldat parfait.
Le problème ce ne sont pas les robots, les problèmes ce sont les ordres.
Dans le futur peut-être que le gouvernement français enverra des drones armés de fusil d'assaut qui tireront sur les manifestants, on ne sait pas... (un peu des ambiances de Running Man)
Des drones autonome qui bossent pour un gouvernement, ça fait très peur.
0  0 
Avatar de Superzest 76
Membre confirmé https://www.developpez.com
Le 20/01/2020 à 17:16
Citation Envoyé par Stan Adkens  Voir le message
[B][SIZE=4]

L’ex-ingénieur logiciel de Google a averti que ce nouveau type d’armes pourrait accidentellement déclencher une guerre ou provoquer des atrocités de masse.

Bof sur ça la machine à encore du chemin pour dépasser l'humain...
0  0 
Avatar de Citrax
Membre averti https://www.developpez.com
Le 20/01/2020 à 18:17
Rien ni personne ne pourra arrêter les fabricants d'armes
La guerre n'est rien de plus qu'un trait de caractère des êtres humains.
Par contre cet IA tueur seront tôt ou tard invité à réduire la population mondiale. Il ne faut pas se leurrer

On appellera ça des bavures ou des blocs de programmation !
0  0