IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les pays développent rapidement des "robots tueurs" dotés d'IA qui tuent de manière indépendante
Mais ne parviennent pas à s'entendre sur des règles pour contrôler ces armes, avertissent des experts

Le , par Stan Adkens

154PARTAGES

12  0 
La menace que représentent les "robots tueurs" ou armes autonomes létales a été largement démontrée. Entre autres, ils peuvent être faillibles au piratage et détournés pour se comporter de manière indésirable, « elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », selon une lettre ouverte adressée aux Nations Unies par Elon Musk et co-signée par une multitude de spécialistes en IA.

Cependant, les pays continuent de développer rapidement ces armes autonomes, dotées d'une intelligence artificielle qui tuent de manière indépendante, alors qu’ils ne font aucun progrès dans la mise en place des règles communes à l’échelle mondiale concernant leur utilisation dans les guerres à venir, avertissent les experts en technologie et en droits de l'homme, selon un reportage de Nita Bhalla de Reuters.


Selon Bhalla, les systèmes d'armes semi-autonomes, y compris les drones, les missiles, les chars et les sous-marins, sont utilisés depuis des décennies pour éliminer des cibles dans les guerres modernes. Mais ils ne prennent pas de décisions autonomes hors de toute supervision de l'homme. Maintenant, des pays comme les États-Unis, la Russie et Israël investissent dans le développement de systèmes d'armes autonomes meurtriers (LAWS) qui peuvent identifier, cibler et tuer une personne par eux-mêmes – mais à ce jour, aucune loi internationale ne régit leur utilisation, s’inquiètent ces experts.

« Une sorte de contrôle humain est nécessaire... Seuls les êtres humains peuvent porter des jugements sur la distinction, la proportionnalité et les précautions à prendre au combat, en fonction du contexte », a déclaré Peter Maurer, président du Comité international de la Croix-Rouge (CICR). « (La recherche du consensus) est la grande question à laquelle nous sommes confrontés et, sans surprise, ceux qui ont aujourd'hui investi beaucoup de capacités et possèdent certaines compétences qui leur promettent des avantages, sont plus réticents que ceux qui ne le font pas », a-t-il ajouté.

Selon le rapport, les chercheurs d'Amnesty International, les analystes de la défense et les roboticiens affirment que les LAWS, telles que les robots militaires, ne sont plus confinés au domaine de la science-fiction ou des jeux vidéo, mais qu'elles progressent rapidement, passant des planches de graphisme aux laboratoires d'ingénierie de la défense. Ils continuent en disant qu’en quelques années, ils pourraient être déployés sur le champ de bataille par les armées des États, en peignant des scénarios dystopiques de nuées de drones se déplaçant dans une ville ou un village, balayant et tuant sélectivement leurs cibles en quelques secondes.

« Vous ne pouvez tout simplement pas faire confiance à un algorithme – aussi intelligent soit-il – pour rechercher, identifier et tuer la bonne cible ? »

À la lumière de ce qui précède, des groupes de défense des droits de l'homme et certains experts en technologie affirment que donner aux machines le pouvoir de la vie et de la mort viole les principes de la dignité humaine. Selon eux, non seulement les LAWS sont vulnérables à l'ingérence et au piratage, ce qui entraînerait une augmentation du nombre de décès de civils, mais leur déploiement soulèverait des questions quant à savoir qui serait tenu responsable en cas d'utilisation abusive.

« Ne vous laissez pas tromper par l'absurdité de l'intelligence de ces armes », a déclaré Noel Sharkey, président du Comité international pour le contrôle des armes robotisées. Sharkey, qui est également expert en IA et en robotique à l'université britannique de Sheffield, a ajouté que « Vous ne pouvez tout simplement pas faire confiance à un algorithme - aussi intelligent soit-il - pour rechercher, identifier et tuer la bonne cible, surtout dans la complexité de la guerre ».

Laura Nolan, un ancien travailleur de Google, qui a démissionné de l’entreprise en 2018 en signe de protestation contre son affectation dans un projet visant à améliorer considérablement la technologie des drones militaires du Pentagone, a demandé l'interdiction de toutes les machines à tuer qui ne sont pas utilisées par des humains. L’ex-ingénieur logiciel de Google a averti que ce nouveau type d’armes pourrait accidentellement déclencher une guerre ou provoquer des atrocités de masse.

Les Nations Unies travaillent sur la question des armes entièrement autonomes dotées d'IA afin de l’emmener à un niveau formel qui pourrait déboucher sur un traité qui interdit ces robots tueurs, mais le bout du tunnel semble bien loin. Mais une série de réunions, tenues en fin août 2018, se sont terminées sans que les pays participants se rapprochent de règles internationales contraignantes. Les pays se sont juste entendus sur une liste de recommandations non contraignantes. Un petit nombre de pays – notamment les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie – auraient en effet empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs.

Selon le reportage de Bhalla, une enquête menée en 2019 par Human Rights Watch (HRW) et la coalition mondiale Campaign to Stop Killer Robots a révélé que 61 % des personnes dans 26 pays, dont les États-Unis et Israël, s'opposaient au développement d'armes meurtrières totalement autonomes. Cependant, selon Mary Wareham, directrice du plaidoyer de la division des armes de HRW, ces pays ont tenu huit réunions dans le cadre de la Convention des Nations Unies sur certaines armes classiques depuis 2014 pour discuter de la question, et il n'y a eu aucun progrès.


« Il ne suffit pas que nous avancions dans le XXIe siècle sans règles établies », a déclaré Wareham, ajoutant que sans surveillance, davantage de nations développeraient des armes autonomes mortelles. « Nous devons avoir un nouveau traité international comme nous l'avons fait pour les mines terrestres et les armes à sous-munitions. Nous devons prévenir la tragédie évitable qui se prépare si nous ne réglementons pas nos robots tueurs », a-t-elle ajouté.

Les robots tueurs ne seront pas la proie d'émotions humaines telles que la peur ou la vengeance et réduiront le nombre de décès

Selon les experts en systèmes d'IA basés sur la défense, ces armes autonomes, si elles sont bien développées, peuvent rendre la guerre plus humaine, a rapporté Bhalla. Elles seront plus précises et plus efficaces, ne seront pas la proie d'émotions humaines telles que la peur ou la vengeance et réduiront au minimum les décès de civils et de soldats, ajoutent-ils.

« Du point de vue militaire, la préoccupation première est de protéger la sécurité du pays avec le moins de pertes de vies humaines - et cela signifie ses soldats », a déclaré Anuj Sharma, président de l'India Research Centre, qui travaille sur la guerre de l'IA. « Donc si vous pouvez retirer l'humain de l'équation autant que possible, c'est une victoire parce que cela signifie moins de sacs mortuaires pour rentrer chez soi - et c'est ce que tout le monde veut », a-t-il ajouté.

Selon le rapport, trente pays, dont le Brésil, l'Autriche et le Canada, sont en faveur d'une interdiction totale, tandis que des dizaines d'autres veulent un traité pour établir une forme de contrôle sur l'utilisation des LAWS, a déclaré Wareham. Selon elle, cela est dû en grande partie à quelques nations puissantes comme les États-Unis et la Russie qui disent qu'il est prématuré d'aller vers une réglementation, sans d'abord définir ces armes.

Quant aux États-Unis, ils disent qu’ils soutiennent les discussions à l'ONU, mais que « dicter un format particulier pour un résultat avant de travailler sur le fond" ne donnerait pas le meilleur résultat, d’après le rapport. Dans un communiqué, un porte-parole du département d'État a déclaré : « Les États-Unis se sont opposés aux appels à l'élaboration d'une interdiction et ne sont pas favorables à l'ouverture de négociations, que ce soit sur un instrument juridiquement contraignant ou sur une déclaration politique, pour le moment ».

« Nous ne devons pas être contre la technologie et nous devons nous garder de porter des jugements hâtifs sur les technologies émergentes ou futures, surtout compte tenu du fait que les armes "intelligentes" à guidage de précision ont permis à des militaires responsables de réduire les risques pour les civils lors d'opérations militaires », a-t-il ajouté.

Selon un commentateur qui s’insurge contre l'argument selon lequel l’IA est précise donc moins meurtrière, si l’IA peut être utilisée de façon plus sélective, elle peut également être utilisée pour tuer des villes entières. Il a par ailleurs ajouté que « quand vous pouvez aller à la guerre et qu'aucun de vos gens ne meurt, vous irez à la guerre plus souvent ». Qu’en pensez-vous ?

Source : Reuters

Et vous ?

Qu’en pensez-vous ?
Les robots tueurs réduiront au minimum les décès de civils et de soldats. Qu’en pensez-vous ?
Pensez-vous que des règles contraignantes pour contrôler ces armes pourront être mises en œuvre un jour à l’échelle mondiale ?

Lire aussi

Un ancien travailleur de Google craint que des « robots tueurs » ne provoquent des atrocités massives, l'ingénieur logiciel prévient que l'IA pourrait aussi déclencher accidentellement une guerre
L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille, et appelle à interdire les robots-tueurs
Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA, en évoquant de nombreux problèmes sous-jacents
Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations, menées au niveau des Nations Unies

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 20/07/2023 à 8:03
Citation Envoyé par denisys Voir le message
De la Terre à la Lune.
Jules Verne, paru en 1865.
--
https://fr.wikipedia.org/wiki/De_la_...%C3%A0_la_Lune
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(1/4) Je vous l'avais bien dit.
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(2/4) Mais vous ne m'avez pas écouté
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(3/4) Lisez Voyage au centre de la Terre
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(4/4) Prem's @ElonMusk
Va-t-on aborder chaque oeuvre de SF comme un documentaire parce que 10 se sont effectivement passé?
Je ne suis pas sur.

Par contre c'est en effet interressant de les lire/voir parce qu'elles nous encouragent à réfléchir sur ces situations avant qu'elle puisse arriver pour les éviter ou réduire les rendre moins dramatiques.
Et si on veut aller dans le sens de Cameron alors je trouve que Robocop mène une reflexion bien plus poussée que Terminator, qui n'annonce que la fin du monde par la technologie.
En plus toute la série Terminator ne dit qu'une chose : quoi qu'on fasse on est foutu (donc pourquoi lutter contre, résignons nous )
5  0 
Avatar de SoyouzH2
Membre régulier https://www.developpez.com
Le 20/01/2020 à 14:39
"si elles sont bien développées, peuvent rendre la guerre plus humaine, a rapporté Bhalla"

Lol.
4  0 
Avatar de Minato Sensei
Nouveau membre du Club https://www.developpez.com
Le 03/06/2023 à 9:07
Citation Envoyé par nasserk Voir le message
A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...
En suivant ce raisonnement, on peut se dire que les Tesla dont l'IA, selon vous, « obéit aveuglement », sont formées pour éviter la police, percuter les voitures de police, etc. ?

Ou encore que le chatbot IA de Microsoft était programmé pour être raciste et fan d'Hitler ? Que ChatGPT a été programmé pour faire des menaces aux étudiants ?

Je pense qu'il arrive que le logiciel fasse quelque chose d'inattendu, sans pour autant que cela soit associé à de la « volonté propre ».

Il revient alors aux développeurs de réajuster les paramètres pour prendre en considération un scénario de ce type. Il n'y a pas de magie dedans, c'est simplement de la science informatique.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/06/2023 à 12:42
Citation Envoyé par nasserk Voir le message
A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...
Tous les chercheurs spécialistes de l'IA le savent, et quand je parle de "spécialistes", je ne parle ni des "branleurs" qui se disent "expert" et qui sont "expert de rien", ni des "vendeurs" de tout poils prêts à faire du profit en vendant à leur mère une grenade dégoupillée en disant qu'il s'agit d'un ananas:

Une IA peut avoir un comportement "inattendu", hors de toute logique, que les spécialistes en IA n'ont jamais pu expliquer ou même corriger.

On explique ce comportement par l'exemple de l'orange et de l'hélicoptère: On apprend à une IA à reconnaître sur des photos qui lui sont présentées les oranges. On reprend ensuite les photos des oranges et on y change juste quelques pixels: Pour l'oeil humain, il s'agit toujours de photos d'orange, mais l'IA va tout d'un coup reconnaître sur une photo un hélicoptère!!!

Ce problème de comportement est présent sur la totalité des IA actuelles: Une IA fournit des informations qui ne sont pas fiables! 90%, 95% seront peut-être justes, mais il y aura des immenses erreurs dans les résultats fournis et ces erreurs apparaitront de manière non prévisibles, rendant les résultats inutilisables sans une vérification humaine.

Ce forum en a d'ailleurs donné un exemple avec cet avocat américain qui a demandé à une IA de préparer sa plaidoirie: L'IA a tout simplement inventé de toute pièces 6 affaires faisant jurisprudence qui n'ont jamais existé dans la réalité. Pas de bol pour l'avocat, si lui n'a pas vérifié, le juge a détecté les *inventions" de l'IA.
5  1 
Avatar de R136a1
Nouveau membre du Club https://www.developpez.com
Le 18/02/2024 à 11:36
De plus, la manipulation délibérée des systèmes par des acteurs malveillants à des fins diverses constitue une menace potentielle.
Selon moi, c'est ça le plus grand risque de l'IA. Et c'est déjà une réalité.
4  0 
Avatar de
https://www.developpez.com
Le 20/01/2020 à 16:48
Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
3  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 20/01/2020 à 17:19
Citation Envoyé par fodger Voir le message
Je ne comprends même pas qu'on puisse travailler sur de tels sujets.
c'est assez simple en fait, si toi dans ton pays tu décides de ne pas le faire, ton voisin lui le fera peut-être, et pourra alors avoir un avantage stratégique/technologique et éventuellement menacer ton pays.
c'est tristement logique, et l'application directe de la sélection naturelle, si tu ne veux pas être en position d'être menacé, alors tu dois être dans le peloton de tête dans la course à l'armement dissuasif.
3  0 
Avatar de bouye
Rédacteur/Modérateur https://www.developpez.com
Le 05/06/2023 à 23:37
Intéressant, passons sur le cote "j'ai tout inventé et me suis mal exprimé" ou "on m'a ordonné de me rétracter" selon comment on voit les choses ; ce n'est ni plus ni moins que le scenario de 2001 l’Odyssée de l'Espace avec HAL 9000 qui se retourne contre les astronautes a bord du Discovery car ces derniers interfèrent avec sa mission.
4  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 18/09/2023 à 14:31
Citation Envoyé par Mathis Lucas Voir le message
Cependant, le projet de loi est fortement critiqué par les experts et la communauté, car il prévoit des exemptions pour l'armée et la police, ce qui selon les analystes le vide de tout son sens. Le projet de loi bénéficie toutefois du soutien d'entreprises locales de robotiques comme Boston Dynamics.
Ok, c'est bien d'interdire aux gens de monter des armes sur des robots.

Mais le danger c'est que l'armée utilise des robots tueurs.
Si dans le futur une tentative de révolution a lieu aux USA, les révolutionnaires se feront exterminer par des robots tueurs.

Aux Etats-Unis il y a une histoire de second amendement, les étasuniens sont censés avoir le droit de se défendre.
Et là ça va être compliqué de se défendre quand le gouvernement US donnera l'ordre de massacrer le peuple.
3  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 05/01/2022 à 9:55
Ceux qui financent les Nations-Unis sont les mêmes que ceux qui fabriquent des armes. Cette demande est donc caduque, c'est pour amuser la plèbe et alimenter la presse.
2  0