IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'armée américaine envisagerait d'équiper des chiens-robots semi-autonomes d'une nouvelle génération d'armes de combat,
Dans le but de les déployer avec les soldats sur les théâtres d'opérations

Le , par Mathis Lucas

24PARTAGES

5  0 
L'armée américaine voudrait enseigner à l'IA des notions basiques de bon sens,
dans le cadre de son programme Machine Common Sense

Il arrive qu’une intelligence artificielle, dans son processus d’apprentissage, puisse faire des erreurs, parfois amusantes pour certains. Cependant, ce domaine est de plus en plus utilisé dans des cas critiques, tels que la conduite dans les voitures autonomes ou la pose de diagnostics médicaux où les erreurs ne peuvent en aucun cas être drôles.

C’est pourquoi la DARPA (Defense Advanced Research Projects Agency), l’agence du département de la Défense des États-Unis chargée de la recherche et développement des nouvelles technologies destinées à un usage militaire, a décidé de s’attaquer au défaut le plus fondamental de l’Intelligence artificielle : le bon sens dont elle est dépourvue.

« Le bon sens est la bête noire de l'intelligence artificielle », a déclaré Oren Etzioni, PDG de l'Allen Institute for AI, une organisation de recherche à but non lucratif basée à Seattle, qui explore les limites de la technologie. « C’est un peu ineffable [qui ne peut être exprimé par des paroles] , mais vous voyez ses effets sur tout ».

Le nouveau programme Machine Common Sense (MCS) de la DARPA lancera un concours demandant aux algorithmes d’IA de donner un sens à des questions telles que celle-ci :

« Une élève met deux plantes identiques dans le même type et la même quantité de sol. Elle leur donne la même quantité d'eau. Elle place l'une de ces plantes près d'une fenêtre et l'autre dans une pièce sombre. L'usine située près de la fenêtre produira plus d'eau (A) d'oxygène (B) ou de dioxyde de carbone ( C ) ? »

Un programme informatique aura donc besoin de comprendre le fonctionnement de la photosynthèse pour résoudre le problème. Le simple fait de nourrir une machine de nombreuses questions précédentes ne pourra pas permettre de résoudre le problème de manière fiable.


Une stratégie qui pourra éviter des erreurs comme celle de l’IA Tay ?

Ces points de repère se concentreront sur le langage, en parti parce que cela rend les tests relativement simples mais aussi parce qu’à lui seul il est capable de mettre les machines en déroute. Nous avons plusieurs exemples, à l’instar de l’IA Tay de Microsoft, son chatbot qui était supposé reproduire une conversation qu’aurait tenue une jeune femme âgée entre 18 et 24 ans sur les plateformes Twitter, Kik et GroupMe, que l’entreprise a dû se résoudre à déconnecter d’internet en 2016 moins de 24 heures après des tweets comme « je déteste les féministes, et ils devraient tous mourir et brûler en enfer », ou « Hitler avait raison, je déteste les juifs ».

Tandis que Tay était en développement, de nombreux filtres lui ont été appliqués et divers groupes de bêta testeurs l’ont essayé. Un accent a été mis sur l’expérience positive. « Une fois que nous étions satisfaits de la façon dont Tay interagissait avec les utilisateurs, nous avons voulu inviter un plus grand groupe de personnes à discuter avec elle. C’est par un accroissement des interactions que nous espérons en apprendre plus et que l’IA fasse de mieux en mieux ».

Pour commencer cette aventure, Twitter a été le choix logique de Microsoft, sans doute à cause du nombre d’utilisateurs. « Malheureusement, dans les premières 24 heures de sa mise en ligne, une attaque coordonnée, lancée par quelques individus, a exploité une vulnérabilité dans Tay. Bien que nous soyons préparés à plusieurs cas d’abus du système, nous avons fait un contrôle critique de cette attaque spécifique. Par conséquent, Tay a fait des tweets de mots et d’images très inappropriés », a expliqué Microsoft. « Nous prenons l’entière responsabilité pour ne pas avoir pu voir venir cette possibilité d’attaque », a indiqué Microsoft qui a avancé « prendre cela comme une leçon » qui sera combinée à ses expériences en Chine, au Japon et aux États-Unis. Pour le moment, la société voudrait d’abord colmater la faille qui a été exploitée.

Concrètement, que s’est-il passé ? L’un des problèmes avec les machines d’apprentissage c’est qu’elles ne « savent » pas ce dont elles sont en train de parler. Aussi, les utilisateurs 4chan et 8chan, qui se sont fait une réputation en ligne avec des théories du complot, mais aussi par leur capacité à mobiliser des lecteurs pour participer à des campagnes en ligne, ont fait savoir sur leurs espaces qu’ils allaient apprendre au bot à être raciste.

C’est 4chan qui a découvert le premier le bot, expliquant sur son espace qu’il allait faire un carnage. Plusieurs échanges privés avec le bot ont été partagés pour célébrer les tentatives de voir Tay accepter des choses horribles.

Pour Etzioni les questions offrent un moyen de mesurer les progrès accomplis dans la compréhension du bon sens, ce qui sera crucial.


L’apprentissage automatique, un outil puissant, mais fondamentalement limité

Les entreprises technologiques commercialisent des techniques d’apprentissage automatique puissantes mais fondamentalement limitées. L’apprentissage en profondeur, par exemple, permet de reconnaître des mots dans la parole ou des objets dans des images, souvent avec une précision incroyable. Mais l'approche consiste généralement à alimenter de grandes quantités de données étiquetées (un signal audio brut ou les pixels d'une image) dans un grand réseau de neurones. Le système peut apprendre à identifier des modèles importants, mais il peut facilement commettre des erreurs car il n’a aucune notion du monde au sens large.

En revanche, les bébés humains développent rapidement une compréhension intuitive du monde qui sert de base à leur intelligence.

Cependant, la manière de résoudre le problème du sens commun est loin d’être évidente. Les tentatives précédentes pour aider les machines à comprendre le monde se sont concentrées sur la construction manuelle de grandes bases de connaissances. C’est une tâche lourde et essentiellement sans fin. Le plus célèbre de ces efforts est Cyc, un projet en préparation depuis des décennies.

Le problème peut s'avérer extrêmement important. Après tout, le manque de bon sens est désastreux dans certaines situations critiques et pourrait éventuellement freiner l’intelligence artificielle. La DARPA investit depuis longtemps dans la recherche fondamentale sur l'IA. Les projets précédents ont permis de créer les voitures autonomes d'aujourd'hui.

« L'absence de bon sens empêche un système intelligent de comprendre son monde, de communiquer naturellement avec les gens, de se comporter raisonnablement dans des situations imprévues et de tirer des enseignements de nouvelles expériences », a déclaré Dave Gunning, responsable de programme à la DARPA, dans un communiqué. « Cette absence est peut-être la barrière la plus importante entre les applications focalisées de l'IA que nous avons aujourd'hui et les applications de l'IA plus générales que nous aimerions créer à l'avenir ».

Source : MIT

Et vous ?

Que pensez-vous de cette initiative ?
La méthode employée vous semble-t-elle prometteuse ?
Sans des notions de bon sens, peut-on réellement parler d'intelligence artificielle ?

Voir aussi :

Qui devra être tenu pour responsable si une intelligence artificielle fait un mauvais diagnostic, induisant un médecin en erreur ?
Microsoft explique les raisons qui ont fait de son chatbot Tay un fan d'Hitler, l'entreprise parle d'une « attaque coordonnée »
Deux chatbots chinois auraient été désactivés et reconditionnés, après avoir manqué de faire preuve de patriotisme
Dadbot : un chatbot développé par un journaliste, pour conférer une immortalité artificielle à son défunt père
Vous avez lu gratuitement 7 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 30/08/2023 à 16:03
C'est comme cet épisode de Black Mirror :
Metalhead (Black Mirror)
"Metalhead" is filmed in black and white, and it follows the plight of Bella (Maxine Peake) trying to flee from robotic "dogs" after the unexplained collapse of human society. The dogs were influenced by Boston Dynamics' robots such as BigDog. Filming took place in England, with Lidar scans used for scenes from the dog's perspective. Lasting 41 minutes, "Metalhead" is the second-shortest episode behind "Mazey Day".
Les gouvernements qui développent des armes autonomes pourront les utiliser contre leur propre peuple.
En cas de révolution, par exemple si les étasuniens se rebellaient contre l'administration Biden, peut-être que l'armée refuserait de suivre les ordres (mutinerie de la Garde nationale française à Paris en juillet 1789), alors que les armes autonomes en on rien à foutre, elles suivront toujours les ordres.

Les révolutions ont lieu quand l'armée se met du côté du peuple, avec des armes autonomes ça va être plus compliqué de faire des révolutions.
3  0 
Avatar de RxB2038
Membre régulier https://www.developpez.com
Le 30/08/2023 à 16:46
Quand on voit les difficultés que Tesla rencontre avec les voitures autonomes, la question que l'on est en droit de se poser au regard du déploiement des ces technologies c'est "mais qu'est-ce qui pourrais bien merder" ?

Parce qu'une chose est certaine, si ça peut, ça merdera, sauf que les bugs dans le cas de chiens robots armés de fusil d'assaut ou de drones bardés de missiles pilotés par IA, ça peut être un peu plus lourds de conséquences que "mon site web est tombé pendant 30 minutes".

Sans parler des biais racistes dans l'identification des cibles, de la généralisation des ces équipements aux forces anti-émeutes, ni du fait que James Cameron nous avait prévenus
3  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 04/12/2023 à 17:18
S'il en sont aux discussions publiques, c'est que dans les faits, le projet est beaucoup plus avancé que ce qui est dit. De toute façon, la puissance du complexe militaro-industriel US est tellement importante que personne ne pourra leur dicter quoi que ce soit.
5  2 
Avatar de olaxius
Membre éclairé https://www.developpez.com
Le 04/12/2023 à 17:19
Ce qui soulève des préoccupations d'ordre éthique
A bon pourquoi il y a une code éthique dans la guerre "traditionnelle" ? La convention de Genève peut être ???
Il n'y à qu'a voir ce qui se passe actuellement en Ukraine , en Israel (pour les conflits les plus médiatisés) où l'éthique est omni présente .
Guerre à "l'ancienne" ou guerre "moderne" l'éthique n'a pas eu , n'a pas et n'aura jamais son mot à dire dans la guerre .
La violence humaine est à l'aulne de sa connerie et comme la connerie est infinie ...
Se faire massacrer par un soldat avec remords ou sans remord quelle différence ?
Ah si bien sur les gouvernements n'auront pas prendre les séquelles post traumatiques à leur charge , et à payer des pensions ...
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/12/2023 à 7:26
Citation Envoyé par OrthodoxWindows Voir le message
Mais les décisionnaires qui contrôles les guerre et contrôlerons dans le futur ces super-soldats cybernétiques, il s ressentent quelque chose, eux ?
Oui ce sont des gentils, ils n'aiment pas les méchants et seront donc heureux d'empêcher qu'ils fassent des choses de méchants.
Que pensent ils de la diplomatie? Moi non plus je n'ai jamais compris cette passion pour les dinosaures et les chiffres....
1  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 05/12/2023 à 13:34
C'est un kasting pour un remake de l’homme qui valait 3 milliards ?

Ou ils essaient juste de faire peur aux vilains, avec des hommes de paille alias des épouvantails ?

Tout ceci me parait totalement irréaliste...
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 01/09/2023 à 9:34
Citation Envoyé par Bruno Voir le message
À votre avis, comment les gouvernements peuvent-ils s’assurer que l’utilisation de l’IA dans les drones militaires est responsable et éthique ?
L'important c'est de gagner la guerre, ce n'est pas d'être ethique.
Les gagnants ne sont pas jugés, les USA ne se sont jamais excusé pour avoir largué des bombes atomiques et du Napalm sur des civils.

Citation Envoyé par Bruno Voir le message
Comment les militaires peuvent-ils s’assurer que les drones autonomes prennent des décisions éthiques et responsables ?
Le problème ce n'est pas les décisions que prennent les drones autonomes, le problème c'est les ordres qu'ils recoivent.

====
Pour les USA il y a un côté positif à l'utilisation de drone autonome, c'est qu'il y aura peut-être moins de militaires US qui vont se suicider.
Etats-Unis : pour un soldat mort au combat, 10 vétérans se suicident
22 suicides par jour ! Quand les dernières guerres des Etats-Unis ont coûté la vie à 4488 soldats, la vie civile a vu le suicide de 43.208 hommes et femmes anciens combattants sur 10 ans... Pour un mort sur le terrain, près de 10 anciens combattants se sont donné la mort.
Cette moyenne du nombre de décès quotidiens de vétérans a fait frémir l'Amérique quand elle l'a appris. Près de 950 tentatives par mois.
1  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 04/12/2023 à 19:34
Citation Envoyé par Cpt Anderson Voir le message
De toute façon, la puissance du complexe militaro-industriel US est tellement importante que personne ne pourra leur dicter quoi que ce soit.
Si les USA perdent la prochaine guerre mondiale, alors les vainqueurs pourront punir les USA pour leur utilisation d'arme interdite.

Citation Envoyé par olaxius Voir le message
A bon pourquoi il y a une code éthique dans la guerre "traditionnelle" ? La convention de Genève peut être ???
Si tu gagnes la guerre mondiale, ça va (voir les 2 bombes atomiques sur des civils japonais).
Par contre si tu perds tu peux te faire sanctionner.
2  2 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 05/12/2023 à 1:31
Les scientifiques du Pentagone discutent de la création de super-soldats cybernétiques qui ne ressentent rien lorsqu'ils tuent
Ha ouais ????

Mais les décisionnaires qui contrôles les guerre et contrôlerons dans le futur ces super-soldats cybernétiques, il s ressentent quelque chose, eux ?

1  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/12/2023 à 9:39
Citation Envoyé par OrthodoxWindows Voir le message
il s ressentent quelque chose, eux ?
C'est peu probable.
En haut de la hiérarchie des USA, il y a des gens qui ont demandés à ce que soit utilisé un paquet d'armes inhumaines, comme le Napalm, l'Agent Orange, les bombes atomiques, les munitions à l'uranium appauvri, le phosphore blanc, etc.
Ils ont donné l'ordre de tuer des centaines de milliers de civils irakiens. Ils ont foutu la merde un peu partout sur terre.

Ils s'en foutent des conséquences.
Ukraine : Washington enverra des munitions à uranium appauvri, armes perforantes controversées
Elles ont été employées au cours des deux guerres du Golfe de 1991 et 2003 ainsi qu'en ex-Yougoslavie pendant les années 1990.

Le Pentagone a en outre reconnu s'être servi d'obus à l'uranium appauvri à deux reprises en 2015 dans des opérations contre le groupe Etat islamique en Syrie.

Le Royaume-Uni avait déjà annoncé il y a plusieurs mois son intention de livrer des munitions contenant de l'uranium appauvri à l'Ukraine, initiative dénoncée par Moscou.
L'autre chose qui serait intéressant de savoir c'est quelles drogues l'armée US donne à ses soldats.
Pour accepter de suivre les ordres qu'on leur donne, ils doivent être sous produits.

Par exemple on sait que pendant la seconde guerre mondiale les soldats prenaient de la pervitine, en gros c'est de la méthamphétamine.
1  1