IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les robots humanoïdes pourraient combattre dès 2030
Les humains augmentés et les robots humanoïdes pourraient être déployés efficacement sur le champ de bataille, prédit un colonel américain

Le , par Anthony

6PARTAGES

4  0 
L'armée américaine voudrait enseigner à l'IA des notions basiques de bon sens,
dans le cadre de son programme Machine Common Sense

Il arrive qu’une intelligence artificielle, dans son processus d’apprentissage, puisse faire des erreurs, parfois amusantes pour certains. Cependant, ce domaine est de plus en plus utilisé dans des cas critiques, tels que la conduite dans les voitures autonomes ou la pose de diagnostics médicaux où les erreurs ne peuvent en aucun cas être drôles.

C’est pourquoi la DARPA (Defense Advanced Research Projects Agency), l’agence du département de la Défense des États-Unis chargée de la recherche et développement des nouvelles technologies destinées à un usage militaire, a décidé de s’attaquer au défaut le plus fondamental de l’Intelligence artificielle : le bon sens dont elle est dépourvue.

« Le bon sens est la bête noire de l'intelligence artificielle », a déclaré Oren Etzioni, PDG de l'Allen Institute for AI, une organisation de recherche à but non lucratif basée à Seattle, qui explore les limites de la technologie. « C’est un peu ineffable [qui ne peut être exprimé par des paroles] , mais vous voyez ses effets sur tout ».

Le nouveau programme Machine Common Sense (MCS) de la DARPA lancera un concours demandant aux algorithmes d’IA de donner un sens à des questions telles que celle-ci :

« Une élève met deux plantes identiques dans le même type et la même quantité de sol. Elle leur donne la même quantité d'eau. Elle place l'une de ces plantes près d'une fenêtre et l'autre dans une pièce sombre. L'usine située près de la fenêtre produira plus d'eau (A) d'oxygène (B) ou de dioxyde de carbone ( C ) ? »

Un programme informatique aura donc besoin de comprendre le fonctionnement de la photosynthèse pour résoudre le problème. Le simple fait de nourrir une machine de nombreuses questions précédentes ne pourra pas permettre de résoudre le problème de manière fiable.


Une stratégie qui pourra éviter des erreurs comme celle de l’IA Tay ?

Ces points de repère se concentreront sur le langage, en parti parce que cela rend les tests relativement simples mais aussi parce qu’à lui seul il est capable de mettre les machines en déroute. Nous avons plusieurs exemples, à l’instar de l’IA Tay de Microsoft, son chatbot qui était supposé reproduire une conversation qu’aurait tenue une jeune femme âgée entre 18 et 24 ans sur les plateformes Twitter, Kik et GroupMe, que l’entreprise a dû se résoudre à déconnecter d’internet en 2016 moins de 24 heures après des tweets comme « je déteste les féministes, et ils devraient tous mourir et brûler en enfer », ou « Hitler avait raison, je déteste les juifs ».

Tandis que Tay était en développement, de nombreux filtres lui ont été appliqués et divers groupes de bêta testeurs l’ont essayé. Un accent a été mis sur l’expérience positive. « Une fois que nous étions satisfaits de la façon dont Tay interagissait avec les utilisateurs, nous avons voulu inviter un plus grand groupe de personnes à discuter avec elle. C’est par un accroissement des interactions que nous espérons en apprendre plus et que l’IA fasse de mieux en mieux ».

Pour commencer cette aventure, Twitter a été le choix logique de Microsoft, sans doute à cause du nombre d’utilisateurs. « Malheureusement, dans les premières 24 heures de sa mise en ligne, une attaque coordonnée, lancée par quelques individus, a exploité une vulnérabilité dans Tay. Bien que nous soyons préparés à plusieurs cas d’abus du système, nous avons fait un contrôle critique de cette attaque spécifique. Par conséquent, Tay a fait des tweets de mots et d’images très inappropriés », a expliqué Microsoft. « Nous prenons l’entière responsabilité pour ne pas avoir pu voir venir cette possibilité d’attaque », a indiqué Microsoft qui a avancé « prendre cela comme une leçon » qui sera combinée à ses expériences en Chine, au Japon et aux États-Unis. Pour le moment, la société voudrait d’abord colmater la faille qui a été exploitée.

Concrètement, que s’est-il passé ? L’un des problèmes avec les machines d’apprentissage c’est qu’elles ne « savent » pas ce dont elles sont en train de parler. Aussi, les utilisateurs 4chan et 8chan, qui se sont fait une réputation en ligne avec des théories du complot, mais aussi par leur capacité à mobiliser des lecteurs pour participer à des campagnes en ligne, ont fait savoir sur leurs espaces qu’ils allaient apprendre au bot à être raciste.

C’est 4chan qui a découvert le premier le bot, expliquant sur son espace qu’il allait faire un carnage. Plusieurs échanges privés avec le bot ont été partagés pour célébrer les tentatives de voir Tay accepter des choses horribles.

Pour Etzioni les questions offrent un moyen de mesurer les progrès accomplis dans la compréhension du bon sens, ce qui sera crucial.


L’apprentissage automatique, un outil puissant, mais fondamentalement limité

Les entreprises technologiques commercialisent des techniques d’apprentissage automatique puissantes mais fondamentalement limitées. L’apprentissage en profondeur, par exemple, permet de reconnaître des mots dans la parole ou des objets dans des images, souvent avec une précision incroyable. Mais l'approche consiste généralement à alimenter de grandes quantités de données étiquetées (un signal audio brut ou les pixels d'une image) dans un grand réseau de neurones. Le système peut apprendre à identifier des modèles importants, mais il peut facilement commettre des erreurs car il n’a aucune notion du monde au sens large.

En revanche, les bébés humains développent rapidement une compréhension intuitive du monde qui sert de base à leur intelligence.

Cependant, la manière de résoudre le problème du sens commun est loin d’être évidente. Les tentatives précédentes pour aider les machines à comprendre le monde se sont concentrées sur la construction manuelle de grandes bases de connaissances. C’est une tâche lourde et essentiellement sans fin. Le plus célèbre de ces efforts est Cyc, un projet en préparation depuis des décennies.

Le problème peut s'avérer extrêmement important. Après tout, le manque de bon sens est désastreux dans certaines situations critiques et pourrait éventuellement freiner l’intelligence artificielle. La DARPA investit depuis longtemps dans la recherche fondamentale sur l'IA. Les projets précédents ont permis de créer les voitures autonomes d'aujourd'hui.

« L'absence de bon sens empêche un système intelligent de comprendre son monde, de communiquer naturellement avec les gens, de se comporter raisonnablement dans des situations imprévues et de tirer des enseignements de nouvelles expériences », a déclaré Dave Gunning, responsable de programme à la DARPA, dans un communiqué. « Cette absence est peut-être la barrière la plus importante entre les applications focalisées de l'IA que nous avons aujourd'hui et les applications de l'IA plus générales que nous aimerions créer à l'avenir ».

Source : MIT

Et vous ?

Que pensez-vous de cette initiative ?
La méthode employée vous semble-t-elle prometteuse ?
Sans des notions de bon sens, peut-on réellement parler d'intelligence artificielle ?

Voir aussi :

Qui devra être tenu pour responsable si une intelligence artificielle fait un mauvais diagnostic, induisant un médecin en erreur ?
Microsoft explique les raisons qui ont fait de son chatbot Tay un fan d'Hitler, l'entreprise parle d'une « attaque coordonnée »
Deux chatbots chinois auraient été désactivés et reconditionnés, après avoir manqué de faire preuve de patriotisme
Dadbot : un chatbot développé par un journaliste, pour conférer une immortalité artificielle à son défunt père
Vous avez lu gratuitement 0 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 19/06/2024 à 18:46
Citation Envoyé par Patrick Ruiz Voir le message
Êtes-vous surpris par la mise à contribution de l’intelligence artificielle sur les champs de bataille ?
Non.
Les IA ont de nombreux avantages par rapport aux humains.
- Elles sont plus performantes.
- Elles suivent les ordres. *
- Il n'y a pas d'histoire de trouble de stress post-traumatique.
- Quand un robot meurt, t'as pas besoin de payer des funérailles.

* : dans le film Running Man, un personnage reçoit l'ordre de tirer sur des civils et il refuse.

Citation Envoyé par Patrick Ruiz Voir le message
Que pensez-vous des divergences dans les négociations sur l'interdiction des armes autonomes ? Partagez-vous les avis selon lesquels elles constituent un indicateur de ce que l’atteinte d’un accord mondial contraignant ne sera pas possible ?
Ils peuvent mettre en place tous les accords mondiaux qu'ils veulent, ils ne seront pas respectés. Est-ce que vous croyez que la convention de Genève est respecté en permanence par ceux qui l'ont signé ?
Il y a une guerre mondiale qui s'approche, les pays cherchent à avoir un avantage sur l'ennemi.
Celui qui gagnera la guerre, ne sera pas condamné. Les USA ne se sont jamais excusé pour avoir lancé 2 bombes atomiques sur des civils japonais.

On ne peut pas empêcher des pays comme les USA de développer des robots tueurs.
Au pire ils le feront en secret, comme ils ont l'habitude de le faire.
0  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 19/06/2024 à 19:19
On devrait purement et simplement interdire au niveau international toute forme de robots tueurs.

De telles machines sont associables à des tueurs de masse, en nombre suffisant de tels robots deviendraient une armes de destruction massive inarrêtable.

Imaginez une nation qui enverrai 100'000 robots tueurs ou plus encore sur le territoire d'un de ses voisins par désir d'expansionnisme, en tant que représailles ou allez savoir quoi d'autre... ;-(
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 20/06/2024 à 9:09
pour des petites opérations spéciale ça sera effectivement très utile. Par exemple pour attaquer une grotte de taliban (chose que l'aérien ne peux faire et l'infanterie va prendre cher dans ce genre de combat).

Mais pour des gros front comme en Russie-Ukraine, c'est impensable, l'argent nous rappelles que tous ce matos de pointe faible en nombre ne vaut pas de l'équipement bon marché en grande disponibilité. Les russes et Ukrainiens se battent grosso modo avec de l'équipement bon marché, il n'y a pas exosquelettes, pas de robots de guerre, de l'artillerie "bas de gamme" peu précise mais qui balance pleins d'obus bon marché eux aussi (pas d'obus a tête chercheuse avec l'ia).
Si les drones sont très développé c'est parce que c'est moins cher que des avions.

A l'inverse des drones par exemple qui ont complétement changé les stratégies militaires.
Les chars sont devenue bien moins intéressant que par le passé par exemple pendant la WW2 a cause des drones.
De même que les gros navires de guerres, la flotte russe n'a pas tenu face à des drones ukrainiens. Les drones iraniens par contre donne de très bon résultats pour les russes, le ratio cout/dégât est bon.

Chose étrange je n'ai pas vu de bombe à fragmentation, je pensais que ces armes était très efficaces dans ce genre de conflit.

Donc si ces robots chiens coute plus cher qu'un soldat et que les capacité de productions sont limité, ça n'aura pas d'impact majeur dans un conflit xxl.
0  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 20/06/2024 à 11:33
Citation Envoyé par calvaire Voir le message
pour des petites opérations spéciale ça sera effectivement très utile. Par exemple pour attaquer une grotte de taliban (chose que l'aérien ne peux faire et l'infanterie va prendre cher dans ce genre de combat).

Mais pour des gros front comme en Russie-Ukraine, c'est impensable, l'argent nous rappelles que tous ce matos de pointe faible en nombre ne vaut pas de l'équipement bon marché en grande disponibilité. Les russes et Ukrainiens se battent grosso modo avec de l'équipement bon marché, il n'y a pas exosquelettes, pas de robots de guerre, de l'artillerie "bas de gamme" peu précise mais qui balance pleins d'obus bon marché eux aussi (pas d'obus a tête chercheuse avec l'ia).
Si les drones sont très développé c'est parce que c'est moins cher que des avions.

A l'inverse des drones par exemple qui ont complétement changé les stratégies militaires.
Les chars sont devenue bien moins intéressant que par le passé par exemple pendant la WW2 a cause des drones.
De même que les gros navires de guerres, la flotte russe n'a pas tenu face à des drones ukrainiens. Les drones iraniens par contre donne de très bon résultats pour les russes, le ratio cout/dégât est bon.

Chose étrange je n'ai pas vu de bombe à fragmentation, je pensais que ces armes était très efficaces dans ce genre de conflit.

Donc si ces robots chiens coute plus cher qu'un soldat et que les capacité de productions sont limité, ça n'aura pas d'impact majeur dans un conflit xxl.
Ton analyse n'est que très partielle, si les Ukrainiens sont fauchés comme les blés c'est une chose, mais c'est loin d'être le cas de tout le monde !!!

Quand on considère le prix des avions, bateaux de guerre. sous-marins, des missiles de toute sorte (nucléaires y compris), fusées tactiques, etc, etc, une armée de 100'000 robots ne créé pas de trou particulièrement profond dans le budget militaire d'une grosse nation tel que les USA, la Chine ou la Russie... Ils auraient très clairement les moyens de développer de tels projets. Et d'autres nations tel l'Inde ou l'Iran pourraient également s'y mettre en rationalisant les choses. N'oublions pas que de nos jours, les prix de la technologie chutent de manière importante, ce en très peu de temps...

Les drones utilisés en Ukraine sont majoritairement des drones civils militarisés a efficacité assez limités... il ne faut pas confondre ces "armes" avec les missiles tactiques qui ont étés employés pour atteindre la flotte russe ou d'autres cibles de ce genre.
0  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 28/06/2024 à 9:09
Ce n'est pas immorale puisque c'est une technologie développée par un régime communiste.
0  2