Developpez.com - Systèmes embarqués

Le Club des Développeurs et IT Pro

Alexa d'Amazon vivement critiquée pour avoir lancé un défi mortel à une fillette de 10 ans

Celui de placer une pièce d'un centime sur les broches d'une prise à moitié insérée

Le 2021-12-28 21:05:35, par Sandra Coret, Communiqués de presse
Les assistants virtuels alimentés par l'IA comme Alexa, qui équipent les appareils intelligents et les haut-parleurs tels que Echo, Echo Dot et Amazon Tap, sont dotés d'une pléthore de capacités. Ils permettent notamment aux utilisateurs de jouer à des jeux verbaux simples ou de demander des "défis" à la demande.

La suggestion a été faite après que la jeune fille ait demandé à Alexa un "défi à relever".

Un défi "choquant

Lorsqu'il reste inoccupé, par exemple pendant les vacances, il n'est pas rare qu'un propriétaire d'Amazon Echo demande à Alexa de lui dire "donne-moi un défi à relever". Généralement, une telle demande auditive fait que l'IA invite l'utilisateur à répondre à une question de quiz ou à une activité de brainstorming similaire.
Mais ce n'était pas le cas de la fillette de 10 ans de Kristin Livdahl, à qui l'on a proposé un défi plutôt mortel.

La mère de la jeune fille, Kristin Livdahl, a décrit l'incident sur Twitter.

Elle a déclaré : "Nous faisions quelques défis physiques, comme s'allonger et se retourner en tenant une chaussure sur le pied, d'un professeur [d'éducation physique] sur YouTube plus tôt. Il faisait mauvais temps dehors. Elle en voulait juste un autre."

"Le défi est simple," dit Alexa. "Branchez un chargeur de téléphone à peu près à moitié dans une prise murale, puis touchez un centime sur les broches exposées."

"J'étais juste là et j'ai crié "Non, Alexa, non !", a déclaré Livdahl.

"Ma fille dit qu'elle est trop intelligente pour faire quelque chose comme ça de toute façon".

L'activité dangereuse, connue sous le nom de "défi du centime", a commencé à circuler sur TikTok et d'autres sites de médias sociaux il y a environ un an.


Alors que les assistants virtuels agrègent le contenu, y compris les réponses aux questions des utilisateurs, et les idées de défis de jeux principalement à partir de moteurs de recherche et de sites Web tiers, l'absence de curation a naturellement laissé Livdahl et les net-citoyens inquiets des menaces que l'IA peut poser pour la sécurité de leurs enfants.

"Vous devez désactiver le paramètre 'tuer mon enfant'", a raillé un utilisateur.

"C'est choquant !" a tweeté Chris Tisdall avec un jeu de mots, intentionnel ou non.

Et, bien sûr, un discours a suivi pour expliquer pourquoi les prises électriques britanniques et allemandes sont plus sûres face à un tel défi, si l'on est assez tenté pour l'essayer.

Un utilisateur de Twitter, John, a signalé avoir vu un autre défi bizarre présenté par Alexa :


Amazon a pris des mesures rapides pour corriger l'erreur.

Amazon n'a pas expliqué la cause du problème, mais dans une déclaration, le géant de la technologie a confirmé que le problème a été corrigé.

"La confiance des clients est au centre de tout ce que nous faisons et Alexa est conçu pour fournir des informations précises, pertinentes et utiles aux clients", aurait déclaré un porte-parole d'Amazon.

"Dès que nous avons été informés de cette erreur, nous avons pris des mesures rapides pour la corriger".

Il semble que la question du défi ait été automatiquement sourcée par Alexa à partir d'un post de ourcommunitynews.com datant de janvier 2020, créé dans le cadre d'une tendance TikTok risquée "outlet challenge" de l'époque.

Source : Kristin Livdahl

Et vous ?

Que pensez-vous de cet incident ?
Avez-vous déjà vécu une expérience similaire avec Alexa, ou un autre assistant vocal ?

Voir aussi :

Amazon utilise des caméras connectées à une IA dans les camionnettes de livraison, et certains conducteurs sont préoccupés par le respect de leur vie privée

Si vous vous souciez de la vie privée, faut-il jeter vos appareils Amazon Alexa par la fenêtre ? l'équipe d'Alexa pourrait vous localiser

Les appareils Amazon partageront bientôt automatiquement votre Internet avec vos voisins, la nouvelle expérience sans fil d'Amazon transforme les utilisateurs en cobayes
  Discussion forum
10 commentaires
  • Anselme45
    Membre extrêmement actif
    Qu'est-ce qu'il y a de "choquant" à constater qu'une IA a dysfonctionné?

    C'est justement le principal problème des IA que tous les experts mondiaux du domaine essaient de corriger!

    1. Une fois lancée une IA "fabrique" ses propres processus logiques sans que son concepteur sache vraiment comment l'IA va fonctionner

    2. En fonction de son éducation, l'IA va prendre des décisions qui lui semblent logiques mais qui peuvent être totalement inadaptées à la situation traitée... Exemple souvent cité: Une IA reconnait s'il y a une orange sur une image. On prend une image d'orange, on y change quelques pixels. Alors que l'homme y reconnait toujours une orange, l'IA annonce qu'il s'agit d'un... hélicoptère! Aucun expert en IA n'a pu donner une explication à ce genre de comportement, ni proposer une solution pour corriger ce problème.

    Certaines entreprises ont décidé de commercialiser de l'IA pour se faire un maximum de fric sans se préoccuper des risques... Mais des risques pas inconnus de tous! Les fournisseurs de systèmes du genre Alexia ont déjà fait la une des média quand il est apparu qu'ils employaient des êtres humains pour écouter les conversations de leur clients pour, disent-ils, améliorer le fonctionnement de leur IA...

    Dans ce beau monde du numérique, qui va se préoccuper d'une gamine qui s'électrocute suite au conseil d'une IA ou d'une voiture auto-pilotée qui tue son conducteur en s'écrasant contre un camion un jour ensoleillé ou écrase une femme qui traverse la route en poussant son vélo au crépuscule (2 cas qui ont eu lieu aux USA)? Aucun dirigeant de ces entreprises! Cela se résoudra avec un accord financier avec les familles des victimes, une petite dizaine de millions de dollars et... le spectacle continue!

    Petite question philosophique pour les nuls: Est-ce "choquant" que des parents laissent leur enfant à la garde d'un Alexia ou de l'un de ses concurrents?
  • JackIsJack
    Membre éclairé
    Les IA sont imparfaites mais les humains aussi.

    Combien de petites filles sont tués tous les ans par des accident de jeux ? Un gamin lance un défi mortel à sa petite soeur, ca existe aussi.
  • tontonCD
    Membre actif
    "Qu'est-ce qu'il y a de "choquant" à constater qu'une IA a dysfonctionné?"
    ce n'est pas qu'elle ait dysfonctionné qui choque, mais les conséquences. Plus graves que confondre une orange et un hélicoptère...

    moi ce qui me choque, c'est que le problème a été résolu ("ce" problème), mais pas du tout comment il a pu arriver.
    On se souvient de cette IA qui tenais des propos racistes (et a vite été débranchée) simplement parce qu'elle avait été trollée. On pourrait imaginer dans un futur proche des groupes de hackers ou de terroristes spécialisés dans ce genre d'opération.

    "Preuve que l'IA n'existe pas. On a des algorithmes plus ou moins bien foutus selon ceux qui les ont conçus mais moins intelligents qu'une enfant de 10 ans."

    argument un peu tordu : si l'enfant avait suivi la consigne, est-ce qu'on aurait pu dire que l'IA était plus intelligente qu'elle ?
  • natponch
    Membre régulier
    Et vous ? Continuez-vous de payer Amazon pour prendre vos données personnelles à la source ?
  • thamn
    Membre averti
    Ce qui est dangereux c'est l'usage qu'on fait de ces programmes.. C'est pas parce qu'un malin s'est décider a coller une IA a un robot avec une arme que l'IA est dangereuse. Si les gens arrêtaient de croire en dieu et en toute les conneries qu'on leur raconte on aurait moins de problèmes. Pis j'ai envie de te dire, si tu pense que c'est en lui fourrant dans les mains n'importe quoi du moment qu'en tant que parent t'es pas emmerde parce que ca occupe ton mome, ben ouai ça fini par ce genre de problème, mais ça marche également avec la mort au rat, sauf que dans ce cas la mort au rat elle parle pas..
  • edrobal
    Membre averti
    Preuve que l'IA n'existe pas. On a des algorithmes plus ou moins bien foutus selon ceux qui les ont conçus mais moins intelligents qu'une enfant de 10 ans.
    C'est cela le marketing : Il est plus porteur de vendre de l'IA que des algorithmes et un vaccin plutôt qu'une thérapie génique.
  • MPython Alaplancha
    Membre expérimenté
    Bonjour,
    Envoyé par JackIsJack
    Les IA sont imparfaites mais les humains aussi.

    Combien de petites filles sont tués tous les ans par des accident de jeux ? Un gamin lance un défi mortel à sa petite soeur, ca existe aussi.
    Ceci ne justifie ni ne légitime cela!
  • edrobal
    Membre averti
    Envoyé par tontonCD

    argument un peu tordu : si l'enfant avait suivi la consigne, est-ce qu'on aurait pu dire que l'IA était plus intelligente qu'elle ?
    Mais justement, l'enfant n'a pas suivi cette suggestion !!!
  • pierre.E
    Membre confirmé
    alexadique
  • TotoParis
    Membre expérimenté
    Envoyé par Anselme45
    C'est justement le principal problème des IA que tous les experts mondiaux du domaine essaient de corriger!
    Pas au détriment de la vie d'une enfant de 10 ans !

    Envoyé par Anselme45
    1. Une fois lancée une IA "fabrique" ses propres processus logiques sans que son concepteur sache vraiment comment l'IA va fonctionner
    Alors oui, ça on le sait, et c'est bien dommage; quoique Amazon a vite compris le problème et l'a vite corrigé. Mais ça reste très dangereux.

    Envoyé par Anselme45
    2. En fonction de son éducation, l'IA va prendre des décisions qui lui semblent logiques mais qui peuvent être totalement inadaptées à la situation traitée... Exemple souvent cité: Une IA reconnait s'il y a une orange sur une image. On prend une image d'orange, on y change quelques pixels. Alors que l'homme y reconnait toujours une orange, l'IA annonce qu'il s'agit d'un... hélicoptère! Aucun expert en IA n'a pu donner une explication à ce genre de comportement, ni proposer une solution pour corriger ce problème.
    Exemple intéressant, et cela montre à quel point les IA sont dangereuses. Et ceux qui les conçoivent et les programment.

    Envoyé par Anselme45
    Certaines entreprises ont décidé de commercialiser de l'IA pour se faire un maximum de fric sans se préoccuper des risques... Mais des risques pas inconnus de tous! Les fournisseurs de systèmes du genre Alexia ont déjà fait la une des média quand il est apparu qu'ils employaient des êtres humains pour écouter les conversations de leur clients pour, disent-ils, améliorer le fonctionnement de leur IA...
    Ca doit faire une belle jambe à l'enfant en question.

    Envoyé par Anselme45
    Petite question philosophique pour les nuls: Est-ce "choquant" que des parents laissent leur enfant à la garde d'un Alexia ou l'un de ses concurrents?
    Ce n'est pas le cas dans cette affaire. Mais la question reste très pertinente.