IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un implant cérébral permet à un homme qui a perdu la parole de produire presque instantanément des phrases à consonance naturelle,
Mais il n'est pas encore assez fiable pour être utilisé dans la vie courante

Le , par Mathis Lucas

4PARTAGES

2  0 
Un implant cérébral permet à un homme qui a perdu la parole de produire presque instantanément des phrases à consonance naturelle
mais il n'est pas encore assez fiable pour être utilisé dans la vie courante

Une équipe de scientifiques de l'université de Californie à Davis (UC Davis) a construit une prothèse neuronale capable de traduire instantanément les signaux cérébraux en sons-phonèmes et en mots. La technologie présente encore de sérieuses limites et fait l'objet de travaux de perfectionnement, mais les résultats prometteurs obtenus jusqu'à présent lors des tests sur un patient sont passés de conversations presque inintelligibles à des conversations entièrement scriptées que d'autres personnes ont pu comprendre. Selon d'autres experts en neuroscience, il s'agit peut-être du premier véritable pas vers un appareil vocal entièrement numérique.

Casey Harrell, 47 ans, a perdu l'usage de la parole il y a cinq ans à cause d'une sclérose latérale amyotrophique (SLA). Cette maladie neurodégénérative a affaibli les connexions entre le cortex moteur de son cerveau et les muscles qui contrôlent sa langue, ses lèvres et son larynx, le rendant incapable de former des mots intelligibles. Mais grâce à une prothèse neuronale associée à un algorithme d'apprentissage automatique, il peut à nouveau « parler ».

Casey Harrell peut désormais parler avec une voix informatisée générée à une vitesse impossible à distinguer de celle d'un discours naturel, bien plus rapide que ce qui était possible auparavant avec de telles interfaces cerveau-ordinateur. Le système de prothèse vocale lui permet même d'insister sur certains mots d'une phrase et de chanter des mélodies simples, ce qui rapproche ainsi cette technologie plus que jamais d'un discours naturel et spontané.


Avant sa mort en 2018, Stephen Hawking était devenu célèbre aussi bien pour sa voix synthétique que pour ses contributions à la science. Le physicien britannique était en effet atteint de SLA, et il communiquait avec le monde à l'aide d'un capteur installé dans ses lunettes. Le capteur utilisait de minuscules mouvements d'un seul muscle de sa joue pour sélectionner des caractères sur un écran. (Cette technologie était déjà révolutionnaire pour l'époque.)

Une fois qu'il avait tapé une phrase complète, le texte était synthétisé par un synthétiseur DECtalk TC01, qui lui donnait sa voix robotique emblématiques. Bien qu'ingénieux, ce système prenait généralement une minute à Stephen Hawking pour taper un mot. Mais beaucoup de choses ont changé depuis sa mort.

Un dispositif neuronal de syntaxe vocale presque en temps réel

Aujourd'hui, les chercheurs en neuroprothèses de l'UC Davis travaillent sur une nouvelle technologie qui contourne ces méthodes anciennes en connectant une prothèse neuronale directement au cerveau. Celle-ci traduit directement les signaux cérébraux en sons. Il s'agit d'une façon plus naturelle de parler, qui ne repose pas sur la capacité de l'utilisateur à épeler et qui est clairement beaucoup plus rapide que ce que nous avons réalisé jusqu'à présent.

« Notre principal objectif est de créer une neuroprothèse vocale flexible qui permette à un patient paralysé de parler aussi couramment que possible, en gérant sa propre cadence, et d'être plus expressif en modulant son intonation », explique Maitreyee Wairagkar, chercheur en neuroprothèses à l'UC Davis, qui a dirigé l'étude. Ce défi de taille nécessitait donc de résoudre les problèmes auxquels les anciennes solutions avaient été confrontées par le passé.

Aller au-delà du texte

Le premier problème consistait à aller au-delà du texte : la plupart des prothèses neurales développées jusqu'à présent traduisaient les signaux cérébraux en texte. En pratique, les mots qu'un patient porteur d'une prothèse implantée essayait de prononcer apparaissaient simplement sur un écran. Francis R. Willett a dirigé une équipe de l'université de Stanford qui a réussi à traduire les signaux cérébraux en texte avec un taux d'erreur d'environ 25 %.

« Lorsqu'une femme atteinte de SLA essayait de parler, ils pouvaient décoder les mots. Trois mots sur quatre étaient corrects. C'était très intéressant, mais pas suffisant pour la communication quotidienne », explique Sergey Stavisky, neuroscientifique à l'UC Davis et auteur principal de l'étude.

Réduire la latence

L'approche la plus courante pour générer de la parole est de la synthétiser à partir d'un texte. Mais cela conduisait directement à un autre problème des ICO : une latence très élevée. Les phrases apparaissent à l'écran après un délai important, longtemps après que le patient portant une ICO a fini d'enchaîner les mots dans son esprit. La synthèse vocale intervient généralement une fois que la phrase est prête, ce qui augmente encore la latence.

Le dernier système de ce type disposait d'un dictionnaire de 125 000 mots, mais il échouait toujours lorsqu'on essayait de parler une autre langue ou même de prononcer le nom inhabituel d'un café situé juste au coin de la rue. Maitreyee Wairagkar a donc conçu sa prothèse pour qu'elle traduise les signaux cérébraux en sons, et non en mots, et ce en temps réel. Cette approche permet de contourner les problèmes de latence liés aux anciens systèmes.

Extraction du son

« Il est gravement paralysé et lorsqu'il essaie de parler, il est très difficile de le comprendre. Je le connais depuis plusieurs années et lorsqu'il parle, je comprends peut-être 5 % de ce qu'il dit », explique David M. Brandman, neurochirurgien et co-auteur de l'étude, à propos de leur patient Casey Harrell. Selon l'équipe, auparavant, Casey Harrell communiquait à l'aide d'une souris à tête gyroscopique pour contrôler un curseur sur un écran d'ordinateur.


Pour tester leur système de synthèse vocale, l'équipe a implanté 256 microélectrodes dans le gyrus précentral ventral du patient, une région située à l'avant du cerveau qui contrôle les muscles du tractus vocal. Selon l'équipe de chercheurs, le signal enregistré par les électrodes a ensuite été envoyé à un algorithme d'IA appelé décodeur neuronal, qui a déchiffré ces signaux et extrait les caractéristiques de la parole, comme la hauteur ou la voix.

Ces caractéristiques ont ensuite été introduites dans un vocodeur, un algorithme de synthèse vocale conçu pour reproduire la voix que Casey Harrell avait lorsqu'il était encore capable de parler normalement. L'ensemble du système a fonctionné avec une latence d'environ 10 millisecondes.

Les limites connues de ce nouveau dispositif de synthèse vocale

Les volontaires à qui l'on a demandé d'évaluer leur niveau de compréhension de Casey Harrell ont déclaré avoir compris 60 % de ce qu'il disait à l'aide de l'interface, contre 4 % des mots qu'il prononçait sans celle-ci. Ce résultat est encore loin de la précision de 98 % atteinte par le système de conversion de signaux en texte que Casey Harrell utilise quotidiennement, développé par l'équipe de Sergey Stavisky et utilisait de grands modèles de langage.

La prothèse neuronale de Maitreyee Wairagkar convertissant les signaux cérébraux en sons, elle n'est pas livrée avec une sélection limitée de mots pris en charge. Le patient pouvait dire tout ce qu'il voulait, y compris des pseudo-mots qui ne figuraient pas dans un dictionnaire et des interjections comme « hum » ou « euh ». Le système étant sensible à des caractéristiques telles que la hauteur ou la prosodie, il pouvait également vocaliser des questions.

Mais la prothèse de Maitreyee Wairagkar a ses limites. Pour tester les performances de la prothèse, l'équipe de Maitreyee Wairagkar a d'abord demandé à des auditeurs humains de faire correspondre un enregistrement de la parole synthétisée par la prothèse de Casey Harrell avec une transcription d'un ensemble de six phrases candidates de longueur similaire. Selon le rapport, les résultats ont été parfaits, le système atteignant une intelligibilité de 100 %.

Les problèmes ont commencé lorsque l'équipe a essayé quelque chose d'un peu plus difficile : un test de transcription ouverte où les auditeurs devaient travailler sans aucune transcription candidate. Lors de ce second test, le taux d'erreurs de mots était de 43,75 %.

Cela signifie que les participants ont identifié correctement un peu plus de la moitié des mots enregistrés. Il s'agit certainement d'une amélioration par rapport à l'intelligibilité de la parole non assistée de Casey Harrell, où le taux d'erreurs de mots dans le même test avec le même groupe d'auditeurs était de 96,43 %. Mais la prothèse, bien que prometteuse, n'est pas encore assez fiable pour être utilisée dans la communication quotidienne.

Conclusion

Les interfaces cerveau-ordinateur ont le vent en poupe. Ces dispositifs au nom évocateur visent à permettre au cerveau de communiquer directement avec un ordinateur. Les tests réalisés jusqu'à présent dans le domaine médical montrent que ces appareils offrent aux patients souffrant d'une mobilité très réduite, comme ceux atteints de SLA ou du syndrome d'enfermement, les outils nécessaires pour communiquer à nouveau avec le monde extérieur.

Paradromics, une startup spécialisée dans les ICO et basée à Austin, au Texas, souhaite procéder à des essais cliniques sur une prothèse neuronale vocale et cherche déjà à obtenir l'approbation des régulateurs. Neuralink, la startup d'Elon Musk, a déjà doté plusieurs patients de puces neuronales, avec ces résultats mitigés. Gabe Newell, président de Valve, vient de lancer une entreprise rivale qui a annoncé l'arrivée de sa première puce neuronale en 2025.

Mais ces dispositifs sont encore limités, y compris la dernière approche de l'équipe de l'UC Davis. Il y a également des dangers du fait d’ouvrir un crâne pour y insérer des puces électroniques. L'un des patients de Neuralink d'Elon Musk a déjà rapporté un incident où les fils de sa puce se sont rétractés.

Source : rapport de l'étude (PDF)

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous du dispositif de synthèse vocale mis au point par les scientifiques de l'UC Davis ?
Que pensez-vous de l'approche des chercheurs de l'UC Davis ? Selon vous, cette technologie est-elle prometteuse ?

Voir aussi

Les entreprises d'implants cérébraux s'empressent pour implanter leurs dispositifs dans le cerveau de sujets humains, malgré les préoccupations liées à la sécurité et à l'éthique

Le concurrent de Neuralink lancé par le PDG de Valve, Gabe Newell, annonce sa première puce cérébrale cette année, en dépit des dangers du fait d'ouvrir un crâne pour y insérer des puces électroniques

Neuralink a-t-il ignoré les risques liés aux premiers essais ? Le premier implant cérébral humain a mal fonctionné, un problème qui serait connu depuis des années au sein de l'entreprise d'Elon Musk
Vous avez lu gratuitement 75 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !