
Les chercheurs de Meta annoncent une nouvelle technologie de dactylographie cérébrale avec un taux de réussite de 80 %. Contrairement à Neuralink, il utilise un casque non invasif pour détecter les pressions de touches intentionnelles. Les chercheurs ont utilisé l'IA pour décoder le langage et la saisie, ainsi que pour comprendre comment le cerveau forme le langage. Selon les résultats, la technologie a un taux d'erreur de 32 %.
Meta annonce avoir mis au point un outil qui pourrait vous permettre de taper avec votre esprit. La technologie a été annoncée en 2017 et, selon le PDG Mark Zuckerberg, elle vous permettrait de taper "directement à partir de votre cerveau". Pour rappel, une startup spécialisée dans les interfaces cerveau-ordinateur avait annoncé un dispositif similaire en 2022.
Contrairement à Neuralink d'Elon Musk et au dispositif de la startup, qui implique une intervention chirurgicale, Meta a réussi à le faire avec un dispositif placé au-dessus de la tête. Neuralink a permis à des personnes paralysées de contrôler le curseur d'une souris par l'intermédiaire de leur cerveau, mais la technologie a été rejetée par l'organisme des patients, ce qui a nécessité une intervention chirurgicale plus invasive.
De son côté, Meta envisage que son système de lecture du cerveau soit plutôt un chapeau ou un bandeau. Selon les documents de Meta, il détecte les touches sur lesquelles l'utilisateur aurait appuyé et, avec une précision de 80 %, il peut faire des phrases complètes grâce à ses seuls signaux. Cependant, les documents de recherche affirment que l'outil de frappe cérébrale de Meta est actuellement bloqué dans un laboratoire. Alors que l'appareil de 2 millions de dollars et d'une demi-tonne est bloqué, Meta affirme avoir réussi à atteindre un taux de réussite de 80 %.
Les tests ont été effectués sur 35 personnes, qui ont passé une vingtaine d'heures à "taper" des phrases. Ces phrases ont ensuite été introduites dans un autre système, Brain2Qwerty. Le système d'apprentissage en profondeur pourra alors être utilisé pour lire les signaux sur la base des informations qu'il a absorbées. Ainsi, si 100 personnes ont toutes le même signal cérébral en appuyant sur la lettre « K », l'algorithme derrière Brain2Qwerty devrait alors faire correspondre ce signal à celui des futurs utilisateurs. Cependant, le taux d'erreur est actuellement de 32 %. Plus précisément, il se trompe une fois sur trois
Dans l'attente de l'évolution de cet outil, il est intéressant de rappeler qu'au Colorado, aux États-Unis, les ondes cérébrales seraient à vendre. Face à l'émergence des neurotechnologies grand public, qui recueillent des informations intimes sur l'activité cérébrale des utilisateurs, une loi a inclus les données biologiques et neuronales. En permettant aux consommateurs de contrôler leurs données et en imposant des réglementations strictes aux entreprises, cette loi vise à prévenir les abus potentiels, tels que la lecture des pensées ou la divulgation de données médicales sensibles.
Voici l'annonce de Meta concernant cet outil :
Au cours de la dernière décennie, le laboratoire Meta Fundamental Artificial Intelligence Research (FAIR) à Paris a été à l'avant-garde de l'avancement de la recherche scientifique. Nous avons réalisé des percées dans les domaines de la médecine, de la science du climat et de la conservation, et nous avons respecté notre engagement en faveur d'une science ouverte et reproductible. Pour la prochaine décennie, nous nous concentrons sur l'intelligence artificielle avancée (IMA) et sur son utilisation pour alimenter les produits et l'innovation au bénéfice de tous.
Aujourd'hui, en collaboration avec le Basque Center on Cognition, Brain and Language, un centre de recherche interdisciplinaire de premier plan situé à Saint-Sébastien, en Espagne, nous sommes ravis de partager deux avancées qui montrent comment l'IA peut contribuer à faire progresser notre compréhension de l'intelligence humaine, nous rapprochant ainsi de l'IAM. Dans le prolongement de nos travaux antérieurs sur le décodage de la perception des images et de la parole à partir de l'activité cérébrale, nous présentons des recherches qui permettent de décoder avec succès la production de phrases à partir d'enregistrements cérébraux non invasifs, en décodant avec précision jusqu'à 80 % des caractères, et donc en reconstituant souvent des phrases complètes uniquement à partir de signaux cérébraux. Dans une seconde étude, nous expliquons en détail comment l'IA peut également nous aider à comprendre ces signaux cérébraux et à clarifier la manière dont le cerveau transforme efficacement les pensées en une séquence de mots.
Cette recherche importante ne serait pas possible sans l'étroite collaboration que nous avons encouragée au sein de la communauté des neurosciences. Aujourd'hui, Meta annonce un don de 2,2 millions de dollars à l'hôpital de la Fondation Rothschild pour soutenir ces travaux. Nous continuons ainsi à travailler en étroite collaboration avec certains des principaux instituts de recherche en Europe, notamment NeuroSpin (CEA), Inria, ENS-PSL et CNRS. Ces partenariats continueront d'être importants pour nous, car nous travaillons ensemble pour explorer comment ces percées peuvent faire une différence dans le monde et, en fin de compte, améliorer la vie des gens.
Utiliser l'IA pour décoder le langage à partir d'enregistrements non invasifs du cerveau
Chaque année, des millions de personnes souffrent de lésions cérébrales qui peuvent les empêcher de communiquer. Les approches actuelles montrent que la communication peut être rétablie grâce à une neuroprothèse qui transmet des signaux de commande à un décodeur d'IA. Cependant, les techniques invasives d'enregistrement du cerveau, telles que l'électro-encéphalographie stéréotaxique et l'électro-corticographie, nécessitent des interventions neurochirurgicales et sont difficiles à mettre en œuvre. Jusqu'à présent, l'utilisation d'approches non invasives a été limitée par la complexité du bruit des signaux qu'elles enregistrent.
Lors de son étude, les chercheurs de Meta ont utilisé à la fois la MEG et l'EEG - des dispositifs non invasifs qui mesurent les champs magnétiques et électriques provoqués par l'activité neuronale - pour enregistrer 35 volontaires sains au BCBL pendant qu'ils tapent des phrases. Ils ont entraîné ensuite un nouveau modèle d'IA à reconstruire la phrase uniquement à partir des signaux cérébraux. Sur de nouvelles phrases, le modèle d'IA a décodé jusqu'à 80 % des caractères tapés par les participants enregistrés avec le MEG, soit au moins deux fois mieux que ce que l'on peut obtenir avec le système EEG classique.
Cette recherche pourrait ouvrir une nouvelle voie pour les interfaces cerveau-ordinateur non invasives afin d'aider à restaurer la communication pour les personnes ayant perdu la capacité de parler, mais plusieurs défis importants restent à relever avant que cette approche puisse être appliquée dans des contextes cliniques. Le premier est lié aux performances : les performances de décodage sont encore imparfaites. Le second est plus pratique, car la MEG exige que les sujets se trouvent dans une pièce blindée magnétiquement et qu'ils restent immobiles. Enfin, cette recherche a été menée sur des volontaires en bonne santé, mais des travaux futurs devront être menés pour étudier comment elle pourrait bénéficier aux personnes souffrant de lésions cérébrales.
Utiliser l'IA pour comprendre comment le cerveau forme le langage
Les chercheurs de Meta partagent également une avancée dans la compréhension des mécanismes neuronaux qui coordonnent la production du langage dans le cerveau humain. L'étude du cerveau pendant la parole s'est toujours révélée extrêmement difficile pour les neurosciences, en partie à cause d'un simple problème technique : le fait de bouger la bouche et la langue corrompt fortement les signaux de neuro-imagerie.
Pour étudier comment le cerveau transforme les pensées en séquences complexes d'actions motrices, ils ont utilisé l'IA pour aider à interpréter les signaux MEG pendant que les participants tapaient des phrases. En prenant 1 000 clichés du cerveau par seconde, nous pouvons déterminer le moment précis où les pensées se transforment en mots, en syllabes et même en lettres individuelles. L'étude montre que le cerveau génère une séquence de représentations qui partent du niveau le plus abstrait - le sens d'une phrase - et les transforme progressivement en une myriade d'actions, telles que le mouvement du doigt sur le clavier.
Fait important, l'étude révèle également comment le cerveau représente de manière cohérente et simultanée des mots et des actions successifs. Nos résultats montrent que le cerveau utilise un "code neuronal dynamique", un mécanisme neuronal spécial qui enchaîne des représentations successives tout en maintenant chacune d'entre elles sur de longues périodes.
Décrypter le code neuronal du langage reste l'un des défis majeurs de l'IA et des neurosciences. La capacité de langage, propre à l'homme, a doté notre espèce d'une capacité de raisonnement, d'apprentissage et d'accumulation de connaissances comme aucun autre animal sur la planète. Comprendre son architecture neuronale et ses principes de calcul est donc une voie importante pour développer l'IAM.
Meta conclut sa présentation en rappelant son point de vue sur l'IA open source :
Chez Meta, nous sommes dans une position unique pour aider à résoudre certains des plus grands défis mondiaux grâce à l'IA. Notre engagement en faveur de l'open source a permis à la communauté de l'IA de s'appuyer sur nos modèles pour réaliser ses propres percées. Le mois dernier, nous avons expliqué comment BrightHeart, une entreprise basée en France, utilise DINOv2 dans le cadre de son logiciel d'IA pour aider les cliniciens à identifier ou à écarter les signes évocateurs de malformations cardiaques congénitales dans les échographies du cœur du fœtus. L'année dernière, BrightHeart a obtenu l'autorisation 510(k) de la FDA pour son logiciel, qu'elle attribue en partie aux contributions open source de Meta. Nous avons également expliqué comment Virgo, une entreprise basée aux États-Unis, utilise DINOv2 pour analyser des vidéos d'endoscopie, obtenant des performances de pointe dans un large éventail de critères d'évaluation de l'IA pour l'endoscopie, tels que la classification des repères anatomiques, l'évaluation de la gravité de la maladie pour la colite ulcéreuse et la segmentation des polypes.
Alors que nous nous tournons vers les dix prochaines années, il est passionnant de penser à la manière dont les percées que nous avons partagées aujourd'hui pourraient bénéficier au plus grand nombre. Nous sommes impatients de poursuivre les conversations importantes que nous avons avec la communauté alors que nous allons de l'avant - ensemble - pour relever certains des plus grands défis de la société.
Alors que nous nous tournons vers les dix prochaines années, il est passionnant de penser à la manière dont les percées que nous avons partagées aujourd'hui pourraient bénéficier au plus grand nombre. Nous sommes impatients de poursuivre les conversations importantes que nous avons avec la communauté alors que nous allons de l'avant - ensemble - pour relever certains des plus grands défis de la société.
Source : Brain-to-Text Decoding: A Non-invasive Approach via Typing (Meta)
Et vous ?


Voir aussi :



Vous avez lu gratuitement 1 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.