La technologie de l’IA redonne la voix à une femme atteinte du syndrome de l’enfermement post-AVC.

L'IA redonne la voix à une femme atteinte du syndrome de l'enfermement post-AVC.

Partager sur Pinterest
Un participant à l’étude des neuroprothèses de la parole du Dr Edward Chang tente de parler silencieusement une phrase pendant que le système de prothèse vocale traduit ses signaux cérébraux en parole synthétisée et en mouvements faciaux d’un avatar le lundi 22 mai 2023 à El Cerrito, en Californie. Photo de Noah Berger
  • Le syndrome d’enfermement est un trouble neurologique dans lequel une personne ne peut pas parler ou montrer d’expressions faciales.
  • La plupart des personnes atteintes de cette condition doivent compter uniquement sur le clignement des yeux et les mouvements pour communiquer avec les autres.
  • Des chercheurs de l’Université de Californie à San Francisco ont mis au point une nouvelle méthode permettant aux personnes atteintes du syndrome d’enfermement de communiquer et de montrer des expressions faciales grâce à l’utilisation d’un implant cérébral et d’un avatar numérique.

Le syndrome d’enfermement est un trouble neurologique qui provoque la paralysie des muscles volontaires du visage, des bras et des jambes d’une personne.

Bien qu’une personne atteinte du syndrome d’enfermement puisse comprendre parfaitement ce que quelqu’un lui dit ou lui lit, elle est incapable de parler ou de montrer des émotions à travers son visage, comme le bonheur, la colère ou la tristesse.

De nombreuses fois, une personne atteinte du syndrome d’enfermement dépend de petits mouvements, tels que le clignement des yeux, pour communiquer avec les autres.

Maintenant, des chercheurs de l’Université de Californie à San Francisco ont mis au point une nouvelle méthode permettant aux personnes atteintes du syndrome d’enfermement de communiquer et de montrer des expressions faciales grâce à l’utilisation d’un implant cérébral et d’un avatar numérique.

Cette étude a récemment été publiée dans la revue Nature.

Qu’est-ce que le syndrome d’enfermement?

Le syndrome d’enfermement est relativement rare – moins de 1 000 personnes aux États-Unis sont atteintes de cette condition.

La condition est généralement causée par des lésions d’une partie du tronc cérébral appelée le pont, entraînant un blocage de la fonction nerveuse qui provoque la paralysie.

Les lésions du tronc cérébral se produisent généralement lors d’un accident vasculaire cérébral, mais elles peuvent également être causées par une inflammation des nerfs, des tumeurs, des infections ou d’autres conditions telles que la sclérose latérale amyotrophique (SLA).

Lorsqu’une personne est atteinte du syndrome d’enfermement, elle perd la capacité de bouger ses muscles volontaires à volonté. Cependant, elle ne perd aucune capacité cognitive, elle peut donc penser normalement et comprendre lorsque quelqu’un lui parle ou lui lit. Et son ouïe n’est pas affectée.

Cependant, le syndrome d’enfermement peut affecter la capacité d’une personne à respirer et à manger en affectant la mastication et la déglutition.

Il n’existe actuellement aucun traitement spécifique ou remède disponible pour le syndrome d’enfermement. Un médecin traitera la cause sous-jacente de la condition et peut prescrire des thérapies physiques et de la parole.

Communiquer avec le syndrome d’enfermement

La façon la plus courante pour les personnes atteintes du syndrome d’enfermement de communiquer est par des mouvements oculaires et des clignements des yeux.

Aujourd’hui, il existe des programmes informatiques et d’autres technologies d’assistance qui peuvent les aider à communiquer avec les autres, tels que les interfaces cerveau-ordinateur, les dispositifs de souris à tête et les capteurs de mouvement oculaire infrarouge.

Et grâce aux innovations en génie informatique et aux nouvelles technologies telles que l’intelligence artificielle (IA), les chercheurs ont présenté de nouvelles options de communication pour les personnes atteintes du syndrome d’enfermement.

Par exemple, une étude publiée en mars 2022 a montré qu’un homme atteint du syndrome d’enfermement a pu communiquer avec sa famille grâce à l’utilisation d’un implant cérébral et d’une interface de saisie.

Faciliter la « parole » grâce à l’IA

Pour l’étude actuelle, les chercheurs ont développé une nouvelle technologie cerveau-ordinateur utilisant un implant cérébral et un avatar numérique. L’avatar numérique permet à une personne paralysée du visage de transmettre des expressions faciales et des émotions normales.

La nouvelle technologie a été testée sur une femme de 47 ans nommée Ann, qui souffre du syndrome d’enfermement suite à un accident vasculaire cérébral du tronc cérébral.

Medical News Today a interrogé le Dr David Moses, professeur adjoint de neurochirurgie, faisant partie du laboratoire Chang de l’Université de Californie à San Francisco, et l’un des co-auteurs principaux de l’étude.

Selon lui, lorsque nous parlons, des schémas complexes d’activité neuronale dans notre cortex moteur de la parole – la partie du cerveau qui coordonne notre tractus vocal – sont propagés à travers une voie neuronale à travers le tronc cérébral et finalement à nos articulateurs, tels que les lèvres, la langue, le larynx et la mâchoire.

« Pour Ann et d’autres personnes ayant subi un accident vasculaire cérébral du tronc cérébral, cette voie est endommagée, et les signaux provenant du cortex moteur de la parole ne peuvent pas atteindre les muscles articulatoires », a-t-il expliqué.

Avec cet implant cérébral, le Dr Moses a déclaré que les spécialistes sont capables d’enregistrer l’activité neuronale du cortex alors qu’Ann essaie de parler, et ils traduisent directement cela en mots intentionnels, contournant ainsi complètement sa paralysie.

Il a expliqué plus en détail comment cela fonctionne :

“Nous le faisons en créant d’abord des modèles d’IA formés sur des données neuronales alors qu’elle essaie de dire silencieusement de nombreuses phrases – elle ne vocalise pas réellement alors qu’elle essaie de dire ces phrases ; elle fait de son mieux pour ‘faire bouger’ les mots dans les phrases. En permettant aux modèles d’IA d’apprendre la correspondance entre l’activité cérébrale et la parole voulue, nous pouvons ensuite utiliser ces modèles en temps réel pour décoder son activité cérébrale en parole. Les modèles utilisent des représentations intermédiaires flexibles de la parole en interne, ce qui permet au décodeur de produire des phrases qu’elle n’a pas essayé de dire pendant l’entraînement.”

Donner une ‘voix’ à Ann

Ann a reçu un implant cérébral avec 253 électrodes placées sur des zones spécifiques du cerveau cruciales pour la parole. Un câble relie l’implant cérébral aux ordinateurs.

Pendant des semaines, Ann a travaillé avec des chercheurs pour entraîner les algorithmes d’intelligence artificielle à reconnaître et à réagir à ses signaux cérébraux uniques pour la parole.

Les chercheurs ont également créé un avatar numérique d’Ann grâce à un logiciel qui simule et anime les mouvements des muscles du visage.

En utilisant l’apprentissage automatique, ils ont pu fusionner le logiciel avec les signaux provenant du cerveau d’Ann et les convertir en mouvements sur le visage de son avatar, montrant à la fois la parole et les expressions faciales.

De plus, les scientifiques ont pu utiliser des images d’une vidéo avant la blessure pour recréer la voix réelle d’Ann. Ainsi, lorsque elle parle à travers l’avatar numérique, c’est sa voix et non une voix informatisée par défaut.

Les prochaines étapes de la recherche

Lorsqu’on lui a demandé quelles seraient les prochaines étapes de cette nouvelle technologie, le Dr Moses a déclaré qu’il y avait de nombreuses possibilités d’amélioration.

“Pour le matériel, une version sans fil est nécessaire pour améliorer la faisabilité en tant que solution clinique”, a-t-il noté.

“En ce qui concerne le logiciel, nous souhaitons intégrer nos approches à ses appareils existants, afin qu’elle puisse utiliser le système pour écrire des e-mails et naviguer sur le web. Nous souhaitons également exploiter certaines avancées dans la modélisation de l’IA générative pour améliorer nos résultats de décodage”, a ajouté le Dr Moses.

Résoudre un problème difficile

MNT a également abordé cette étude avec le Dr Amit Kochhar, double certifié en otolaryngologie, chirurgie de la tête et du cou, et chirurgie plastique et reconstructive du visage, et directeur du programme des troubles du nerf facial à Pacific Neuroscience Institute à Santa Monica, en Californie, qui n’a pas participé à la recherche.

En tant que médecin traitant des patients atteints de paralysie faciale, il a déclaré que l’une des choses les plus difficiles pour les patients est l’incapacité d’exprimer leurs émotions aux autres.

“La recherche a montré que si un observateur non averti regarde quelqu’un dont la moitié du visage est paralysée, lorsqu’il regarde cette personne, il ne peut pas distinguer si la personne exprime une émotion de bonheur ou une émotion de colère”, a expliqué le Dr Kochhar. “Et il y a donc beaucoup de confusion de la part de l’observateur et évidemment de la frustration de la part du patient.”

“Et donc, s’ils avaient accès à quelque chose comme ça, […] ils pourraient alors toujours communiquer avec d’autres personnes, comme leur famille, leurs amis, en utilisant ce type de technologie d’avatar afin de pouvoir transmettre correctement les émotions de bonheur, de surprise ou de colère sans cette confusion”, a-t-il ajouté.

Le Dr Kochhar a déclaré qu’il aimerait voir cette technologie utilisée par plus de personnes pour s’assurer qu’elle est reproductible et s’assurer que la technologie est économiquement viable.

“Si le coût de cet appareil est élevé et qu’il n’est disponible que pour une petite partie de la population qui peut se le permettre, c’est un grand pas en avant, mais cela n’aidera pas beaucoup d’autres personnes”, a-t-il ajouté.

Le Dr Kochhar a également déclaré qu’il aimerait voir cette technologie rendue portable : “Le patient devait venir au centre pour que cela fonctionne – elle n’était pas en mesure, à ce moment-là, de l’emmener chez elle pour pouvoir l’utiliser à la maison. Et donc ce sont les prochaines étapes de l’évolution de ce type de logiciel.”