Menu Menu

La nouvelle IA transforme les ondes cérébrales en discours complexe

Dans l'actualité scientifique effrayante / cool du jour, les scientifiques américains ont fait un pas en avant important dans la création d'ordinateurs qui communiquent directement avec notre cerveau.

Des neuroscientifiques et des experts en parole de l'Université de Californie à San Francisco (UCSF) ont développé une intelligence artificielle capable de lire les ondes cérébrales humaines et de les convertir en parole.

La percée, signalée pour la première fois en Nature magazine, a des implications à la fois pour les personnes atteintes de maladies qui leur ont coûté le pouvoir de la parole (les victimes de la SEP ou d'un AVC, par exemple) et pour la future apocalypse des robots. Ils peuvent littéralement lire nos pensées maintenant, les gars, est-il temps de s'inquiéter?

Blague à part, cette technologie est complètement révolutionnaire pour l'intégration transparente des machines dans les mécanismes humains, réduisant potentiellement le besoin d'intervention de l'utilisateur dans la programmation. Enfin, MS Paint comprendra que ce que vous avez réussi à créer IRL n'était pas actually ce qui était dans ta tête.

L'intelligence des ondes cérébrales à la parole a fait des progrès rapides au cours des dix dernières années, après avoir stagné dans le passé à traduire les données brutes du cerveau en mots. La complexité des voies neurologiques et l'individualité du schéma cérébral de chaque personne signifiaient qu'il n'était généralement possible de générer qu'un mot à la fois.

Cependant, alors que les schémas de pensée des gens sont uniques et infiniment complexes, les signaux du cerveau à la bouche, à la mâchoire et à la langue qui produisent la parole sont assez universels. Ainsi, plutôt que d'étudier uniquement le cerveau, les scientifiques de l'UCSF ont utilisé deux IA pour analyser à la fois les signaux neurologiques et les mouvements de la bouche pendant le dialogue.

La vidéo ci-dessous vous montre une vue radiographique de ce à quoi ressemblent réellement notre bouche et notre gorge lorsque nous parlons.

Lorsque les informations collectées par ces IA ont été introduites dans un synthétiseur, quelque chose qui ressemblait plus ou moins à des phrases complexes est sorti.

Le résultat n'était pas parfait. Alors que le réseau de neurones artificiels réussissait bien à décoder les fricatives – des sons comme le « sh » dans « vaisseau » – il butait souvent sur les plosives, telles que le « b » dans « bob ». Les sons résultants sont distinctement humains, mais peut-être un humain qui avait un trop grand nombre de G&T.

Afin d'obtenir les données pour l'IA anatomique, les scientifiques ont demandé à des volontaires anglophones natifs de lire des listes de cent mots, puis d'interpréter les phrases renvoyées par l'algorithme.

L'IA neurologique était un peu plus compliquée à gérer. L'équipe a travaillé avec cinq personnes qui avaient déjà des réseaux d'électrodes à haute densité installés dans leur crâne pour le traitement de l'épilepsie. Ces dispositifs doivent être installés chirurgicalement sous le crâne – une chirurgie invasive et dangereuse qui limite le potentiel de cette technologie à arriver sur le marché de sitôt.

Mais les professeurs Grayden et Oxley, ainsi que d'autres équipes à travers le monde, dont la start-up Neuralink d'Elon Musk, travaillent sur des méthodes moins invasives.

Leur solution consiste à attacher des électrodes à de minuscules échafaudages creux en forme de tube, puis à faire flotter ces échafaudages dans les vaisseaux sanguins du cerveau. Ils pouvaient s'asseoir là, lire les signaux cérébraux, sans interférer avec la circulation sanguine ou le cerveau. Comme un petit animal de compagnie de cerveau minuscule.

Un essai humain est prévu plus tard cette année. Des volontaires?

Accessibilité