Menu Menu

Nova IA transforma ondas cerebrais em fala complexa

Nas notícias científicas assustadoras / legais do dia, os cientistas dos EUA deram um passo significativo na criação de computadores que se comunicam diretamente com nossos cérebros.

Neurocientistas e especialistas em fala da Universidade da Califórnia em San Francisco (UCSF) desenvolveram uma inteligência artificial que é capaz de ler ondas cerebrais humanas e convertê-las em fala.

O avanço, relatado pela primeira vez em Natureza revista, tem implicações tanto para as pessoas que têm condições que lhes custaram o poder da fala (portadores de esclerose múltipla ou derrame, por exemplo), e para o futuro apocalipse do robô. Eles podem literalmente ler nossos pensamentos agora, pessoal, é hora de se preocupar?

Piadas à parte, essa tecnologia é totalmente inovadora para a integração perfeita de máquinas em mecanismos humanos, reduzindo potencialmente a necessidade de entrada do usuário na programação. Finalmente, o MS Paint vai entender que o que você conseguiu criar IRL não foi   o que estava na sua cabeça.

As ondas cerebrais para a inteligência da fala progrediram rapidamente nos últimos dez anos, tendo travado no passado a tradução de dados cerebrais brutos em palavras. A complexidade das vias neurológicas e a individualidade do padrão cerebral de cada pessoa significava que geralmente só era possível gerar uma palavra por vez.

No entanto, embora os padrões de pensamento das pessoas sejam únicos e infinitamente complexos, os sinais do cérebro para a boca, mandíbula e língua que produzem a fala são bastante universais. Portanto, em vez de estudar apenas o cérebro, os cientistas da UCSF usaram dois IAs para analisar os sinais neurológicos e os movimentos da boca durante o diálogo.

O vídeo abaixo mostra uma radiografia de como a boca e a garganta realmente parecem quando conversamos.

Quando as informações coletadas por esses IAs foram alimentadas em um sintetizador, algo que mais ou menos se assemelhava a frases complexas saiu.

O resultado não foi perfeito. Embora a rede neural artificial se saísse bem na decodificação de fricativas - soa como o 'sh' em 'navio' - muitas vezes tropeçava em plosivas, como o 'b' em 'bob'. Os sons resultantes são distintamente humanos, mas talvez um humano que teve muitos G&T.

A fim de obter os dados para a IA anatômica, os cientistas pediram a voluntários falantes de inglês que lessem listas de cem palavras e, em seguida, interpretassem as frases fornecidas a eles pelo algoritmo.

A IA neurológica era um pouco mais complicada de gerenciar. A equipe trabalhou com cinco pessoas que já tinham matrizes de eletrodos de alta densidade instalados em seus crânios para o tratamento da epilepsia. Esses dispositivos precisam ser instalados cirurgicamente sob o scull - uma cirurgia invasiva e perigosa que limita o potencial dessa tecnologia para chegar ao mercado em breve.

Mas os professores Grayden e Oxley, e outras equipes ao redor do mundo, incluindo a Neuralink de Elon Musk, estão trabalhando em métodos menos invasivos.

A solução deles é anexar eletrodos a suportes minúsculos e ocos em forma de tubo e, em seguida, colocá-los em vasos sanguíneos no cérebro. Eles podiam ficar sentados lá, lendo os sinais do cérebro, sem interferir no fluxo sanguíneo ou no cérebro. Como um pequeno animal de estimação com cérebro.

Um teste em humanos está planejado para o final deste ano. Quaisquer voluntários?

Acessibilidade