Menu Menu

La nuova intelligenza artificiale trasforma le onde cerebrali in un discorso complesso

Nelle notizie scientifiche spaventose/fredde del giorno, gli scienziati statunitensi hanno compiuto un significativo passo avanti nella creazione di computer che comunicano direttamente con il nostro cervello.

Neuroscienziati ed esperti di linguaggio dell'Università della California a San Francisco (UCSF) hanno sviluppato un'intelligenza artificiale in grado di leggere le onde cerebrali umane e convertirle in parole.

La svolta, riportata per la prima volta in Natura rivista, ha implicazioni sia per le persone che hanno condizioni che sono costate loro il potere della parola (malati di SM o ictus, per esempio), sia per la futura apocalisse dei robot. Possono letteralmente leggere i nostri pensieri ora ragazzi è il momento di preoccuparsi?

Scherzi a parte, questa tecnologia è completamente rivoluzionaria per la perfetta integrazione delle macchine nei meccanismi umani, riducendo potenzialmente la necessità di input da parte dell'utente nella programmazione. Infine, MS Paint capirà che ciò che sei riuscito a creare IRL non lo era effettivamente cosa c'era nella tua testa.

L'intelligenza da brainwave to speech ha fatto rapidi progressi negli ultimi dieci anni, dopo essersi fermato in passato nella traduzione di dati cerebrali grezzi in parole. La complessità dei percorsi neurologici e l'individualità del modello cerebrale di ogni persona hanno fatto sì che generalmente fosse possibile generare solo una parola alla volta.

Tuttavia, mentre i modelli di pensiero delle persone sono unici e infinitamente complessi, i segnali dal cervello alla bocca, alla mascella e alla lingua che producono la parola sono abbastanza universali. Quindi, invece di studiare solo il cervello, gli scienziati dell'UCSF hanno utilizzato due IA per analizzare sia i segnali neurologici che i movimenti della bocca durante il dialogo.

Il video qui sotto mostra una vista a raggi X di come appaiono effettivamente la nostra bocca e la nostra gola quando parliamo.

Quando le informazioni raccolte da queste IA venivano inserite in un sintetizzatore, veniva fuori qualcosa che assomigliava più o meno a frasi complesse.

Il risultato non è stato perfetto. Anche se la rete neurale artificiale è riuscita a decodificare bene le fricative - suona come "sh" in "ship" - spesso si è imbattuta in esplosive, come la "b" in "bob". I suoni risultanti sono distintamente umani, ma forse un umano che ha avuto troppi G&T.

Per ottenere i dati per l'IA anatomica, gli scienziati hanno chiesto a volontari madrelingua inglesi di leggere elenchi di cento parole, quindi interpretare le frasi fornite loro dall'algoritmo.

L'IA neurologica era un po' più complicata da gestire. Il team ha lavorato con cinque persone che avevano già installato array di elettrodi ad alta densità nei loro crani per il trattamento dell'epilessia. Questi dispositivi devono essere installati chirurgicamente sotto il cranio, un intervento chirurgico invasivo e pericoloso che limita il potenziale di questa tecnologia di arrivare presto sul mercato.

Ma i professori Grayden e Oxley e altri team in tutto il mondo, inclusa la start-up Neuralink di Elon Musk, stanno lavorando a metodi meno invasivi.

La loro soluzione consiste nell'attaccare gli elettrodi a piccoli scaffold cavi, simili a tubi, e poi farli galleggiare nei vasi sanguigni del cervello. Potevano sedersi lì, leggere i segnali del cervello, senza interferire con il flusso sanguigno o il cervello. Come un piccolo animaletto cerebrale.

Una sperimentazione umana è prevista per la fine dell'anno. Qualche volontario?

Accessibilità