Meny Meny

Ny AI gjør hjernebølger til kompleks tale

I dagens skumle/kule vitenskapsnyheter har amerikanske forskere tatt et betydelig skritt fremover for å lage datamaskiner som kommuniserer direkte med hjernen vår.

Nevrovitere og taleeksperter ved University of California San Francisco (UCSF) har utviklet en kunstig intelligens som kan lese menneskelige hjernebølger og konvertere dem til tale.

Gjennombruddet, først rapportert i Natur magasin, har implikasjoner både for mennesker som har tilstander som har kostet dem talekraften (for eksempel MS eller slaglidere), og for den fremtidige robotapokalypsen. De kan bokstavelig talt lese tankene våre nå gutta. Er det på tide å bekymre seg?

Alle vitser til side, denne teknologien er helt banebrytende for sømløs integrering av maskiner i menneskelige mekanismer, noe som potensielt reduserer behovet for brukerinnspill i programmering. Endelig vil MS Paint forstå at det du klarte å lage IRL ikke var faktisk hva var i hodet ditt.

Brainwave to speech intelligence har gjort raske fremskritt de siste ti årene, etter å ha stoppet tidligere med å oversette rå hjernedata til ord. Kompleksiteten til nevrologiske veier, og individualiteten til hver persons hjernemønster, betydde at det vanligvis bare var mulig å generere ett ord om gangen.

Selv om folks tankemønstre er unike og uendelig komplekse, er signalene fra hjernen til munnen, kjeven og tungen som er relativt universelle. Derfor, i stedet for å studere bare hjernen, brukte UCSF -forskerne to AI -er for å analysere både nevrologiske signaler og bevegelser i munnen under dialog.

Videoen nedenfor viser deg et røntgenbilde av hvordan munnen og halsen vår faktisk ser ut når vi snakker.

Da informasjonen som ble samlet inn av disse AI -ene ble matet inn i en synthesizer, kom det ut noe som mer eller mindre lignet komplekse setninger.

Resultatet var ikke perfekt. Mens det kunstige nevrale nettverket gjorde det bra med å dekode frikativer - høres ut som "sh" i "skipet" - snublet det ofte på plosiver, for eksempel "b" i "bob". De resulterende lydene er tydelig menneskelige, men kanskje et menneske som hadde en for mange G & Ts.

For å få dataene for den anatomiske AI, hadde forskerne innfødte engelsktalende frivillige lese opp lister med hundre ord og deretter tolke setninger som ble gitt tilbake til dem fra algoritmen.

Den nevrologiske AI var litt mer komplisert å håndtere. Teamet jobbet med fem personer som allerede hadde elektroder med høy tetthet installert i hodeskallen for behandling av epilepsi. Disse enhetene må installeres kirurgisk under skallen - en invasiv, farlig operasjon som begrenser potensialet for denne teknologien til å treffe markedet når som helst snart.

Men professorene Grayden og Oxley, og andre team rundt om i verden, inkludert Elon Musks oppstart Neuralink, jobber med mindre invasive metoder.

Løsningen deres er å feste elektroder til små, hule, rørlignende stillaser og deretter flyte stillasene inn i blodårene i hjernen. De kunne sitte der og lese hjernesignaler uten å forstyrre blodstrømmen eller hjernen. Som et lite bitte kjæledyr.

En menneskelig rettssak er planlagt senere i år. Noen frivillige?

tilgjengelighet