Meny Meny

Ny AI förvandlar hjärnvågor till komplext tal

I dagens skrämmande/häftiga vetenskapliga nyheter har amerikanska forskare tagit ett betydande steg framåt för att skapa datorer som kommunicerar direkt med våra hjärnor.

Neurovetenskapare och talsexperter vid University of California San Francisco (UCSF) har utvecklat en artificiell intelligens som kan läsa mänskliga hjärnvågor och omvandla dem till tal.

Genombrottet, rapporterades först i Natur tidningen, har konsekvenser både för människor som har tillstånd som har kostat dem talkraften (MS eller stroke -drabbade, till exempel), och för den framtida robotapokalypsen. De kan bokstavligen läsa våra tankar nu killar är det dags att oroa sig?

Alla skämt åt sidan, denna teknik är helt banbrytande för sömlös integration av maskiner i mänskliga mekanismer, vilket potentiellt minskar behovet av användarinmatning i programmering. Slutligen förstår MS Paint att det du lyckades skapa IRL inte var faktiskt vad var i ditt huvud.

Brainwave to speech intelligence har gjort snabba framsteg under de senaste tio åren efter att tidigare ha stannat kvar vid översättning av rådata från hjärnan till ord. Komplexiteten hos neurologiska vägar och individualiteten hos varje persons hjärnmönster innebar att det i allmänhet bara var möjligt att generera ett ord i taget.

Även om människors tankemönster är unika och oändligt komplexa är signalerna från hjärnan till munnen, käken och tungan som producerar tal ganska universella. Därför, i stället för att bara studera hjärnan, använde UCSF -forskarna två AI: er för att analysera både neurologiska signaler och munens rörelser under dialog.

Videon nedan visar en röntgenbild av hur vår mun och hals verkligen ser ut när vi pratar.

När informationen som samlats in av dessa AI matades in i en synthesizer kom något ut som mer eller mindre liknade komplexa meningar.

Resultatet var inte perfekt. Medan det artificiella neurala nätverket fungerade bra vid avkodning av frikativ - låter som "sh" i "fartyget" - snubblade det ofta vid plosiv, till exempel "b" i "bob". De resulterande ljuden är tydligt mänskliga, men kanske en människa som hade en för många G & Ts.

För att få data för den anatomiska AI hade forskarna infödda engelsktalande volontärer läst upp listor med hundra ord och sedan tolkat meningar som matades tillbaka till dem från algoritmen.

Den neurologiska AI var lite mer komplicerad att hantera. Teamet arbetade med fem personer som redan hade högdensitetselektroder installerade i skallen för behandling av epilepsi. Dessa enheter måste installeras kirurgiskt under skalet - en invasiv, farlig operation som begränsar potentialen för denna teknik att nå ut på marknaden när som helst snart.

Men professorerna Grayden och Oxley, och andra team runt om i världen, inklusive Elon Musks nystartade Neuralink, arbetar med mindre invasiva metoder.

Deras lösning är att fästa elektroder till små, ihåliga, rörliknande ställningar och sedan flyta dessa ställningar i blodkärl i hjärnan. De kunde sitta där och läsa hjärnsignaler utan att störa blodflödet eller hjärnan. Som ett litet hjärndjur.

En mänsklig rättegång planeras senare i år. Några volontärer?

Tillgänglighet