È sicuramente un enorme passo avanti quello fatto dal gruppo di ricerca dell’Università della California, San Francisco (UCSF), nel ridare la possibilità di parlare a chi non può più. Il sistema vede l’integrazione di BCI (Brain-Computer Interface) e reti neurali e i risultati dello studio, pubblicati sulla rivista Nature, mostrano come sia possibile generare frasi direttamente dai pensieri, avvicinandosi a quello che è il normale ritmo del parlato, ovvero dalle 120 alle 150 parole al minuto.

Malattie degenerative come la sclerosi laterale amiotrofica o condizioni mediche come la sindome locked-in, che si presenta come risultato di un ictus, portano alla perdita della parola e, ad oggi, risultano ancora limitate le possibilità per il paziente di comunicare con l’esterno.

Un altro importante risultato era stato ottenuto qualche mese fa da un altro gruppo di ricerca, quando 3 pazienti paraplegici erano riusciti a comunicare controllando un tablet con il pensiero, raggiungendo una produzione media di 30 caratteri al minuto.

Un processo a due stadi

Posizionamento degli elettrodi ed esempio di segnale generato dalla rete neurale.
Credits: UCSF

“Pochissimi di noi hanno un’idea reale di quello che succede nella nostra bocca quando parliamo”, afferma Edward Chang, neurochirurgo presso l’UCSF e coautore dello studio. “Il cervello traduce i pensieri di ciò che vuoi dire nei movimenti del tratto vocale, ed è questo che vogliamo decodificare”.

Ed è proprio ciò che hanno fatto. Il sistema utilizzato si compone di due fasi: una prima rete neurale decodifica l’attività cerebrale del soggetto, mentre sta pronunciando una serie di frasi ad alta voce, in un modello che simuli proprio i movimenti del tratto vocale. I segnali vengono prelevati attraverso un array di 256 elettrodi posizionato sulla superficie del cervello in corrispondenza della corteccia motoria. Successivamente, una seconda rete neurale traduce queste rappresentazioni in un segnale audio.

L’aspetto interessante è che, mentre la decodifica dell’attività cerebrale deve essere addestrata sulla singola persona, la traduzione in suoni potrebbe essere generalizzata, secondo quanto afferma il coautore Gopala Anumanchipalli.

Questa BCI è stata per ora testata su 5 soggetti che stavano partecipando ad un trattamento per l’epilessia. Ad un gruppo di volontari, invece, è stato chiesto di trascrivere ciò che udivano, ovvero i suoni riprodotti dalla rete. Gli ascoltatori hanno udito correttamente le frasi il 43 per cento delle volte quando era stato fornito loro un set di 25 possibili parole tra cui scegliere, e il 21 per cento quando erano state date 50 parole.

Anche se la percantuale non è alta, rappresenta un ottimo punto di partenza per lo sviluppo della tecnologia.

Naturalmente un approccio simile non potrebbe essere utilizzato per leggere la mente di una persona, ma solo per rilevare le parole che quella persona vorrebbe pronunciare.

Penso che le interfacce cervello-computer avranno molte opportunità per aiutare le persone e, si spera, per aiutarle rapidamente.

Afferma Leigh Hochberg, neurologo presso il Massachusetts General Hospital di Boston.

Per approfondimenti:

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here