Pubblicato dalla UC Davis Health l'11 giugno, lo studio segna un progresso significativo rispetto alle tecnologie precedenti, che si limitavano a tradurre i segnali cerebrali in testo. Il nuovo sistema ha ripristinato un livello di comunicazione un tempo ritenuto impossibile per un volontario di 45 anni affetto da sclerosi laterale amiotrofica (SLA), una malattia neurodegenerativa che lo aveva privato della voce.
La "neuroprotesi cervello-voce" funziona decodificando l'intenzione del cervello di parlare. I ricercatori hanno impiantato 256 microelettrodi nella regione del cervello del paziente responsabile del controllo dei muscoli del linguaggio. Quando l'uomo tenta di parlare, la BCI intercetta questi segnali e, con l'aiuto di un modello AI avanzato, li converte in un discorso udibile in soli 25 millisecondi.
I ricercatori hanno utilizzato algoritmi avanzati di AI per tradurre l'attività cerebrale in un discorso sintetizzato in tempo reale. Il sistema è stato addestrato utilizzando registrazioni neurali effettuate mentre il partecipante cercava di leggere frasi mostrate su uno schermo. Allineando i modelli di accensione di centinaia di neuroni con i suoni vocali previsti, l'algoritmo ha imparato a ricostruire con precisione la voce del partecipante direttamente dai suoi segnali cerebrali.
La BCI non si limita a produrre parole monotone, ma cattura e riproduce con successo l'intonazione vocale - i sottili cambiamenti di tono e di intonazione che sono fondamentali per il modo in cui gli esseri umani comunicano il significato e le emozioni. In una serie di potenti dimostrazioni, il paziente è stato in grado di:
- Fare domande generando un'intonazione crescente alla fine di una frase.
- Enfatizzare parole specifiche per cambiare completamente il significato di una frase, come ad esempio sottolineare parole diverse nella frase: Non ho mai detto che mi ha rubato i soldi.
- Cantare semplici melodie a 3 tonalità, mostrando un livello raffinato di controllo neurale sulla voce sintetizzata.
Per rendere la scoperta ancora più profonda, i ricercatori hanno utilizzato un'IA di clonazione vocale addestrata su vecchie registrazioni del paziente effettuate prima della sua condizione. Il risultato è stato una voce sintetizzata che assomigliava alla sua, una caratteristica che il paziente ha riferito "mi ha fatto sentire felice, e sembrava la mia vera voce"
Sebbene la tecnologia rappresenti un importante passo avanti, i ricercatori avvertono che si tratta ancora di una prova di concetto. Nei test in cui gli ascoltatori umani hanno trascritto l'output della BCI, hanno capito ciò che il paziente stava dicendo correttamente circa il 56% delle volte. Saranno necessari ulteriori sviluppi per aumentarne l'efficienza.
Fonte(i)
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones