In pratica, i ricercatori hanno creato un Il modo in cui il modo per tradurre l’attività cerebrale associata al discorso è quasi reale in tempo reale come parlareDichiarare le risoluzioni dello studio pubblicato sul Journal of Nature Neuroscience.
Risolto il “vecchio problema” di questa ricerca Ritardo del linguaggio neuroproteticoCioè, il tempo tra una persona che cerca di parlare e il rumore viene prodotto.
Usando gli ultimi progressi dell’IA, ha sviluppato un gruppo di scienziatiLa trasmissione significa che i segnali cerebrali in una lezione che possono essere ascoltati quasi contemporaneamente.
“Il nostro approccio porta le stesse capacità di decodifica vocale rapida di Alexa e Siri per Neuroprion.”Ha spiegato Gopala, uno dei principali ricercatori dello studio.
Secondo lo scienziato, usando un algoritmo simile, è possibile decodificare i dati nervosi e, per la prima volta, consente una trasmissione vocale quasi contemporanea. “Il risultato è un’adesione vocale più naturale e liquida”Sarà salato.
Per Edward Chang, un altro dei ricercatori del team Berkelle, questa nuova tecnologia ha un’enorme capacità di migliorare la qualità della vita delle persone con grave paralisi che colpiscono il discorso.
“L’ultimo AI progredisce per l’uso pratico nel mondo reale nel prossimo futuro è molto eccitante per accelerare l’interfaccia cerebrale”, ha affermato Edward Chang.
Nell’intervallo di studi clinici, i team Chang e Sanuchipalli hanno eseguito l’interfaccia cerebrale in a Una donna con 47 anni -CWADRIPIZIA (membro e paralisi del tronco) non può parlare o voce per 18 anniDopo aver sofferto di un ictus.
Per raccogliere i dati necessari per addestrare il tuo algoritmo, i ricercatori hanno prima chiesto ai partecipanti di vedere un messaggio sullo schermo “Ciao, come stai?” La frase, e quindi cercando di pronunciare questa frase in silenzio.
Gli autori Si sono allenati in una rete nervosa per l’apprendimento profondo usando l’attività cerebrale dei partecipantiIl suo discorso è registrato da elettrodi montati sulla sua corteccia del motore vocale, ma è interiorizzato con 1.024 parole uniche.
Questo è tutto Il modello è stato utilizzato per decodificare il discorso onlineAllo stesso tempo, con l’intenzione dei partecipanti, e quindi producendo l’audio che gli imitava la gola, fu addestrata usando una clip per parlare prima della ferita.
Un altro scrittore dell’articolo Cheol June ha detto La neuroprosi funziona raccogliendo modelli di dati nervosi dalla corteccia motoriaParte del cervello che controlla il prodotto del linguaggio, E quindi usa l’IA per decodificare la funzione cerebrale e trasformarla in un discorso.
Numero Uno studio precedente di questi tipi di dispositiviI ricercatori hanno scoperto un lungo ritardo di decodifica per otto secondi per la stessa frase.
In un nuovo modo di trasmissione, L’output udibile sarà prodotto quasi in tempo realeSecondo una dichiarazione della School of Engineering dell’Università della California a Berkeley, mentre si sta cercando di parlare.