Una comunicazione digitale a tutti gli effetti può permettere a chi è affetto da paralisi cerebrali di pronunciare frasi di senso compiuto grazie all’ausilio dell’elettronica. Chi è affetto da patologie come la SLA può comunicare grazie a macchine specifiche che procedono alla lettura dell’attività cerebrale e la traducono in linguaggio. Oggi si è raggiunto un traguardo incredibile negli Stati Uniti dove una donna affetta proprio da Sclerosi Laterale Amiotrofica è riuscita a pronunciare 62 parole in un minuto, il triplo rispetto al record di 20 parole stabilito fino a questo momento. Siamo all’Università di Stanford dove, grazie alla cooperazione con l’Università della California, il “soggetto T12” della sperimentazione ha appena scritto un piccolo tassello della storia della medicina moderna.

Il linguaggio verbale di base

Il cervello umano è in grado di articolare 180 parole al minuto in frasi di senso compiuto. Fino ad ora gli affetti da paralisi cerebrali hanno toccato l’apice di 20 parole al minuto grazie al supporto digitale. Oggi è stato siglato un nuovo record che permette di avvicinarsi alla normalità, da cui restiamo ben lontani; considerando che il linguaggio verbale medio di una adulto prevede l’articolazione del triplo dei termini rispetto a un malato di SLA supportato dalla tecnologia. Il linguaggio di chi è affetto da paralisi si articola grazie a sistemi medico-elettronici in grado di trasformare le onde cerebrali nell’utilizzo e nel funzionamento di device in grado di parlare al loro posto. Non si parla più di comunicazione verbale quindi, ma di linguaggio e comunicazione digitale.

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici

La comunicazione digitale amica dei malati di SLA

Krishna Shenoy, ingegnere e neuroscienziato autore della sperimentazione sul linguaggio è venuto a mancare prematuramente. Ma all’Università di Stanford il suo team e il consorzio BrainGate continuano a portare avanti l’Usain Bolt dell’interfaccia cerebrale. Il sistema di comunicazione digitale si avvale di impianti piuttosto invasivi ma efficaci. Sono i più veloci al mondo e permettono di dare voce a 62 parole al minuto, 3,4 volte in più del precedente record. Lo studio ha ripreso una ricerca già avviata all’Università della California, San Francisco, che prevedeva l’osservazione degli innumerevoli e impercettibili movimenti del linguaggio per metterne a punto l’interpretazione.

Ma come funziona questo linguaggio? Si tratta di un’interpretazione del movimento. Quando ai pazienti viene chiesto di muovere un arto robotico semplicemente pensando di muoverlo, questi ci riescono. Analogamente il linguaggio, che si articola con il movimento dei muscoli e dei nervi coinvolti nell’apparato fonatorio; può essere pensato e finalizzato attraverso gli elettrodi incorporati nella corteccia motoria del paziente. Praticamente viene registrata l’attività di alcuni neuroni coinvolti nella trasmissione di segnali che riflettono il movimento che la persona vorrebbe compiere ma non ci riesce. I segnali vengono decodificati e trasmessi ad un computer che li trasformerà in voce. Solo pochissimi dei già pochi neuroni analizzati contenevano segnali motori utili al linguaggio. Questo fa capire quanto si possa ancora realizzare tentando di amplificare le funzionalità di tale sistema innovativo. Nel frattempo il progetto ha già raggiunto una risonanza mondiale.

L’intelligenza artificiale ridà voce a chi non può parlare

Una ricerca come quella dell’Università di Stanford impiegherà anni a divenire una sperimentazione su campo e ancora di più per entrare in commercio come soluzione reale al problema della comunicazione per chi ha paralisi cerebrali. Ma la ricerca non si ferma. C’è l’idea di integrare il percorso d’innovazione medica con l’IA. Un impianto sofisticato che abbia una stretta integrazione con l’intelligenza artificiale potrebbe essere in grado di aumentare la precisione e la velocità di comunicazione digitale del paziente. Questo grazie a programmi di apprendimento automatico che possano predire quale parola viene abitualmente detta dopo un’altra. Ad esempio dopo la parola “io” sarà più facile trovare “sono” piuttosto che “solo”; nonostante vengano attivati praticamente gli stessi muscoli per la pronuncia dei due termini. Il software riuscirà a predire la presenza del “sono” con margine di errore minimo.

GPT, uno dei nuovi arrivati in termini d’IA, sarà ben presto integrato nell’interfaccia cerebrale di Stanford. Siamo vicinissimi all’invenzione della prima protesi vocale della storia. Nel frattempo nel mondo si sta cercando di capire se più elettrodi e più neuroni coinvolti possano fare la differenza. Sono coinvolti nelle ricerche Neuralink di Elon Musk e una startup chiamata Paradromics. Mentre in Italia la tecnologia medica nel campo della comunicazione digitale va avanti con lo studio di sistemi meno invasivi.

Condividi su:
Flavia Santilli

Flavia Santilli

Studio presso l'Università degli Studi de L'Aquila. Ho collaborato con diverse testate. Sportiva agonista e istruttrice di nuoto. Aspirante pubblicista, scrivo per BuoneNotizie.it grazie al laboratorio di giornalismo per diventare giornalista pubblicista. E tu cosa stai aspettando?

Riscopri anche tu il piacere di informarti!

Il tuo supporto aiuta a proteggere la nostra indipendenza consentendoci di continuare a fare un giornalismo di qualità aperto a tutti.

Sostienici