Una donna paralizzata da un ictus torna a parlare grazie all’IA
Una donna che ha perso la capacità di parlare in seguito a un ictus avvenuto 18 anni fa è ora in grado di parlare con una replica della sua voce e di trasmettere anche una gamma limitata di espressioni facciali attraverso il suo avatar, il tutto grazie a un esperimento che prevede un impianto cerebrale e algoritmi di intelligenza artificiale.
Un articolo pubblicato su Nature mostra la rapidità con cui questo campo sta avanzando, sebbene questo proof of concept sia ancora molto lontano dal rappresentare una tecnologia disponibile per tutti. Alla donna, di nome Ann, è stato impiantato un sofisticato dispositivo di registrazione nel cervello che le ha permesso di parlare a una velocità di circa 60-70 parole al minuto (circa la metà di quella di una persona normale ma più di quattro volte superiore a quella registrata in precedenza).
Il team medico guidato da Edward Chang, un neurochirurgo dell’Università della California di San Francisco, ha anche catturato i segnali cerebrali che controllano i piccoli movimenti che forniscono le espressioni facciali, in modo da creare un avatar in grado di rappresentare le espressioni della donna.
Chang e il suo team hanno lavorato su questi casi per oltre un decennio. Nel 2021 hanno dimostrato di poter catturare l’attività cerebrale di una persona colpita da un ictus al tronco encefalico e di tradurre quei segnali in parole e frasi scritte, anche se lentamente. Nell’ultimo esperimento che ha interessato Ann, il team ha utilizzato un impianto più grande con un numero doppio di elettrodi (un dispositivo grande come una carta di credito) per catturare i segnali dal cervello.
L’impianto non registra i pensieri. Cattura invece i segnali elettrici che controllano i movimenti muscolari delle labbra, della lingua, della mascella e della laringe, che sono fondamentali per poter parlare. Una porta di collegamento posizionata sul cuoio capelluto ha permesso al team di trasferire questi segnali a un computer, dove gli algoritmi di intelligenza artificiale li decodificano e un modello linguistico aiuta a fornire funzionalità di correzione automatica per migliorare la precisione. Con questa tecnologia, il team ha tradotto l’attività cerebrale di Ann in parole scritte a una velocità massima di 78 parole al minuto, utilizzando un vocabolario di 1.024 parole, con un tasso di errore del 23%.
I segnali muscolari catturati hanno inoltre permesso ad Ann, tramite l’avatar, di esprimere tre diverse emozioni: felice, triste e sorpreso, con tre diversi livelli di intensità. “Il linguaggio non si limita a comunicare solo le parole, ma anche ciò che siamo. La nostra voce e le nostre espressioni fanno parte della nostra identità”, spiega Chang.
I sistemi attuali come quello utilizzato per Ann non sono però ancora idonei per l’uso domestico, visto che si basano su connessioni cablate e su un sistema informatico ingombrante necessario per gestire l’elaborazione; non a caso Ann non potrebbe usare l’impianto celebrale per comunicare al di fuori dell’esperimento. C’è poi da considerare il fatto che risultati simili potrebbero non essere altrettanto incoraggianti per altre persone, anche se affette da condizioni neurologiche simili. Le lesioni cerebrali sono infatti molto complesse e altamente eterogenee e la generalizzabilità, anche all’interno della popolazione colpita da un ictus o SLA è possibile, ma non è certa.
Eppure, questo esperimento apre la possibilità a una soluzione tecnologica per le persone che perdono la capacità di comunicare. “Quello che abbiamo fatto è stato dimostrare che è possibile e che esiste un percorso per farlo”, conclude Chang.