Dopo l’ictus il paziente parla in due lingue con l’IA
Comunicare in inglese e spagnolo nonostante la parziale paralisi del tratto vocale, grazie a un impianto cerebrale e all’intelligenza artificiale. È la storia di Pancho, nome di fantasia, che quando aveva vent’anni ha avuto un ictus ed è rimasto paralizzato in parte del suo corpo, tratto vocale compreso. Emette gemiti e grugniti ma non riesce a parlare in modo chiaro.
A trent’anni incontra un neurochirurgo dell’università della California, Edward Chang, che indaga sugli effetti duraturi dell’ictus sul suo cervello. E nel 2021 diventa il protagonista di uno studio innovativo: il team di Chang gli impianta chirurgicamente degli elettrodi nella corteccia cerebrale per registrare l’attività neurale, che viene tradotta in parole su uno schermo.
Oggi, grazie all’intelligenza artificiale collegata all’impianto cerebrale Pancho riesce a comunicare in inglese e spagnolo. La soluzione di IA infatti decodifica in tempo reale le sue parole in una delle due lingue. È quanto racconta uno studio pubblicato su Nature Biomedical Engineering. La prima frase è stata interpretata in inglese. Ma Pancho è un madrelingua spagnolo che ha imparato l’inglese solo dopo l’ictus.
Moduli AI, decodifica delle frasi precisa al 75%
Nella descrizione dello studio, gli scienziati spiegano di avere sfruttato l’elettrocorticografia, “insieme a modelli di apprendimento profondo e di linguaggio naturale statistico dell’inglese e dello spagnolo, per registrare e decodificare l’attività della corteccia logico-motoria di un bilingue spagnolo-inglese con paralisi del tratto vocale e degli arti in frasi in entrambe le lingue. Ciò è stato possibile senza richiedere al partecipante di specificare manualmente la lingua di destinazione”.
I modelli di decodifica si sono basati su rappresentazioni articolatorie del tratto vocale condivise tra le varie lingue, che hanno permesso di costruire un classificatore di sillabe generalizzato su un insieme condiviso di sillabe inglesi e spagnole.
L’apprendimento per trasferimento ha accelerato l’addestramento del decodificatore bilingue, consentendo ai dati neurali registrati in una lingua di migliorare la decodifica nell’altra lingua. “Nel complesso, i nostri risultati suggeriscono la presenza di rappresentazioni articolatorie corticali condivise che persistono dopo la paralisi e consentono la decodifica di più lingue senza la necessità di addestrare decodificatori separati specifici per ogni lingua”.
Gli sforzi per formare ogni parola creavano uno schema neurale distinto che veniva registrato dagli elettrodi. Gli autori hanno poi applicato il loro sistema di intelligenza artificiale, che ha un modulo spagnolo e uno inglese, alle frasi. I moduli sono stati in grado di distinguere tra inglese e spagnolo sulla base della prima parola con una precisione dell’88% e hanno decodificato la frase corretta con una precisione del 75%.
I risultati dell’attività del team di ricercatori hanno rivelato anche aspetti inattesi dell’elaborazione del linguaggio nel cervello. Alcuni esperimenti precedenti che utilizzavano strumenti non invasivi avevano suggerito che lingue diverse attivassero parti distinte del cervello. Ma l’esame da parte degli autori dei segnali registrati direttamente nella corteccia di Pancho ha permesso di osservare che “gran parte dell’attività, sia per lo spagnolo che per l’inglese, proveniva in realtà dalla stessa area”.
Inoltre, le risposte neurologiche di Pancho non sembravano differire molto da quelle dei bambini cresciuti bilingui, anche se lui aveva circa trent’anni quando ha imparato l’inglese, contrariamente ai risultati di studi precedenti. Insieme, questi dati suggeriscono che lingue diverse condividono almeno alcune caratteristiche neurologiche e che potrebbero essere generalizzabili ad altre persone.