Società +

L'AI trasforma il pensiero in parole. Ora in tempo reale

L'AI trasforma il pensiero in parole. Ora in tempo reale

Applicando appositi algoritmi, un team di ricercatori ha ridotto i tempi di elaborazione dei dispositivi di interfaccia tra cervello e computer, avvicinandoli a quelli di un normale discorso tra persone

Ormai da qualche anno, i progressi della scienza hanno trasformato in realtà l’obiettivo di ridare la voce a chi l’ha perduta. Questo avviene sfruttando le possibilità legate all’utilizzo di computer in grado di “leggere” i pensieri direttamente dal cervello. Già ad agosto 2023, la rivista “Nature” presentava due studi che descrivevano notevoli miglioramenti nelle tecnologie progettate per aiutare le persone con paralisi facciale a comunicare con precisione e velocità senza precedenti. A godere del miglioramento dei dispositivi di lettura cerebrale attraverso l’uso dell’intelligenza artificiale erano state in quell’occasione due persone a cui erano stati impiantati nel cervello tali apparati. Il vero limite di queste prime interfacce erano i tempi di elaborazione. Ma gli ulteriori sviluppi tecnologici intercorsi da allora hanno permesso di compiere notevoli passi avanti anche in questa prospettiva.

Dal pensiero al discorso in tempo reale

Un gruppo di ricercatori ha sperimentato infatti un nuovo dispositivo migliorato con algoritmi di Ai in grado di decodificare praticamente in tempo reale le frasi pensate da una donna, Ann, che, insieme a una paralisi, aveva perso nel 2005 anche la capacità di parlare come conseguenza di un ictus al tronco cerebrale.
A distanza di 18 anni, la paziente è stata sottoposta a un intervento chrirurgico per impiantare sulla superficie della sua corteccia cerebrale un dispositivo, sottile come un foglio, dotato di 253 elettrodi in grado di registrare contemporaneamente l’attività combinata di migliaia di neuroni. I segnali neurali così ottenuti sono stati tradotti in un discorso udibile entro un massimo di 3 secondi.

AI

Le prospettive aperte dall’Ai

I miglioramenti tecnologici stanno dunque avvicinando alla naturale velocità della conversazione i risultati ottenibili tramite i Bci. Come ha commentato su Nature Christian Herff, neuroscienziato computazionale dell’Università olandese di Maastricht che ha da poco pubblicato uno studio incentrato proprio sulla dinamica all’interno del cervello delle rappresentazioni del discorso, il meccanismo dei dispositivi precedenti era paragonabile a “una conversazione su WhatsApp”, che non scorre con i ritmi di un discorso a voce, richiedendo un certo tempo per elaborare la risposta. Col nuovo approccio, l’interfaccia è invece in grado di rilevare e interpretare il segnale cerebrale già nel momento in cui viene elaborato, senza necessità di attendere la fine della frase, per pronunciarla immediatamente con una voce sì sintetica, ma che consente al tempo stesso agli utenti di trasmettere tono ed enfasi tipici di un discorso naturale. Per di più, questa voce può essere anche personalizzata attraverso l’addestramento degli algoritmi di Ai sulla base di registrazioni, come avvenuto nel caso di Ann basandosi sui video del suo matrimonio.

Alberto Minazzi

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Il campo nome è richiesto.
Il campo email è richiesto o non è corretto.
Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale.