Come l’IA può ridurre il divario comunicativo con le persone mute

sordocecità

Alcuni ricercatori hanno utilizzato l’intelligenza artificiale per ridurre il “gap comunicativo” delle persone con linguaggio non verbale affette da disabilità motorie che si affidano ai computer per conversare con gli altri.

Il team, appartenente dell’Università di Cambridge e dell’Università di Dundee, ha sviluppato un nuovo metodo che riduce questo divario comunicativo eliminando tra il 50% e il 96% delle sequenze di tasti che la persona deve digitare per comunicare.

Il sistema è specificamente progettato per le persone con linguaggio non verbale e utilizza una serie di “indizi” di contesto, come la posizione dell’utente, l’ora del giorno o l’identità del partner, per aiutare a suggerire frasi più rilevanti per l’utente stesso.

Le persone con linguaggio non verbale affette da disabilità motorie spesso usano un computer con uscita vocale per comunicare con gli altri. Tuttavia, anche senza una disabilità fisica che influisce sul processo di digitazione, questi ausili di comunicazione sono troppo lenti e soggetti a errori per una conversazione significativa; le tipiche frequenze di digitazione sono comprese tra cinque a 20 parole al minuto, mentre una frequenza di conversazione tipica è nell’intervallo di 100 a 140 parole al minuto.

“Questa differenza viene definita gap di comunicazione”, ha affermato il professor Per Ola Kristensson del Dipartimento di Ingegneria di Cambridge, autore principale dello studio. “Il divario è in genere tra le 80 e le 135 parole al minuto e influisce sulla qualità delle interazioni quotidiane per le persone che si affidano ai computer per comunicare”.

Il metodo sviluppato da Kristensson e dai suoi colleghi utilizza l’intelligenza artificiale per consentire a un utente di recuperare rapidamente le frasi digitate in passato. Ricerche precedenti hanno dimostrato che le persone che fanno affidamento sulla sintesi vocale, proprio come tutti gli altri, tendono a riutilizzare molte delle stesse parole e frasi nella conversazione quotidiana. Tuttavia, il loro recupero è un processo che richiede tempo agli utenti tramite le tecnologie di sintesi vocale esistenti, rallentando ulteriormente il flusso della conversazione.

Nel nuovo sistema, mentre la persona sta digitando, si attivano algoritmi che recuperano automaticamente le frasi precedenti più pertinenti in base al testo digitato e al contesto in cui è coinvolta la conversazione. Il contesto include informazioni sulla conversazione come posizione, ora del giorno e identificazione automatica del volto del partner che parla. L’altro oratore viene identificato da una fotocamera frontale mediante un algoritmo di visione artificiale addestrato per riconoscere i volti umani.

Lo studio è il primo a integrare il recupero delle informazioni attente al contesto con dispositivi che generano la parola per le persone con disabilità motorie, dimostrando come l’intelligenza artificiale sensibile al contesto possa migliorare la loro vita.

Leave a Reply

Il tuo indirizzo email non sarà pubblicato.

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi