0
0 Cesto (vuoto)

Cerca nel Blog

Marche

Notizie

Tutti i nuovi prodotti

Così le applicazioni di intelligenza artificiale aiutano a migliorare la vita delle persone con disabilità

Pubblicato il 15/01/2024

Assistenti personali come Siri o Alexa permettono di accendere la TV o spegnere la luce semplicemente chiedendolo. Tuttavia, hanno difficoltà a comprendere una persona con difficoltà di parola. Lo stesso vale per le applicazioni che permettono di scansionare testi ma non li leggono ad alta voce, cosa indispensabile per qualcuno con disabilità visiva. L'intelligenza artificiale può essere un supporto per superare queste barriere, come programmi addestrati a elaborare ogni tipo di discorso e inflessioni vocali o occhiali intelligenti che possono descrivere il nostro ambiente.

Alcuni usi dell'intelligenza artificiale negli ultimi anni si concentrano sulla generazione di immagini e video a partire da istruzioni testuali, i cosiddetti 'prompts'. Ma esistono applicazioni che permettono di fare il processo inverso: caricare una fotografia o registrare un video affinché un'intelligenza artificiale descriva gli elementi che appaiono nell'immagine.

Questo è il caso di Be My Eyes, un'applicazione che dal agosto 2023 ha incorporato questa tecnologia per descrivere immagini agli utenti con disabilità visiva. Fino ad ora era necessario attendere di contattare un volontario tramite questa piattaforma per ricevere questo tipo di assistenza, ma con l'intelligenza artificiale è più semplice.

Il modello di linguaggio GPT-4, la stessa tecnologia usata da ChatGPT, permette di richiedere questo supporto da un'intelligenza artificiale e chiedere aiuto per trovare oggetti caduti, leggere etichette o guidarci in un luogo. Be My Eyes è disponibile su Play Store e App Store.

Ask Envision è un altro progetto che utilizza la tecnologia di ChatGPT per fornire nuovi strumenti alle persone con problemi di vista. Invece di un'applicazione mobile, Ask Envision utilizza gli occhiali Envision: occhiali connessi a internet basati sulla tecnologia di Google Glass che permettono di scattare immagini del nostro ambiente e fornire una descrizione degli elementi che ci circondano.

Ad esempio, è possibile scansionare il menu di un ristorante e far leggere l'intero menu o chiedere all'assistente quali opzioni vegetariane ci sono. Gli occhiali Envision sono disponibili a partire da 1.899 euro nella loro versione base.

L'intelligenza artificiale ha il suo posto nel mondo del suono e del parlato. Come applicazioni come Google Translate, che permettono di tradurre qualsiasi conversazione in tempo reale (uno strumento utile per chiedere indicazioni in altre lingue se viaggiamo), Google Live Transcript (disponibile su Play Store) esegue una trascrizione in tempo reale delle conversazioni circostanti e avvisa di suoni come l'abbaiare di un cane o il campanello di una porta.

Questi strumenti di traduzione possono essere utilizzati anche nelle lingue dei segni. Questo è il progetto di Priyanjali Gupta, una studentessa di ingegneria presso l'Istituto di Tecnologia di Vellore, in India, che ha sviluppato un'intelligenza artificiale in grado di tradurre in tempo reale la lingua dei segni americana (ASL, utilizzata negli Stati Uniti, Canada e Messico) in inglese scritto.

L'intelligenza artificiale può essere utilizzata come supporto per sviluppare diverse competenze o come risorsa terapeutica per bambini con difficoltà di parola, come Timlogo. È una piattaforma online (disponibile solo in rumeno) sviluppata dalla compagnia rumena Ascendia che offre giochi destinati a pazienti minori di età ed è in grado di analizzare la pronuncia dei bambini per individuare problemi specifici nel loro discorso e offrire esercizi personalizzati attraverso questa tecnologia.

Le persone con disabilità uditive possono avere problemi di parola e ciò può ostacolare la comunicazione orale con altre persone. Sebbene esistano strumenti in grado di convertire il testo scritto in parola (un processo noto come 'text-to-speech'), questi sistemi non sono del tutto fluidi nel mantenere una conversazione.

Per cercare di risolvere questo problema, Google ha sviluppato Parrotron: un'intelligenza artificiale in grado di riconoscere il discorso di una persona con difficoltà di parola e far ripetere ogni frase da una voce sintetica (generata dal computer e capace di imitare il nostro modo di parlare) con un ritmo e una prosodia coerenti, sebbene al momento si trovi ancora in fase di ricerca.

I problemi di parola possono complicare l'uso di altre tecnologie come gli assistenti vocali, come Siri, Alexa o Google Assistant, che possono essere utili per persone con determinati tipi di disabilità poiché ci permettono di chiamare i nostri contatti, ascoltare un podcast o accendere le luci di una stanza con un semplice comando vocale.

Sebbene questi sistemi siano addestrati con centinaia di registrazioni vocali per imparare a riconoscere istruzioni orali, non sono preparati a comprendere il discorso di qualcuno con difficoltà di parola. Ma gradualmente stanno emergendo alternative come Voiceitt: un modello di intelligenza artificiale focalizzato su utenti con difficoltà di parola che può essere implementato in assistenti vocali come Alexa o utilizzato per generare trascrizioni in riunioni online su piattaforme come Webex. Voiceitt è disponibile in spagnolo tramite un abbonamento mensile di 50 dollari sulla sua piattaforma web.

Ci sono casi in cui una persona può aver perso permanentemente la capacità di parlare, come i pazienti con Sclerosi Laterale Amiotrofica (SLA). Sebbene i sistemi di conversione da testo a voce possano facilitare la comunicazione per coloro che non mantengono più la parola, questi strumenti usano voci sintetiche che possono sembrare impersonali e artificiali.

Grazie all'intelligenza artificiale e alle voci clonate (quelle che imitano il parlato, il timbro e la prosodia di una persona specifica), è possibile creare sistemi di conversione da testo a voce personalizzati che aiutano i pazienti a mantenere la loro identità e migliorare la loro qualità della vita. È stato il caso del padre di Álvaro Medina, giornalista di Prodigioso Volcán, che in collaborazione con ahoLab è riuscito a conservare la sua voce dopo aver registrato diversi campioni della sua voce con un microfono e creato un modello acustico della stessa, una funzione ora disponibile sui dispositivi Apple.

COMMENTI

Nessun commento dei clienti per il momento.

Aggiungi un commento