0
0 Cesto (vuoto)

Cerca nel Blog

Marche

Notizie

Tutti i nuovi prodotti

Dalla furto di identità alle truffe: preoccupazioni sull'uso degli strumenti di IA per clonare la voce

Pubblicato il 25/05/2024

L'intelligenza artificiale (IA) si sta diffondendo in vari campi e uno di questi è la tecnologia di clonazione vocale, che è sempre più dotata di strumenti per il suo utilizzo e che, a sua volta, sta causando una serie di preoccupazioni tra gli utenti e i professionisti riguardo ai possibili casi di uso improprio, come la recente controversia con l'attrice Scarlett Johansson, che cerca risposte su se OpenAI abbia utilizzato la sua voce senza consenso per creare la voce di Sky nel chatbot 'ChatGPT'.

La clonazione vocale tramite strumenti di IA consiste nel creare copie sintetiche della voce di qualsiasi persona tramite l'uso di algoritmi e apprendimento automatico. In alcuni casi, questi strumenti permettono di replicare la voce di una persona con campioni audio di pochi secondi, ottenendo risultati realistici.

Così, a differenza delle voci sintetiche generate tramite un computer, create con tecnologie di conversione del testo in voce, la clonazione vocale utilizza la voce reale di una persona e ne genera una interpretazione realistica dell'originale.

A questo proposito, esistono vari strumenti basati su IA che facilitano la clonazione della voce. Un esempio di questa tecnologia è VALL-E di Microsoft, che, con poche registrazioni audio di soli tre secondi, è in grado di imitare la voce del parlante preservando anche le emozioni e l'ambiente acustico del messaggio.

Lo stesso vale per lo strumento recentemente annunciato da OpenAI, Voice Engine, un nuovo modello di IA capace di creare voci personalizzate e naturali con un solo campione audio di 15 secondi.

Questi strumenti offrono dunque numerosi vantaggi e facilitazioni nell'utilizzo della voce in diversi contesti, che si tratti della creazione di assistenti vocali personalizzati, di aiutare persone con problemi di linguaggio, dello sviluppo di videogiochi o anche per ambienti lavorativi, con applicazioni nel marketing o nella traduzione di contenuti.

Tuttavia, le tecnologie di clonazione vocale stanno sollevando alcune preoccupazioni tra gli utenti e i professionisti della voce che, di fronte alla possibilità di un uso improprio dell'IA, prevedono potenziali problemi come l'usurpazione della voce e quindi dell'identità.

POSSIBILI USI DELLA VOCE SENZA CONSENSO

Queste preoccupazioni si materializzano in casi come quello dell'attrice Scarlett Johansson, che attualmente cerca risposte legali per l'uso di una voce molto simile alla sua da parte di OpenAI nel suo chatbot 'ChatGPT'. In particolare, si tratta della voce conosciuta come Sky che, a seguito di questa situazione, è stata temporaneamente sospesa.

L'azienda guidata da Sam Altman aveva inizialmente proposto all'attrice di dare la voce a ChatGPT, tuttavia, Johansson ha rifiutato l'offerta per "ragioni personali" e, al suo posto, OpenAI ha optato per lavorare con doppiatori professionisti, agenzie di talenti, direttori di casting e consulenti del settore.

Infatti, l'azienda ha affermato che la voce di Sky non è un'imitazione dell'americana, ma "appartiene a un'altra attrice professionista, che usa la propria voce naturale" e che è stata persino assunta prima dell'offerta fatta all'attrice.

Tuttavia, Johansson sostiene che OpenAI ha imitato la sua voce indipendentemente dal fatto che abbia rifiutato l'offerta e cerca quindi di chiarire cosa sia successo per vie legali. "Quando ho sentito la demo rilasciata, sono rimasta stupefatta, furiosa e incredula nel vedere che il signor Altman stava usando una voce che sembrava così inquietantemente simile alla mia", ha dichiarato in un comunicato.

Questo caso riflette una delle possibili conseguenze dell'uso di queste tecnologie di clonazione, che danno luogo a situazioni confuse in cui è difficile affermare e proteggere l'identità degli utenti su Internet, in questo caso, tramite l'uso della voce.

PROFESSIONISTI DELLA VOCE IN ALLERTA

L'irruzione di questi strumenti di IA capaci di clonare la voce mette in allerta anche i professionisti del settore della voce, che si vedono colpiti dalle capacità di questa tecnologia, che in alcuni casi può finire per sostituire il loro lavoro, ad esempio nella realizzazione di interpretazioni.

Questa preoccupazione è stata già evidenziata da gruppi come il Sindacato dei Doppiatori e Voice Talents di Madrid, che hanno richiesto che ogni comunicazione orale con una IA "sia adeguatamente identificata come tale". In questo modo, l'organizzazione intende fare in modo che nessun utente possa essere tratto in inganno e pensare di ascoltare un essere umano quando, in realtà, sta ascoltando una IA.

Inoltre, il sindacato ha avvertito delle conseguenze che questo tipo di tecnologia e il suo uso incontrollato possono comportare per il settore professionale. Per questo motivo, l'anno scorso hanno espresso la necessità di una legislazione che includa questioni come l'obbligo per gli sviluppatori di strumenti di clonazione con IA di includere "una equalizzazione o un effetto sonoro" che renda il contenuto identificabile solo ascoltandolo.

Come punto intermedio tra l'uso dell'IA e il lavoro dei professionisti della voce, sono nate iniziative come quella dell'azienda Speechless, che lo scorso aprile ha lanciato una IA ibrida che permette agli sviluppatori di videogiochi di utilizzare i loro strumenti di voce basati su IA, ma basati su una voce reale fornita da un doppiatore. In questo modo, il professionista riceve una commissione ogni volta che le sue risorse vocali vengono utilizzate in un videogioco.

USURPAZIONE DI PERSONAGGI FAMOSI

Continuando con l'uso improprio degli strumenti di clonazione vocale, ci sono state altre occasioni in cui questa tecnologia IA è stata direttamente utilizzata per usurpare l'identità di personaggi famosi, in particolare per svolgere attività dannose come promuovere comportamenti di odio.

Uno di questi casi si è verificato lo scorso anno con la startup tecnologica ElevenLab, che ha denunciato un uso improprio della tecnologia di clonazione vocale attraverso la loro tecnologia, dopo l'apparizione di una serie di clip audio apparentemente interpretati da celebrità come Joe Rogan, Ben Shapiro e Emma Watson, con contenuti razzisti e violenti.

Ciò è stato confermato da un'indagine condotta da Motherboard, che ha dettagliato che gli audio sono stati inizialmente pubblicati sulla piattaforma 4Chan. Dopo questo, ElevenLab ha dichiarato che avrebbero implementato una serie di misure per frenare questo uso improprio, come richiedere un campione di testo per verificare i diritti d'autore della voce.

TRUFFE E 'DEEPFAKES'

Tuttavia, queste usurpazioni di voce sono sempre più frequenti, soprattutto sui social network come Facebook e Instagram, che sono diventati uno dei canali di diffusione preferiti per gli autori di queste truffe, poiché milioni di persone li utilizzano quotidianamente e qualsiasi campagna dannosa può avere una vasta portata.

Secondo un sondaggio condotto dalle aziende sviluppatrici delle soluzioni software Voicebot e Pindrop, questo è qualcosa che preoccupa oltre il 57 percento degli utenti, che affermano di sentirsi inquieti per la loro esposizione a questa tendenza crescente.

Con tutto ciò, in un momento in cui gli utenti devono costantemente affrontare 'deepfake', informazioni false e usurpazioni di voce, è necessario considerare alcune caratteristiche quando si consumano contenuti, come la coerenza della voce, che nel caso delle voci clonate può avere toni insoliti o presentare schemi incoerenti.

Allo stesso modo, oltre a valutare le fonti, è consigliabile esaminare il contesto del contenuto e diffidare di quei post che condividono contenuti poco credibili, come elevate ricompense monetarie.

COMMENTI

Nessun commento dei clienti per il momento.

Aggiungi un commento