0
0 Carrinho (vazio)

Pesquisar no Blog

Marcas

Novos Produtos

Poly E70 VM

Videoconferencia - Videoconferencia -...

179,77 €

Todos os novos produtos

Desde a usurpação de identidade até fraudes: preocupações sobre o uso de ferramentas de IA para clonar a voz

Publicado em 2024-05-25

A Inteligência Artificial (IA) está proliferando em diversos campos e um deles é a tecnologia de clonagem de voz, que cada vez conta com mais ferramentas para seu uso e que, por sua vez, está causando uma série de preocupações entre os usuários e profissionais diante dos possíveis casos de uso indevido, como é a recente polêmica com a atriz Scarlett Johansson, que busca respostas sobre se a OpenAI utilizou sua voz sem consentimento para criar a voz de Sky no 'chatbot' ChatGPT.

A clonagem de voz por meio de ferramentas de IA consiste em, através do uso de algoritmos e aprendizado automático, criar cópias sintéticas da voz de qualquer pessoa. Em alguns casos, essas ferramentas permitem replicar a fala de uma pessoa com amostras de áudio de apenas alguns segundos, conseguindo resultados realistas.

Assim, ao contrário das vozes sintéticas geradas através de um computador, que são criadas com tecnologias de conversão de texto para voz, a clonagem de vozes utiliza a voz real de uma pessoa e, a partir disso, gera uma interpretação realista da original.

Nesse sentido, existem diversas ferramentas impulsionadas por IA que facilitam a clonagem da voz. Um exemplo dessa tecnologia é o VALL-E da Microsoft, que, por meio de algumas gravações de áudio de apenas três segundos, é capaz de imitar a voz do falante preservando até mesmo as emoções e o ambiente acústico da mensagem.

O mesmo acontece com a ferramenta recentemente anunciada da OpenAI, Voice Engine, um novo modelo de IA capaz de criar vozes personalizadas e naturais com uma única amostra de áudio de 15 segundos.

Assim, essas ferramentas apresentam múltiplas vantagens e facilidades ao utilizar a voz em diferentes tipos de contexto, seja para a criação de assistentes de voz personalizados, para ajudar pessoas com problemas de fala, para o desenvolvimento de videogames ou, até mesmo, para ambientes de trabalho, com aplicações no marketing ou na tradução de conteúdo.

No entanto, as tecnologias de clonagem de voz também estão levantando algumas preocupações entre os usuários e os profissionais da voz que, diante da possibilidade de um uso indevido da IA, preveem possíveis problemas como a usurpação da voz e, portanto, da identidade.

POSSÍVEIS USOS DA VOZ SEM CONSENTIMENTO

Essas preocupações se materializam em casos como o da atriz Scarlett Johansson, que atualmente busca respostas legais diante do uso de uma voz muito similar à sua pela OpenAI em seu 'chatbot' ChatGPT. Em específico, trata-se da voz conhecida como Sky que, como consequência dessa situação, foi desativada temporariamente.

A empresa dirigida por Sam Altman propôs inicialmente à atriz dar voz ao ChatGPT, no entanto, Johansson rejeitou a oferta por "razões pessoais" e, em vez disso, a OpenAI optou por trabalhar com atores de dublagem profissionais, agências de talentos, diretores de elenco e consultores da indústria.

De fato, a empresa afirmou que a voz de Sky não é uma imitação da americana, mas "pertence a uma atriz profissional diferente, que usa sua própria voz natural" e que, inclusive, foi contratada antes da oferta feita à atriz.

No entanto, Johansson alega que a OpenAI imitou sua voz independentemente de ela ter recusado a oferta e, portanto, busca esclarecer o ocorrido pela via legal. "Quando ouvi a demonstração lançada, fiquei estupefata, furiosa e incrédula ao ver que o Sr. Altman estava utilizando uma voz que soava tão inquietantemente similar à minha", manifestou em um comunicado.

Este caso reflete uma das possíveis consequências do uso dessas tecnologias de clonagem, que dão margem a situações confusas em que se dificulta a forma de afirmar e proteger a identidade dos usuários na Internet, neste caso, com o uso da voz.

PROFISSIONAIS DA VOZ EM ALERTA

A irrupção dessas ferramentas de IA capazes de clonar a voz também coloca em alerta os profissionais do setor de voz, que se veem afetados pelas capacidades dessa tecnologia, já que, em algumas ocasiões, pode acabar substituindo seu trabalho, por exemplo, na hora de realizar interpretações.

Essa preocupação já foi destacada por grupos como o Sindicato de Atores de Dublagem e Voice Talents de Madrid, que solicitaram que toda a comunicação oral com uma IA "seja devidamente identificada como tal". Dessa forma, a organização pretende que nenhum usuário possa ser levado a engano e pense que está ouvindo um ser humano quando, na verdade, está ouvindo uma IA.

Além disso, o sindicato alertou sobre as consequências que esse tipo de tecnologia e seu uso descontrolado podem acarretar para o setor de profissionais. Por isso, no ano passado manifestaram a necessidade de uma legislação que inclua questões como a obrigatoriedade de que os desenvolvedores das ferramentas de clonagem com IA incluam "uma equalização ou um efeito de som" que tornem o conteúdo identificável só de ouvi-lo.

Como ponto intermediário entre o uso da IA e o trabalho dos profissionais de voz, surgiram iniciativas como a da empresa Speechless, que lançou no passado mês de abril uma IA híbrida com a qual permite aos desenvolvedores de videogames utilizar suas ferramentas de voz impulsionadas por IA, mas baseadas em uma voz real oferecida por um ator de dublagem. Dessa forma, o profissional recebe uma comissão cada vez que seus recursos de voz são utilizados em um videogame.

USURPAÇÃO DE FAMOSOS

Continuando com o uso indevido das ferramentas de clonagem de voz, houve outras ocasiões em que diretamente se utilizou essa tecnologia de IA para usurpar a identidade de personalidades famosas, especificamente para realizar atividades maliciosas como fomentar comportamentos de ódio.

Um desses casos ocorreu no ano passado com a 'startup' tecnológica ElevenLab, que denunciou um uso indevido de clonagem de voz através de sua tecnologia, após a aparição de uma série de clipes de áudio aparentemente protagonizados por celebridades como Joe Rogan, Ben Shapiro e Emma Watson, com conteúdos racistas e violentos.

Assim o constatou uma investigação realizada pela Motherboard, na qual foi detalhado que os áudios foram inicialmente publicados na plataforma 4Chan. Após isso, ElevenLab afirmou que implementaria uma série de medidas para frear esse uso indevido, como solicitar uma amostra com texto para verificar os direitos autorais da voz.

FRAUDES E 'DEEPFAKES'

No entanto, essas usurpações de voz são cada vez mais frequentes, sobretudo nas redes sociais como Facebook e Instagram, que se tornaram um dos canais de difusão preferidos para os autores dessas fraudes, devido ao fato de milhões de pessoas as utilizarem diariamente e qualquer campanha maliciosa pode ter um grande alcance.

Segundo uma pesquisa realizada pelas empresas desenvolvedoras das soluções de 'software' Voicebot e Pindrop, isso é algo que preocupa mais de 57 por cento dos usuários, que afirmam se sentir inquietos por sua exposição diante dessa tendência crescente.

Com tudo isso, em um momento da sociedade em que os usuários lidam continuamente com 'deepfakes', informações falsas e usurpações de voz, devem ser levadas em conta certas características ao consumir conteúdo, como a consistência da voz, que no caso das vozes clonadas pode ter tons incomuns ou apresentar padrões inconsistentes.

Da mesma forma, além de avaliar as fontes, é recomendável examinar o contexto do conteúdo e desconfiar daquelas publicações que compartilham conteúdos pouco críveis, como recompensas monetárias altas.

COMENTÁRIOS

Sem comentários de clientes no momento.

Adicione um comentário