0
0 Panier (vide)

Recherche dans le blog

Marques

Nouveautés

Toutes les nouveautés

De l'usurpation d'identité aux escroqueries : préoccupations concernant l'utilisation des outils d'IA pour cloner la voix

Publié le 25/05/2024

L'intelligence artificielle (IA) se prolifère dans divers domaines et l'un d'entre eux est la technologie de clonage vocal, qui dispose de plus en plus d'outils pour son utilisation et qui, à son tour, suscite une série de préoccupations parmi les utilisateurs et les professionnels face aux éventuels cas d'utilisation abusive, comme la récente polémique avec l'actrice Scarlett Johansson, qui cherche des réponses sur la question de savoir si OpenAI a utilisé sa voix sans consentement pour créer la voix de Sky dans le 'chatbot' ChatGPT.

Le clonage vocal par le biais d'outils IA consiste, grâce à l'utilisation d'algorithmes et de l'apprentissage automatique, à créer des copies synthétiques de la voix de n'importe quelle personne. Dans certains cas, ces outils permettent de reproduire la voix d'une personne à partir d'échantillons audio de seulement quelques secondes, obtenant des résultats réalistes.

Ainsi, contrairement aux voix synthétiques générées par un ordinateur, qui sont créées avec des technologies de conversion de texte en voix, le clonage vocal utilise la voix réelle d'une personne et, à partir de cela, génère une interprétation réaliste de l'original.

À cet égard, il existe divers outils basés sur l'IA qui facilitent le clonage vocal. Un exemple de cette technologie est VALL-E de Microsoft qui, grâce à quelques enregistrements audio de seulement trois secondes, est capable d'imiter la voix du locuteur tout en préservant même les émotions et l'environnement acoustique du message.

Il en va de même pour l'outil récemment annoncé par OpenAI, Voice Engine, un nouveau modèle IA capable de créer des voix personnalisées et naturelles avec un seul échantillon audio de 15 secondes.

Ces outils présentent ainsi de nombreux avantages et facilités pour utiliser la voix dans différents types de contextes, que ce soit pour la création d'assistants vocaux personnalisés, pour aider les personnes ayant des problèmes de parole, pour le développement de jeux vidéo ou même pour les environnements de travail, avec des applications au marketing ou à la traduction de contenu.

Cependant, les technologies de clonage vocal soulèvent également certaines préoccupations parmi les utilisateurs et les professionnels de la voix qui, face à la possibilité d'une utilisation abusive de l'IA, prévoient des problèmes potentiels tels que l'usurpation de la voix et donc de l'identité.

UTILISATIONS POSSIBLES DE LA VOIX SANS CONSENTEMENT

Ces préoccupations se matérialisent dans des cas comme celui de l'actrice Scarlett Johansson, qui cherche actuellement des réponses légales face à l'utilisation d'une voix très similaire à la sienne par OpenAI dans son 'chatbot' ChatGPT. En particulier, il s'agit de la voix connue sous le nom de Sky qui, à la suite de cette situation, a été temporairement mise hors service.

L'entreprise dirigée par Sam Altman avait initialement proposé à l'actrice de prêter sa voix à ChatGPT, mais Johansson a refusé l'offre pour des "raisons personnelles" et, à la place, OpenAI a opté pour travailler avec des acteurs de doublage professionnels, des agences de talents, des directeurs de casting et des consultants de l'industrie.

En fait, l'entreprise a affirmé que la voix de Sky n'est pas une imitation de l'Américaine, mais "appartient à une actrice professionnelle différente, qui utilise sa propre voix naturelle" et qui a même été engagée avant l'offre faite à l'actrice.

Cependant, Johansson affirme qu'OpenAI a imité sa voix indépendamment du fait qu'elle ait refusé l'offre et cherche donc à clarifier ce qui s'est passé par voie légale. "Quand j'ai entendu la démonstration publiée, j'étais stupéfaite, furieuse et incrédule de voir que M. Altman utilisait une voix qui ressemblait tellement à la mienne", a-t-elle déclaré dans un communiqué.

Ce cas reflète l'une des conséquences possibles de l'utilisation de ces technologies de clonage, qui donnent lieu à des situations confuses où il est difficile d'affirmer et de protéger l'identité des utilisateurs sur Internet, dans ce cas, par l'utilisation de la voix.

LES PROFESSIONNELS DE LA VOIX EN ALERTE

L'irruption de ces outils IA capables de cloner la voix met également en alerte les professionnels du secteur de la voix, qui se voient affectés par les capacités de cette technologie, car, dans certains cas, elle peut finir par remplacer leur travail, par exemple, lors de la réalisation d'interprétations.

Cette préoccupation a déjà été mise en valeur par des groupes comme le Syndicat des Acteurs de Doublage et Voice Talents de Madrid, qui ont demandé que toute communication orale avec une IA "soit dûment identifiée comme telle". De cette manière, l'organisation vise à ce qu'aucun utilisateur ne soit induit en erreur et pense qu'il écoute un être humain alors qu'en réalité, il écoute une IA.

De plus, le syndicat a mis en garde contre les conséquences que ce type de technologie et son utilisation incontrôlée peuvent avoir pour le secteur professionnel. C'est pourquoi, l'année dernière, ils ont exprimé la nécessité d'une législation incluant des questions telles que l'obligation pour les développeurs d'outils de clonage IA d'inclure "une égalisation ou un effet sonore" qui rend le contenu identifiable rien qu'en l'écoutant.

Comme point intermédiaire entre l'utilisation de l'IA et le travail des professionnels de la voix, des initiatives telles que celle de l'entreprise Speechless ont vu le jour. Cette dernière a lancé en avril dernier une IA hybride permettant aux développeurs de jeux vidéo d'utiliser leurs outils vocaux basés sur l'IA, mais basés sur une voix réelle fournie par un acteur de doublage. Ainsi, le professionnel reçoit une commission chaque fois que ses ressources vocales sont utilisées dans un jeu vidéo.

USURPATION DES CÉLÉBRITÉS

En continuant avec l'utilisation abusive des outils de clonage vocal, il y a eu d'autres occasions où cette technologie IA a été directement utilisée pour usurper l'identité de personnalités célèbres, notamment pour mener des activités malveillantes comme encourager des comportements haineux.

L'un de ces cas est survenu l'année dernière avec la startup technologique ElevenLab, qui a dénoncé une utilisation abusive de la technologie de clonage vocal après l'apparition d'une série de clips audio apparemment joués par des célébrités telles que Joe Rogan, Ben Shapiro et Emma Watson, contenant des propos racistes et violents.

C'est ce qu'a constaté une enquête menée par Motherboard, qui a détaillé que les enregistrements ont été initialement publiés sur la plateforme 4Chan. Suite à cela, ElevenLab a déclaré qu'ils mettraient en œuvre une série de mesures pour freiner cette utilisation abusive, comme demander un échantillon de texte pour vérifier les droits d'auteur de la voix.

ESCROQUERIES ET 'DEEPFAKES'

Cependant, ces usurpations de voix sont de plus en plus fréquentes, notamment sur les réseaux sociaux comme Facebook et Instagram, qui sont devenus l'un des canaux de diffusion préférés des auteurs de ces escroqueries, car des millions de personnes les utilisent quotidiennement et toute campagne malveillante peut avoir une grande portée.

Selon une enquête menée par les entreprises développant les solutions logicielles Voicebot et Pindrop, cela préoccupe plus de 57 % des utilisateurs, qui disent se sentir inquiets de leur exposition face à cette tendance croissante.

Avec tout cela, à un moment où les utilisateurs sont constamment confrontés aux 'deepfakes', aux fausses informations et aux usurpations de voix, certaines caractéristiques doivent être prises en compte lors de la consommation de contenu, telles que la cohérence de la voix, qui dans le cas des voix clonées, peut avoir des tons inhabituels ou présenter des motifs incohérents.

De même, en plus d'évaluer les sources, il est recommandé d'examiner le contexte du contenu et de se méfier de ces publications qui partagent des contenus peu crédibles, comme des récompenses monétaires élevées.

COMMENTAIRES

Aucun commentaire pour le moment.

Ajouter un commentaire