MENU
THEMES

PARTAGER CETTE PAGE SUR LES réseaux sociaux:

Les deepfakes ne sont pas que vidéos, ils sont également audios

Publié le: 18/02/2020  |  Mis à jour le: 25/02/2020  |  Par: Guide Informatique  
Les deepfakes ne sont pas que vidéos, ils sont également audios

Les deepfakes ont récemment été au cœur de l’actualité après avoir démontré leur efficacité. Le grand public les a découvert avec l’application russe FaceApp avant de les adopter sur les réseaux sociaux Snapchat et TikTok. Certaines applications proposaient également de remplacer le visage de certains acteurs dans des scènes de films. La plupart des individus voient le deepfake comme un moyen de se divertir. Toutefois, entre les mauvaises mains, cette technologie peut être utilisée pour répandre de fausses informations. Par exemple, il est facile d’échanger des visages pour donner l’impression qu’une personne a dit ou fait quelque chose alors qu’il n’en est rien. C’est pour cette raison que Facebook a décidé de bannir les deepfakes vidéos de sa plateforme.

Mais les deepfakes ne sont pas seulement vidéo, il est également possible de réaliser des deepfakes audios. Cela fait des années que nous essayons d’imiter les voix humaines et les progrès des dernières années rend désormais cela possible à partir d’un court extrait audio. Il est désormais difficile de distinguer une voix réelle d’une voix synthétique.

Cette prouesse technologique peut s’avérer très utile. Par exemple, chaque individu peut enregistrer sa voix pour être capable de la générer par ordinateur si jamais il perd la capacité de parler dans le futur. C’est déjà ce que font les personnes atteintes de la maladie de Charcot. Toutefois, comme toujours, la technologie peut être utiliser à de bonnes comme à de mauvaises fins. Mais si les dangers des deepfakes vidéos ont bien été saisis, ce n’est pas le cas pour l’audio. La FTC (Federal Trade Comission) américaine a donc tenu un workshop pour identifier les différents dangers qu’implique cette technologie. Le premier risque identifié est le vol d’identité. Jusqu’à présent il était très difficile de se faire passer pour quelqu’un d’autre, ce n’était donc pas un crime très commun. Avec les technologies de deepfake audio et vidéo cela est désormais à la portée de tous. Les criminels peuvent également utiliser ces technologies pour facilement communique de façon anonyme. Un second danger est la copie des voix des acteurs et autres performeurs. Ces derniers peuvent avoir des obligations contractuelles sur l’utilisation de leur voix. Ils ont donc besoin d’être protégés des copies de leurs voix. Un problème similaire affecte les journalistes : des copies de leur voix prenant certaines positions peuvent les discréditer.

Ces utilisations sont problématiques, mais tous les membres du workshop de la FTC s’accordent sur le plus gros risque : les arnaques téléphoniques. Ce type d’appel peut toucher tout le monde, il se pourrait donc que les appels ne soient bientôt plus fiables pour échanger des informations confidentielles. Sans même utiliser de technologies de deepfake, un escroc est parvenu à extorquer 220 000 dollars d’une entreprise britannique en imitant la voix du CEO au téléphone. Pour Patrick Traynor de l’Université de Floride la façon la plus sûre pour vérifier l’identité de son interlocuteur est de raccrocher puis de le rappeler sur son numéro personnel. Ainsi, il sera le seul à pouvoir décrocher, sauf si vous avez affaire à un groupe d’hackeur très développé capable de rediriger les appels.

Actualités dans la même thématique ...

Après Google, c’est au tour de Nvidia de se lancer dans le cloud gaming. Cette technologie permet de jouer à des jeux vidéo depuis n’importe quel appareil en se connectant via le cloud à un ordinateur exécutant le jeu. Il est ainsi possible de jouer à des jeux ...

Réagir à cet article