Analyse : Détecter deepfakes en audio grâce à Pindrop Pulse

Man looking at laptop computer with an expression of confusion

La vérité à l’ère de l’IA

Avec l’IA générative, les acteurs malveillants peuvent falsifier l’audio et la vidéo de n’importe qui, en particulier des dirigeants mondiaux. Alors que les deepfakes augmentent, nous nous concentrons sur la question suivante : est-ce humain ou IA ?

Le début de l’histoire

Le mardi 23 juillet 2024 à 22h30, des membres de l’équipe de recherche de Pindrop ont découvert ce qui semblait être une diffusion en direct d’Elon Musk sur YouTube. Nous avons rapidement déterminé qu’il s’agissait en réalité d’une boucle audio générée par IA de 6 minutes et 42 secondes qui imite la voix d’Elon Musk, aborde la politique américaine actuelle et l’élection de 2024, ainsi que ses effets potentiels sur l’avenir des cryptomonnaies. Le deepfake encourage ensuite le public à scanner un code QR, à se rendre sur un « site sécurisé » et à « doubler » facilement leurs cryptomonnaies.

Pourquoi l’arnaque semblait-elle crédible ?

Nous sommes habitués à rechercher des indices de l’authenticité dans les médias que nous consommons, comme les badges de vérification, l’activité du compte, et plus encore. Voici comment cette arnaque est parvenue à sembler réelle :

  • Légitimité du compte : Le compte frauduleux présentait un profil complet avec un badge de vérification, 162 000 abonnés, plus de 34 millions de vues au total, et était actif depuis 2022. Le compte ressemblait étroitement au compte officiel de Tesla, de sorte qu’à première vue, les spectateurs ont peut-être eu du mal à repérer le caractère frauduleux du compte.
  • Orateur de renom : En choisissant Elon Musk, un leader vocal dans l’espace des cryptomonnaies, les escrocs ont ajouté un sentiment de légitimité à leur arnaque – les aidant à mieux tromper les spectateurs.
  • Rester proche de la vérité : Les déclarations dans la vidéo sont similaires aux remarques précédentes de Musk. En répétant ou en ajustant légèrement les remarques précédentes de Musk, la vidéo a probablement suscité moins de méfiance chez les spectateurs.

Se défendre contre les deepfakes

L’IA générative est puissante – et peut être une force pour le bien – mais elle peut aussi être utilisée pour nous tromper. Lorsque nos sens ne suffisent pas pour valider la vérité, nous devons nous tourner vers la technologie qui peut nous aider. Pindrop Pulse, notre technologie avancée de détection de deepfake audio, intègre la détection de la vie pour aider à distinguer l’audio en direct de l’audio synthétique. Cette technologie vous donne le pouvoir d’évaluer si ce que vous entendez est réel – et aide à placer la confiance au premier plan des médias que nous consommons.

Source : www.pindrop.com

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut