dim. Juin 16th, 2024
Le compte bancaire peut être piraté avec une voix générée artificiellement
Rate this post

De nombreuses banques en Europe et aux USA l’utilisent logiciel de reconnaissance vocale, afin que les clients puissent également accéder à leur compte par téléphone. Cependant, le journaliste Joseph Cox a montré que ce type de connexion est susceptible d’être plutôt peu sécurisé. Il a son propre compte avec un voix générée artificiellement haché.

La voix doit être sûre

L’expérience a été menée à la Lloyds Bank au Royaume-Uni. Cela annonce le service « Voice ID » comme sûr, la voix est « unique en tant que empreinte digitale« . Non seulement la hauteur de la voix, mais aussi le style de langue et l’accent seraient pris en compte lors de l’authentification.

Le compte bancaire peut être piraté avec une voix générée artificiellement


Vie numérique

Imité la voix du patron avec deepfake, volé 220 000 euros

Cependant, Cox a utilisé une intelligence artificielle pour cloner sa voix. Un 5 minutes d’enregistrement était suffisant pour former le logiciel. Il était alors capable de saisir par écrit des phrases simples, qui étaient ensuite lues par l’IA.

Voix synthétique et date de naissance requises

Après avoir créé la voix synthétique, Cox a essayé de se connecter à son compte par téléphone. Mais c’était toujours le sien date de naissance nécessaires – des informations qui, selon Cox, pourraient facilement être déterminées grâce à de nombreuses fuites de données provenant de divers services en ligne.

Le hack n’a pas fonctionné la première fois, mais après quelques essais, Cox a pu accéder au compte avec sa « fausse » voix. Interrogé sur Lloyds Bank, un porte-parole a déclaré être conscient du risque de sécurité posé par les voix synthétiques. Jusqu’à présent, cependant, vous avez pas encore de cas enregistré où la méthode a été utilisée.

Voir aussi  Participez et gagnez le smartphone extérieur Volla Phone X

Les personnes publiques facilement attaquées

Selon Cox, ce n’est qu’une question de temps avant que les cybercriminels n’utilisent également des voix générées synthétiquement pour obtenir des données bancaires ou des informations confidentielles. personnes publiquesLes personnes dont la voix est disponible sur Internet – par exemple dans des vidéos, des émissions de radio ou des podcasts – sont les plus vulnérables.

Un regard sur le forum 4chan montre que ce type d’intelligence artificielle est déjà utilisé par des trolls et des criminels. Les utilisateurs y laissent des personnalités connues slogans racistes ou homophobes frapper ou lire une fausse Emma Watson de « Mein Kampf ».