Ils clonent votre voix et celle de vos amis avec l’IA pour réaliser des vols de millions de dollars : voici l’arnaque
Cloner une voix, est-il possible ? : Des fraudes ciblant des entreprises et des familles se multiplient dans diverses parties du monde. Cela se passe en fait en raison du manque de connaissance des méthodes utilisées par les cybercriminels.
Cette technologie est capable de créer automatiquement des modèles de comportement humain.
Le développement de l’intelligence artificielle (IA) a ouvert de nouvelles portes à l’innovation. Pourtant il a aussi suscité des inquiétudes quant à son utilisation malveillante. L’une des tendances les plus alarmantes est la clonage vocal. Il s’agit d’une pratique de plus en plus exploitée par les escrocs. En effet, elle a donné lieu à des fraudes de plusieurs millions de dollars.
Pirater votre compte bancaire via WhatsApp en un seul clic peut le vider totalement
Une étude au Royaume-Uni a révélé que 46 % des adultes ignorent l’existence de ce type d’arnaque. Cela met donc en évidence la nécessité urgente de sensibiliser le public à ce phénomène dangereux.
Cette utilisation malveillante de l’IA devrait se perfectionner dans les années à venir, augmentant ainsi le risque pour les particuliers et les entreprises qui gèrent de grandes quantités de données et de ressources financières.
Comment cloner une voix avec l’IA
Le clonage vocal avec l’IA est une technique permettant de reproduire avec une précision surprenante la voix d’une personne à partir d’enregistrements antérieurs de son discours. Bien que la plupart des gens pensent que plusieurs heures d’enregistrement sont nécessaires pour imiter une voix, la réalité est qu’il suffit de trois secondes d’audio pour créer une réplique convaincante.
Avec ces enregistrements brefs, la technologie de l’IA peut analyser et reproduire les caractéristiques vocales de toute personne. Elle produit alors un fichier vocal artificiel parfois indiscernable de l’original.
Ce type de technologie, qui a rapidement progressé depuis 2023, est accessible à toute personne disposant des outils nécessaires, ce qui pose un grave risque de sécurité. Les escrocs peuvent utiliser l’IA pour imiter la voix de quelqu’un que la victime connaît et effectuer des appels téléphoniques dans lesquels ils demandent des informations confidentielles ou des virements bancaires.
Les victimes, convaincues qu’elles parlent à un ami ou à un membre de leur famille, se plient souvent aux exigences des criminels sans remettre en question l’authenticité de l’appel.
Combien d’argent peut être volé en clonant une voix avec l’IA
Des entreprises mondiales ont perdu des millions de dollars à cause de ce type d’arnaque.
L’impact de ces fraudes a été considérable. Un exemple notable est le vol de 51 millions de dollars australiens d’une entreprise aux Émirats arabes unis. Dans ce cas, les fraudeurs ont utilisé le clonage vocal pour se faire passer pour un cadre supérieur et convaincre l’entreprise d’effectuer un transfert massif de fonds.
Ce type de fraude n’est pas un incident isolé. Des rapports de fraudes similaires ont émergé dans diverses parties du monde, de l’Amérique du Nord à l’Europe en passant par l’Asie.
Un autre cas alarmant implique des escrocs utilisant le clonage vocal pour faire croire aux parents que leurs enfants ont été kidnappés. Dans ces situations, les criminels imitent la voix des enfants pour exiger une rançon, provoquant la panique chez les parents et les obligeant à agir sous la pression.
La sophistication de ces fraudes a rapidement augmenté, et les victimes n’ont souvent aucun moyen de vérifier l’authenticité de l’appel au moment des faits.
Que se passera-t-il à l’avenir avec ce type d’escroqueries utilisant l’IA ?
Plusieurs rapports en cybersécurité avertissent que ces délits sont en hausse et devraient continuer à évoluer. À mesure que la technologie progresse, les escrocs amélioreront également leurs techniques, rendant ces fraudes encore plus difficiles à détecter et à prévenir.
De plus, la facilité avec laquelle les escrocs peuvent accéder à des outils de clonage vocal est une source de grande préoccupation. De nos jours, toute personne ayant un minimum de connaissances techniques peut accéder à des programmes d’IA capables de réaliser ce genre de fraude.
Par ailleurs, les plateformes de réseaux sociaux et autres médias où les gens partagent des enregistrements audio ou vidéo de leur voix fournissent le matériel nécessaire aux escrocs.
Comment éviter les arnaques avec des voix créées par l’IA
Il est important de ne jamais répondre à un appel d’un numéro inconnu.
La lutte contre ces délits nécessite une approche globale combinant technologie, législation et éducation publique. Il est crucial que les entreprises et les citoyens soient conscients de l’existence de ce type de fraude et prennent des mesures de précaution.
La mise en place de technologies de vérification plus robustes, telles que la reconnaissance biométrique, pourrait être une solution à long terme pour détecter ces imitations vocales.
D’autre part, les gouvernements et les entreprises technologiques doivent collaborer pour établir des réglementations limitant l’accès aux outils de clonage vocal et renforcer les sanctions contre ceux qui les utilisent de manière frauduleuse.
Quelques conseils utiles incluent la prudence lors de la réception d’appels inattendus demandant des informations confidentielles, la vérification de l’identité de l’appelant par d’autres moyens. (Comme un message texte ou un appel vidéo). Ainsi, il faut éviter le partage des enregistrements vocaux sur les réseaux sociaux ou des plateformes publiques sans raison claire.