Golpista falsificou voz de CEO e fez outro executivo transferir 220 mil euros

Pedido de 220 mil euros foi feito por um fraudador que utilizou uma voz sintetizada do CEO de uma empresa britânica por inteligência artificial.


A reportagem do Wall Street Journal indica que o executivo acreditava estar falando com o CEO da empresa-mãe, baseada na Alemanha. A pessoa que ligou tinha um sotaque alemão e disse que ele precisava transferir € 220 mil (mais de R$ 1 milhão) para um fornecedor na Hungria dentro de uma hora.

A companhia de seguros da empresa, Euler Hermes Group SA, compartilhou informações sobre o crime com o WSJ, mas não revelou o nome das empresas envolvidas.

O especialista em fraudes da Euler Hermes, Rüdiger Kirsch, disse ao WSJ que vítima reconheceu a voz de seu superior porque havia um pouco de sotaque alemão e a mesma “melodia” da voz. Essa foi a primeira vez que a Euler Hermes lidou com clientes que sofreram fraudes que usaram imitação via inteligência artificial, uma espécie de deepfake de voz.

Kirsch disse à reportagem que o fraudador ligou para a companhia da vítima três vezes. Depois que a transferência foi realizada, o agente mal-intencionado fez uma segunda chamada e disse que o dinheiro tinha sido reembolsado. O hacker ainda ligou uma terceira vez para pedir outro pagamento.

Embora a mesma voz falsa tenha sido usada, a última chamada foi realizada com um número de telefone da Áustria e o “reembolso” não tinha se concretizado, então a vítima levantou suspeitas sobre a autenticidade do autor da chamada e não obedeceu.

A tecnologia de voz gerada por IA tem se tornado bastante realista nos últimos meses. Kirsch disse ao WSJ que acredita que um software disponível comercialmente tenha sido usado para facilitar a imitação do executivo.

Em maio, a empresa de IA Dessa liberou um deepfake de voz do podcaster Joe Rogan que era uma réplica quase perfeita do seu timbre grave. A imitação era tão parecida que um ouvinte de longa data teria dificuldade em distinguir entre o Joe Rogan real e o falso.

Quanto à grana roubada, aparentemente o dinheiro foi enviado para uma conta bancária na Hungria, transferido para uma conta no México e depois distribuído em vários outros locais. Nenhum suspeito foi identificado.

A Dessa demonstrou a tecnologia em uma publicação em seu blog que discutia as implicações sociais da tecnologia e sugeriu alguns exemplos de como as vozes falsas podem ser usadas, incluindo manipulação eleitoral, personificação de membros de famílias e obtenção de autorização de segurança.

O blog da companhia afirma:

“Nos próximos anos (ou até mais cedo), veremos a tecnologia avançar ao ponto em que apenas alguns segundos de áudio serão necessários para criar uma réplica fiel da voz de qualquer pessoa no planeta”.

O CEO da empresa de energia foi enganado dois meses antes do post da Dessa sobre deepfake de voz ter sido publicado.

João Pedro:
Related Post