Golpistas usam inteligência artificial para clonar vozes e  extorquir dinheiro de vítimas

Golpistas começaram a utilizar inteligência artificial para enganar vítimas e ganhar milhares de dólares. Em um dos casos mais assustadores, criminosos utilizaram um software avançado para imitar a voz do neto de uma senhora de 73 anos e quase conseguiram extorquir dinheiro dela, as informações são do Portal R7.

A canadense Ruth Card recentemente recebeu a ligação de alguém que dizia ser Brandon, um neto dela, que contou estar preso e precisava de dinheiro para fiança. Quase sem pensar, ela e o marido Greg correram para o banco.

Conseguiram sacar 3.000 dólares canadenses (R$ 11,2 mil, na cotação atual) de uma agência de Regina, no Canadá, e só não tiraram mais porque o gerente de uma segunda agência havia falando com um cliente que dissera ter recebido uma ligação semelhante, mas percebera que a voz era falsificada a tempo.

Após ficar famoso, fotógrafo admite que pessoas das imagens foram geradas por inteligência artificial
“Estávamos realmente convencidos de que conversamos com Brandon”, disse Ruth Card, em entrevista ao jornal Washington Post.

Assim como no Brasil, golpes que usam identidade de conhecidos são comuns nos Estados Unidos e Canadá. Mas, recentemente, eles começaram a ficar mais sofisticados graças ao uso de inteligência artificial generativa.

Programas relativamente baratos permitem imitar vozes com pequenas amostras de áudio que podem ser obtidas de vídeos publicados online. A IA identifica características únicas da voz, como sotaque e entonação, e o que não consegue estabelecer com precisão, é preenchido com vozes semelhantes pesquisadas em imensos bancos de dados que alimentam tais programas.

Em uma ligação, basta ao golpista digitar que o programa “fala” com a vítima.

Uma dessas ferramentas mais famosas, criada pela startup EvenLabs, foi criticada por não criar formas de coibir o mau uso da ferramenta. No fim de fevereiro, um jornalista da Vice testou uma versão de 5 dólares da ferramenta e conseguiu acessar a própria conta bancária.

No fim de janeiro, a empresa afirmou no Twitter que vai criar ferramentas para identificar vozes criadas por IA.

Advogados e bitcoins

Alguns não têm tanta sorte quanto Ruth. O Washington Post relatou o caso de Benjamin Perkin, cujos pais idosos foram roubados em 21 mil dólares canadenses (R$ 78,4 mil, na cotação atual).

Os pais dele receberam a ligação de alguém que disse ser advogado e informou que Benjamin tinha se envolvido em um acidente de carro e precisava de dinheiro para pagar advogados e evitar ficar preso.

O advogado disse que Benjamin falaria ao telefone e a voz soou igual à dele, segundo o depoimento. Isso convenceu os pais a transferirem o dinheiro, por meio de bitcoins — o que torna quase impossível rastrear o destino dos fundos e investigar o caso.

Como golpistas geralmente usam criptomoedas e podem ligar de telefones em praticamente qualquer país do mundo, rastreá-los é extremamente difícil. O pânico do momento também dificulta perceber o golpe: os pais de Benjamin afirmaram que a ligação parecia estranha, mas era convincente o bastante.

A saída, segundo alguns juristas, é criminalizar as fabricantes de softwares do tipo. Mas isso só ocorrerá quando casos como esses forem julgados, e para isso são necessários processos.

Receba as notícias da Studio via WhatsApp

Receba as notícias da Studio via Telegram

A Rádio Studio não se responsabiliza pelo uso indevido dos comentários para quaisquer que sejam os fins, feito por qualquer usuário, sendo de inteira responsabilidade desse as eventuais lesões a direito próprio ou de terceiros, causadas ou não por este uso inadequado.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo

Podemos exibir anúncios para você?

Parece que você está usando um bloqueador. A exibição de conteúdo publicitário contribui para fazer a informação chegar a você, de forma fácil e gratuita. Por favor, libere a exibição de anúncios para liberar a visualização da notícia.