Hugo Gloss

Influencer diz que teve voz clonada por IA e usada contra o pai em golpe; entenda o caso

O influenciador Dario Centurione, do Almanaque SOS, revelou que foi alvo de um novo esquema envolvendo inteligência artificial (IA). Segundo o produtor de conteúdo, golpistas teriam adotado a tecnologia para clonar sua voz e então usado-a para pedir dinheiro emprestado ao pai do influencer.

Em vídeo divulgado nas redes sociais, Dario contou que o pai perdeu R$ 600 após fazer uma transferência via Pix para os golpistas, acreditando ser o próprio filho. O pai do influenciador chegou a “conversar” com a versão IA do filho numa ligação por telefone. “Eu recebi uma ligação com a sua voz, pedindo que eu emprestasse 600 reais para que você pagasse uma conta. Não foi você, estou vendo…”, disse a mensagem mostrada por Dario.

Segundo especialista consultado por Centurione, vozes muito presentes na internet estão sujeitas a esse tipo de “reprodução” por inteligência artificial e esse teria sido o “método” dos criminosos. O influencer acredita que os golpistas utilizaram vídeos publicados por ele nas redes sociais para criar uma espécie de banco de dados da sua voz e, a partir disso, replicaram sons e frases passando-se pela vítima através de ferramentas de IA.

Confira o relato na íntegra:

@almanaquesos Cuidado com o golpe que imita voz (Inteligência Artificial), crie agora uma PALAVRA CHAVE #AprendaNoTikTok #EuTeEnsino #AgoraVoceSabe ♬ som original – Almanaque SOS

Experts consultados pelo UOL Tilt explicaram que, devido ao avanço tecnológico da IA, será cada vez mais comum nos depararmos com ferramentas e dispositivos capazes de copiar a voz de uma pessoa e os trejeitos de fala dela. “As ferramentas mais avançadas exigem conhecimentos de programação. Assim não são acessíveis para todo mundo. No entanto, não é difícil encontrar serviços com esta finalidade na internet”, revelou Rodrigo Aquino, coordenador do Curso de Engenharia de Computação da ESEG – Faculdade do Grupo Etapa.

De fato, recursos como esse se popularizaram no TikTok nas últimas semanas. Cada vez mais, jovens têm criado covers de canções famosas nas vozes de outros artistas. Entre os mais populares na rede estão versões de canções de Lana Del Rey na voz Harry Styles, hits de Taylor Swift na voz de Phoebe Bridgers e assim por diante. Ouça abaixo:

Alerta

A FTC (Federal Trade Commission), órgão dos Estados Unidos regulador do comércio, se pronunciou recentemente sobre os perigos da IA. O órgão também emitiu um alerta aos consumidores, pedindo que as pessoas fiquem atentas a chamadas usando clones de voz.

“Tudo o que [o golpista] precisa é de um pequeno clipe de áudio da voz de seu familiar – que ele pode obter do conteúdo postado online – e um programa de clonagem de voz. Quando o golpista ligar para você, ele falará exatamente como seu familiar”, alertou.

O comunicado veio à tona após os registros de golpes do tipo apresentarem um aumento preocupante nos primeiros meses de 2023 nos EUA. Apesar do alerta, a FTC não divulgou a estimativa de quantas pessoas foram lesadas.

Para se proteger, especialistas reforçaram que é preciso ficar atento e desconfiar de quaisquer mensagens aparentemente “urgentes”: “Golpistas usam situações emergenciais, como problemas de crédito, situações com parentes, para convencer mais rápido as vítimas”, explicou Carlos Cabral, pesquisador da Tempest, empresa especializada em cibersegurança.

Caso o contato seja em nome de uma empresa, utilize outros canais de comunicação oficiais para validar a informação, como o site oficial da empresa e perfis nas redes sociais. Além disso, antes de transferir ou pagar, verifique se a identidade de quem está solicitando o Pix é a mesma da pessoa de destino.

Tanto Dario, quanto outros usuários do TikTok que foram alvos de golpes como esse, recomendaram o uso de palavras-chave com seus familiares. Eles também aconselharam as pessoas a fazerem perguntas pessoais, como o nome do primeiro animal de estimação ou a cor do primeiro carro, para verificar se você está realmente falando com seus parentes. Por fim, se possível, faça chamada de vídeo com a pessoa antes de efetuar qualquer tipo de transferência em dinheiro e evite clicar em links recebidos por e-mail, mensagens de SMS ou WhatsApp.

Sair da versão mobile