Pular para o conteúdo
Tecnologia

Golpes com deepfake de voz por IA crescem 308% e desafiam até sistemas bancários no Brasil

Bastam 15 segundos de áudio público para criminosos clonarem sua voz com IA e aplicarem golpes via Pix. Especialistas alertam que a palavra-código entre familiares é a defesa mais eficaz.

Ondas sonoras digitais representando clonagem de voz por IA
Foto: Reprodução

Você atende o telefone e ouve a voz desesperada da sua mãe pedindo uma transferência urgente via Pix. A entonação é idêntica, o jeito de falar é o mesmo. Mas não é ela. É uma inteligência artificial que clonou a voz a partir de um áudio de 15 segundos publicado no Instagram. Esse cenário tornou-se uma epidemia no Brasil em 2026.

De stories a armadilhas: como funciona a fraude

Softwares de clonagem vocal baseados em IA generativa, disponíveis por valores de gratuitos a poucas dezenas de dólares, conseguem replicar a voz de qualquer pessoa a partir de amostras curtas. As fontes mais exploradas são stories do Instagram, vídeos no TikTok, áudios em grupos de WhatsApp e conteúdos no YouTube.

Com a voz clonada, o golpista liga simulando uma emergência e solicita um Pix imediato. Em versões mais sofisticadas, a tecnologia já permite sobrepor o rosto do familiar em videochamadas ao vivo.

Uma crise em números

Os golpes envolvendo IA cresceram 308% entre 2024 e 2025 no Brasil. Especificamente os golpes do Pix usando deepfake registraram aumento de 148%. A McAfee aponta que 1 em cada 4 adultos no mundo já sofreu esse tipo de golpe ou conhece uma vítima.

Em São Paulo, 82% dos idosos já foram alvo de tentativas de golpes digitais, e 12% sofreram fraudes efetivas. O prejuízo médio por vítima ultrapassa R$ 3 mil, com casos documentados acima de R$ 50 mil.

A videochamada que não é real

A evolução mais perigosa é a fraude por videochamada. Criminosos utilizam softwares que sobrepõem rosto e voz de um parente durante ligações ao vivo. A vítima vê e ouve o familiar em tempo real, mas tudo é gerado artificialmente. Essa modalidade já foi registrada em dezenas de boletins de ocorrência em capitais como São Paulo e Rio de Janeiro no primeiro trimestre de 2026.

A defesa que nenhum algoritmo quebra

Especialistas convergem em uma recomendação analógica: a palavra-código. Uma senha verbal combinada previamente entre familiares, usada para confirmar a identidade em emergências. O golpista pode clonar voz e rosto, mas não consegue adivinhar uma informação que existe apenas entre você e seu familiar.

Outras medidas: desligar e ligar de volta para o número real; nunca transferir sob pressão emocional; limitar áudios e vídeos em redes sociais públicas; ativar verificação em duas etapas em apps financeiros.

Regulamentação corre atrás do prejuízo

O Congresso discute projetos de lei para tipificar criminalmente o uso de deepfakes para fraudes financeiras, com penas de até 12 anos. Bancos investem em detecção de voz sintética, mas admitem que a tecnologia de clonagem avança mais rápido que as defesas. Para as famílias, a mensagem é clara: combinem uma palavra-código hoje, antes que o telefone toque amanhã.