Você atende o telefone e ouve a voz desesperada da sua mãe pedindo uma transferência urgente via Pix. A entonação é idêntica, o jeito de falar é o mesmo. Mas não é ela. É uma inteligência artificial que clonou a voz a partir de um áudio de 15 segundos publicado no Instagram. Esse cenário tornou-se uma epidemia no Brasil em 2026.
De stories a armadilhas: como funciona a fraude
Softwares de clonagem vocal baseados em IA generativa, disponíveis por valores de gratuitos a poucas dezenas de dólares, conseguem replicar a voz de qualquer pessoa a partir de amostras curtas. As fontes mais exploradas são stories do Instagram, vídeos no TikTok, áudios em grupos de WhatsApp e conteúdos no YouTube.
Com a voz clonada, o golpista liga simulando uma emergência e solicita um Pix imediato. Em versões mais sofisticadas, a tecnologia já permite sobrepor o rosto do familiar em videochamadas ao vivo.
Uma crise em números
Os golpes envolvendo IA cresceram 308% entre 2024 e 2025 no Brasil. Especificamente os golpes do Pix usando deepfake registraram aumento de 148%. A McAfee aponta que 1 em cada 4 adultos no mundo já sofreu esse tipo de golpe ou conhece uma vítima.
Em São Paulo, 82% dos idosos já foram alvo de tentativas de golpes digitais, e 12% sofreram fraudes efetivas. O prejuízo médio por vítima ultrapassa R$ 3 mil, com casos documentados acima de R$ 50 mil.
A videochamada que não é real
A evolução mais perigosa é a fraude por videochamada. Criminosos utilizam softwares que sobrepõem rosto e voz de um parente durante ligações ao vivo. A vítima vê e ouve o familiar em tempo real, mas tudo é gerado artificialmente. Essa modalidade já foi registrada em dezenas de boletins de ocorrência em capitais como São Paulo e Rio de Janeiro no primeiro trimestre de 2026.
A defesa que nenhum algoritmo quebra
Especialistas convergem em uma recomendação analógica: a palavra-código. Uma senha verbal combinada previamente entre familiares, usada para confirmar a identidade em emergências. O golpista pode clonar voz e rosto, mas não consegue adivinhar uma informação que existe apenas entre você e seu familiar.
Outras medidas: desligar e ligar de volta para o número real; nunca transferir sob pressão emocional; limitar áudios e vídeos em redes sociais públicas; ativar verificação em duas etapas em apps financeiros.
Regulamentação corre atrás do prejuízo
O Congresso discute projetos de lei para tipificar criminalmente o uso de deepfakes para fraudes financeiras, com penas de até 12 anos. Bancos investem em detecção de voz sintética, mas admitem que a tecnologia de clonagem avança mais rápido que as defesas. Para as famílias, a mensagem é clara: combinem uma palavra-código hoje, antes que o telefone toque amanhã.



