Golpe da clonagem de voz: como se proteger?

Não é de hoje que usamos o recurso de voz para acionar alguns comandos, seja pelo smartphone, seja pelos assistentes virtuais presentes em dispositivos domésticos. O que parece inofensivo está se tornando um atrativo para golpes, que por meio da Inteligência Artificial (IA) são capazes de clonar vozes.

 

Um caso recente ocorreu com uma idosa canadense: criminosos por meio da IA clonaram a voz do neto e se passaram por ele para pedir dinheiro. Segundo o jornal The Washington Post, a voz telefonou para a idosa dizendo que o neto havia sido preso e precisava do dinheiro da fiança. Assustada, a mulher foi ao banco realizar o saque. Contudo, o gerente desconfiou e identificou a fraude, já que outro cliente tinha passado pela mesma situação.

 

Clonagem de voz

 

E isso não acontece apenas com pessoas comuns, grandes corporações também já caíram na armadilha: um CEO de uma empresa de energia no Reino Unido recebeu uma suposta ligação do executivo-chefe da controladora alemã da empresa, exigindo repasses. Resultado: um prejuízo de US$ 240 mil. A vítima alegou ao Wall Street Journal que reconheceu “o leve sotaque alemão da voz de seu chefe ao telefone”. Aliás, uma das colunistas do periódico, Joanna Stern, relatou como a clonagem da própria a voz, via IA, fez enganar o próprio pai, pedindo a ele o envio de um documento sensível.

 

Já no Brasil, o pai do influenciador digital Dario Centurione, da página Almanaque SOS, também foi enganado, recebendo uma suposta ligação do filho, e teve o prejuízo de R$ 600: “Por conta de a voz ser muito parecida, o meu pai nem se preocupou em perguntar o básico. A pessoa pediu a transferência para uma conta que não estava no meu nome, mas ele nem ligou porque a voz era minha”, disse Centurione ao jornal Extra.

 

 

Apenas três segundos

 

 

Thiago Bertacchini, Senior Business Development da Nethone, empresa de prevenção a fraudes, explica que esse tipo de clonagem pode ser usado em diferentes contextos e uma das formas mais populares dos chamados ataques de engenharia social está na velha ligação falsa como de atendimento ao cliente, pedindo às vítimas informações sensíveis, como senhas, por exemplo. “Os avanços nas tecnologias de clonagem de voz são preocupantes porque, segundo a Microsoft, agora é possível criar cópias vocais realistas a partir de três segundos de áudio. Isso significa que os criminosos têm acesso a uma ferramenta poderosa para executar golpes cada vez mais sofisticados”, alerta.

 

Para Matheus Puppe, advogado e sócio da área de TMT, Privacidade e Proteção de Dados do Maneira Advogados, esse tipo de ferramenta abre margens para golpes ainda mais sofisticados: “Eis, portanto, a necessidade de uma legislação robusta e regulamentação sensível ao tema que possa equilibrar os avanços tecnológicos com a segurança e a privacidade necessárias. Precisamos de mecanismos de responsabilização mais efetivos para combater o uso indevido dessas tecnologias e, simultaneamente, promover a conscientização e a educação digital”, afirmou ao Extra.

 

Prevenção

 

 

“Com a ascensão meteórica da IA, é importante que os tomadores de decisão e todos os colaboradores das empresas saibam como podem ajudar e, principalmente, prejudicar uma organização”, recomenda Bertacchini. Uma solução é a capacitação dos funcionários sobre o tema, além de verificar todas as informações em outras fontes confiáveis e, se possível, identificar a pessoa do outro lado da linha por recursos como o uso de um número de telefone verificado ou mesmo uma senha.

 

O gestor também aconselha limitar a exposição de dados pessoais online ou mesmo de cunho apenas interno para evitar fraudes. Uma opção é o uso de canais de comunicação criptografados, como redes privadas virtuais (VPNs), para informações confidenciais, bem como a autenticação de dois fatores e o treinamento de conscientização em cibersegurança aos funcionários e implementar a biometria de voz como autenticação adicional.

 

 

Foto: Reprodução

Comentários estão fechados.