Cuidado! O próximo ataque imita a voz dos seus amigos!

Se fica assustado com alguns dos métodos mais tradicionais para lhe roubar dinheiro saiba que tudo acaba de ficar muito pior. De facto, ao pé do novo ataque aterrador com o propósito de lhe roubar dinheiro, os outros como o “Olá Mãe” e “Olá Pai” do WhatsApp são uma brincadeira de crianças. Bem na realidade, acabam por ser uma evolução deste esquema, mas muito mais bem feito. Isto porque o próximo ataque imita a voz dos seus amigos e familiares.

Cuidado! O próximo ataque imita a voz dos seus amigos!

Já todos recebemos e-mails e mensagens de texto a pedir para darmos um clique num link falso. Também já recebemos as tais famosas mensagens do Olá mãe ou tivemos alguém no Facebook Messenger a fazer-se passar por uma pessoa próxima. No entanto, a nova ameaça é muito mais avançada. Isto porque os criminosos conseguem utilizar sistemas de inteligência artificial para imitarem exatamente a voz dos seus entes queridos e roubar dinheiro. De acordo com uma informação avançada pela plataforma tecnológica de autenticação digital biométrica iiDENTIFii, isto será uma prática cada vez mais comum. Alguém com a voz do seu pai, mãe, amigo ou primo a enganá-lo para receber dinheiro. Tudo numa chamada que parece totalmente inocente.

Como tudo funciona

Se um familiar lhe ligar inesperadamente a dizer que está com problemas e precisa de ajuda, provavelmente não hesitaria ou pensaria duas vezes e confiaria na voz do outro lado. Ora é aqui que entra a inteligência artificial.

Entretanto se pensa que isto é algo que está distante desengane-se. Qualquer pessoa que tenha passado algum tempo no Youtube ou no TikTok nos últimos meses sabe que a IA se tornou tão poderosa que pode clonar as vozes de presidentes dos EUA como Biden e Trump, entre outras.

ciberataque, ciberataques

A propósito disto a Microsoft experimentou recentemente uma ferramenta de IA chamada VALL-E. Ela pode clonar a voz de uma pessoa apenas ouvindo alguns segundos de um clipe de áudio e depois gerar uma mensagem de voz numa vasta gama de línguas diferentes.

Com apenas um pequeno clip de áudio da voz de um membro da família, que pode ser roubado das redes sociais, os criminosos utilizam um programa de clonagem de voz para se fazer passar por eles.

Aliás esta ameaça é tão séria que já foi lançado um alerta em alguns países. Isto para os consumidores estarem atentos a chamadas de pessoas que têm exatamente a mesma voz dos seus ente-queridos e que lhe pedem dinheiro.

Siga a Leak no Google Notícias e no MSN Portugal.

Receba as notícias Leak no seu e-mail. Carregue aqui para se registar. É grátis!

Bruno Fonseca
Bruno Fonseca
Fundador da Leak, estreou-se no online em 1999 quando criou a CDRW.co.pt. Deu os primeiros passos no mundo da tecnologia com o Spectrum 48K e nunca mais largou os computadores. É viciado em telemóveis, tablets e gadgets.

Leia também