O Starling Bank alertou que “milhões de pessoas” podem ser vítimas de fraudes que utilizam a IA (Inteligência Artificial) para clonar as suas vozes: de acordo com o banco de crédito britânico apenas em linha, os burlões são capazes de utilizar a IA para reproduzir a voz de alguém a partir de apenas de três segundos de áudio, encontrados num vídeo publicado – dessa forma, podem identificar os amigos e familiares da pessoas e utilizar a voz clonada para encenar uma chamada telefónica para pedir dinheiro.
Segundo uma sondagem a mais de três mil adultos realizada pelo banco com a ‘Mortar Research’, no mês passado, mais de um quarto dos entrevistados disse ter sido alvo de um golpe de clonagem de voz por IR no último ano. O inquérito apontou ainda que 46% dos inquiridos não sabiam da existência deste tipo de burla e que 8% enviariam o montante solicitado por um amigo ou familiar, mesmo que a chamada lhes parecesse estranha.
“As pessoas publicam regularmente conteúdos online que contêm gravações da sua voz, sem nunca imaginarem que isso as torna mais vulneráveis aos burlões”, alertou Lisa Grahame, diretora de segurança da informação do Starling Bank, em comunicado.
O banco britânico deixou ainda algumas sugestões, como as famílias encontrarem “uma frase segura” com os seus entes-queridos, uma frase aleatória que seja fácil de lembrar e diferente das passwords, que possa ser utilizada para verificar a sua identidade por telefone. Alertou igualmente qualquer partilha da frase de segurança por mensagem, o que poderia facilitar a descoberta por parte dos burlões.