Segurança
Publicidade
Por , para o TechTudo


Uma norte-americana caiu em um golpe de falso sequestro em que criminosos clonaram a voz da sua filha usando programas de inteligência artificial (IA). Em janeiro, Jennifer DeStefano recebeu uma ligação de um número desconhecido, e resolveu atendê-la, já que a sua filha de 15 anos não estava em casa e poderia se tratar de algum amigo ou conhecido dela. O que ela não podia esperar é que a ligação em questão se tratava de um golpe que forjava a voz da menina - o que deixou a mulher completamente desesperada.

Os casos envolvendo deepfakes e clonagem de voz têm levantando diversos alertas nos Estados Unidos. Em um estudo recente publicado no The Washington Post, entidades americanas estimam que mais de 5 mil golpes por telefone podem ter feito uso de programas de IA para enganar usuários. As novas tecnologias têm deixado os golpes de falsidade ideológica ainda mais rebuscados, exigindo atenção redobrada e cautela. A seguir, entenda mais sobre o caso e como a clonagem via IA funciona.

Jennifer DeStefano, à direita, junto com as filhas Aubrey (centro) e Brianna (esquerda) — Foto: Reprodução/Arquivo pessoal
Jennifer DeStefano, à direita, junto com as filhas Aubrey (centro) e Brianna (esquerda) — Foto: Reprodução/Arquivo pessoal

Como o golpe da ligação clonada via IA aconteceu?

Em junho, durante uma audiência com um comitê do Senado dos EUA, DeStefano relembrou os momentos de pânico que viveu quando recebeu a ligação de um golpista que tentou se passar por sua filha. Ela contou que a chamada veio de um número desconhecido, mas como Brianna, sua filha mais velha, estava esquiando longe de casa, decidiu atender a ligação com medo de se tratar de alguma emergência médica.

No entanto, ao aceitar a ligação, ela afirma que foi surpreendida com uma voz muito semelhante à da filha dizendo que tinha “feito besteira”. Sem entender, DeStefano perguntou o que a filha havia feito, mas, antes de conseguir uma resposta, foi interrompida por um homem, que afirmou ter sequestrado a menina.

Usando táticas de engenharia social, o homem pediu um resgate em dinheiro para supostamente liberar a filha de DeStefano - que, na verdade, não havia sido sequestrada. Ele fixou o valor do resgate em US$ 1 milhão, mas eventualmente abaixou o preço do montante para US$ 50 mil.

O que mais impressionou DeStefano foi ter ouvido a voz da filha na ligação. “Obviamente era o som da voz dela. Era o choro dela, o soluço”, contou DeStefano à CNN. Mesmo impactada com a chamada, ela continuou com o criminoso na linha até conseguir manter contato com a filha. Ela só desligou quando percebeu que a ligação realmente se tratava de um golpe.

Apesar do susto, DeStefano garante que ouviu o choro da filha ao telefone. “Parecia exatamente com ela”, afirma. “A voz [de Brianna] era tão real, o choro dela… Tudo era muito real”, insistiu. Ela acredita que o criminoso possa ter clonado a voz da menina a partir de vídeos que foram publicados por ela em suas redes sociais. A polícia, no entanto, ainda não foi capaz de confirmar se softwares de IA foram realmente utilizados no caso.

Como funcionam os golpes de clonagem de voz?

Segundo Fabio Assolini, diretor da empresa de cibersegurança Kaspersky, as deepfakes de clonagem de voz funcionam a partir de codificadores automáticos, que são um tipo de rede neural. Para criá-las, são necessárias duas gravações de áudio, sendo a segunda convertida na primeira. Dessa forma, enquanto o criminoso fala, o programa codifica a mensagem e converte o conteúdo na voz da primeira pessoa, como se ela estivesse sendo “dublada”.

Jonathan Arend, consultor de cibersegurança da Keeggo, afirma que apesar desse desse tipo de golpe não ser muito comum no Brasil, a tendência é que ele fique mais popular e seja disseminado com maior frequência com o dentro dos próximos meses. Por isso, é imprescindível que as pessoas adotem algumas medidas de segurança para se proteger de ações criminosas do tipo.

Como se proteger de golpes do tipo?

Especialistas em segurança dão algumas dicas que podem ser úteis para evitar cair em fraudes de clonagem de voz, como os golpes de falso sequestro. Um primeiro ponto destacado por eles requer atenção, mas pode ser crucial na hora de identificar a fraude. Assolini e Arend salientam que, apesar dos programas estarem cada vez mais sofisticados, eles ainda não conseguem copiar detalhes típicos das vozes humanas. Nesse sentido, se a voz parecer “robotizada” ou estiver sempre com um tom monótono, sem entonações típicas ou vícios de linguagem comuns, esse pode ser um grande indicativo de que a voz, na verdade, foi clonada.

Além disso, algumas ações simples, como evitar compartilhar clipes de voz com desconhecidos e não atender a chamadas de números não identificados também podem impedir que programas de inteligência artificial sejam usados para copiar a sua voz.

Veja ainda: Como usar o Bard, IA do Google que concorre com o ChatGPT

Bard, 'ChatGPT do Google', é lançado no Brasil; veja como usar agora

Bard, 'ChatGPT do Google', é lançado no Brasil; veja como usar agora

Mais recente Próxima Atenção! Veja 6 coisas que você nunca deveria baixar no seu computador
Mais do TechTudo