Inteligência Artificial
Publicidade
Por , para o TechTudo


Com o avanço da tecnologia generativa de inteligência artificial (IA), casos de deepfake têm se tornado cada vez mais comuns — e eles já chegaram ao Brasil. A advogada aposentada Karla Pinto, por exemplo, recebeu uma chamada de vídeo fake, em que criminosos fingiam ser a filha dela, e se tornou mais uma vítima entre 200.322 casos de estelionato por meio eletrônico que ocorreram em 2023. Por sorte e cautela, a aposentada desconfiou da situação e não fez nenhum pagamento aos golpistas. A seguir, entenda o caso, como ela descobriu que a ligação não era verdadeira e saiba como se proteger.

Criminosos usam IA para aplicar golpes sofisticados — Foto: Foto: Reprodução/Getty Images
Criminosos usam IA para aplicar golpes sofisticados — Foto: Foto: Reprodução/Getty Images

📝 É possível criar uma inteligência artificial em casa? Tire dúvidas no Fórum do TechTudo

Aposentada desconfia e não cai em golpe de deepfake

Karla Pinto recebeu uma chamada de vídeo de sua filha, a também advogada Hanna Gomes, pedindo um Pix de R$ 600. A pessoa na tela do celular era idêntica à Hanna e ainda tinha a mesma voz. Apesar da semelhança, a aposentada desconfiou da situação, já que a jovem vestia uma blusa diferente daquela com que havia saído de casa horas antes. Além disso, Karla estranhou que a conta que receberia a transferência não era de Hanna, e sim de uma “amiga”.

Assim, a advogada aposentada decidiu comprovar se era mesmo a filha que estava na ligação ao perguntar qual era o nome do cachorro da família e do vizinho que mora na casa da frente. Nesse momento, a chamada foi encerrada.

Hanna, a filha da aposentada, assustou-se com a efetividade da tecnologia  — Foto: Reprodução/Época Negócios
Hanna, a filha da aposentada, assustou-se com a efetividade da tecnologia — Foto: Reprodução/Época Negócios

Hanna relatou à BBC News Brasil que ficou muito assustada com a evolução desse tipo de golpe, já que era seu rosto e sua voz na chamada. A falha que mais chamou atenção foi a falta de sincronia entre o áudio e a imagem, que pode acontecer devido à má conexão com a Internet. O caso foi registrado na Delegacia de Crimes Virtuais da Polícia Civil do Distrito Federal (DF) e está sendo investigado.

O que é deepfake?

Deepfake é o nome da técnica usada para adulterar áudios e vídeos por meio de ferramentas com inteligência artificial (IA). Basta que o software seja alimentado com pequenas amostras de imagem e voz para ser possível criar qualquer tipo de conteúdo. Algumas ferramentas conseguem, inclusive, gerar áudios a partir de uma amostra de apenas três segundos.

No caso da Hanna, a tecnologia usada é ainda mais complexa, já que o deepfake foi feito ao vivo. Para conseguir algo tão elaborado, foi utilizado um software mais avançado. A advogada criminalista acredita que os vídeos publicados em suas redes sociais foram usados como base para a clonagem feita pelos criminosos.

Com o aprimoramento das ferramentas de inteligência artificial generativa, a possibilidade de golpes como esse fica ainda maior. Afinal, o deepfake pode ser usado para entrar em contato com familiares ou instituições financeiras, burlar o reconhecimento facial de um aplicativo e até criar um vídeo comprometedor para chantagear alguém. Para se proteger, é preciso tomar cuidado com o que está sendo compartilhado na internet e, assim como Karla, desconfiar de tudo.

Deepfake de vídeo com Mark Zuckerberg — Foto: Divulgação/Getty Images
Deepfake de vídeo com Mark Zuckerberg — Foto: Divulgação/Getty Images

Como se proteger de golpes que usam IA

Para evitar que sua voz e imagem sejam usadas no deepfake, é importante tomar cuidado com o que é compartilhado na internet. É recomendado que suas redes sociais sejam privadas e com acesso restrito. Informações como data de nascimento, cidade onde vive, número do celular e até o nome do pet não devem ficar visíveis, já que podem facilitar o roubo de identidade. Caso trabalhe com conteúdos online, é indicado usar marca d'água em vídeos publicados.

Além disso, aumentar as medidas de segurança é fundamental para manter seus dados seguros. Use senhas consideradas fortes e ative sempre a autenticação em dois fatores. Vale também dar uma atenção especial à segurança dos sites em que estão armazenadas suas fotos e vídeos – como o iCloud e Google Fotos –, já que essas plataformas podem servir de fonte para os criminosos.

Outra medida a ser tomada para se proteger de golpes que usam inteligência artificial é se manter atualizado sobre o assunto. Entender como essas ferramentas estão evoluindo e saber como os deepfakes são produzidos é importante para tentar ficar um passo à frente dos golpistas.

Trancar a conta no Instagram, por exemplo, é uma boa prática para evitar golpes — Foto: Reprodução/Pixabay
Trancar a conta no Instagram, por exemplo, é uma boa prática para evitar golpes — Foto: Reprodução/Pixabay

Por fim, fique atento e desconfie de tudo. Se você receber uma mensagem ou ligação de algum conhecido, certifique-se de quem é a pessoa que está do outro lado. Faça perguntas específicas que um golpista não conseguiria responder. Também é válido combinar códigos com seus familiares para comprovar a identidade. Caso seja uma chamada de vídeo, analise o movimento dos olhos e da boca, já que essas são as partes que podem apresentar inconsistências e problemas de sincronização.

Tenha cuidado redobrado se a pessoa pedir dinheiro. Os criminosos costumam criar uma sensação de urgência, portanto, mantenha a calma e tente ligar diretamente para o indivíduo ou encontrá-lo pessoalmente antes de fazer a transferência. Vale ressaltar que os golpistas costumam preferir transações via Pix, já que recebem o dinheiro de forma imediata e conseguem movimentá-lo rapidamente. Sendo assim, nunca faça uma transferência sem antes confirmar a identidade de quem está solicitando o dinheiro. E, caso tenha sido vítima de um golpe, faça um boletim de ocorrência o mais rápido possível.

Com informações de Época, McAfee, StaySafeOnline

Veja também: descubra como usar o ChatGPT no seu celular sem instalar aplicativos

Como usar o ChatGPT no seu celular sem instalar aplicativos

Como usar o ChatGPT no seu celular sem instalar aplicativos

Mais recente Próxima Cuidado! 5 coisas que você não pode compartilhar com o ChatGPT
Mais do TechTudo