Chamadas de Vídeo Deepfake
Em 2024, a Arup, uma empresa de engenharia do Reino Unido com sede em Hong Kong sofreu um prejuízo financeiro gigantesco devido a um golpe com deepfake. Um golpista usou a tecnologia deepfake para se passar pelo COF (chefe de finanças) em uma chamada de vídeo ao vivo. Ele conseguiu enganar um funcionário e convencê-lo a transferir 25,6 milhões de dólares. A vítima estava convencida de que estava falando com um executivo de confiança. O funcionário só percebeu o golpe depois que onze transações foram feitas. Já no Brasil, uma mulher achou que estava namorando o Brad Pitt após ter realizado videochamadas deepfake com um golpista.
Estes exemplos ilustram uma tendência crescente. Conforme a inteligência artificial (IA) avança em um ritmo sem precedentes, também avançam os golpes que a utilizam. Um dos desenvolvimentos mais preocupantes nesse campo é o surgimento das chamadas de vídeo ao vivo usando deepfake.
Videochamadas deepfakes podem imitar convincentemente o rosto e a voz de qualquer pessoa em tempo real. Esses golpes sofisticados já foram usados para convencer pessoas a transferir grandes quantias de dinheiro e obter acesso a informações sensíveis. Neste post, vamos abordar o mundo das chamadas de vídeo com deepfakes, explorar suas capacidades e apresentar estratégias para você se proteger.
O Poder da Tecnologia Deepfake
A tecnologia deepfake costuma utilizar redes generativas adversariais (GANs) para criar conteúdos realistas na forma de imagens, vídeos e áudios. Redes GANs são uma técnica popular em IA e possuem inúmeras aplicações benéficas e maléficas. Entre as mais maléficas, as GANs também são usadas para criar nudes fake a partir de imagens de pessoas vestidas. Quando usada para criar imagens e vídeos de pessoas, o objetivo dessa tecnologia é imitar indivíduos com alta precisão. Seus resultados consistem em deepfakes que são quase indistinguíveis de imagens e vídeos reais. Portanto, esses deepfakes são uma ferramenta poderosa para golpistas.
Como funcionam as videochamadas deepfake
Para criar um deepfake convincente, a IA precisa analisar um grande conjunto de dados de vídeos e imagens da pessoa de interesse. Com esses dados, o modelo aprende a replicar expressões faciais, movimentos dos lábios e padrões de voz. Para deepfakes de voz, gravações de áudio são usadas para treinar a IA sobre as características únicas da voz do indivíduo alvo. Utilizando redes neurais pré-treinadas, é possível clonar a voz de uma pessoa a partir de um áudio pequeno com a voz dela. Áudios de cerca de 30 segundos podem já ser suficientes. Portanto, cuidado com ligações telefônicas de números desconhecidos.
Como Identificar chamadas de vídeos Deepfake
Quando você recebe uma chamada de vídeo suspeita, existem vários sinais visuais que podem indicar se ele é um deepfake:
1. Padrões de piscar não naturais: preste bastante atenção aos olhos e verifique se eles parecem piscar normalmente.
2. Iluminação e sombras inconsistentes.
3. Movimentos irregulares ou rígidos: verifique se a pessoa se move naturalmente ou se ela parece muito parada, com movimentos de cabeça, braços ou tronco restritos.
4. Anomalias de áudio: fique atento aos movimentos labiais. Eles são compatíveis com as palavras que estão sendo ditas?
5. Vozes robóticas desajustadas: deepfakes costumam ter um tom de voz mais robótico do que o humano. Verifique se a pessoa muda de entonação conforme suas emoções variam. Vozes com pouca variações são forte indícios de fake.
6. Indicadores comportamentais: se a pessoa na chamada de vídeo parecer evasiva ou excessivamente roteirizada, pode ser um sinal de deepfake. Confie no seu instinto e não hesite em encerrar a conversa se estiver em dúvida.
Protegendo-se de Deepfakes
Para evitar cair em golpes de videochamadas deepfake, mantenha-se atento e tome as seguintes precauções:
1. Utilize autenticação multifator para verificar identidades.
2. Utilize vários métodos alternativos de comunicação (por exemplo, videochamadas, ligações telefônicas ou e-mails).
3. Mantenha-se atualizado sobre ferramentas e softwares de detecção de deepfakes.
4. Eduque a si e aos outros sobre deepfakes e seus riscos.
Cuidado para não ter a sua voz clonada
Videochamadas fakes em tempo real precisam de muitas imagens e vídeos da pessoa alvo para serem criadas. Mas áudios fakes precisam apenas de uma amostra pequena de voz. Portanto, muito cuidado ao receber ligações de números desconhecidos. Sua voz pode ser clonada e usada para passar golpes em conhecidos seus. Sempre que possível, combine com a família uma saudação ou frase de segurança, que você e seus familiares podem usar como uma senha para confirmar as suas identidades.
Conclusões
Deepfakes são uma preocupação crescente na era digital, e é fundamental estarmos cientes de suas capacidades e riscos. Conforme a tecnologia deepfake continua avançando, a melhor proteção para você e sua família é a informação. Tente sempre se manter informado sobre os últimos desenvolvimentos e ameaças. Ao entender como esses golpes funcionam e adotar medidas proativas para se proteger, você pode reduzir o risco de ser vítima desses ataques sofisticados.