Cidadania e sociedade

Deepfakes e clonagem de voz estão sendo usadas para roubar identidades: saiba como se proteger

Deepfakes e clonagem de voz estão roubando identidades: saiba como se proteger
Foto: Freepik

A clonagem de voz em ciberataques e a utilização de deepfakes já não são mais questões futuristas, mas sim uma realidade alarmante. Com o avanço da Inteligência Artificial (IA), essas tecnologias estão sendo amplamente exploradas por criminosos digitais para roubo de identidade, manipulação de informações e fraudes financeiras. Você já parou para pensar até onde essa tecnologia pode chegar e como isso pode afetar diretamente o seu dia a dia?

De acordo com especialistas da Kaspersky, a clonagem de voz e os deepfakes estão sendo cada vez mais usados para contornar medidas de segurança, burlar verificações biométricas e acessar dados confidenciais. No mercado ilegal, os preços para produzir deepfakes variam significativamente, entre US$ 300 e US$ 20 mil por minuto, dependendo da complexidade e qualidade. Mas por que essa tecnologia é tão perigosa, e o que pode ser feito para nos proteger? Vamos explorar essas questões.

O QUE SÃO DEEPFAKES E COMO FUNCIONAM?

A criação de deepfakes envolve o uso de IA e redes neurais para gerar imagens e vídeos falsos que parecem extremamente reais. Isso é feito através de um processo de aprendizado de máquina, onde um algoritmo é treinado para replicar o rosto ou a voz de uma pessoa específica. Com isso, os criminosos conseguem criar vídeos ou áudios convincentes que podem ser usados para manipular situações e induzir ao erro.

Por exemplo, imagine receber uma chamada do seu banco com a voz exata de um gerente de confiança, pedindo informações pessoais. Soaria estranho? Talvez. Mas, se você não souber que esse tipo de tecnologia já está sendo usada em ciberataques, pode facilmente cair em uma armadilha. E é justamente essa a estratégia de quem cria e vende deepfakes.

Além disso, figuras públicas e celebridades são as mais visadas, pois possuem muitas imagens e áudios disponíveis online, facilitando a clonagem. Segundo a pesquisadora Isabel Manjarrez, da Kaspersky, a demanda por deepfakes é tão alta que supera a oferta, o que sugere um aumento ainda maior no número de ataques envolvendo essa tecnologia nos próximos anos.

O IMPACTO DA CLONAGEM DE VOZ EM FRAUDES FINANCEIRAS

Um dos maiores perigos dos deepfakes e da clonagem de voz em ciberataques está relacionado ao setor financeiro. A possibilidade de falsificar a voz de uma pessoa conhecida é uma ferramenta poderosa para fraudadores. Instituições bancárias que adotam a verificação biométrica de voz para autenticar seus clientes podem se tornar vulneráveis, uma vez que os criminosos conseguem criar versões perfeitas das vozes para burlar essas verificações.

Em um estudo recente, a Kaspersky revelou que cerca de dois terços dos brasileiros (66%) não sabem o que é um deepfake, o que aumenta ainda mais a vulnerabilidade de usuários comuns. A falta de conhecimento sobre o funcionamento dessa tecnologia é um dos principais motivos pelos quais esses golpes são tão eficazes. Afinal, como identificar algo que parece ser totalmente real?

Além do uso em fraudes bancárias, criminosos também utilizam deepfakes para espalhar desinformação e causar danos à reputação de empresas e indivíduos. Uma simples alteração em um vídeo pode destruir carreiras, acabar com a credibilidade de uma marca e até mesmo interferir em processos eleitorais.

MERCADO DE DEEPFAKES NA DARKNET: COMO FUNCIONA?

A Darknet é um mercado ativo para criminosos que oferecem deepfakes e clonagem de voz como serviço. Dentro desse mercado, há uma verdadeira “indústria” dedicada a criar conteúdo falso de alta qualidade. Quem deseja comprar esse tipo de material encontra uma grande variedade de ofertas, que vão desde vídeos e áudios falsificados até tutoriais detalhados que ensinam a manipular imagens e vozes com precisão.

Esse mercado de deepfakes é um reflexo claro de como a tecnologia está sendo usada para fins maliciosos. Quanto mais realista o conteúdo, mais caro ele é. Simular expressões faciais, movimentos corporais e voz de forma fluida é um processo complexo, que requer algoritmos avançados e grande quantidade de dados.

Você já se perguntou como os criminosos conseguem atingir esse nível de sofisticação? Eles coletam fotos, vídeos e gravações de áudio disponíveis publicamente, especialmente de pessoas com grande exposição online. A partir dessas amostras, conseguem treinar os algoritmos para replicar fielmente o alvo escolhido.

COMO DETECTAR E SE PROTEGER DE DEEPFAKES

Apesar dos riscos crescentes, é possível se proteger de deepfakes e clonagem de voz com algumas práticas simples de verificação e precaução. A Kaspersky sugere algumas dicas que podem ajudar a identificar conteúdos falsos:

  • Desconfie de fontes suspeitas: Se você receber um vídeo, e-mail ou mensagem de voz com informações que parecem estranhas, confirme a veracidade em fontes confiáveis antes de tomar qualquer ação.
  • Movimentos faciais incomuns: Deepfakes frequentemente apresentam inconsistências nos movimentos faciais. Preste atenção a expressões que parecem artificiais, como ausência de piscadas ou sincronia labial defeituosa.
  • Inconsistências na iluminação: Vídeos manipulados muitas vezes têm iluminação incoerente, onde a luz do rosto não corresponde ao fundo ou ao ambiente.
  • Distúrbios no áudio: Se o tom de voz parecer monótono ou houver ruídos estranhos ao fundo, pode ser um indício de manipulação.

A informação é uma das principais ferramentas de defesa; quanto mais você sabe sobre essas tecnologias, mais difícil será ser enganado por uma fraude.

O FUTURO DOS DEEPFAKES E CLONAGEM DE VOZ EM CIBERATAQUES

A Kaspersky alerta que o cenário para deepfakes e clonagem de voz em ciberataques tende a piorar com o passar do tempo. Como a demanda por esses serviços supera a oferta, é provável que haja uma proliferação de conteúdos falsos altamente sofisticados, aumentando o número de vítimas.

Diante dessa realidade, a conscientização sobre o uso ético da IA é essencial. Como disse Isabel Manjarrez: “Não há necessidade de temer a IA, mas cabe ao ser humano fazer uso ético dela.” A IA, quando usada corretamente, tem um potencial imenso para criar soluções inovadoras, mas também pode ser uma arma nas mãos erradas.

COMO A TECNOLOGIA PODE SER NOSSA ALIADA

A Inteligência Artificial, incluindo deepfakes e a clonagem de voz, não é inerentemente má. Pelo contrário, quando usada de maneira adequada, pode revolucionar áreas como publicidade, educação e entretenimento. O desafio é garantir que haja padrões éticos e regulamentação para impedir o uso malicioso dessas ferramentas.

E você, já parou para pensar em como está se protegendo contra esses novos tipos de ataques? Manter-se informado, adotar boas práticas de segurança e usar tecnologias de proteção eficazes são passos importantes para não cair nas armadilhas digitais do futuro.

 


Acompanhe o Portal Conecta SC e fique por dentro das notícias de Santa Catarina também nas redes sociais: Facebook | LinkedIn | Instagram

Receba os destaques semanais do Portal Conecta SC por email, assine nossa newsletter ou participe do nosso grupo no WhatsApp.

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo