O que são Deepfakes?

Deepfakes são ativos que podem incluir conteúdo de áudio, visual ou textual adulterado, criado usando IA generativa (GenAI). Eles são utilizados por cibercriminosos para manipular alvos a fornecer voluntariamente dados sensíveis.

Vídeos Deepfake

Ao criar vídeos realistas e convincentes que são cada vez mais difíceis de identificar como gerados por IA, os vídeos deepfake representam um risco significativo à segurança dos dados. Eles são normalmente vistos retratando indivíduos de alto perfil e bem conhecidos, como figuras políticas e celebridades, embora possam ser gerados para capturar a semelhança de outras pessoas também. Dependendo do objetivo de seu criador, eles podem ser usados para disseminar desinformação, fraudar uma pessoa ou organização, ou solicitar dados sensíveis e/ou fundos.

Vídeos deepfake são gerados por meio da análise complexa de conteúdo fonte. Detalhes essenciais, como características faciais e movimentos, dimensões, tom de pele, cor de cabelo e dos olhos, e linguagem corporal, são alimentados na IA para gerar uma representação o mais precisa possível. Isso também se aplica ao fundo; se o escritório, sala de reuniões ou outro cenário em que o sujeito aparece é bem conhecido, esforços serão feitos pelo agente de ameaça para replicá-lo com a maior precisão possível, utilizando imagens e vídeos de origem.

Clonagem de voz

Semelhante à geração de conteúdo de vídeo deepfake, áudios podem ser gerados com IA utilizando material de treinamento disponível on-line. As fontes de referência costumam incluir mensagens de correio de voz, chamadas telefônicas, participações em podcasts e gravações de notícias, além de conteúdo de vídeo autêntico que contém áudio com a semelhança de um indivíduo ou grupo importante.

O áudio gerado pode ser feito para soar altamente convincente, correspondendo de perto ao material de origem para torná-lo o mais crível possível. A ferramenta de IA generativa usada pelo agente de ameaça analisa vários detalhes-chave, incluindo o tom, a altura, o padrão de fala, a clareza, a dicção e a emoção audível das pessoas que falam nos materiais de referência.

Cheapfakes

Enquanto áudios e vídeos podem ser deepfakes usando IA, cheapfakes dispensam o uso de tais tecnologias. Em vez disso, eles são tipicamente criados manualmente para enganar indivíduos ou grupos. Essas ilusões tendem a ser ópticas, auditivas ou baseadas em texto, destinadas a enganar aqueles que não estão prestando atenção suficiente, como quando se deparam com um senso de urgência ou estão passando por estresse emocional. Como observado pelo Departamento de Segurança Interna dos EUA (U.S. Department of Homeland Security), os cheapfakes antecedem a era digital, o que significa que agentes de ameaça têm séculos para aprender uns com os outros e aprimorar seus recursos.

Abordagens cheapfake

  • Corte e colagem física de filme
  • Gravação clandestina e/ou colagem de fragmentos de frases gravadas e/ou frases completas.
  • Acelerando ou desacelerando o conteúdo de vídeo e/ou áudio para transmitir um efeito ou sugestão desejada.
  • Filmagem e/ou gravação de sósias e/ou vozes semelhantes se passando por um indivíduo chave.
  • Imagens geradas por computador (CGI) de baixo orçamento e baixa qualidade, tecnologia de captura de movimento e chroma key.

Exemplos de deepfake e cheapfake

Indivíduos mal-intencionados utilizam deepfakes e/ou cheapfakes para uma variedade de propósitos, incluindo, mas não se limitando a:

  • Manipular novos funcionários a revelar informações da empresa e/ou pessoais.
  • Se passar por uma celebridade ou figura política para obter fundos e/ou espalhar desinformação.
  • Falsificar circunstâncias como desastres, lesões ou uma morte para reivindicações de seguro
  • Enganar outros para que utilizem sites falsos que eles acreditam ser reais
  • Manipular ações e investimentos assumindo a aparência de um executivo
  • Causar constrangimento e/ou danos à reputação de indivíduos

Medidas de proteção

Existem várias etapas que você pode seguir para reduzir o risco de ser alvo de um deepfake ou cheapfake. Essas incluem as seguintes medidas, várias das quais são recomendadas pela Aliança Nacional de Cibersegurança:

  • Filtrar chamadas recebidas de números desconhecidos e deixá-las ir para o correio de voz
  • Configurar autenticação em múltiplos fatores em todas as contas on-line
  • Usar senhas únicas, longas e complexas
  • Configurar uma webcam com um obturador físico para cobrir a lente quando não estiver em uso
  • Adicionar uma marca d'água digital às suas fotos e/ou vídeos antes de compartilhá-los
  • Confirmar detalhes pessoalmente que foram divulgados on-line ou por telefone (quando viável)
  • Examinar detalhes em e-mails suspeitos, como pontuação, tom e gramática

Aproveitar os princípios de Zero Trust e soluções de detecção de deepfake

Uma abordagem de Zero Trust é crucial em cibersegurança. Quando se trata de proteção contra deepfakes, seus princípios podem ser considerados um guia para minimizar riscos. Por exemplo:

  • Garantir que os processos de autenticação e autorização estejam em vigor e sendo seguidos
  • Regular e monitorar proativamente o acesso dos usuários a dados e redes
  • Assumir uma violação ao detectar uma ameaça e minimizar o "raio de explosão"

Além disso, soluções de inspeção e detecção de deepfake projetadas especificamente podem ajudar a proteger as identidades, o bem-estar e os dados dos usuários. Essas ferramentas são essenciais na era da inovação em IA em rápida aceleração, pois deepfakes são frequentemente difíceis de serem detectados manualmente por humanos. "À medida que os algoritmos de síntese de fala melhoram e se tornam mais realistas, podemos esperar que a tarefa de detecção se torne mais difícil," observa um relatório detalhado de 2023 da Biblioteca Nacional de Medicina sobre o assunto. "A dificuldade em detectar deepfakes de fala confirma seu potencial para uso indevido e sinaliza que defesas contra essa ameaça são necessárias." 

Pesquisas relacionadas

Artigos Relacionados