Deepfakes são ativos que podem incluir conteúdo de áudio, visual ou textual adulterado, criado usando IA generativa (GenAI). Eles são utilizados por cibercriminosos para manipular alvos a fornecer voluntariamente dados sensíveis.
Ao criar vídeos realistas e convincentes que são cada vez mais difíceis de identificar como gerados por IA, os vídeos deepfake representam um risco significativo à segurança dos dados. Eles são normalmente vistos retratando indivíduos de alto perfil e bem conhecidos, como figuras políticas e celebridades, embora possam ser gerados para capturar a semelhança de outras pessoas também. Dependendo do objetivo de seu criador, eles podem ser usados para disseminar desinformação, fraudar uma pessoa ou organização, ou solicitar dados sensíveis e/ou fundos.
Vídeos deepfake são gerados por meio da análise complexa de conteúdo fonte. Detalhes essenciais, como características faciais e movimentos, dimensões, tom de pele, cor de cabelo e dos olhos, e linguagem corporal, são alimentados na IA para gerar uma representação o mais precisa possível. Isso também se aplica ao fundo; se o escritório, sala de reuniões ou outro cenário em que o sujeito aparece é bem conhecido, esforços serão feitos pelo agente de ameaça para replicá-lo com a maior precisão possível, utilizando imagens e vídeos de origem.
Semelhante à geração de conteúdo de vídeo deepfake, áudios podem ser gerados com IA utilizando material de treinamento disponível on-line. As fontes de referência costumam incluir mensagens de correio de voz, chamadas telefônicas, participações em podcasts e gravações de notícias, além de conteúdo de vídeo autêntico que contém áudio com a semelhança de um indivíduo ou grupo importante.
O áudio gerado pode ser feito para soar altamente convincente, correspondendo de perto ao material de origem para torná-lo o mais crível possível. A ferramenta de IA generativa usada pelo agente de ameaça analisa vários detalhes-chave, incluindo o tom, a altura, o padrão de fala, a clareza, a dicção e a emoção audível das pessoas que falam nos materiais de referência.
Enquanto áudios e vídeos podem ser deepfakes usando IA, cheapfakes dispensam o uso de tais tecnologias. Em vez disso, eles são tipicamente criados manualmente para enganar indivíduos ou grupos. Essas ilusões tendem a ser ópticas, auditivas ou baseadas em texto, destinadas a enganar aqueles que não estão prestando atenção suficiente, como quando se deparam com um senso de urgência ou estão passando por estresse emocional. Como observado pelo Departamento de Segurança Interna dos EUA (U.S. Department of Homeland Security), os cheapfakes antecedem a era digital, o que significa que agentes de ameaça têm séculos para aprender uns com os outros e aprimorar seus recursos.
Indivíduos mal-intencionados utilizam deepfakes e/ou cheapfakes para uma variedade de propósitos, incluindo, mas não se limitando a:
Existem várias etapas que você pode seguir para reduzir o risco de ser alvo de um deepfake ou cheapfake. Essas incluem as seguintes medidas, várias das quais são recomendadas pela Aliança Nacional de Cibersegurança:
Uma abordagem de Zero Trust é crucial em cibersegurança. Quando se trata de proteção contra deepfakes, seus princípios podem ser considerados um guia para minimizar riscos. Por exemplo:
Além disso, soluções de inspeção e detecção de deepfake projetadas especificamente podem ajudar a proteger as identidades, o bem-estar e os dados dos usuários. Essas ferramentas são essenciais na era da inovação em IA em rápida aceleração, pois deepfakes são frequentemente difíceis de serem detectados manualmente por humanos. "À medida que os algoritmos de síntese de fala melhoram e se tornam mais realistas, podemos esperar que a tarefa de detecção se torne mais difícil," observa um relatório detalhado de 2023 da Biblioteca Nacional de Medicina sobre o assunto. "A dificuldade em detectar deepfakes de fala confirma seu potencial para uso indevido e sinaliza que defesas contra essa ameaça são necessárias."
Pesquisas relacionadas
Artigos Relacionados