¿En qué consisten los Deepfakes?

Los deepfakes son activos que pueden incluir contenido de texto, visual o audio manipulado creado mediante el uso de IA generativa (GenAI). Los ciberdelincuentes los aprovechan para manipular objetivos que proporcionen datos sensibles voluntariamente.

Vídeos de deepfakes

Al crear vídeos creíbles y realistas que son cada vez más difíciles de detectar como vídeos generados con IA, los vídeos de deepfake suponen un importante riesgo para la seguridad de los datos. Normalmente incluyen a personas conocidas y de perfil alto como políticos y celebridades, aunque también pueden ser generados para captar los parecidos de otras personas. Dependiendo del objetivo de sus creadores, se pueden utilizar para propagar información errónea, estafar a una persona u organización o solicitar datos sensibles y/o fondos.

Los vídeos de deepfakes son generados mediante complejos análisis del contenido de origen. La información fundamental como los movimientos y los gestos faciales, las dimensiones, el tono de piel, pelo y color de ojos, así como el lenguaje corporal se introduce en la IA para generar una representación lo más parecida y precisa posible. Esto también se aplica al fondo, si la oficina, la sala de juntas u otra instalación en la que aparezca el sujeto es conocida, el agente de amenaza hará todo lo necesario para reproducir lo más posible mediante el uso de vídeos e imágenes de origen.

Clonaje de voz

De forma similar a la generación de contenido de vídeo de deepfake, es posible generar audio con IA utilizando material de entrenamiento disponible y encontrado online. Entre las fuentes de referencia tiende a haber mensajes de voz, llamadas telefónicas, apariciones como invitados en pódcast y grabaciones de noticias, así como contenido de vídeo real con audio que contenga los rasgos y semejanzas de una persona o grupo específicos.

Es posible generar el audio para que suene extremadamente convincente, pareciéndose enormemente al material de origen para hacerlo lo más creíble posible. La herramienta de IA generativa utilizada por el agente de amenaza analiza distintos detalles clave que incluyen tono, timbre, patrón de habla, claridad, enunciación y emoción audible de quienes hablan en los materiales de referencia.

Cheapfakes

Mientras que es posible realizar deepfakes en audio y vídeo utilizando GenAI, los cheapfakes prescinden del uso de esta tecnología. En su lugar, estos normalmente se crean de forma manual para engañar a personas o grupos. Tienden a ser ilusiones ópticas, de audio o texto destinadas a engañar a aquellas personas que no están prestando la suficiente atención, como es en los casos de reunirse con urgencia o experimentar estrés emocional. Tal y como informaba el Departamento de Seguridad Nacional de los EE. UU., los cheapfakes son anteriores a la era digital, lo que significa que los agentes de amenaza llevan siglos aprendiendo unos de otros perfeccionando así sus capacidades.

Enfoques del cheapfake

  • Vídeo cortado y pegado físicamente
  • Fragmentos intervenidos o unidos de oraciones completas y/o frases grabadas
  • Vídeos acelerando o disminuyendo de velocidad y/o contenido de audio expresando una sugerencia o efecto deseado
  • Grabación de audio o vídeo similares en aspecto y fingiendo ser una persona importante
  • Imágenes generadas por ordenador (GCI) de baja calidad y bajo presupuesto, tecnología de captura de movimientos y pantallas verdes

Ejemplos de deepfake y cheapfake

Los agentes maliciosos utilizan los deepfakes y los cheapfakes para una variedad de fines, incluidos, pero no limitados a, los siguientes:

  • Manipular nuevos empleados para que renuncien a la empresa y/o información personal
  • Fingir ser una persona famosa o figura política para obtener financiación y/o difundir información errónea
  • Falsificar circunstancias como desastres, daños o muerte para reclamar indemnizaciones al seguro
  • Engañar a otras personas para que usen sitios web falsos creyendo que están en un sitio web real
  • Manipular acciones e inversiones haciéndose pasar por un ejecutivo
  • Provocar humillación y/o daño reputacional a personas

Medidas de protección

Hay numerosos pasos que puede realizar para reducir su riesgo de ser objetivo de deepfake o cheapfake. Estos incluyen las siguientes medidas, muchas de las cuales son recomendadas por la National Cybersecurity Alliance:

  • Filtrar llamadas entrantes procedentes de números desconocidos y dejarles que vayan al buzón de voz
  • Establecer autenticación multifactor en las cuentas online
  • Utilizar contraseñas únicas, largas y complejas
  • Colocar un obturador físico en las cámaras web para cubrir las lentes mientras no las usa
  • Añadir una marca de agua digital en sus fotografías y/o vídeos antes de compartirlos
  • Confirmar detalles divulgados online en persona o mediante teléfono (cuando sea posible)
  • Analizar detalles en emails sospechosos como la puntuación, el tono y la gramática

Aprovechar los principios de confianza cero y soluciones de detección de deepfakes

Un enfoque de confianza cero es fundamental en ciberseguridad. Cuando se trata de protegerse frente a los deepfakes, podría considerarse que sus principios son su plan de actuación para minimizar los riesgos. Por ejemplo:

  • Garantice que existen y se siguen procesos de autorización y autenticación
  • Supervise y regule proactivamente el acceso de los usuarios a los datos y las redes
  • Suponga una filtración hasta que se detecte la amenaza y minimice el «radio de la explosión»

Además, las soluciones de detección e inspección de deepfakes específicamente diseñadas para ello pueden ayudarle a proteger las identidades, el bienestar y los datos de los usuarios. Dichas herramientas son esenciales en la era de la innovación por IA cada vez más acelerada, dado que los deepfakes a menudo son difíciles de detectar manualmente para los humanos. «A medida que los algoritmos de síntesis del habla mejoran y se vuelven más realistas, podemos esperar que las tareas de detección sean cada vez más difíciles», destaca de forma detallada el informe de 2023 de la National Library of Medicine acerca de este tema. «La dificultad de detectar deepfakes de habla confirma su potencial para usarlo indebidamente y subrayan la necesidad de contar con buenas defensas frente a esta amenaza». 

Investigaciones relacionadas

Artículos relacionados