¿Qué es un Deepfake?

Significado de Deepfake

El término “deepfake” es una mezcla de “aprendizaje profundo” y “falso”, y fue acuñado en 2017 por un usuario de Reddit. Una imagen falsa es una grabación de voz, vídeo o imagen falsa en la que la imagen de una persona se sustituye por la de otra. Están hechos para engañar o entretener a las personas. Con el machine learning avanzado, los falsos profundos pueden parecer muy realistas. Anteriormente, los falsos profundos eran conocidos principalmente por su uso humorístico en las redes sociales. Sin embargo, su potencial de abuso se hizo evidente rápidamente y los falsos profundos ahora son una preocupación significativa por la privacidad, la seguridad y la información.

Deepfake Videos

Al crear vídeos creíbles y realistas que son cada vez más difíciles de detectar como vídeos generados con IA, los vídeos de deepfake suponen un importante riesgo para la seguridad de los datos. Normalmente incluyen a personas conocidas y de perfil alto como políticos y celebridades, aunque también pueden ser generados para captar los parecidos de otras personas. Dependiendo del objetivo de sus creadores, se pueden utilizar para propagar información errónea, estafar a una persona u organización o solicitar datos sensibles y/o fondos. 

Los vídeos de deepfakes son generados mediante complejos análisis del contenido de origen. La información fundamental como los movimientos y los gestos faciales, las dimensiones, el tono de piel, pelo y color de ojos, así como el lenguaje corporal se introduce en la IA para generar una representación lo más parecida y precisa posible. Esto también se aplica al fondo, si la oficina, la sala de juntas u otra instalación en la que aparezca el sujeto es conocida, el agente de amenaza hará todo lo necesario para reproducir lo más posible mediante el uso de vídeos e imágenes de origen.

Clonación de voz

De forma similar a la generación de contenido de vídeo de deepfake, es posible generar audio con IA utilizando material de entrenamiento disponible y encontrado online. Entre las fuentes de referencia tiende a haber mensajes de voz, llamadas telefónicas, apariciones como invitados en pódcast y grabaciones de noticias, así como contenido de vídeo real con audio que contenga los rasgos y semejanzas de una persona o grupo específicos. 

Es posible generar el audio para que suene extremadamente convincente, pareciéndose enormemente al material de origen para hacerlo lo más creíble posible. La herramienta de IA generativa utilizada por el agente de amenaza analiza distintos detalles clave que incluyen tono, timbre, patrón de habla, claridad, enunciación y emoción audible de quienes hablan en los materiales de referencia.

Cheapfakes

Mientras que es posible realizar deepfakes en audio y vídeo utilizando GenAI, los cheapfakes prescinden del uso de esta tecnología. En su lugar, estos normalmente se crean de forma manual para engañar a personas o grupos. Tienden a ser ilusiones ópticas, de audio o texto destinadas a engañar a aquellas personas que no están prestando la suficiente atención, como es en los casos de reunirse con urgencia o experimentar estrés emocional. Tal y como informaba el Departamento de Seguridad Nacional de los EE. UU., los cheapfakes son anteriores a la era digital, lo que significa que los agentes de amenaza llevan siglos aprendiendo unos de otros perfeccionando así sus capacidades.

Enfoques económicos

  • Vídeo cortado y pegado físicamente 
  • Fragmentos intervenidos o unidos de oraciones completas y/o frases grabadas 
  • Vídeos acelerando o disminuyendo de velocidad y/o contenido de audio expresando una sugerencia o efecto deseado 
  • Grabación de audio o vídeo similares en aspecto y fingiendo ser una persona importante 
  • Imágenes generadas por ordenador (GCI) de baja calidad y bajo presupuesto, tecnología de captura de movimientos y pantallas verdes 

¿Cómo se elaboran los Deepfakes?

La creación de falsificaciones profundas implica el uso de programas informáticos avanzados llamados Generative Adversarial Networks (GAN) para crear imágenes falsas que parezcan reales. Hay cuatro pasos principales: 

Recopilación de datos: En primer lugar, se recopila contenido multimedia (imágenes, vídeos o audios) de la persona objetivo. Esta recopilación se utiliza para formar el programa informático. 

Formación del modelo: La GAN se forma con los datos recopilados. Una parte del GAN crea imágenes falsas, mientras que la otra comprueba si parecen reales. 

Refinamiento: Las técnicas como los puntos de referencia faciales y la captura de movimiento se utilizan para hacer que la imagen falsa parezca natural, con expresiones y movimientos realistas. 

Producción final: El deepfake terminado se combina con los medios originales, creando una pieza de contenido falso transparente y convincente. 

Si bien lo anterior puede parecer algo complejo, el hecho es que cualquiera puede hacer una falsificación profunda, dado el enorme número de aplicaciones de software accesibles al público, desde DeepFaceLab hasta DALL-E y Midjourney (aunque esta última cuenta con medidas de seguridad).

¿Por qué preocuparse por Deepfakes?

Es fácil pensar en la ciberseguridad como un concepto abstracto, eliminado de la vida diaria, pero las implicaciones del uso malicioso de la falsificación profunda afectan a la persona y a la sociedad en general:

Su privacidad personal

Los Deepfakes pueden infringir su privacidad personal creando contenido no consensuado y a menudo dañino. Esto es especialmente preocupante en casos de pornografía falsa, donde las caras de las personas se superponen a contenido explícito sin su consentimiento.

Su seguridad y finanzas

Las videollamadas falsas pueden utilizarse para hacerse pasar por personas, a menudo con la intención de engañarle para que regale dinero o información confidencial. Cualquier persona puede ser víctima de una estafa falsa y sufrir graves consecuencias como fraude financiero y robo de identidad.

Estabilidad política

Los falsos profundos se pueden armamentizar para crear agitación política. Los vídeos inventados de políticos que realizan declaraciones inflamatorias o participan en actividades ilícitas pueden influir en la opinión pública e interrumpir los procesos democráticos.

Preocupaciones éticas y legales

La creación y distribución de falsificaciones plantea preguntas éticas y legales importantes. Los problemas de consentimiento, propiedad intelectual y el derecho a la imagen personal están en el centro de los debates sociales en curso.

Integridad de los medios

Los periodistas y las organizaciones de medios de comunicación se enfrentan a nuevos desafíos a la hora de verificar la autenticidad del contenido. Los falsos profundos pueden socavar la credibilidad de los medios de comunicación

Amenazas y consecuencias de los Deepfakes

Los falsos profundos suponen varias amenazas para la ciberseguridad:

Estafas de suplantación de identidad y videollamadas

Los ciberdelincuentes pueden utilizar falsificaciones profundas durante las videollamadas para hacerse pasar por personas. Ya sea un amigo, familiar, posible pareja o una entrevista de trabajo en línea, las videollamadas proporcionan una oportunidad perfecta para que el estafador realice un ataque falso, suplantando al objetivo y engañandole para que proporcione dinero o información personal.

Información errónea/desinformación

Los Deepfakes se pueden utilizar para crear contenido convincente pero falso, propagando información errónea/desinformación. Esto puede socavar la confianza pública en los medios, influir en las elecciones y desestabilizar las sociedades.

Robo de identidad

Los falsos profundos pueden facilitar el robo de identidad creando identidades falsas realistas o comprometiendo las existentes, lo que conduce a daños financieros y a la reputación.

Blackmail y extorsión

Los actores maliciosos pueden crear vídeos falsos comprometedores para chantajear o extorsionar a las personas, aprovechando el poder de las pruebas inventadas.

Erosión de la confianza

La existencia de falsificaciones profundas puede erosionar la confianza en el contenido digital. Las personas están empezando a dudar de la autenticidad de los medios legítimos, lo que conduce a una crisis más amplia de confianza en las comunicaciones digitales.

Cómo detectar un Deepfake

La detección de fallos profundos se está volviendo cada vez más desafiante a medida que la tecnología mejora. Tanto si está viendo un vídeo en línea, escuchando un clip de audio o realizando una videollamada con alguien, siga sus instintos y esté atento a lo siguiente:

Movimientos faciales no naturales

Los falsos profundos pueden mostrar sutiles incoherencias en las expresiones y movimientos faciales. Busque parpadeos poco naturales, problemas de sincronización de labios o tics faciales extraños.

Iluminación inconsistente

Preste atención a la iluminación y las sombras. Si la iluminación de la cara no coincide con la iluminación del resto de la escena, podría ser un falso profundo. 

Problemas de sonido

Esté atento a cambios repentinos en el tono y pausas o entonaciones inusuales que no reflejen el habla normal del hablante. Las incoherencias en el ruido de fondo o los cambios repentinos en los sonidos ambientales también pueden indicar un falso profundo.

Desenfoque

Los falsos profundos suelen tener un ligero difuminado alrededor de los bordes de la cara, especialmente durante los movimientos rápidos.

Desajustes audiovisuales

Esté atento a las discrepancias entre los elementos visuales y de audio. Los movimientos de labios y el audio no coincidentes pueden ser un signo de una falsificación profunda.

Incoherencias contextuales

Si el contenido parece fuera de carácter para la persona o no es plausible dadas las circunstancias, puede ser una falsificación profunda. Por ejemplo, si la persona que conoce bien tiene una solicitud urgente e inusual, como dinero o información personal, y se siente presionado a actuar rápidamente, se trata de una señal de alerta.

Medidas de protección

Hay numerosos pasos que puede realizar para reducir su riesgo de ser objetivo de deepfake o cheapfake. Estos incluyen las siguientes medidas, muchas de las cuales son recomendadas por la National Cybersecurity Alliance: 

  • Filtrar llamadas entrantes procedentes de números desconocidos y dejarles que vayan al buzón de voz 
  • Establecer autenticación multifactor en las cuentas online 
  • Utilizar contraseñas únicas, largas y complejas 
  • Colocar un obturador físico en las cámaras web para cubrir las lentes mientras no las usa 
  • Añadir una marca de agua digital en sus fotografías y/o vídeos antes de compartirlos 
  • Confirmar detalles divulgados online en persona o mediante teléfono (cuando sea posible) 
  • Analizar detalles en emails sospechosos como la puntuación, el tono y la gramática 
  • Aprovechar los principios de confianza cero y soluciones de detección de deepfakes 

Un enfoque de confianza cero es fundamental en ciberseguridad. Cuando se trata de protegerse frente a los deepfakes, podría considerarse que sus principios son su plan de actuación para minimizar los riesgos. Por ejemplo: 

  • Garantice que existen y se siguen procesos de autorización y autenticación 
  • Supervise y regule proactivamente el acceso de los usuarios a los datos y las redes 
  • Suponga una filtración hasta que se detecte la amenaza y minimice el «radio de la explosión» 

Además, las soluciones de detección e inspección de deepfakes específicamente diseñadas para ello pueden ayudarle a proteger las identidades, el bienestar y los datos de los usuarios. Dichas herramientas son esenciales en la era de la innovación por IA cada vez más acelerada, dado que los deepfakes a menudo son difíciles de detectar manualmente para los humanos. «A medida que los algoritmos de síntesis del habla mejoran y se vuelven más realistas, podemos esperar que las tareas de detección sean cada vez más difíciles», destaca de forma detallada el informe de 2023 de la National Library of Medicine acerca de este tema. «La dificultad de detectar deepfakes de habla confirma su potencial para usarlo indebidamente y subrayan la necesidad de contar con buenas defensas frente a esta amenaza».

Ejemplos de Deepfakes

Ejemplo de Deepfake

En febrero de 2024, una empresa de Hong Kong fue defraudada a través de una videoconferencia que explotó los falsos profundos. Se informó de que se transfirieron 25 millones de dólares a un grupo de estafadores que se hicieron pasar por el director financiero de la empresa. La videoconferencia se celebró con otros participantes además del empleado que fue defraudado, pero todos los participantes fueron compañeros falsos generados por falsificaciones profundas y el empleado defraudado no se dio cuenta de que todos eran falsos.

Ejemplo de presupuesto

En abril de 2023, se produjo un incidente de secuestro virtual en Arizona, EE. UU. Una persona anónima exigió que una mujer pagara un rescate de 1 millón de dólares para su hija de 15 años. Según se dice, la mujer escuchó los llantos, gritos y suplicaciones de su hija por teléfono con el perpetrador. Se ha revelado que la hija no fue secuestrada en este caso, sino que fue un secuestro virtual. Se cree que se utilizó una voz clonada creada a partir de la voz de la hija en la llamada telefónica con el autor en este caso. De hecho, la Comisión Federal de Comercio de EE. UU. ha emitido una advertencia sobre estafas utilizando voces clonadas de familiares.

Top estafas con Deepfakes

Estafa romántica

Todos hemos oído hablar de estafas románticas en línea en las que los estafadores se hacen pasar por otra persona, como un miembro del servicio militar con sede en el extranjero, y solicitan dinero en línea. Si bien la mayoría de nosotros creemos que conocemos todos los trucos y que no será víctima, los estafadores están empleando nuevas tácticas utilizando tecnología avanzada de falsificación profunda para explotar a las personas. 

Históricamente, una de las señales de alerta de una estafa romántica es que los estafadores no se unirán a una videollamada ni se reunirán con usted en persona. Sin embargo, con aplicaciones de intercambio facial falsas, los estafadores ahora pueden evitar realizar videollamadas, pueden ganarse su confianza fácilmente con una imagen falsa que le hace creer que la persona en la videollamada es real. 

Así es como los “Yahoo Boys” actualizaron sus tácticas. Notorios desde finales de la década de 1990, los Yahoo Boys solían enviar correos fraudulentos de Yahoo para llevar a cabo diversas estafas como phishing y fraude de tarifa avanzada. Hoy en día, los Yahoo Boys utilizan videollamadas falsas impulsadas por tecnología de imitación profunda, ganando la confianza de las víctimas en sitios de citas y redes sociales. 

Este tipo de estafas románticas falsas pueden ser bastante creativas. En 2022, Chikae Ide, una artista japonesa de manga, reveló que perdió 75 millones de yenes (casi medio millón de USD) por un falso “Mark Ruffalo” en línea. Aunque al principio era sospechosa, fue la videollamada falsa y convincente la que eliminó sus dudas sobre la transferencia de dinero.

Estafa de contratación

Con la tecnología deepfake, los estafadores pueden hacerse pasar por CUALQUIERA, por ejemplo, haciéndose pasar por reclutadores en sitios de trabajo populares como LinkedIn.   

Los estafadores ofrecen lo que puede parecer una entrevista de trabajo online legítima. Utilizan audio falso y tecnología de intercambio facial para convencerle de que el entrevistador es de un empleador legítimo. Una vez que reciba la confirmación de una oferta de trabajo, se le pedirá que pague el paquete inicial y que comparta su información personal, como los datos bancarios para la configuración del salario. 

También se hacen pasar por candidatos entrevistados. El FBI advirtió de que los estafadores pueden utilizar tecnología falsa y la PII robada de las personas para crear perfiles de candidatos falsos. Los estafadores solicitan trabajos remotos con el objetivo de acceder a datos confidenciales de clientes y empleados de la empresa, lo que da lugar a una mayor explotación.

Estafa de inversión

Los Deepfakes también se utilizan comúnmente para el respaldo falso de celebridades en estafas de inversión.  En 2022, los vídeos falsos profundos con Elon Musk regalando tokens criptográficos circulaban en línea. Estas profundas falsificaciones anuncian oportunidades de inversión demasiado buenas para ser reales y conducen a sitios web maliciosos. A continuación, se muestra un ejemplo reciente de una transmisión falsa en directo de YouTube de una falsificación profunda de Elon Musk que promociona oportunidades de caída de aire de criptomonedas.

Sample Elon Musk Deepfake livestream video on YouTube.

Incluso con aplicaciones móviles legítimas y populares, existe la posibilidad de falsificaciones profundas. A continuación, Elon Musk vuelve a promocionar las “oportunidades de inversión financiera” en un anuncio visto en Duolingo. Si cae en la estafa y hace clic en el anuncio, le llevará a una página que, cuando se traduce, ofrece “Oportunidades de inversión; invierta 250 € y gane desde 1000 €”. En otros casos, el malware podría incluso empezar a descargarse una vez que haga clic. ¡Tenga cuidado! 

A deepfake of Elon Musk in a Duolingo ad.

Solución de IA de Trend Micro

Conozca a fondo nuestro centro de IA, donde convergen la seguridad de alto nivel y la tecnología innovadora. Conozca cómo la IA empodera a los equipos de seguridad a predecir, anticipar y detectar amenazas rápidamente. Compruebe de forma periódica en busca de recursos actualizados sobre el impacto transformador de la IA en materia de ciberseguridad, ayudándole a mantenerse por delante de las amenazas emergentes y a implementar de forma segura las soluciones de IA.

Investigaciones relacionadas

Artículos relacionados