Los deepfakes son activos que pueden incluir audio, video o texto alterado que ha sido creado con el uso de IA generativa (GenAI). Los cibercriminales los usan para manipular a sus víctimas y lograr que les entreguen información sensible.
Al tratarse de videos realistas y creíbles creados con IA que cada vez son más difíciles de distinguir de la realidad, los videos deepfakes representan un riesgo importante de seguridad. Pueden típicamente usar la imagen de individuos de alto perfil como políticos y celebridades, aunque también pueden crearse para usar la imagen de otros individuos. Dependiendo de la meta de su creador, pueden usarse para compartir desinformación, cometer fraude o solicitar información sensible y/o dinero.
Los videos deepfake se generan por medio de un análisis complejo del material fuente. Detalles esenciales como los rasgos faciales, los movimientos, dimensiones, tono de piel, color de cabello y ojos, y lenguaje corporal entrenan a la IA para crear una representación lo más acertada posible. Esto también se aplica al fondo. Si la oficina, sala de juntas o ubicación en la que aparece el sujeto es bien conocida, los cibercriminales se tomarán el tiempo de replicarla de la forma más precisa posible.
De forma similar a la generación de videos deepfake, también se puede generar audio con IA por medio de material que se encuentre en línea. Las fuentes de referencia pueden ser mensajes de voz, llamadas telefónicas, apariciones en podcasts y programas de televisión y video que contenga audio de un individuo clave.
El audio generado puede crearse para sonar altamente convincente, imitando precisamente al material de referencia para parecer lo más auténtico posible. La herramienta de IA generativa usada por el cibercriminal analiza varios detalles clave incluyendo el tono, volumen, patrón, claridad, dicción y emoción de la persona que habla en el material de referencia.
Si bien se pueden hacer deepfakes de audio y video por medio de la GenAI, los cheapfakes se saltan el uso de estas tecnologías. En su lugar, se crean de forma manual para engañar a individuos o a grupos. Tienden a tratarse de ilusiones ópticas, auditivas o textuales que buscan engañar a quienes no estén prestando atención, sobre todo en contextos de alta urgencia o de angustia emocional. Como ha notado el Departamento de Seguridad Nacional de los Estados Unidos, los cheapfakes preceden a la era digital, lo cual significa que los criminales han tenido siglos de aprendizaje para perfeccionar sus técnicas.
Los individuos maliciosos usan los deepfakes y/o los cheapfakes para una gran variedad de propósitos, incluyendo pero no limitando a:
Hay varios pasos que puede tomar para reducir el riesgo de convertirse en una víctima de un deepfake o un cheapfake. Estos incluyen las siguientes medidas, varias de las cuales también son recomendadas por la National Cybersecurity Alliance:
Un enfoque zero-trust es crucial en la ciberseguridad Cuando se trata de proteger contra deepfakes, se deben de considerar los principios zero-trust como una guía para minimizar el riesgo. Por ejemplo:
Además integrar soluciones específicas para la inspección y detección de deepfakes puede ayudar a proteger las identidades, información y bienestar de los usuarios. Estas herramientas son esenciales en una era en la que la innovación en IA siempre está acelerando, ya que puede resultar difícil para los seres humanos detectar manualmente a los deepfakes. “Conforme mejoran los algoritmos de síntesis de voz y se vuelven más realistas, podemos esperar que la detección se vuelva más difícil,” destaca un reporte de 2023 de la National Library of Medicine sobre el tema. “La dificultad de detectar deepfakes de la voz de un individuo confirma su potencial para el mal uso, y nos da una señal de que se necesitan defensas contra esta amenaza.”
Investigaciones Relacionadas
Artículos Relacionados