Los deepfakes son activos que pueden incluir contenido de texto, visual o audio manipulado creado mediante el uso de IA generativa (GenAI). Los ciberdelincuentes los aprovechan para manipular objetivos que proporcionen datos sensibles voluntariamente.
Al crear vídeos creíbles y realistas que son cada vez más difíciles de detectar como vídeos generados con IA, los vídeos de deepfake suponen un importante riesgo para la seguridad de los datos. Normalmente incluyen a personas conocidas y de perfil alto como políticos y celebridades, aunque también pueden ser generados para captar los parecidos de otras personas. Dependiendo del objetivo de sus creadores, se pueden utilizar para propagar información errónea, estafar a una persona u organización o solicitar datos sensibles y/o fondos.
Los vídeos de deepfakes son generados mediante complejos análisis del contenido de origen. La información fundamental como los movimientos y los gestos faciales, las dimensiones, el tono de piel, pelo y color de ojos, así como el lenguaje corporal se introduce en la IA para generar una representación lo más parecida y precisa posible. Esto también se aplica al fondo, si la oficina, la sala de juntas u otra instalación en la que aparezca el sujeto es conocida, el agente de amenaza hará todo lo necesario para reproducir lo más posible mediante el uso de vídeos e imágenes de origen.
De forma similar a la generación de contenido de vídeo de deepfake, es posible generar audio con IA utilizando material de entrenamiento disponible y encontrado online. Entre las fuentes de referencia tiende a haber mensajes de voz, llamadas telefónicas, apariciones como invitados en pódcast y grabaciones de noticias, así como contenido de vídeo real con audio que contenga los rasgos y semejanzas de una persona o grupo específicos.
Es posible generar el audio para que suene extremadamente convincente, pareciéndose enormemente al material de origen para hacerlo lo más creíble posible. La herramienta de IA generativa utilizada por el agente de amenaza analiza distintos detalles clave que incluyen tono, timbre, patrón de habla, claridad, enunciación y emoción audible de quienes hablan en los materiales de referencia.
Mientras que es posible realizar deepfakes en audio y vídeo utilizando GenAI, los cheapfakes prescinden del uso de esta tecnología. En su lugar, estos normalmente se crean de forma manual para engañar a personas o grupos. Tienden a ser ilusiones ópticas, de audio o texto destinadas a engañar a aquellas personas que no están prestando la suficiente atención, como es en los casos de reunirse con urgencia o experimentar estrés emocional. Tal y como informaba el Departamento de Seguridad Nacional de los EE. UU., los cheapfakes son anteriores a la era digital, lo que significa que los agentes de amenaza llevan siglos aprendiendo unos de otros perfeccionando así sus capacidades.
Los agentes maliciosos utilizan los deepfakes y los cheapfakes para una variedad de fines, incluidos, pero no limitados a, los siguientes:
Hay numerosos pasos que puede realizar para reducir su riesgo de ser objetivo de deepfake o cheapfake. Estos incluyen las siguientes medidas, muchas de las cuales son recomendadas por la National Cybersecurity Alliance:
Un enfoque de confianza cero es fundamental en ciberseguridad. Cuando se trata de protegerse frente a los deepfakes, podría considerarse que sus principios son su plan de actuación para minimizar los riesgos. Por ejemplo:
Además, las soluciones de detección e inspección de deepfakes específicamente diseñadas para ello pueden ayudarle a proteger las identidades, el bienestar y los datos de los usuarios. Dichas herramientas son esenciales en la era de la innovación por IA cada vez más acelerada, dado que los deepfakes a menudo son difíciles de detectar manualmente para los humanos. «A medida que los algoritmos de síntesis del habla mejoran y se vuelven más realistas, podemos esperar que las tareas de detección sean cada vez más difíciles», destaca de forma detallada el informe de 2023 de la National Library of Medicine acerca de este tema. «La dificultad de detectar deepfakes de habla confirma su potencial para usarlo indebidamente y subrayan la necesidad de contar con buenas defensas frente a esta amenaza».
Investigaciones relacionadas
Artículos relacionados