I deepfake sono risorse che possono includere contenuti audio, visivi o testuali contraffatti creati utilizzando l'IA generativa (GenAI). Sono sfruttati dai criminali informatici per manipolare gli obiettivi affinché forniscano volontariamente dati sensibili.
Attraverso la creazione di video realistici e credibili, sempre più difficili da individuare come generati dall'intelligenza artificiale, i video deepfake rappresentano un rischio significativo per la sicurezza dei dati. Raffigurano in genere individui noti e di alto profilo come personaggi politici e celebrità, sebbene possano essere generati per presentare una somiglianza con altri individui. A seconda dell'obiettivo del loro creatore, possono essere utilizzati per diffondere disinformazione, frodare un individuo o un'organizzazione o richiedere dati sensibili e/o fondi.
I video deepfake vengono generati attraverso una complessa analisi dei contenuti di origine. Dettagli essenziali come le caratteristiche e i movimenti del viso, le dimensioni, il tono di colore della pelle, il colore dei capelli e degli occhi e il linguaggio del corpo vengono inseriti nell'IA per generare una rappresentazione il più accurata possibile. Questo vale anche per lo sfondo: se l'ufficio, la sala riunioni o altri ambienti in cui appare il soggetto è ben noto, il malintenzionato si adopererà per replicarlo nel modo più accurato possibile utilizzando immagini e video originali.
Analogamente alla generazione di contenuti video deepfake, con l'intelligenza artificiale può essere generato un contenuto audio utilizzando il materiale di addestramento disponibile online. Le fonti di riferimento tendono a includere messaggi vocali, telefonate, apparizioni come ospiti in podcast e servizi giornalistici registrati oltre che contenuti video autentici contenenti audio che presentano similitudini con un individuo o di un gruppo chiave.
L'audio generato può essere reso altamente convincente, strettamente corrispondente al materiale di origine per renderlo il più credibile possibile. Lo strumento di IA generativa utilizzato dal malintenzionato analizza diversi dettagli chiave tra cui il suono, l'intonazione, lo schema del discorso, la chiarezza, l'enunciazione e l'emozione udibile di coloro che parlano nei materiali di riferimento.
Mentre l'audio e il video possono essere generati attraverso la tecnica del deepfake utilizzando la GenAI, i cheapfakes rinunciano all'uso di tali tecnologie. Al contrario, sono in genere creati manualmente per ingannare individui o gruppi. Questi tendono ad essere illusioni ottiche, audio o testuali destinate a ingannare coloro che non prestano abbastanza attenzione, come accade quando si gestisce un senso di urgenza o si è sottoposti a uno stress emotivo. Come notato dal Dipartimento della sicurezza nazionale degli Stati Uniti, i cheapfake precedono l'era digitale, il che significa che i malintenzionati hanno avuto secoli per imparare gli uni dagli altri e affinare le loro capacità.
I malintenzionati utilizzano deepfake e/o cheapfake per una varietà di scopi, tra cui, a titolo esemplificativo:
Ci sono diversi passaggi che è possibile adottare per ridurre il rischio di essere il bersaglio di un deepfake o cheapfake. Tra queste troviamo le seguenti misure, molte delle quali raccomandate dalla National Cybersecurity Alliance:
Un approccio zero-trust è fondamentale nella cybersecurity. Quando si tratta di protezione dai deepfake, i relativi principi potrebbero essere considerati un modello per ridurre al minimo il rischio. Ad esempio:
Inoltre, le soluzioni di ispezione e rilevamento di deepfake appositamente progettate possono aiutare a salvaguardare le identità, il benessere e i dati degli utenti. Tali strumenti sono essenziali nell'era dell'innovazione dell'IA in continua accelerazione, poiché i deepfake sono spesso difficili da rilevare manualmente per gli esseri umani. "Man mano che gli algoritmi di sintesi vocale migliorano e diventano più realistici, possiamo aspettarci che il compito di rilevamento diventi più difficile", osserva un dettagliato report della National Library of Medicine del 2023 sull'argomento. "La difficoltà di rilevare i deepfake di segmenti di discorso conferma il loro potenziale di uso improprio e segnala che sono necessarie difese contro questa minaccia."
Ricerche correlate
Articoli correlati