Cos'è un deepfake?

Significato Deepfake

Il termine "deepfake" è una combinazione di "deep learning" e "falso" ed è stato coniato nel 2017 da un utente Reddit. Un deepfake è un'immagine, un video o una registrazione vocale falsi in cui l'aspetto di una persona viene sostituito da quello di un'altra. Sono fatti per ingannare o intrattenere le persone. Con il machine learning avanzato, i deepfake possono sembrare molto realistici. In precedenza, i deepfake erano noti principalmente per il loro uso divertente sui social media. Tuttavia, il loro potenziale di abuso è diventato rapidamente evidente e i deepfake sono ora una preoccupazione significativa per la privacy, la sicurezza e le informazioni.

Video Deepfake

Attraverso la creazione di video realistici e credibili, sempre più difficili da individuare come generati dall'intelligenza artificiale, i video deepfake rappresentano un rischio significativo per la sicurezza dei dati. Raffigurano in genere individui noti e di alto profilo come personaggi politici e celebrità, sebbene possano essere generati per presentare una somiglianza con altri individui. A seconda dell'obiettivo del loro creatore, possono essere utilizzati per diffondere disinformazione, frodare un individuo o un'organizzazione o richiedere dati sensibili e/o fondi. 

I video deepfake vengono generati attraverso una complessa analisi dei contenuti di origine. Dettagli essenziali come le caratteristiche e i movimenti del viso, le dimensioni, il tono di colore della pelle, il colore dei capelli e degli occhi e il linguaggio del corpo vengono inseriti nell'IA per generare una rappresentazione il più accurata possibile. Questo vale anche per lo sfondo: se l'ufficio, la sala riunioni o altri ambienti in cui appare il soggetto è ben noto, il malintenzionato si adopererà per replicarlo nel modo più accurato possibile utilizzando immagini e video originali.

Clonazione vocale

Analogamente alla generazione di contenuti video deepfake, con l'intelligenza artificiale può essere generato un contenuto audio utilizzando il materiale di addestramento disponibile online. Le fonti di riferimento tendono a includere messaggi vocali, telefonate, apparizioni come ospiti in podcast e servizi giornalistici registrati oltre che contenuti video autentici contenenti audio che presentano similitudini con un individuo o di un gruppo chiave. 

L'audio generato può essere reso altamente convincente, strettamente corrispondente al materiale di origine per renderlo il più credibile possibile. Lo strumento di IA generativa utilizzato dal malintenzionato analizza diversi dettagli chiave tra cui il suono, l'intonazione, lo schema del discorso, la chiarezza, l'enunciazione e l'emozione udibile di coloro che parlano nei materiali di riferimento.

Cheapfake

Mentre l'audio e il video possono essere generati attraverso la tecnica del deepfake utilizzando la GenAI, i cheapfakes rinunciano all'uso di tali tecnologie. Al contrario, sono in genere creati manualmente per ingannare individui o gruppi. Questi tendono ad essere illusioni ottiche, audio o testuali destinate a ingannare coloro che non prestano abbastanza attenzione, come accade quando si gestisce un senso di urgenza o si è sottoposti a uno stress emotivo. Come notato dal Dipartimento della sicurezza nazionale degli Stati Uniti, i cheapfake precedono l'era digitale, il che significa che i malintenzionati hanno avuto secoli per imparare gli uni dagli altri e affinare le loro capacità.

Approcci falsi

  • Taglio e giunzione fisica della pellicola 
  • Intercettazione e/o giunzione di frammenti di frasi registrate e/o frasi complete 
  • Rallentamento o accelerazione di contenuti video e/o audio per trasmettere un effetto o un suggerimento desiderato 
  • Ripresa e/o registrazione di sosia nell'aspetto e/o nella voce che si presentano come individui chiave 
  • Immagini generate al computer (CGI) a basso budget e di bassa qualità, tecnologia di motion capture e schermi verdi

Come vengono realizzati i deepfake?

La creazione di deepfake implica l'utilizzo di programmi informatici avanzati chiamati Generative Adversarial Networks (GAN) per rendere reali le immagini false. Ci sono quattro fasi principali: 

Raccolta dati: In primo luogo, vengono raccolti contenuti multimediali (immagini, video o audio) della persona interessata. Questa raccolta viene utilizzata per formare il programma informatico. 

Formazione del modello: Il GAN viene formato sui dati raccolti. Una parte del GAN crea immagini false, mentre l'altra parte controlla se sono reali. 

Raffinazione: Tecniche come i punti di riferimento del viso e l'acquisizione del movimento vengono utilizzate per rendere naturale il deepfake, con espressioni e movimenti realistici. 

Produzione finale: Il deepfake finito viene quindi combinato con i media originali, creando un contenuto falso fluido e convincente. 

Anche se quanto sopra può sembrare un po' complesso, il fatto è che chiunque può fare un deepfake, dato l'enorme numero di applicazioni software accessibili al pubblico, da DeepFaceLab a DALL-E e Midjourney (anche se quest'ultimo dispone di protezioni). 

Perché preoccuparsi di Deepfakes?

È facile pensare alla cybersecurity come a un concetto astratto, rimosso dalla vita di tutti i giorni, ma le implicazioni dell'uso del deepfake dannoso colpiscono l'individuo e la società in generale:

La tua privacy personale

I deepfake possono violare la privacy personale creando contenuti non consensuali e spesso dannosi. Ciò è particolarmente preoccupante nei casi di pornografia contraffatta, in cui i volti delle persone sono sovrapposti a contenuti espliciti senza il loro consenso.

Sicurezza e finanze

Le videochiamate Deepfake possono essere utilizzate per impersonare le persone, spesso con l'intento di ingannare l'utente e indurlo a donare denaro o informazioni sensibili. Chiunque può essere vittima di una truffa contraffatta e subire gravi conseguenze come frode finanziaria e furto di identità.

Stabilità politica

I deepfake possono essere armizzati per creare tumulti politici. I video di politici che fanno dichiarazioni infiammatorie o si impegnano in attività illecite possono influenzare l'opinione pubblica e interrompere i processi democratici.

Preoccupazioni legali ed etiche

La creazione e la distribuzione di deepfake sollevano importanti questioni legali ed etiche. Le questioni relative al consenso, alla proprietà intellettuale e al diritto alla propria immagine sono al centro dei dibattiti sociali in corso.

Integrità dei supporti

Giornalisti e organizzazioni mediatiche affrontano nuove sfide nella verifica dell'autenticità dei contenuti. I deepfake possono minare la credibilità delle notizie

Minacce e conseguenze dei deepfake

I deepfake pongono diverse minacce alla cybersecurity:

Truffe di immagini e videochiamate

I cyber criminali possono utilizzare i deepfake durante le videochiamate per impersonare le persone. Che si tratti di un amico, di un familiare, di un potenziale partner o di un colloquio di lavoro online, le videochiamate offrono al truffatore un'opportunità perfetta per condurre un attacco in deepfake, impersonare l'obiettivo e indurti a dare denaro o informazioni personali.

Disinformazione/disinformazione

I deepfake possono essere utilizzati per creare contenuti convincenti ma falsi, diffondendo disinformazione/disinformazione. Ciò può minare la fiducia del pubblico nei media, influenzare le elezioni e destabilizzare le società.

Furto di identità

I deepfake possono facilitare il furto di identità creando identità false realistiche o compromettendo quelle esistenti, causando danni finanziari e reputazionali.

Rettifica ed estorsione

Gli attori malintenzionati possono creare video che compromettono i deepfake per ricattare o estorcere le persone, sfruttando la potenza delle prove false.

Erosione della fiducia

L'esistenza di deepfake può erodere la fiducia nei contenuti digitali. Le persone iniziano a dubitare dell'autenticità dei media legittimi, portando a una più ampia crisi di fiducia nelle comunicazioni digitali.

Come vedere un video Deepfake

Il rilevamento dei deepfake sta diventando sempre più impegnativo con il miglioramento della tecnologia. Che tu stia guardando un video online, ascoltando un clip audio o facendo una videochiamata con qualcuno, segui il tuo istinto e stai attento a quanto segue:

Movimenti facciali innaturali

I deepfake possono mostrare lievi incoerenze nelle espressioni e nei movimenti del viso. Cerca problemi innaturali di ammiccamento, sincronizzazione delle labbra o strani tic facciali.

Illuminazione incoerente

Prestare attenzione all'illuminazione e alle ombre. Se l'illuminazione del viso non corrisponde a quella del resto della scena, potrebbe trattarsi di un deepfake.

Problemi sonori

Presta attenzione a cambiamenti improvvisi nel tono e a pause o intonazioni insolite che non riflettono il normale linguaggio del relatore. Anche le incoerenze nel rumore di fondo o i cambiamenti improvvisi nei suoni ambientali possono indicare un deepfake.

Sfocamento

I deepfake presentano spesso un leggero offuscamento intorno ai bordi del viso, in particolare durante i movimenti rapidi.

Mancate corrispondenze audiovisive

Ascolta le discrepanze tra gli elementi audio e visivi. Movimenti delle labbra e audio ineguagliati possono essere un segno di un deepfake.

Incoerenze contestuali

Se il contenuto sembra fuori carattere per la persona o non plausibile, date le circostanze, potrebbe essere un falso. Ad esempio, se la persona che conosci bene ha una richiesta urgente e insolita, come denaro o informazioni personali, e ti senti spinto ad agire rapidamente, questo è un segnale d'allarme.

Misure di protezione

Ci sono diversi passaggi che è possibile adottare per ridurre il rischio di essere il bersaglio di un deepfake o cheapfake. Tra queste troviamo le seguenti misure, molte delle quali raccomandate dalla National Cybersecurity Alliance: 

  • Screening delle chiamate in arrivo da numeri sconosciuti e passaggio alla segreteria telefonica 
  • Impostazione dell'autenticazione a più fattori su tutti gli account online 
  • Utilizzo di password univoche, lunghe e complesse 
  • Configurazione di una webcam con otturatore fisico per coprire l'obiettivo quando non lo si utilizza 
  • Aggiunta di una filigrana digitale alle foto e/o ai video prima della condivisione 
  • Conferma di persona dei dettagli che sono stati divulgati online o per telefono (quando possibile) 
  • Esamine dei dettagli nelle email sospette come punteggiatura, tono e grammatica 
  • Applicazione dei principi di zero-trust e di soluzioni di rilevamento di deepfake 

Un approccio zero-trust è fondamentale nella cybersecurity. Quando si tratta di protezione dai deepfake, i relativi principi potrebbero essere considerati un modello per ridurre al minimo il rischio. Ad esempio: 

  • Assicurarsi che siano in vigore e rispettati i processi di autenticazione e autorizzazione 
  • Regolamentare e monitorare in modo proattivo l'accesso degli utenti a dati e reti 
  • Presupporre una violazione al rilevamento di una minaccia e ridurre al minimo il "raggio di esplosione" 

Inoltre, le soluzioni di ispezione e rilevamento di deepfake appositamente progettate possono aiutare a salvaguardare le identità, il benessere e i dati degli utenti. Tali strumenti sono essenziali nell'era dell'innovazione dell'IA in continua accelerazione, poiché i deepfake sono spesso difficili da rilevare manualmente per gli esseri umani. "Man mano che gli algoritmi di sintesi vocale migliorano e diventano più realistici, possiamo aspettarci che il compito di rilevamento diventi più difficile", osserva un dettagliato report della National Library of Medicine del 2023 sull'argomento. "La difficoltà di rilevare i deepfake di segmenti di discorso conferma il loro potenziale di uso improprio e segnala che sono necessarie difese contro questa minaccia." 

Esempi di danni causati da Deepfake

Esempio di deepfake

Nel febbraio 2024, un'azienda di Hong Kong è stata frodata attraverso una videoconferenza che ha sfruttato i deepfake. È stato segnalato che 25 milioni di dollari sono stati trasferiti a un gruppo di truffatori che hanno impersonato il direttore finanziario dell'azienda. La videoconferenza si è tenuta con diversi altri partecipanti oltre al dipendente che è stato frodato, ma tutti i partecipanti erano colleghi falsi generati da deepfake e il dipendente frodato non si è reso conto che tutti erano falsi. 

Esempio falso

Nell'aprile 2023, si è verificato un incidente di rapimento virtuale in Arizona, USA. Una persona anonima ha chiesto a una donna di pagare un riscatto di 1 milione di dollari per sua figlia di 15 anni. La donna ha ascoltato il pianto, le urle e le promesse di sua figlia al telefono con l'autore. È stato rivelato che la figlia non è stata effettivamente rapita in questo caso, ma era un rapimento virtuale. Si ritiene che una voce clonata creata sulla base della voce della figlia sia stata utilizzata nella telefonata con l'autore in questo caso. In effetti, la Federal Trade Commission statunitense ha emesso un avviso sulle truffe utilizzando voci clonate di membri della famiglia.

Le migliori truffe Deepfake

Truffa romantica

Abbiamo tutti sentito parlare di truffe di romanzi d'amore online in cui i truffatori impersonano qualcun altro, come un membro del servizio militare con sede all'estero, e chiedono denaro online. Anche se la maggior parte di noi pensa che conosciamo tutti i trucchi e non ne cada vittima, i truffatori stanno utilizzando nuove tattiche utilizzando una tecnologia avanzata deepfake per sfruttare le persone. 

Storicamente, uno dei segnali d'allarme di una truffa romantica è che i truffatori non si uniranno a una videochiamata né ti incontreranno di persona. Tuttavia, con le app di sostituzione facciale deepfake, i truffatori possono ora allontanarsi dalle videochiamate: possono conquistare facilmente la tua fiducia con un'immagine falsa che ti fa credere che la persona che partecipa alla videochiamata sia reale. 

Ecco come i "Yahoo Boys" hanno aggiornato le loro tattiche. Noti dalla fine degli anni '90, i Yahoo Boys inviavano email truffate di Yahoo per effettuare varie truffe come phishing e frodi avanzate. Oggi, i ragazzi Yahoo utilizzano videochiamate false basate su tecnologia deepfake, guadagnandosi la fiducia delle vittime su siti di incontri e social media. 

Questi tipi di truffe romanzi d'amore deepfake possono diventare piuttosto creativi. Nel 2022, Chikae Ide, artista giapponese di Manga, ha rivelato di aver perso 75 milioni di dollari di yen (quasi mezzo milione di dollari) a causa di un falso "Mark Ruffalo" online. Anche se all'inizio era sospetta, è stata la convincente videochiamata profondamente falsa a rimuovere i suoi dubbi sul trasferimento di denaro.

Truffa di reclutamento

Con la tecnologia deepfake, i truffatori possono rappresentare CHIUNQUE, ad esempio impersonando i reclutatori su siti di lavoro popolari come LinkedIn.   

I truffatori offrono ciò che può apparire come un colloquio di lavoro online legittimo. Utilizzano la tecnologia di deepfake audio e face swapping per convincerti che l'intervistatore proviene da un datore di lavoro legittimo. Una volta ricevuta la conferma di un'offerta di lavoro, ti viene chiesto di pagare il pacchetto iniziale e di condividere le tue informazioni personali come le coordinate bancarie per l'impostazione dello stipendio. 

Fanno anche da candidati intervistati. L'FBI ha avvertito che i truffatori possono utilizzare la tecnologia deepfake e le PII rubate dalle persone per creare profili di candidati falsi. I truffatori si candidano per lavori da remoto, con l'obiettivo di accedere ai dati sensibili dei clienti e dei dipendenti dell'azienda, con conseguente ulteriore sfruttamento. 

Truffa degli investimenti

I deepfake sono anche comunemente utilizzati per falsi riconoscimenti di celebrità nelle truffe di investimento.  Nel 2022, video di deepfake con Elon Musk che regalava token di crittografia diffusi online. Questi deepfake pubblicizzano opportunità di investimento troppo buone per essere vere e portano a siti web dannosi. Di seguito è riportato un recente esempio di un falso streaming live su YouTube di un deepfake di Elon Musk che promuove le opportunità di airdrop delle criptovalute.

Sample Elon Musk Deepfake livestream video on YouTube.

Anche con applicazioni mobili legittime e popolari, esiste la possibilità di deepfake. Di seguito è riportato Elon Musk che promuove ancora una volta le "opportunità di investimento finanziario" in una pubblicità visualizzata su Duolingo. Se cadi per la truffa e clicchi sulla pubblicità, ti porterà a una pagina che, una volta tradotta, offre “Opportunità di investimento; investi 250 €, guadagna da 1.000 €”. In altri casi, il malware potrebbe anche iniziare a scaricarsi una volta cliccato. Sii prudente! 

A deepfake of Elon Musk in a Duolingo ad.

Soluzione AI di Trend Micro

Immergiti nel nostro hub dedicato all'IA, dove convergono tecnologie innovative e sicurezza di alto livello. Scopri in che modo l'IA consente ai team di sicurezza di prevedere, anticipare e rilevare rapidamente le minacce. Torna a trovarci regolarmente per ricevere risorse aggiornate sull'impatto trasformativo dell'IA sulla cybersecurity, che ti aiuteranno a stare al passo con le minacce emergenti e a implementare in modo sicuro le soluzioni di IA.

Ricerche correlate

Articoli correlati