Cosa sono i deepfake?

I deepfake sono risorse che possono includere contenuti audio, visivi o testuali contraffatti creati utilizzando l'IA generativa (GenAI). Sono sfruttati dai criminali informatici per manipolare gli obiettivi affinché forniscano volontariamente dati sensibili.

Video sui deepfake

Attraverso la creazione di video realistici e credibili, sempre più difficili da individuare come generati dall'intelligenza artificiale, i video deepfake rappresentano un rischio significativo per la sicurezza dei dati. Raffigurano in genere individui noti e di alto profilo come personaggi politici e celebrità, sebbene possano essere generati per presentare una somiglianza con altri individui. A seconda dell'obiettivo del loro creatore, possono essere utilizzati per diffondere disinformazione, frodare un individuo o un'organizzazione o richiedere dati sensibili e/o fondi.

I video deepfake vengono generati attraverso una complessa analisi dei contenuti di origine. Dettagli essenziali come le caratteristiche e i movimenti del viso, le dimensioni, il tono di colore della pelle, il colore dei capelli e degli occhi e il linguaggio del corpo vengono inseriti nell'IA per generare una rappresentazione il più accurata possibile. Questo vale anche per lo sfondo: se l'ufficio, la sala riunioni o altri ambienti in cui appare il soggetto è ben noto, il malintenzionato si adopererà per replicarlo nel modo più accurato possibile utilizzando immagini e video originali.

Clonazione vocale

Analogamente alla generazione di contenuti video deepfake, con l'intelligenza artificiale può essere generato un contenuto audio utilizzando il materiale di addestramento disponibile online. Le fonti di riferimento tendono a includere messaggi vocali, telefonate, apparizioni come ospiti in podcast e servizi giornalistici registrati oltre che contenuti video autentici contenenti audio che presentano similitudini con un individuo o di un gruppo chiave.

L'audio generato può essere reso altamente convincente, strettamente corrispondente al materiale di origine per renderlo il più credibile possibile. Lo strumento di IA generativa utilizzato dal malintenzionato analizza diversi dettagli chiave tra cui il suono, l'intonazione, lo schema del discorso, la chiarezza, l'enunciazione e l'emozione udibile di coloro che parlano nei materiali di riferimento.

Cheapfake

Mentre l'audio e il video possono essere generati attraverso la tecnica del deepfake utilizzando la GenAI, i cheapfakes rinunciano all'uso di tali tecnologie. Al contrario, sono in genere creati manualmente per ingannare individui o gruppi. Questi tendono ad essere illusioni ottiche, audio o testuali destinate a ingannare coloro che non prestano abbastanza attenzione, come accade quando si gestisce un senso di urgenza o si è sottoposti a uno stress emotivo. Come notato dal Dipartimento della sicurezza nazionale degli Stati Uniti, i cheapfake precedono l'era digitale, il che significa che i malintenzionati hanno avuto secoli per imparare gli uni dagli altri e affinare le loro capacità.

Approcci cheapfake

  • Taglio e giunzione fisica della pellicola
  • Intercettazione e/o giunzione di frammenti di frasi registrate e/o frasi complete
  • Rallentamento o accelerazione di contenuti video e/o audio per trasmettere un effetto o un suggerimento desiderato
  • Ripresa e/o registrazione di sosia nell'aspetto e/o nella voce che si presentano come individui chiave
  • Immagini generate al computer (CGI) a basso budget e di bassa qualità, tecnologia di motion capture e schermi verdi

Esempi di deepfake e cheapfake

I malintenzionati utilizzano deepfake e/o cheapfake per una varietà di scopi, tra cui, a titolo esemplificativo:

  • Manipolare i nuovi dipendenti affinché forniscano informazioni aziendali e/o personali
  • Fingersi una celebrità o una figura politica per ottenere fondi e/o diffondere disinformazione
  • Falsificare circostanze come disastri, lesioni o decesso per richieste di risarcimento assicurativo
  • Ingannare il pubblico per indurlo a utilizzare siti web falsi che è portato a credere siano reali
  • Manipolare azioni e investimenti assumendo le sembianze di un dirigente
  • Causare imbarazzo e/o danni reputazionali agli individui

Misure di protezione

Ci sono diversi passaggi che è possibile adottare per ridurre il rischio di essere il bersaglio di un deepfake o cheapfake. Tra queste troviamo le seguenti misure, molte delle quali raccomandate dalla National Cybersecurity Alliance:

  • Screening delle chiamate in arrivo da numeri sconosciuti e passaggio alla segreteria telefonica
  • Impostazione dell'autenticazione a più fattori su tutti gli account online
  • Utilizzo di password univoche, lunghe e complesse
  • Configurazione di una webcam con otturatore fisico per coprire l'obiettivo quando non lo si utilizza
  • Aggiunta di una filigrana digitale alle foto e/o ai video prima della condivisione
  • Conferma di persona dei dettagli che sono stati divulgati online o per telefono (quando possibile)
  • Esamine dei dettagli nelle email sospette come punteggiatura, tono e grammatica

Applicazione dei principi di zero-trust e di soluzioni di rilevamento di deepfake

Un approccio zero-trust è fondamentale nella cybersecurity. Quando si tratta di protezione dai deepfake, i relativi principi potrebbero essere considerati un modello per ridurre al minimo il rischio. Ad esempio:

  • Assicurarsi che siano in vigore e rispettati i processi di autenticazione e autorizzazione
  • Regolamentare e monitorare in modo proattivo l'accesso degli utenti a dati e reti
  • Presupporre una violazione al rilevamento di una minaccia e ridurre al minimo il "raggio di esplosione"

Inoltre, le soluzioni di ispezione e rilevamento di deepfake appositamente progettate possono aiutare a salvaguardare le identità, il benessere e i dati degli utenti. Tali strumenti sono essenziali nell'era dell'innovazione dell'IA in continua accelerazione, poiché i deepfake sono spesso difficili da rilevare manualmente per gli esseri umani. "Man mano che gli algoritmi di sintesi vocale migliorano e diventano più realistici, possiamo aspettarci che il compito di rilevamento diventi più difficile", osserva un dettagliato report della National Library of Medicine del 2023 sull'argomento. "La difficoltà di rilevare i deepfake di segmenti di discorso conferma il loro potenziale di uso improprio e segnala che sono necessarie difese contro questa minaccia." 

Ricerche correlate

Articoli correlati