Perché i sistemi che rilevano i deepfake stanno diventando meno affidabili

I sistemi automatici per il rilevamento dei deepfake erano considerati fino a pochi anni fa una risposta tecnologica credibile alla diffusione dei contenuti sintetici. Oggi, quella risposta si è rivelata strutturalmente insufficiente. Capire perché non è solo un esercizio accademico: ha conseguenze dirette su come trattiamo le prove digitali, su come valutiamo i contenuti che riceviamo e su come ci prepariamo a difenderci in futuro.

Cosa sono i detector di deepfake e come funzionano

I sistemi di rilevazione dei deepfake sono modelli di machine learning addestrati a distinguere contenuti autentici da contenuti sintetici o manipolati. Il principio di funzionamento è il seguente: il modello viene esposto a grandi quantità di video reali e video generati artificialmente, e impara a riconoscere i pattern statistici che caratterizzano le due categorie.

Durante l’analisi di un nuovo video, il sistema confronta le caratteristiche del file con quanto ha appreso durante l’addestramento e produce una classificazione — spesso espressa come punteggio di probabilità.

Gli elementi che questi sistemi imparano a riconoscere includono, tra gli altri:

  • anomalie nei movimenti oculari o del volto non coerenti con la fisiologia umana
  • artefatti visivi ai bordi del viso o nelle zone di transizione
  • incoerenze nella texture della pelle nelle diverse aree del fotogramma
  • pattern di compressione video anomali rispetto a una registrazione naturale
  • asimmetrie nei riflessi oculari o illuminazione incoerente
  • micro-movimenti innaturali tipici dei modelli generativi

Fin quando i deepfake venivano generati con tecnologie di prima e seconda generazione, questi indicatori erano sufficientemente stabili da permettere un rilevamento ragionevolmente affidabile. Questo non è più vero.

Il problema strutturale: i dataset invecchiano

Il limite fondamentale di tutti i sistemi di machine learning applicati al rilevamento dei deepfake è che imparano dal passato e devono affrontare il presente.

Un detector addestrato su un dataset che include deepfake generati con modelli disponibili fino a una certa data è efficace contro quei modelli. Ma il campo della sintesi video evolve a una velocità straordinaria. Nuove architetture di modelli generativi vengono sviluppate e rilasciate con cadenza sempre più ravvicinata, e ciascuna introduce caratteristiche diverse che rendono gli artefatti precedenti meno visibili o del tutto assenti.

Il risultato è prevedibile: un detector che nel 2023 raggiungeva un’accuratezza elevata può avere prestazioni significativamente peggiori su deepfake generati con i modelli del 2025. E il problema non è risolvibile con un semplice aggiornamento periodico, perché il ciclo di sviluppo dei generatori è sistematicamente più rapido di quello dei detector.

Dato tecnico rilevante
Diversi studi pubblicati in ambito accademico hanno documentato come detector di deepfake allo stato dell’arte, testati su video prodotti con modelli generativi mai visti durante l’addestramento, registrino un calo significativo delle prestazioni. Il problema non è marginale: in alcuni casi l’accuratezza scende a livelli vicini a quelli di una classificazione casuale.

La corsa agli armamenti tra generatori e detector

Il rapporto tra chi produce deepfake e chi cerca di rilevarli può essere descritto con precisione come una corsa agli armamenti tecnologica, e come in tutte le corse agli armamenti, chi attacca ha un vantaggio strutturale su chi difende.

Il meccanismo è il seguente:

  1. un nuovo detector viene sviluppato e addestrato a riconoscere certi artefatti caratteristici dei deepfake
  2. i ricercatori che sviluppano i generatori analizzano i detector disponibili e modificano i propri modelli per eliminare quegli artefatti specifici
  3. i nuovi deepfake superano il detector precedente
  4. viene sviluppato un nuovo detector, che cerca indicatori diversi
  5. il ciclo ricomincia

Questo schema non è teorico: è documentato nella letteratura accademica e si osserva praticamente in ogni valutazione comparativa condotta su modelli generativi di ultima generazione.

Il problema è aggravato da una asimmetria fondamentale: sviluppare e rilasciare un nuovo modello generativo richiede risorse significative ma è tecnicamente fattibile per team relativamente piccoli. Sviluppare e validare un nuovo detector affidabile richiede la costruzione di dataset aggiornati, cicli di addestramento estesi e valutazione rigorosa — tempi e risorse spesso incompatibili con la velocità di evoluzione dei generatori.

Perché le percentuali prodotte dai detector sono metodologicamente problematiche

Un secondo problema, distinto dal primo, riguarda il modo in cui i risultati dei detector vengono comunicati e interpretati.

La maggior parte dei sistemi commerciali e di molti strumenti di ricerca restituisce i propri risultati sotto forma di percentuale: “questo video ha una probabilità del 92% di essere autentico”, oppure “probabilità di manipolazione: 78%”.

Questo formato è intuitivo per l’utente finale, ma è fuorviante per chiunque debba usare quella valutazione in un contesto tecnico o legale. Le ragioni sono molteplici:

  • La percentuale non è una probabilità classica: è un punteggio prodotto da un classificatore statistico, che dipende interamente dalla distribuzione del dataset di addestramento. Non ha il significato frequentista che la parola “probabilità” evoca.
  • Non tiene conto dell’incertezza del modello: due video possono ricevere lo stesso punteggio per ragioni tecniche completamente diverse — uno perché presenta caratteristiche coerenti con l’autenticità, l’altro perché il modello non dispone di abbastanza informazioni per classificarlo.
  • Dipende fortemente dalla qualità del video: video compressi, ridimensionati, ricodificati o di bassa risoluzione producono risultati meno affidabili, spesso indistinguibili da quelli di video ad alta qualità.
  • Suggerisce una precisione scientifica che non esiste: in sede giudiziaria, presentare una percentuale come evidenza tecnica senza spiegare questi limiti può essere fuorviante per il giudice o per le parti.

Per questi motivi, nella pratica forense seria, i risultati dei detector automatici non vengono mai presentati come conclusioni, ma come elementi di un’analisi più ampia che include valutazioni qualitative, contestualizzazione tecnica e dichiarazione esplicita dei limiti.

Cosa può fare davvero un esperto forense di fronte a un sospetto deepfake

Chiarito cosa i sistemi automatici non possono garantire, è utile capire cosa può invece offrire un’analisi forense condotta da un esperto.

L’approccio professionale non si basa sull’output di un singolo strumento ma su una valutazione tecnica multi-livello che include:

  • Analisi della struttura interna del file: anomalie nei dati compressi, incoerenze nella sequenza dei frame, discontinuità nei metadati tecnici.
  • Analisi visiva esperta: valutazione di elementi che i sistemi automatici non sempre colgono — comportamenti fisicamente impossibili, incoerenze di illuminazione persistenti, artefatti localizzati.
  • Confronto con campioni di riferimento: quando disponibili, video dello stesso soggetto o dello stesso dispositivo possono essere usati per confronti tecnici.
  • Analisi PRNU: nei casi in cui sia disponibile il dispositivo originale o campioni di riferimento, il confronto delle impronte del sensore può fornire indicazioni sull’origine del file.
  • Contestualizzazione: la valutazione tecnica viene sempre accompagnata da una dichiarazione chiara dei limiti dell’analisi e del grado di affidabilità delle conclusioni.

Un esperto forense responsabile non produrrà mai una certezza assoluta dove i dati disponibili non la consentono. Formulerà invece conclusioni come:

  • non sono emerse evidenze tecniche compatibili con manipolazione sintetica
  • il file presenta anomalie strutturali compatibili con una rielaborazione post-produzione
  • l’analisi non consente di escludere né di confermare la presenza di contenuto sintetico
  • il video è coerente con una registrazione naturale da dispositivo mobile

Il cambio di paradigma: dall’autenticazione del falso alla certificazione del vero

La difficoltà crescente nel rilevare i deepfake sta portando la comunità scientifica e forense verso una conclusione importante: il problema non si risolve costruendo detector sempre più sofisticati. Si risolve cambiando prospettiva.

Invece di cercare di dimostrare che un contenuto è falso a posteriori, la strategia più robusta è dimostrare che un contenuto è autentico a priori, nel momento in cui viene creato o acquisito per la prima volta.

Questo approccio si basa su strumenti crittografici consolidati:

  • Hash crittografico: una funzione matematica che produce un’impronta univoca del file. La minima modifica al file produce un hash completamente diverso, rendendo verificabile qualsiasi alterazione successiva.
  • Marcatura temporale certificata: associa l’hash del file a un timestamp emesso da un’autorità di certificazione, dimostrando l’esistenza del file in quella data specifica.
  • Registro verificabile: conserva l’evidenza in modo che possa essere verificata indipendentemente in qualsiasi momento futuro.

Con questi strumenti, la domanda non è più “questo video è un deepfake?” ma “questo video esiste con queste caratteristiche esatte da questa data, ed è rimasto invariato da allora?”. La seconda domanda ha una risposta tecnica verificabile. La prima, sempre meno.

Piattaforme come CertifyWebContent sono progettate specificamente per creare questo tipo di documentazione tecnica certificata su contenuti digitali, inclusi file video.

Le implicazioni pratiche: cosa cambia per chi deve gestire prove digitali

Questo scenario ha conseguenze concrete per chiunque si trovi a dover valutare, produrre o contestare prove video in sede legale.

Per chi raccoglie prove video oggi:

  • non affidarsi ai soli strumenti automatici di rilevazione dei deepfake come base per decisioni legali
  • certificare l’integrità del file nel momento della sua acquisizione, prima che venga usato in qualsiasi contesto
  • conservare il dispositivo originale ogni volta che è possibile
  • documentare la catena di custodia con precisione

Per chi deve contestare un video presentato come prova:

  • richiedere la documentazione della catena di custodia del file
  • richiedere una perizia tecnica indipendente che non si limiti all’output di sistemi automatici
  • valutare se il file ha subito ricodifiche o trasferimenti che ne hanno degradato la qualità tecnica

Domande frequenti

I deepfake possono sempre essere rilevati da un esperto?

No. Con le tecnologie generative di ultima generazione, anche un esperto qualificato può trovarsi di fronte a contenuti per i quali non è possibile esprimere una valutazione conclusiva. In questi casi, la risposta corretta è documentare i limiti dell’analisi, non forzare una conclusione.

Se un detector dice che il video è autentico, posso fidarmi?

Non in modo incondizionato. Un punteggio positivo di un detector automatico indica che il file non presenta gli artefatti che il modello è stato addestrato a riconoscere. Non esclude la presenza di manipolazioni che quel modello non è in grado di rilevare.

I sistemi di rilevazione sono quindi completamente inutili?

No. Restano utili come primo livello di screening, specialmente per deepfake meno sofisticati o generati con tecnologie già note ai modelli di analisi. Il problema è usarli come unica fonte di valutazione o presentarli come prove conclusive.

Perché i generatori evolvono più velocemente dei detector?

Perché il ciclo di sviluppo di un modello generativo è diventato molto più rapido grazie alla disponibilità di infrastrutture cloud e di architetture già pronte da adattare. Costruire un detector affidabile richiede invece la creazione di dataset aggiornati, cicli di addestramento lunghi e validazione rigorosa — tempi strutturalmente più lenti.

Come posso proteggere oggi i miei contenuti video da future contestazioni?

Certificandoli nel momento in cui li acquisisci o li produci, attraverso hash crittografico e marcatura temporale. Questa documentazione permette di dimostrare in qualsiasi momento futuro che il file era esattamente in quella forma in quella data — indipendentemente dall’evoluzione degli strumenti di analisi.

Questo problema riguarda solo i video?

No. Lo stesso ragionamento si applica ad audio sintetici, immagini generate con AI e testi prodotti da modelli linguistici. La difficoltà di rilevazione automatica è trasversale a tutti i tipi di contenuto sintetico, e il paradigma della certificazione preventiva vale per qualsiasi formato digitale.

È importante ricordarsi che …

Informatica in Azienda è diretta dal Dott. Emanuel Celano
Ascolta i nostri articoli mentre sei in macchina, clicca qui per i canali podcast:

Podcast sicurezza informatica : in macchina ascolta gli articoli di allerta pericoli informatici


⬇️ CONDIVIDI QUESTO ARTICOLO CON I TUOI AMICI ⬇️
(se stai utilizzando la APP condividi dalla freccia in alto a destra)

Tags
Che cosa ne pensi?
Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ultime notizie sui deepfake: