- +600%
Deepfake Audio
Si registra un aumento del 600% nell’utilizzo di deepfake audio tra il 2019 e il 2023.
Definizione di Deepfake Audio
Un deepfake audio è una registrazione sonora manipolata tramite tecniche di intelligenza artificiale (IA) per imitare la voce di una persona reale. Questo tipo di deepfake sfrutta reti neurali, come le reti generative avversarie (GAN), e altre tecnologie avanzate di sintesi vocale per creare audio falsi che sembrano autentici
Il processo di creazione di un deepfake audio tipicamente coinvolge la raccolta di ampi campioni della voce target, l’addestramento di un modello AI per replicare le caratteristiche vocali specifiche della persona e infine la generazione di nuove registrazioni sonore che possono essere utilizzate in vari contesti, come messaggi vocali, chiamate telefoniche o contenuti multimediali. L’output può essere usato in modo malevolo per scopi fraudolenti, come truffe, disinformazione o impersonificazione di persone famose.
Questi audio sintetici sono particolarmente insidiosi perché possono ingannare l’ascoltatore facendogli credere che l’audio provenga dalla persona reale, rendendo difficile distinguere tra ciò che è vero e ciò che è manipolato.