Deepfake Audio

Deepfake Audio

Si registra un aumento del 600% nell’utilizzo di deepfake audio tra il 2019 e il 2023.

deepfake audio
Definizione di Deepfake Audio

Un deepfake audio è una registrazione sonora manipolata tramite tecniche di intelligenza artificiale (IA) per imitare la voce di una persona reale. Questo tipo di deepfake sfrutta reti neurali, come le reti generative avversarie (GAN), e altre tecnologie avanzate di sintesi vocale per creare audio falsi che sembrano autentici​

Il processo di creazione di un deepfake audio tipicamente coinvolge la raccolta di ampi campioni della voce target, l’addestramento di un modello AI per replicare le caratteristiche vocali specifiche della persona e infine la generazione di nuove registrazioni sonore che possono essere utilizzate in vari contesti, come messaggi vocali, chiamate telefoniche o contenuti multimediali. L’output può essere usato in modo malevolo per scopi fraudolenti, come truffe, disinformazione o impersonificazione di persone famose.

Questi audio sintetici sono particolarmente insidiosi perché possono ingannare l’ascoltatore facendogli credere che l’audio provenga dalla persona reale, rendendo difficile distinguere tra ciò che è vero e ciò che è manipolato.

Altre tipologie di Deepfake:

falso illegale : difenditi dai deepfake

Richiedi una Valutazione

blank