Immagina di ricevere una videochiamata dal tuo capo, solo per scoprire successivamente che era un deepfake orchestrato da criminali informatici. Questo scenario, una volta relegato alla fantascienza, è ora una minaccia concreta nel nostro panorama digitale in costante evoluzione.
La sicurezza informatica è diventata una delle sfide più pressanti per le aziende nell’era digitale.
Secondo una recente ricerca di Trend Micro, c’è stato un aumento significativo nella disponibilità della tecnologia deepfake e nella sofisticazione degli strumenti di intelligenza artificiale nel mondo sotterraneo del cybercrime. Questo sviluppo apre nuove opportunità di sfruttamento di massa, anche da parte di criminali informatici senza particolari competenze tecniche.
Sono stati individuati diversi nuovi strumenti deepfake nell’underground del cybercrime che promettono di creare video e immagini altamente realistici e privi di imperfezioni.
DeepNude Pro: un servizio criminale che afferma di poter prendere l’immagine di qualsiasi individuo e rielaborarla per mostrarla senza vestiti. Potrebbe essere usato per campagne di sextortion.
Deepfake 3D Pro: genera avatar 3D completamente sintetici con un volto tratto dalla foto di una vittima. L’avatar può essere programmato per seguire un discorso registrato o generato. Questo potrebbe essere utilizzato per ingannare i controlli KYC delle banche o per impersonare celebrità in truffe e campagne di vishing.
Deepfake AI: consente ai criminali di cucire il volto di una vittima su un video compromettente per rovinare la reputazione della vittima e/o usarlo come estorsione. Oppure potrebbe essere usato per diffondere fake news. Supporta solo video preregistrati.
SwapFace: consente ai criminali di falsificare flussi video in tempo reale per attacchi BEC e altre truffe aziendali.
VideoCallSpoofer: simile a SwapFace, può generare un avatar 3D realistico da una foto e fargli seguire in tempo reale il movimento del volto di un attore. Ciò consente lo streaming di deepfake su videoconferenze e truffe simili, fake news e altri inganni.
Oltre ai deepfake, il rapporto ha evidenziato la ricomparsa di servizi criminali LLM, come WormGPT e DarkBERT, ora potenziati con nuove funzionalità. Questi sono pubblicizzati accanto a nuove offerte, come DarkGemini e TorGPT, che offrono capacità multimodali, inclusi servizi di generazione di immagini.
Tuttavia, il rapporto ha anche rivelato che molti dei servizi simili a ChatGPT disponibili nel mondo del crimine informatico non sono altro che semplici “jailbreak-as-a-service”, progettati per aggirare i filtri dei LLM commerciali e fornire risposte non filtrate a richieste dannose.
È anche vero che i criminali informatici hanno generalmente adottato con una certa lentezza l’uso di strumenti di intelligenza artificiale generativa per scopi dannosi. Questo probabilmente perché le tattiche, tecniche e procedure (TTP) attuali sono già abbastanza efficaci senza la necessità di introdurre nuove tecnologie.
Con l’aumento della sofisticazione e della frequenza degli attacchi informatici, le misure di sicurezza tradizionali non sono più sufficienti. Le aziende devono testare proattivamente i propri sistemi e reti per identificare potenziali vulnerabilità e correggerle prima che vengano sfruttate dai malintenzionati. Gli individui dovrebbero essere cauti con le comunicazioni indesiderate e verificare attentamente l’autenticità delle interazioni online.
Per approfondimenti sul sito di Trend Micro[ click qui ]
What do you think?
[…] da : https://falsoillegale.it/ fonte articolo […]
Comments are closed.