I deepfake generati dall’IA mettono in crisi le soluzioni di sicurezza biometrica
Secondo Gartner, entro il 2026 gli attacchi che utilizzano deepfake generati dall’IA faranno sì che il 30% delle aziende non considererà più affidabili le soluzioni di verifica dell’identità e di autenticazione biometrica
“Nell’ultimo decennio si sono verificati diverse innovazioni nel campo dell’IA che consentono la creazione di immagini generate artificialmente con volti reali di persone (i cosiddetti deepfakes). Queste immagini possono essere utilizzate da soggetti malintenzionati per compromettere l’autenticazione biometrica o renderla inefficiente” ha dichiarato Akif Khan, VP Analyst di Gartner.
“Di conseguenza, le organizzazioni potrebbero iniziare a mettere in dubbio l’affidabilità delle soluzioni di verifica dell’identità e di autenticazione, in quanto non saranno in grado di capire se il volto della persona da verificare è una persona in carne e ossa o un deepfake”.
I processi di verifica dell’identità e di autenticazione che utilizzano la biometria facciale oggi si basano sulla Presentation Attack Detection (PAD) per valutare l’entità dell’utente. “Gli attuali standard e processi di test per definire e valutare i meccanismi PAD non coprono gli attacchi che utilizzano i deepfake generati dall’intelligenza artificiale”, continua Khan. La prevenzione di questi attacchi richiederà una combinazione di PAD, rilevamento degli attacchi a iniezione (IAD) e ispezione delle immagini.
Per aiutare le organizzazioni a proteggersi dai deepfake generati dall’intelligenza artificiale, al di là della biometria facciale, i CISO e i responsabili della gestione del rischio devono scegliere fornitori che offrano soluzioni che vadano oltre gli standard attuali e che stiano monitorando, classificando e quantificando questi nuovi tipi di attacchi.
“Le organizzazioni dovrebbero iniziare a definire una linea di base minima di controlli collaborando con fornitori che hanno investito specificamente nella mitigazione delle più recenti minacce basate su deepfake utilizzando IAD e ispezione delle immagini”, conclude Khan.
Una volta definita la strategia e fissata la linea di base, per aumentare le possibilità di rilevare gli attacchi ai processi di verifica dell’identità, i CISO e i responsabili della gestione del rischio devono includere ulteriori segnali di rischio e di riconoscimento, come l’identificazione dei dispositivi e l’analisi comportamentale.