Intelligenza Artificiale e Cybercrime: non solo Deep Fake
L’intelligenza artificiale può essere sfruttata sia come vettore che come superficie di attacco e le minacce che si basano su questa tecnologia si stanno evolvendo, da “semplici” Deep Fake ad attacchi sempre più complessi. Il dato emerge dal report Malicious Uses and Abuses of Artificial Intelligence, realizzato da Europol, United Nations Interregional Crime and Justice Research Institute (UNICRI) e Trend Micro.
“La promessa dell’intelligenza artificiale è quella di una grande efficienza, automazione e autonomia. Nel momento in cui il grande pubblico è sempre più preoccupato sull’utilizzo di questa tecnologia, però, dobbiamo essere completamente trasparenti circa le possibili minacce, non focalizzarci solo sui benefici che ci può portare” ha affermato Edvardas Šileris, Head of Europol’s Cybercrime Centre.
I cybercriminali utilizzano l’intelligenza artificiale sia come vettore, sia come superficie di attacco. I Deep Fake sono al momento l’esempio più famoso dell’utilizzo dell’IA come vettore di attacco, e presto, sempre basate su questa tecnologia, verranno progettate nuove campagne di disinformazione ed estorsione che renderanno necessari nuovi strumenti di screening.
L’intelligenza artificiale, inoltre, potrebbe essere utilizzata per:
- Realizzare attacchi di ingegneria sociale su larga scala
- Progettare malware per il furto di documenti con lo scopo di rendere gli attacchi più efficaci
- Evitare il riconoscimento facciale o biometrico
- Lanciare attacchi ransomware che sfruttano una profilazione intelligente
- Inquinare i dati, identificando falle nelle regole di rilevamento
Lo studio avverte anche che i sistemi di intelligenza artificiale sono sviluppati per migliorare l’efficacia dei malware e per bloccare i sistemi anti-malware o di riconoscimento facciale.
“I cybercriminali sono sempre stati early adopter di tecnologie e l’intelligenza artificiale è una di queste. Come sottolinea lo studio, è già utilizzata per indovinare password, rompere CAPTCHA e clonare le voci, ma altri utilizzi sono in via di definizione” ha affermato Vincenzo Ciancaglini, Senior Threat Researcher di Trend Micro.
Alcune raccomandazioni per approcciarsi al meglio all’intelligenza artificiale emerse dallo studio:
- Utilizzare il potenziale di sistemi di intelligenza artificiale come uno strumento per combattere il crimine e per rendere la cybersecurity e le Forze dell’Ordine a prova di futuro
- Investire nella ricerca per sviluppare tecnologie di difesa
- Promuovere e sviluppare framework di progettazione IA sicuri
- Ridurre la retorica politica dell’utilizzo dell’intelligenza artificiale per scopi di cybersecurity
- Sfruttare partnership pubblico-privato e creare gruppi di lavoro multidisciplinari