ChatGPT e cybersecurity: bisogna già preoccuparsi?
L’arrivo di ChatGPT potrebbe cambiare le consolidate regole del mondo della cybersecurity? Una domanda più che lecita visto il crescente successo di questo strumento di intelligenza artificiale. ChatGPT è principalmente un modello di linguaggio IA che crea testi credibili e difficilmente distinguibili da quelli scritti dagli esseri umani. Per questo motivo, come sottolinea Kaspersky in una sua recente analisi, i criminali informatici stanno già cercando di applicare questa tecnologia agli attacchi di spear-phishing.
In precedenza, l’ostacolo principale che impediva loro di condurre campagne di spear-phishing di massa era il costo elevato della scrittura di ciascuna e-mail mirata. ChatGPT ha il potenziale per cambiare drasticamente gli equilibri, perché potrebbe permettere agli attaccanti di generare e-mail di phishing persuasive e personalizzate su scala industriale. Potrebbe persino creare false e-mail convincenti che sembrano inviate da un dipendente all’altro e questo (purtroppo) significa che il numero di attacchi phishing di successo potrebbe aumentare.
Molti utenti hanno già scoperto che ChatGPT è anche in grado di generare codice, compreso quello dannoso. Sarà così possibile creare un semplice infostealer senza alcuna competenza di programmazione, anche se gli utenti più esperti non hanno nulla da temere. Se infatti il codice scritto da un bot viene effettivamente utilizzato, le soluzioni di sicurezza lo rileveranno e lo neutralizzeranno con la stessa rapidità con cui sono stati individuati tutti i precedenti malware creati dall’uomo.
Sebbene alcuni analisti temano che ChatGPT possa addirittura creare un malware personalizzato per ogni vittima, questi modelli mostrerebbero comunque un comportamento dannoso che molto probabilmente verrà rilevato da una soluzione di sicurezza. Inoltre, è probabile che il malware scritto dal bot contenga piccoli errori e difetti logici, il che significa che la piena automazione della codifica del malware deve ancora essere raggiunta.
Nonostante ChatGPT possa essere utile agli attaccanti, anche i difensori possono trarne beneficio. Ad esempio, ChatGPT è già in grado di spiegare rapidamente cosa fa un particolare elemento di codice. Si rivela inoltre utile in ambienti SOC, dove gli analisti, costantemente oberati di lavoro, devono dedicare una quantità minima di tempo a ogni incidente e qualsiasi strumento che acceleri il processo è quindi ben accetto.
“Sebbene ChatGPT non svolga alcuna azione dannosa, potrebbe aiutare gli attaccanti in diverse situazioni, ad esempio scrivendo e-mail di phishing mirate e credibili. Tuttavia, al momento, ChatGPT non è assolutamente in grado di diventare una sorta di IA autonoma per l’hacking. Il codice malevolo generato dalla rete neurale non sarà necessariamente funzionante e richiederà comunque uno specialista esperto per essere migliorato e implementato”, si legge nell’analisi di Kaspersky.
Anche se ChatGPT non avrà un impatto immediato sull’industria e non stravolgerà il mondo della cybersecurity, le future generazioni di IA probabilmente lo faranno. Nei prossimi anni potremmo vedere modelli linguistici di grandi capacità, basati sia sul linguaggio naturale, sia sul codice di programmazione, che vengono adattati a casi d’uso specializzati nella cybersecurity. “Questi cambiamenti potranno influenzare un’ampia gamma di attività di cybersecurity, dalla ricerca delle minacce alla risposta agli incidenti. Pertanto, le aziende di cybersecurity vorranno esplorare le possibilità offerte dai nuovi strumenti, pur essendo consapevoli che questa tecnologia potrebbe aiutare i criminali informatici” ha commentato Vladislav Tushkanov, Security Expert di Kaspersky.