I deepfake sono video falsi che vengono realizzati utilizzando l’intelligenza artificiale e che stanno invadendo sempre di più gli spazi online, rendendo ancora più difficile distinguere le notizie vere da quelle false. Ma come funzionano e come è possibile riconoscerli? Gastone Nencini, Country Manager di Trend Micro Italia, analizza il fenomeno e suggerisce tre passaggi su come comportarsi di fronte ai deepfake.

I deepfake sono clip audio e video altamente convincenti che potrebbero letteralmente mettere le parole in bocca a qualcuno che si conosce. Questo è un grosso problema per la società ma anche a livello governativo. In effetti, potremmo trovare video di personaggi influenti o ricevere messaggi vocali difficili da verificare. Se siamo più critici nel valutare quello che vediamo online e comprendiamo il potenziale danno che la condivisione di filmati falsi può generare, insegnando a chi ci circonda a fare lo stesso, tutti possiamo fare la nostra parte per creare un Internet più forte e più sicuro.

I deepfake si chiamano così perché usano il deep learning, un tipo di intelligenza artificiale, per creare clip audio e video contraffatti che sono difficili da distinguere rispetto a quelli reali. Per generare un video deepfake, la tecnologia impara a codificare e decodificare due volti separatamente, ad esempio quello di una persona famosa che parla e quello di un’altra persona che dice qualcosa di completamente diverso e magari controverso.

La tecnologia impara come abbattere e ricostruire il primo volto e fonderlo con il secondo. In questo modo le espressioni facciali della persona originale sembrano imitare quelle della seconda persona. La stessa tecnologia può essere usata per sovrapporre ancora un altro volto sulla persona che viene presa di mira per il deepfake.

La tecnologia non è però ancora perfetta e ciò rende abbastanza facile individuare la maggior parte dei deepfake, ma i progressi sono rapidi. Ad esempio, apportando piccole modifiche all’audio in grado da alterare in modo significativo il messaggio principale di un video. Inoltre, i media hanno dimostrato che i deepfake “base” sono già alla portata della gente comune, senza il bisogno di un investimento finanziario ingente o di un particolare know-how tecnologico.

Questa tecnologia può essere utilizzata in maniera positiva, come nel settore della produzione cinematografica, in cui la ripresa di una scena può essere evitata grazie alla tecnologia deepfake, ma la stessa tecnica è già utilizzata in modo negativo per creare contenuti per adulti che sfruttano i volti di celebrità senza il loro consenso. Considerando questi possibili utilizzi, ci sono grandi preoccupazioni che questa tecnologia possa essere utilizzata regolarmente per far oscillare le elezioni, far crollare i mercati, rovinare le carriere e consentire crimini ancora peggiori.

I colossi tecnologici prendono il problema dei deepfake sul serio. Facebook, YouTube e Twitter hanno recentemente cercato di vietare la distribuzione di questi contenuti, ma resta da vedere quanto bene si possano applicare questi sforzi. Una possibile soluzione potrebbe essere quella di richiedere che i video siano filigranati e firmati digitalmente; questo potrebbe aiutare la persona media a convalidare il produttore del contenuto. La speranza è avere un modo tecnicamente accurato di segnalare i deepfake prima che vengano pubblicati. Fino a quando soluzioni attendibili non saranno attuabili, l’unica risorsa è essere vigili e aiutare gli altri a fare lo stesso.

Quando si visualizza un contenuto di questo tipo online, si può adottare uno schema di risposta che segue questi tre punti:

  • Fermarsi – Non condividere o commentare i video se sembrano in qualche modo sospetti.
  • Domandarsi – Da dove proviene il video? La persona è veramente il personaggio che appare nel video? Perché la persona o l’organizzazione lo condivide online?
  • Segnalare – Ogni volta che si incontra qualcosa di sospetto online, ignorarlo è sempre un’opzione. Ma se si è davvero preoccupati, è opportuno fare una segnalazione al sito o all’app su cui è stato visualizzato