Il Garante ha fatto a OpenAI una richiesta impossibile da soddisfare. ChatGPT&Co diranno addio all’Italia?
Il Garante per la Privacy ha pubblicato la lista di richieste che ha sottoposto a OpenAI, ponendo un ultimatum al 30 aprile: solo adempiendo alle disposizioni, OpenAI potrà ottenere la sospensione del provvedimento di limitazione provvisoria all’uso dei dati di persone residenti sul territorio italiano.
Ragionare sulle date è però perfettamente inutile, perché una delle richieste fatte dal garante è totalmente impossibile da soddisfare. Accanto a ragionevoli rilievi sull’informativa, il consenso e la motivazione giuridica del trattamento (e a uno meno ragionevole sulla limitazione d’uso ai soli maggiorenni, materia su cui il Garante non ha alcuna competenza) l’Autorità Italiana ha imposto a OpenAi di mettere a disposizione degli interessati, siano essi utenti del servizio o meno, degli strumenti per richiedere la rettifica dei dati personali che li riguardano generati in modo inesatto dal servizio o la cancellazione degli stessi.
Il problema è che dati e informazioni personali errate non sono affatto presenti nel modello addestrato, che contiene solo dei parametri che determinano la probabilità che una parola venga generata dopo quella precedente, e non è quindi possibile correggerli. L’eliminazione di riferimenti a persone dai dati di training richiederebbe poi a OpenAI di riaddestrare nuovamente il modello: un’operazione che richiede settimane di elaborazione e milioni di euro spesi in risorse di calcolo. Questo per ogni singola richiesta da parte di un cittadino italiano.
E anche così facendo, non è possibile escludere che il modello combini le informazioni di due omonimi, o abbinando nome e cognome di persone diverse, generi comunque una frase che possa suscitare una richiesta di rimozione da parte di un qualsiasi Mario Rossi.
Avevo anticipato il problema in questo articolo, insieme all’’unica soluzione possibile: specificare in ogni risposta che tutte le informazioni generate su fatti o persone realmente esistenti non sono attendibili, perché un modello linguistico non è un archivio di contenuti né un motore di ricerca. È uno strumento per lavorare con i testi in modo rivoluzionario ed estremamente efficiente.
Tanto varrebbe a questo punto che il Garante imponga a Microsoft di rettificare o cancellare informazioni personali scritte dagli utenti di Word nei loro documenti
Tanto varrebbe a questo punto che il Garante imponga a Microsoft di rettificare o cancellare qualsiasi informazione personale mai scritta in un documento Word da uno qualsiasi dei suoi utenti.
Inoltre, a rigore, quando un modello linguistico interagisce con l’utente, non sta “pubblicando” quelle informazioni, ma le sta comunicando a una persona sola. È l’utente quindi a doversi fare carico delle responsabilità inerenti gli eventuali trattamenti successivi, sempre che la conversazione non inizi e finisca in quella sessione di chat.
Che il Garante non l’abbia ancora capito, o che scelga di ignorare questo fatto, è una cosa che francamente fa cadere le braccia, perché può avere come unica conseguenza il tagliare fuori l’Italia dall’innovazione tecnologica più importante dell’ultimo decennio almeno, provocando un danno enorme alla produttività di individui e imprese.
Che il Garante non l’abbia ancora capito, o che scelga di ignorare questo fatto, è una cosa che francamente fa cadere le braccia
Anche perché, nonostante il provvedimento sia indirizzato a OpenAI, il nodo dell’accuratezza delle informazioni riguarda tutti i modelli di IA generativa, erogati in qualsiasi forma: non solo ChatGPT, ma le sue API, Bard di Google, Copilot di Microsoft, Firefly di Adobe, i generatori di immagini e decine di software che stanno integrando questa tecnologia nelle loro interfacce. Tutti soffrono di questo problema.
Addio quindi alla spinta di produttività che può aiutare le nostre imprese, e addio anche a un potenziale indotto di software house e system integrator locali.
Le intelligenze artificiali generative sono nate in assenza di leggi nazionali e internazionali che ne regolino alcuni aspetti critici, come spesso accade con le tecnologie emergenti. È opportuno che i paesi stabiliscano al più presto dei criteri per l’acquisizione dei dati di addestramento, principalmente in materia di copyright, e che si imponga alle aziende di IA di chiarire il grande equivoco di fondo: i modelli linguistici non sono un consulente esperto in ogni materia, ma uno stagista volenteroso che assembla parole che non comprende, attingendo da un archivio sterminato.
Ogni tentativo di pretendere accuratezza fattuale da uno dei diversi large language model disponibili al momento, non può che avere come risposta una sonora risata, seguita da un pianto a dirotto.