Meta ha dichiarato che utilizzerà le interazioni degli utenti con la sua IA, nonché i post e i commenti pubblici condivisi sulle sue piattaforme social, per addestrare i suoi modelli di intelligenza artificiale nell’Unione Europea.

Una mossa che arriva un mese dopo il lancio delle funzionalità dell’IA di Meta in Europa, inizialmente annunciato per il giugno 2024 ma ritardato a seguito delle stringenti normative europee (tra GDPR a AI Act) sulla protezione dei dati e della privacy (destino toccato anche ad Apple Intelligence).

I cittadini dell’UE che utilizzano le piattaforme di Meta (quindi Facebook e Instagram) inizieranno a breve a ricevere notifiche che spiegheranno il tipo di dati che l’azienda sfrutterà per addestrare i suoi LLM. Gli utenti riceveranno anche un link a un modulo in cui potranno opporsi all’utilizzo dei loro dati per scopi formativi e, in ogni caso, i messaggi privati e i dati pubblici degli account degli utenti di età inferiore ai 18 anni non saranno utilizzati per il training dell’IA di Meta.

Crediti: Shutterstock

Crediti: Shutterstock

Nonostante queste rassicurazioni, rimangono dei dubbi sull’efficacia di questa forma di opposizione. Cosa succede, ad esempio, quando pubblichiamo un post e qualcun altro lo condivide? Diventa materiale utilizzabile da Meta AI anche se ci siamo opposti alla raccolta dei dati o no?

Meta aveva deciso di sospendere il lancio dei suoi modelli di intelligenza artificiale in Europa lo scorso giugno, dopo che la Commissione irlandese per la protezione dei dati (DPC) aveva chiesto all’azienda di ritardare il suo progetto di training basato sui dati provenienti dai post sui social media. La Big Tech di Mark Zuckerberg ha dovuto affrontare anche il contraccolpo del gruppo di difesa NOYB, che ha esortato gli organi di vigilanza nazionali sulla privacy a bloccare l’uso dei contenuti dei social media.

La stessa X di Elon Musk e Google sono oggetto di indagine da parte dell’autorità irlandese per la tutela della privacy. X sta affrontando un’indagine sull’uso dei dati personali degli utenti dell’UE per addestrare il suo sistema di intelligenza artificiale Grok, mentre il DPC ha aperto un’indagine su Google a settembre per verificare se l’azienda abbia protetto adeguatamente i dati degli utenti prima di utilizzarli per sviluppare il suo modello di intelligenza artificiale.

(Immagine di apertura: Shutterstock)