Google responsabile dei contenuti su YouTube? Si accende lo scontro legale
La Corte Suprema degli Stati Uniti ha ascoltato ieri le argomentazioni degli avvocati che rappresentano Google, il Dipartimento di Giustizia e la famiglia di una donna di 23 anni uccisa a Parigi dai terroristi nel 2015. Il caso Gonzalez v. Google rappresenta un punto di riferimento giuridico cruciale per quanto riguarda il modo in cui il sistema legale statunitense ritiene le grandi piattaforme tecnologiche come Google responsabili dei contenuti che ospitano e, di conseguenza, anche se il caso si sta dibattendo negli USA, le sue implicazioni sono chiaramente globali.
La famiglia di Nohemi Gonzalez sostiene che Google ha agito come una piattaforma di reclutamento per il gruppo dello Stato Islamico, che il Dipartimento di Stato americano descrive come un’organizzazione terroristica. Raccomandando video legati allo Stato Islamico su YouTube, Google (come sostenuto dalla famiglia Gonzalez) ha violato le leggi statunitensi che vietano di fornire aiuto ai gruppi terroristici.
Google, tuttavia, ha sostenuto di essere legalmente immune da tali cause grazie alla Sezione 230 del Communications Decency Act, che impedisce alle aziende di Internet di essere responsabili per i contenuti generati dagli utenti. L’udienza è stata molto controversa, con i giudici che hanno tempestato di domande gli avvocati di ciascuna parte. L’avvocato di Google, Lisa Blatt, ha sostenuto strenuamente che le raccomandazioni di contenuti generate dagli algoritmi sono coperte dalla Sezione 230 e che l’immunità legale fornita da questa legge è un elemento fondamentale della rete moderna. Senza la Sezione 230, ha detto Blatt, ogni piattaforma di contenuti su internet, da Yelp a Zillow ad Amazon, sarebbe responsabile per ogni singolo contenuto che ospita.
“Esporre i siti web alla responsabilità per aver implicitamente raccomandato un contesto di terze parti sfida il testo della Sezione 230 e minaccia l’internet di oggi”, ha dichiarato Blatt. La difesa di Google è stata ripresa e sostenuta da diverse memorie presentate alla Corte Suprema da grandi aziende tecnologiche, tra cui Microsoft, Twitter e Meta.
L’avvocato della famiglia Gonzalez, il professore di diritto dell’Università di Washington Eric Schnapper, ha invece sostenuto che le raccomandazioni fornite da piattaforme come YouTube sono essenzialmente scelte editoriali. Queste piattaforme avrebbero potuto essere progettate in modo da non far emergere o raccomandare contenuti dannosi o diffamatori, ma così non è stato. La decisione di permettere a YouTube di raccomandare quei contenuti dannosi è stata quindi presa consapevolmente dai fornitori della piattaforma, che dovrebbero quindi essere ritenuti responsabili della loro pubblicazione.
Nel caso Gonzalez e in quello strettamente correlato di Twitter contro Taamneh, la cui udienza è prevista per oggi, la posta in gioco è ovviamente altissima. Qualsiasi sentenza che stabilisca che le grandi aziende tecnologiche sono responsabili dei contenuti che promuovono o raccomandano, anche se in modo automatizzato e algoritmico, potrebbe rappresentare un enorme cambiamento nel modo di operare dei giganti tecnologici. Nel caso Taamneh, la causa intentata dalla famiglia di un cittadino giordano ucciso in un attacco terroristico sostiene che Twitter non è stato sufficientemente aggressivo nel proibire al gruppo dello Stato Islamico di utilizzare la piattaforma. Si tratta di un problema di “favoreggiamento” simile a quello del caso Gonzalez.
La responsabilità per i contenuti generati dagli utenti potrebbe avere una serie di effetti collaterali, da un aumento della sorveglianza e delle restrizioni da parte delle aziende che operano su internet, fino alla semplice invalidazione del modello di business delle aziende che si basano sui contenuti generati dagli utenti per funzionare. I giudici sembrano inoltre preoccupati che qualsiasi modifica alla Sezione 230 possa generare un’ondata di nuove cause contro le grandi aziende tecnologiche. “Ogni volta che hai dei contenuti, hai anche delle scelte di presentazione e di priorità che possono essere oggetto di causa”, ha dichiarato il giudice associato Elena Kagan.
Nella stessa direzione va un’altra audizione tenutasi il giorno successivo, questa volta richiesta dalla famiglia di una vittima di terrorismo, che ritiene che Twitter non abbia fatto abbastanza per bloccare utenti e contenuti legati all’ISIS. La base giuridica in questo caso è differente, perché riguarda i reati di terrorismo, ma la sostanza rimane la responsabilità delle piattaforme e dei provider nei confronti dei contenuti generati dagli utenti.