La Corte suprema ha sentito ieri gli argomenti relativi a un caso incentrato sulla Sezione 23 del Communications Decency Act del 1996, che protegge le piattaforme online da azioni legali relative ai contenuti pubblicati dagli utenti.
Questa protezione potrebbe finire: nel 2016, la famiglia di una studentessa universitaria americana di 23 anni, Nohemi Gonzalez, uccisa durante l’attacco terroristico di Parigi del 2015, ha fatto causa a Google, sostenendo che l’algoritmo di YouTube ha promosso dei contenuti dell’Isis che hanno indirettamente causato morte della figlia.

SECONDO LA SEZIONE 230 i colossi del web non possono essere considerati degli editori, ma dei «diffusori» di notizie, ed è proprio questo l’aspetto contestato dai legali della famiglia della studentessa secondo i quali il sostegno ottenuto dall’Isis arrivava proprio dalla piattaforma di Google.
Per anni i tribunali di grado inferiore hanno sostenuto che Google, essendo protetta dalla Sezione 230, non può essere portata in tribunale, ma ora i giudici costituzionali dovranno esprimersi proprio su questo punto: cancellare o meno tale protezione.

Il giudice conservatore Clarence Thomas ha già affermato che la Corte Suprema dovrebbe ridimensionare le protezioni della legge per le piattaforme tech, e che questo caso potrebbe aiutare a decidere se le aziende tecnologiche, da Reddit a Tinder, sono responsabili per i contenuti o il modo in cui vengono diffusi dai loro algoritmi.
Mentre i critici della legge sostengono che gli algoritmi devono essere tenuti sotto controllo, Google e i suoi sostenitori temono che le modifiche alla Sezione 230 possano indurre le piattaforme a rimuovere dei contenuti per paura di essere citate in giudizio, soffocando la libertà di parola.

IL CASO Gonzalez vs. Google ha quindi il potenziale di rimodellare il modo in cui le piattaforme gestiscono la moderazione dei contenuti. I giudici, sia le tre liberal che i sei conservatori, al momento sembrano scettici riguardo all’argomentazione secondo la quale YouTube dovrebbe essere ritenuta responsabile per il modo in cui il suo algoritmo ha “gestito” i contenuti dell’Isis.
Durante le argomentazioni del caso, che si sono protratte per più di 2 ore, i giudici hanno espresso sia confusione che preoccupazione per la potenziale esposizione delle aziende a un diluvio di azioni legali. I giudici hanno anche esaminato la possibilità di introdurre una distinzione legale tra hosting (il semplice atto di “ospitare” post o video) e amplificazione dei contenuti, e l’eventualità di lasciare che sia il Congresso a dirimere la controversia.
Gli autori della Sezione 230, il senatore democratico Ron Wyden e il repubblicano Chris Cox, hanno spiegato il pensiero alla base della legge in una dichiarazione letta in corte, dove hanno descritto quel passaggio della legge del ’96 come «tecnologicamente neutrale».

LE RACCOMANDAZIONI algoritmiche, hanno aggiunto, sono «dirette discendenti dei primi sforzi di cura dei contenuti che il Congresso aveva in mente quando ha promulgato la Sezione 230». Dunque le piattaforme «possono beneficiare dell’immunità garantita dalla Sezione 230 per ciò che riguarda le raccomandazioni di contenuti o attività di moderazione».
La giudice progressista Ketanji Brown Jackson non è sembrata dello stesso parere quando ha interrogato l’avvocata Lisa Blatt, che rappresenta Google al processo, suggerendo che la legge non avrebbe mai avuto lo scopo di fare scudo alle piattaforme tecnologiche dalle cause legali. Blatt ha contestato le parole di Jackson, affermando che le azioni legali relative alle raccomandazioni rientrano nell’ambito dell’intento degli autori della legge di proteggere i siti web. «Internet non sarebbe mai decollata – ha detto Blatt – se qualcuno avesse potuto fare causa in qualsiasi momento e tutto fosse stato lasciato all’arbitrio di 50 stati».
La decisione definitiva su questo caso non è prevista fino a giugno.