Articolo 11 della Carta dei diritti fondamentali dell'Unione europea, che riprende parte dell'articolo 10 della Convenzione europea dei diritti dell'uomo, tutela il diritto dei cittadini europei a “avere opinioni e a ricevere e diffondere informazioni e idee senza interferenze da parte dell’autorità pubblica e senza riguardo alle frontiere”, e afferma che “la libertà e il pluralismo dei media devono essere rispettati”. Purtroppo, il destino della libertà di espressione in Europa è ora in bilico, poiché l’Unione Europea ha appena promulgato una legge che autorizza la Commissione a limitare in modo significativo la capacità dei cittadini di utilizzare le piattaforme digitali per impegnarsi in un discorso democratico forte e sincero. .
Ai sensi della normativa recentemente emanata Legge sui servizi digitali, la Commissione Europea potrebbe esercitare pressioni significative sulle piattaforme digitali per frenare “incitamento all’odio”, “disinformazione” e minacce al “discorso civico”, che costituiscono tutte categorie notoriamente vaghe e sfuggenti, categorie che sono state storicamente cooptate per rafforzare la narrazione della classe dirigente. Dando alla Commissione Europea ampi poteri discrezionali per supervisionare le politiche di moderazione dei contenuti Big Tech, questo atto legislativo tiene la libertà di parola in ostaggio delle inclinazioni ideologiche dei funzionari europei non eletti e dei loro eserciti di “segnalatori fidati”.
Scopo della legge sui servizi digitali
Lo scopo dichiarato del Legge sui servizi digitali (DSA) appena entrato in vigore in Europa è quello di garantire una maggiore “armonizzazione” delle condizioni che riguardano la fornitura dei servizi digitali “intermediari”, in particolare delle piattaforme online che ospitano contenuti condivisi dai propri clienti. La legge copre una sconcertante serie di questioni, dalla protezione dei consumatori e la regolamentazione degli algoritmi pubblicitari alla pornografia infantile e alla moderazione dei contenuti. Tra gli altri scopi che appaiono nella formulazione della legge, troviamo la promozione di “un ambiente online sicuro, prevedibile e affidabile”, la protezione della libertà di espressione dei cittadini e l’armonizzazione delle normative UE che riguardano le piattaforme digitali online, che attualmente dipendono dalle leggi dei singoli Stati membri.
I DSA non sono così innocenti come sembrano
Ad uno sguardo superficiale, il Legge sui servizi digitali (DSA) potrebbe sembrare piuttosto innocuo. Pone requisiti abbastanza formali su “piattaforme online molto grandi” come Google, Twitter/X, Facebook e TikTok di avere procedure di ricorso chiare e di essere trasparenti sulla regolamentazione dei contenuti dannosi e illegali. Ad esempio, la sezione 45 della legge prevede che i fornitori di servizi digitali online ("servizi di intermediazione") tengano informati i clienti sui termini e condizioni e sulle politiche aziendali:
I fornitori di servizi di intermediazione dovrebbero indicare chiaramente e mantenere aggiornate nei loro termini e condizioni le informazioni relative ai motivi in base ai quali possono limitare la fornitura dei loro servizi. In particolare, dovrebbero includere informazioni su eventuali politiche, procedure, misure e strumenti utilizzati ai fini della moderazione dei contenuti, compreso il processo decisionale algoritmico e la revisione umana, nonché le regole procedurali del loro sistema interno di gestione dei reclami. Dovrebbero inoltre fornire informazioni facilmente accessibili sul diritto di interrompere l'utilizzo del servizio.
Ma se si inizia ad approfondire la legge, si scopre ben presto che è velenosa per la libertà di parola e non è nello spirito di Articolo 11 della Carta dei diritti fondamentali dell’Unione europea, che garantisce ai cittadini la “libertà di esprimere opinioni e di ricevere e diffondere informazioni e idee senza ingerenza da parte dell’autorità pubblica e senza riguardo alle frontiere”. Di seguito, descrivo in dettaglio alcuni aspetti della legge che, presi nel loro insieme, rappresentano una minaccia senza precedenti alla libertà di parola in Europa:
1. Il DSA (Legge sui servizi digitali) crea entità chiamate "segnalatori attendibili" per segnalare i "contenuti illegali" che identificano su grandi piattaforme online. La legge impone alle piattaforme online di rispondere tempestivamente alle segnalazioni di contenuti illegali fornite da questi "segnalatori attendibili" nominati dai "coordinatori dei servizi digitali" nominati dagli Stati membri. La legge impone alle grandi piattaforme online di “adottare le misure necessarie per garantire che le segnalazioni presentate dai segnalatori attendibili, che agiscono nell’ambito della loro area di competenza designata, attraverso i meccanismi di notifica e azione richiesti dal presente regolamento vengono trattati con priorità. "
2. A rigor di termini, mentre le piattaforme digitali sono tenute a rispondere alle segnalazioni di contenuti illegali inviate da “segnalatori attendibili”, risulta dalla formulazione della legge che le piattaforme hanno facoltà di decidere come esattamente agire in base a tali segnalazioni. Potrebbero, ad esempio, non essere d'accordo con l'opinione legale di un "segnalatore attendibile" e decidere di non rimuovere i contenuti segnalati. Tuttavia, dovranno affrontare controlli periodici sulla conformità delle loro azioni alla legge da parte di revisori che lavorano per conto della Commissione Europea, e queste revisioni difficilmente guarderanno favorevolmente a un modello di inazione di fronte a contenuti segnalati.
3. Il Digital Services Act richiede inoltre che “piattaforme online molto grandi” (piattaforme come Google, YouTube, Facebook e Twitter) intraprendano valutazioni periodiche di “attenuazione del rischio”, in cui affrontano i “rischi sistemici” associati alle loro piattaforme, inclusi ma non limitato alla pornografia infantile, alla “violenza di genere” (qualunque cosa significhi), alla “disinformazione” sulla salute pubblica e agli “effetti negativi effettivi o prevedibili sui processi democratici, sul discorso civico e sui processi elettorali, nonché sulla sicurezza pubblica”. Le piattaforme hanno obblighi di “due diligence” ai sensi della legge per adottare misure adeguate per gestire questi rischi. A differenza di un codice di condotta volontario, la rinuncia non è un’opzione e il mancato rispetto di questi obblighi di “due diligence” sarà soggetto a pesanti sanzioni.
4. Le sanzioni previste per il mancato rispetto della legge sono notevoli. La Commissione, se ritiene che una grande piattaforma online come X/Twitter non sia stata conforme alla DSA, può sanzionare tale piattaforma fino al 6% del suo fatturato globale annuo. Poiché il concetto di non conformità è difficile da quantificare e piuttosto vago (cosa è richiesto esattamente per soddisfare gli “obblighi di due diligence” della gestione del rischio sistemico?), sembra probabile che le aziende che desiderano evitare grattacapi legali e finanziari preferirebbero peccare per eccesso di cautela e dare spettacolo di “conformità” per evitare di essere multati.
5. Gli audit periodici previsti dalla presente legge serviranno come strumento per la Commissione per fare pressione sulle grandi piattaforme online affinché agiscano per “gestire” i “rischi” della disinformazione e delle minacce al “discorso civico e ai processi elettorali”, rischi notoriamente vaghe e probabilmente impossibili da definire in modo politicamente imparziale. La minaccia in agguato sullo sfondo di questi audit e delle “raccomandazioni” ad essi associate è che la Commissione possa imporre multe multimiliardarie alle piattaforme online per la non conformità. A causa del concetto piuttosto vago di mancato rispetto degli “obblighi di dovuta diligenza” e della natura discrezionale delle sanzioni finanziarie previste dalla DSA, questa legge creerà un’atmosfera di incertezza giuridica sia per le piattaforme online e per i loro utenti. Incentiva fortemente le piattaforme online a controllare i discorsi in un modo che soddisfi la Commissione Europea, attorno a categorie vaghe come “disinformazione” e “incitamento all’odio”, e questo avrà ovviamente ripercussioni per gli utenti finali.
6. Secondo la Commissione europea, “i reati e i discorsi motivati dall’odio sono illegali secondo il diritto dell’UE. La decisione quadro del 2008 sulla lotta contro alcune forme di espressione di razzismo e xenofobia richiede la criminalizzazione dell’incitamento pubblico alla violenza o all’odio basato sulla razza, sul colore, sulla religione, sulla discendenza o sull’origine nazionale o etnica”. È importante sottolineare che la Commissione Europea è favorevole all’espansione delle categorie di discorsi d’odio illegali a livello europeo per includere non solo “razza, colore, religione, discendenza o origine nazionale o etnica”, ma anche nuove categorie (presumibilmente, comprese cose come l’identità di genere). Pertanto, l’incitamento all’odio illegale è un “bersaglio in movimento” ed è probabile che diventi sempre più ampio e politicamente significativo col passare del tempo. Secondo la Commissione Europea proprio sito web,
Su 9 dicembre 2021, il La Commissione europea ha adottato una comunicazione il che porta alla decisione del Consiglio di estendere l’attuale elenco dei “crimini dell’UE” di cui all’articolo 83, paragrafo 1, del TFUE ai crimini ispirati dall’odio e all’incitamento all’odio. Se questa decisione del Consiglio venisse adottata, la Commissione europea potrebbe, in una seconda fase, proporre una legislazione secondaria che consenta all’UE di criminalizzare altre forme di incitamento all’odio e crimini generati dall’odio, oltre alle motivazioni razziste o xenofobe.
7. L’aspetto più inquietante dei DSA è l’enorme potere e discrezionalità che mette nelle mani della Commissione Europea – in particolare, una commissione non eletta – per vigilare sul rispetto dei DSA e decidere quando le piattaforme online non sono conformi rispetto ai loro “obblighi di dovuta diligenza” per gestire i rischi il cui significato è notoriamente vago e manipolabile, come l’incitamento all’odio, la disinformazione e il discorso anti-civico. La Commissione europea si sta inoltre conferendo il potere di dichiarare un’emergenza a livello europeo che le consentirebbe di richiedere ulteriori interventi da parte delle piattaforme digitali per contrastare una minaccia pubblica. Non ci sarà certezza giuridica su quando la Commissione europea potrebbe dichiarare una “emergenza”. Né vi è alcuna certezza giuridica su come la Commissione europea e i suoi revisori interpreteranno i “rischi sistemici” come la disinformazione e l’incitamento all’odio, o valuteranno gli sforzi dei fornitori di servizi per mitigare tali rischi, poiché si tratta di poteri discrezionali.
8 Né è chiaro come la Commissione possa intraprendere un audit dei “rischi sistemici” di disinformazione e dei rischi per il discorso civico e i processi elettorali senza prendere una visione particolare di ciò che è vero e falso, dell’informazione salutare e dannosa, ostacolando così il processo democratico. processo attraverso il quale i cittadini valutano da soli tali questioni.
9. Né è chiaro quali controlli ed equilibri saranno in atto per impedire che i DSA diventino un’arma per le cause preferite dalla Commissione Europea, che si tratti della guerra in Ucraina, della diffusione dei vaccini, della politica climatica o di una “guerra al terrorismo”. L’ampio potere di dichiarare un’emergenza pubblica e richiedere alle piattaforme di intraprendere “valutazioni” delle loro politiche in risposta a ciò, combinato con l’ampio potere discrezionale di multare le piattaforme online per “non conformità” con “obblighi di due diligence” intrinsecamente vaghi, danno la Commissione ha molto margine di manovra per spadroneggiare sulle piattaforme online e fare pressione su di loro affinché portino avanti la sua narrativa politica preferita.
10. Un aspetto particolarmente subdolo di questa legge è che la Commissione sta effettivamente rendendo la disinformazione illegale *attraverso una backdoor,* per così dire. Invece di definire chiaramente cosa intendono per “disinformazione” e renderla illegale – cosa che probabilmente causerebbe scalpore – stanno imponendo un requisito di “due dilegence” alle grandi piattaforme online come Twitter e Facebook affinché adottino misure discrezionali contro la disinformazione e per mitigare “ rischi sistemici” sulle loro piattaforme (che includono il rischio di “disinformazione sulla salute pubblica”). Presumibilmente, i controlli periodici sulla conformità di queste società alla legge guarderebbero poco bene alle politiche che applicano a malapena le regole sulla disinformazione.
Quindi l’effetto netto della legge sarebbe quello di esercitare una pressione quasi irresistibile sulle piattaforme di social media affinché giochino al gioco della “contro-disinformazione” in un modo che possa soddisfare i revisori della Commissione, evitando così di essere colpiti con pesanti multe. C’è molta incertezza su quanto rigorosi o lassisti sarebbero tali controlli e su quali tipi di non conformità potrebbero innescare l’applicazione di sanzioni finanziarie. È piuttosto strano che una regolamentazione legale che pretenda di difendere la libertà di parola metta il destino della libertà di parola alla mercé dei giudizi ampiamente discrezionali e intrinsecamente imprevedibili di funzionari non eletti.
L’unica speranza è che questo atto legislativo brutto, complicato e regressivo finisca davanti a un giudice che capisce che la libertà di espressione non significa nulla se tenuta in ostaggio delle opinioni della Commissione europea sulla preparazione alla pandemia, sulla guerra Russia-Ucraina o altro. conta come discorso “offensivo” o “che incita all’odio”.
PS Considerate questa analisi come un tentativo preliminare da parte di qualcuno non specializzato in diritto europeo di affrontare le preoccupanti implicazioni del Digital Services Act per la libertà di parola, sulla base di una prima lettura. Accolgo con favore le correzioni e i commenti degli esperti legali e di coloro che hanno avuto la pazienza di affrontare da soli la legge. Questa è l’interpretazione più dettagliata e rigorosa che ho sviluppato fino ad oggi dei DSA. Include importanti sfumature che non erano incluse nelle mie precedenti interpretazioni e corregge alcune interpretazioni errate: in particolare, le piattaforme non sono legalmente obbligate a rimuovere tutti i contenuti segnalati e le persone che segnalano contenuti illegali vengono definite "segnalatori attendibili", non “fact-checkers”).
Ripubblicato dall'autore substack
Pubblicato sotto a Licenza internazionale Creative Commons Attribution 4.0
Per le ristampe, reimpostare il collegamento canonico all'originale Istituto di arenaria Articolo e Autore.