CONDIVIDI | STAMPA | E-MAIL
La maggioranza repubblicana della Commissione Giustizia della Camera dei Rappresentanti degli Stati Uniti ha appena pubblicato un voluminoso “rapporto provvisorio del personale(3 febbraio), presentando prove documentali di una censura digitale di vasta portata condotta da piattaforme online sotto la supervisione della Commissione Europea. Il rapporto, intitolato “La minaccia della censura estera, parte II: la campagna decennale dell'Europa per censurare Internet a livello globale…”, è una lettura che fa riflettere, corroborando i peggiori timori dei critici del Digital Services Act (DSA). Vale la pena sottolineare che il regime di censura abilitato dal DSA dovrebbe preoccupare non solo gli europei, ma anche non europei, poiché il loro effetto pratico, date le sfide tecniche e i costi economici dell'istituzione di regimi di moderazione specifici per regione, è quello di limitare la libertà di parola in tutto il mondo e non solo in Europa.
La DSA ha aperto la strada alla censura arbitraria
In questo blog, ho avvertito il 5 settembre 2023, poco dopo che il Digital Services Act (DSA) era stato applicato alle "piattaforme online di grandissime dimensioni" (VLOP), che "l'effetto netto della legge sarebbe stato quello di esercitare una pressione quasi irresistibile sulle piattaforme dei social media affinché giocassero al gioco della "contro-disinformazione" in un modo che sarebbe stato approvato dai revisori dei conti della Commissione, evitando così di essere colpiti da pesanti multe". E così, secondo questo rapporto, è successo.
Non abbiamo bisogno di leggere il rapporto provvisorio della Commissione Giustizia della Camera per capire che la formulazione della Legge sui servizi digitali conferisce un enorme potere discrezionale alla Commissione Europea nel supervisionare le politiche di moderazione dei contenuti delle piattaforme. La legge, infatti, impone alle piattaforme online onerosi "obblighi di due diligence" per "mitigare" "rischi sistemici" vagamente definiti, inclusi i rischi legati alla "disinformazione" e gli impatti sul "discorso civico" e sui processi elettorali.
La legge di per sé lascia ampio margine di interpretazione su come la Commissione europea e i suoi revisori valuteranno i "rischi sistemici" come la disinformazione, le minacce al "discorso civico" e l'incitamento all'odio, e su come valuteranno l'adeguatezza degli sforzi di mitigazione dei fornitori di servizi. Questa ambiguità conferisce agli enti preposti all'applicazione della legge un'ampia discrezionalità nell'interpretarla come ritengono opportuno. La Commissione ha poteri investigativi e di controllo ai sensi del DSA, inclusa la possibilità di imporre sanzioni fino al 6% del fatturato annuo globale di una piattaforma in caso di inosservanza.
Il rapporto di 160 pagine sostiene in modo convincente che il Digital Services Act rappresenta di fatto il culmine di una campagna decennale volta a conferire alla Commissione europea un potere sempre maggiore sulle politiche di moderazione dei contenuti delle piattaforme online. I numerosi colpi di scena di questa campagna, che include precedenti Codici di condotta "volontari" coordinati dalle istituzioni dell'UE, sono delineati nel documento. rapporto.
In questa sede, propongo di concentrarmi esclusivamente su quelli che il rapporto presenta come alcuni degli amari frutti del Digital Services Act, ovvero le azioni di censura condotte nell'ambito dei suoi meccanismi di controllo. Il rapporto si concentra prevalentemente sulle interazioni tra la Commissione Europea e TikTok e, supponendo che i documenti a supporto possano essere autenticati, ci offre uno sguardo inquietante su un regime di censura profondamente radicato e del tutto oscuro al cittadino medio. Questa è solo la punta dell'iceberg. Non si può dire cos'altro potrebbe essere scoperto se un investigatore avesse accesso a prove simili su altre piattaforme come Meta, YouTube e LinkedIn.
Come funziona in pratica la supervisione DSA
I meccanismi di controllo da parte dei funzionari dell'UE sulle politiche di moderazione delle piattaforme, come delineato nel rapporto, condividono uno schema comune: la Commissione europea stessa, o le autorità di regolamentazione nazionali designate ai sensi del DSA (noti come "Coordinatori dei servizi digitali" in ogni Stato membro), interrogano le piattaforme sulle loro misure di "mitigazione del rischio" relative a una particolare questione (ad esempio vaccini, disinformazione elettorale, incitamento all'odio o guerra in Ucraina), sia tramite comunicazioni scritte che di persona, e richiedono la documentazione che descriva dettagliatamente le misure adottate o da adottare. Le piattaforme presentano quindi relazioni che descrivono i loro sforzi di conformità e i piani per migliorare le loro strategie di mitigazione del rischio, dopodiché la Commissione può fornire un feedback o richiedere misure aggiuntive. Il rapporto della Commissione Giustizia della Camera dei Rappresentanti definisce plausibilmente molti di questi scambi come pressioni sulle piattaforme affinché espandano gli sforzi di moderazione al fine di evitare potenziali sanzioni.

Linee guida elettorali 2024
Ma non è solo un'espansione generica del volume di moderazione ad essere in gioco in questo rapporto: è anche un'influenza unilaterale sul tenore politico e ideologico delle regole di moderazione. Dopotutto, la Commissione sta tenendo una "scheda di valutazione" sulle politiche di moderazione delle Big Tech, facendo affidamento in parte sul proprio esercito di "segnalatori attendibili”, spesso tratto da ONG di sinistra, e non è di per sé ideologicamente o politicamente neutrale. Non dovrebbe quindi sorprendere che l'esito di tale processo sia la restrizione di contenuti fortemente critici nei confronti della politica progressista-di sinistra/tecnocratica e degli impegni ideologici della Commissione Europea.
Un esempio è il Linee guida elettorali Pubblicata dalla Commissione Europea nell'aprile 2024, prima delle elezioni del Parlamento Europeo, esorta le piattaforme ad "aggiornare le loro misure di mitigazione del rischio, ridurre l'importanza della disinformazione (inclusa la "disinformazione di genere"), collaborare con i fact-checker e sviluppare misure volte a rafforzare la resilienza contro le narrazioni di "disinformazione". La Commissione ha invitato Apple, Google, LinkedIn, Meta, Microsoft, Pinterest, Snapchat, Wikimedia, X e YouTube a una "tavola rotonda sulla preparazione elettorale" e ha ricordato loro che "sta monitorando attivamente il rispetto" degli obblighi elettorali previsti dal DSA e che "adotterà misure di contrasto relative alle elezioni".

Migliori Linee guida elettorali Non facevano parte del Digital Services Act, né costituivano una legge vincolante. Anzi, erano pubblicamente formulate come linee guida e raccomandazioni piuttosto che come obblighi giuridicamente vincolanti. Tuttavia, il rapporto provvisorio della Camera dei Rappresentanti sostiene che "a porte chiuse", durante una tavola rotonda del Meta sulle Linee Guida Elettorali del DSA tenutasi il 1° marzo 2024, Prabhat Agarwal, identificato nel rapporto come un alto funzionario coinvolto nell'applicazione del DSA, abbia descritto le Linee Guida come una "base" per la conformità al DSA, affermando che se le piattaforme si fossero discostate da esse, avrebbero dovuto "adottare misure alternative equivalenti o migliori". Per quanto strana possa sembrare, tale affermazione è coerente con la nozione del DSA di un "obbligo di due diligence" da parte delle grandi piattaforme digitali per adottare misure ragionevoli per mitigare i rischi per la piattaforma. Se l'esecutore di un obbligo vago offre un modo infallibile per soddisfarlo, anche se presentato come una "linea guida", la "linea guida" diventa un modo allettante per evitare di essere sanzionati.

Prova di conformità della piattaforma: il caso di TikTok
Le piattaforme hanno rispettato le linee guida della Commissione per le elezioni del 2024? Sulla base delle comunicazioni interne alle piattaforme e degli scambi tra piattaforme e funzionari dell'UE, riprodotti o riassunti nella relazione, sembra che almeno alcuni Le piattaforme hanno adattato le loro politiche in risposta a questa iniziativa. In particolare, la relazione della commissione afferma che TikTok ha informato la Commissione Europea di aver rimosso o limitato oltre 45,000 contenuti identificati come "disinformazione", inclusi discorsi politici su argomenti come migrazione, cambiamenti climatici, sicurezza e difesa e diritti LGBTQ, in vista delle elezioni europee del 2024.

Un riepilogo esecutivo dell'aggiornamento delle Linee guida della community di TikTok del 20 marzo 2024, citato nel rapporto, menziona "aggiornamenti" alle linee guida della community di TikTok, "principalmente legati alla conformità al Digital Services Act", che includono policy volte a "marginalizzare discorsi e comportamenti", "disinformazione che mina la fiducia nell'integrità del processo democratico" e "travisare informazioni autorevoli, come i dati scientifici". Lo scopo principale di queste modifiche, per ammissione della stessa TikTok, era quello di conformarsi al DSA. Non si tratta di modifiche alle policy determinate da criteri indipendenti.

Ora, è abbastanza ovvio se si pensa alle nuove politiche di TikTok lanciate nel 2024 per garantire la conformità al DSA che possono significare essenzialmente qualsiasi cosa tu volere Che cosa intendono dire. Ad esempio, il discorso politico è intrinsecamente conflittuale, quindi quasi ogni osservazione ostile potrebbe essere percepita come una "marginalizzazione del discorso e del comportamento". Allo stesso modo, se qualcuno muove una critica in buona fede all'"integrità del processo democratico", sta forse "minando la fiducia" in esso? E che dire della "travisazione" delle "informazioni autorevoli"? La scienza può funzionare solo se le cosiddette affermazioni scientifiche "autorevoli" non sono artificialmente protette da critiche incisive.
Pressione normativa sottile ma reale
È vero che il contorni specifici del regime di censura di TikTok non erano imposto direttamente dalla Commissione Europea. In genere, la Commissione non ha il compito di ordinare la rimozione di post specifici. Tuttavia, è evidente che sono stati redatti sotto la pressione del regime normativo DSA e dei suoi enti di controllo. TikTok, nello sviluppo di misure per "mitigare il rischio" in vista della conformità al DSA, ha dovuto in qualche modo anticipare le opinioni delle autorità di regolamentazione in merito a rischi vagamente definiti come "incitamento all'odio", "disinformazione" e danni al "discorso civico".
Ora, potreste chiedervi: se queste categorie di rischio sono definite in modo così vago, come ha fatto TikTok a personalizzare le sue politiche per essere accettata dalle autorità di regolamentazione dell'UE? La risposta non è complicata. Quando ci sono centinaia di milioni di dollari in gioco (sanzioni fino al 6% del fatturato globale annuo di una piattaforma), un'azienda intelligente e ben dotata di risorse si impegnerebbe a "leggere tra le righe" e a comprendere le inclinazioni politiche e ideologiche delle autorità di regolamentazione dell'UE. Potrebbero fare un'ipotesi plausibile su quale tipo di censura fosse musica per le orecchie della Commissione.
Ad esempio, la Commissione si è costantemente schierata dalla parte dell'industria dei vaccini e degli organismi sanitari ufficiali come l'OMS. La Commissione rappresenta una prospettiva ampiamente progressista di sinistra su genere, incitamento all'odio e questioni ambientali. Allo stesso modo, è ovvio che la Commissione sia interessata a reprimere la propaganda di guerra filo-russa. Quindi, anche se il DSA non include un elenco esaustivo di argomenti che potrebbero essere presi di mira dalla censura, la storia delle iniziative legislative della Commissione e le sue precedenti dichiarazioni chiariscono chiaramente quali tipi di cose considerino "rischi sistemici". Queste intuizioni sono senza dubbio affinate negli incontri pubblici e privati con i funzionari dell'UE a cui i dirigenti delle piattaforme vengono regolarmente convocati.
Segnalazione degli account TikTok slovacchi "problematici"
Se il rapporto della Camera fosse accurato, sembrerebbe che i funzionari dell'UE non esitino a intervenire direttamente e a chiedere a una piattaforma di esaminare un account specifico o un insieme di account considerati "problematici". Il rapporto afferma che nel settembre 2023, quattro giorni prima delle elezioni parlamentari slovacche, la Commissione ha inviato a TikTok un foglio di calcolo con elenchi di "account problematici di TikTok slovacco", da esaminare. Il foglio di calcolo conteneva almeno 63 account, con un numero di follower compreso tra 1,000 e 120,000. Secondo il rapporto sulla giustizia della Camera,
Il rapporto riassuntivo post-elettorale di TikTok ha evidenziato che 19 di questi account sono stati bannati in risposta diretta alla richiesta della Commissione, cinque dei quali per "diffusione di odio". Sedici account segnalati dalla Commissione europea presentavano "nessuna violazione o solo una minima violazione", tra cui "account satirici incentrati sulla politica". Altri account sono stati inseriti nella "lista di controllo" di TikTok.
Stallo tra la Commissione UE e X
C'è un gigante dei social media che ha clamorosamente sfidato le ambizioni normative della Commissione Europea. Nel maggio 2023, X si è ritirato dal codice "volontario" di disinformazione che ha preceduto il DSA e, a quanto pare, non sta istituendo il tipo di politiche di moderazione che la Commissione ha richiesto nell'ambito del regime DSA. Di conseguenza, la Commissione ha X nel mirino. Ha imposto una pesante multa di 120 milioni di euro a X per inosservanza della legge, sebbene curiosamente basata su reati apparentemente rari come il mancato rispetto del vecchio sistema Blue Check di Twitter o la memorizzazione di informazioni di interesse pubblico nel formato errato. Questa è la prima multa imposta ai sensi del DSA.

Un rapporto sembra corroborare i danni del DSA alla libertà di parola
Ho solo iniziato a grattare la superficie di questo rapporto. Ma spero che il quadro generale sia già abbastanza chiaro: se questo rapporto è accurato – e se le comunicazioni in esso citate sono state correttamente autenticate – allora suggerisce che la DSA sta dando a una cerchia privilegiata di funzionari pubblici il potere di decidere, attraverso elaborati meccanismi di controllo la cui logica è impenetrabile al cittadino medio, quali tipi di informazioni e argomentazioni siano adatti al pubblico e quali non debbano mai raggiungere le orecchie dei cittadini.
In realtà non avevamo bisogno di questo rapporto per renderci conto che le élite politiche "progressiste" dell'Unione Europea stanno costruendo una complessa e articolata macchina di censura alla luce del sole. Questo è già abbastanza chiaro dal testo del rapporto. Legge sui servizi digitali stesso. Tuttavia, finora la nostra conoscenza di questo regime era piuttosto legalistica, basata più sulle implicazioni logiche della formulazione del DSA e sui meccanismi di controllo che esso crea, che su prove concrete della sua applicazione.
Questo rapporto fornisce quella che potrebbe rivelarsi una prova documentale piuttosto schiacciante di una serie di meccanismi attraverso i quali i funzionari dell'UE sembrano aver sfruttato la DSA per fare pressione sulle grandi aziende tecnologiche affinché limitassero in modo significativo la libertà di espressione politica degli europei, pena pesanti sanzioni economiche. Inoltre, a causa delle sfide tecniche e finanziarie legate alla frammentazione delle regole delle piattaforme, queste restrizioni sono state, nella pratica, frequentemente applicate anche al di fuori dell'Europa.
Ora che queste accuse e le relative prove sono state rese pubbliche, la Commissione europea ha il dovere di dare spiegazioni a tutti noi. Finora, il portavoce dell'UE per gli affari digitali, Thomas Reigner, ha appena dichiarato: "Sulle ultime accuse di censura. Pura assurdità. Completamente infondate". Reigner sta forse insinuando che una Commissione Giustizia della Camera degli Stati Uniti abbia fabbricato di sana pianta email e verbali di riunioni tra funzionari dell'UE e gestori di piattaforme digitali?
Attendo con grande interesse una risposta più seria da parte della Commissione europea.
Ripubblicato dall'autore substack
David Thunder è ricercatore e docente presso l'Istituto per la cultura e la società dell'Università di Navarra a Pamplona, in Spagna, e destinatario della prestigiosa borsa di ricerca Ramón y Cajal (2017-2021, prorogata fino al 2023), assegnata dal governo spagnolo a sostegno eccezionali attività di ricerca. Prima della sua nomina all'Università di Navarra, ha ricoperto diversi incarichi di ricerca e insegnamento negli Stati Uniti, tra cui visiting assistant professor presso Bucknell e Villanova, e Postdoctoral Research Fellow presso il James Madison Program della Princeton University. Il dottor Thunder ha conseguito la laurea e il master in filosofia presso l'University College di Dublino e il dottorato di ricerca. in scienze politiche all'Università di Notre Dame.
Leggi tutti i commenti