Si noti che X, rinominata “piattaforma per la libertà di parola”, fornisce informazioni sugli utenti della piattaforma ai governi degli stati membri dell’UE in relazione non solo ai discorsi illegali (e, sì, la legislazione nazionale nei paesi dell’UE include molti “reati di parola”), ma anche ai discorsi legali considerati “dannosi”.
Questa è la vera innovazione insita nel Digital Services Act (DSA) dell'UE: crea l'obbligo per le piattaforme di adottare misure sotto forma di "moderazione dei contenuti" non solo contro i contenuti illegali, ma anche contro contenuti apparentemente dannosi come la "disinformazione". Si noti che nel periodo coperto dall'ultimo rapporto di X “Rapporto sulla trasparenza” all’UE sui suoi sforzi di “moderazione dei contenuti”, quasi il 90% di tali richieste di informazioni sui fornitori di discorsi apparentemente “illegali o dannosi” provenivano da prima Paese: Germania. Vedere il grafico sottostante.

Si noti che X intraprende anche azioni contro post o account per "discorsi illegali o dannosi" che gli vengono segnalati dagli stati membri dell'UE o dalla Commissione europea. Tale azione può comportare l'eliminazione o il geo-blocco ("trattenimento") di contenuti. Tuttavia, come “opzioni di applicazione” come indicato nel rapporto, può anche comportare varie forme di “filtraggio della visibilità” o limitazione dell’impegno – “in conformità con la nostra filosofia di applicazione della libertà di parola, non di portata”, come afferma il rapporto.
Anche in questo caso, la Germania è in cima alla classifica, avendo presentato il 42% di tutti i report a X su "discorso illegale o dannoso" e quasi il 50% dei report degli stati membri. Vedere il grafico sottostante. La Germania ha presentato quasi il doppio dei report di qualsiasi altro stato membro (la Francia è arrivata seconda a distanza) e oltre dieci volte più report dell'Italia di dimensioni comparabili. La Commissione europea ha presentato circa il 15% dei report.

È anche degno di nota che la Germania abbia presentato di gran lunga la maggior parte dei report sui contenuti che comportano "effetti negativi sul discorso civico o sulle elezioni", un'altra categoria di discorso che chiaramente non è illegale di per sé ma che è considerata abbastanza "dannosa" ai sensi del regime DSA da richiedere la soppressione. (Quindi, mentre il contenuto non è di per sé illegale, sarebbe illegale per le piattaforme ai sensi del DSA non sopprimerlo. Questa ambiguità è al centro del regime di censura del DSA.) La Germania ha presentato ben oltre la metà di tutti questi report e oltre il 60% dei report degli stati membri.
Infine, vale la pena notare che la stragrande maggioranza di queste segnalazioni e le relative "azioni di controllo" riguardano senza dubbio contenuti in lingua inglese. Ciò può essere dedotto dal fatto che quasi il 90% del "team di moderazione dei contenuti" di X è composto da persone di madrelingua inglese. La "lingua principale" di 1,535 dei 1,726 membri del team è l'inglese, come si può vedere nel grafico sottostante.

Ma perché alla Germania o all'UE dovrebbe essere accordata una qualsiasi giurisdizione sul discorso in lingua inglese? Inutile dire che i tedeschi non sono di norma madrelingua inglese e solo l'1.5% della popolazione totale dell'UE ha l'inglese come lingua madre.
In ogni caso, due cose sono molto chiare dal "Transparency Report" di X. Una è che la "piattaforma di libertà di parola" di Elon Musk non è tale e sta di fatto dedicando enormi risorse, sia in termini di censori umani "addestrati" che di programmazione, per conformarsi al regime di censura dell'UE. E l'altra è che la Germania è la campionessa indiscussa della censura online dell'UE, e quindi senza dubbio del mondo.
Sono state intraprese 226,350 "azioni di coercizione" da X in risposta a segnalazioni di stati membri dell'UE o della Commissione UE nel periodo di riferimento che copre poco più di tre mesi. Questo per non parlare delle "azioni di coercizione" intraprese proattivamente da X in conformità con i propri termini di servizio e regole compatibili con DSA.
Per evitare che i lettori abbiano difficoltà a conciliare quanto sopra con la virale baruffa tra Elon Musk e Thierry Breton e i famosi “procedimenti” contro X avviati sotto la guida di Breton, si prega di leggere l’utile resoconto di Jordi Calvet-Bademunt sui “risultati preliminari” dell’indagine della Commissione UE. qui.
Secondo un nuovo rapporto Bloomberg, i funzionari dell'UE stanno persino pensando di prendere in considerazione i ricavi di alcune delle altre aziende di Musk nel calcolo di una potenziale multa nei suoi confronti. Inutile dire che, nonostante il fatto che le fonti siano anonime, questo è stato ampiamente interpretato come un'ulteriore escalation in una gigantesca lotta per la libertà di parola tra Musk e l'UE.
Ma come dimostra l'analisi di Calvet-Bademunt, il caso dell'UE contro X, così com'è ora, non ha nulla a che fare con un'insufficiente "moderazione dei contenuti" - o, in altre parole, censura - ma riguarda semplicemente altri aspetti più oscuri del DSA.
È interessante notare che il procedimento originale avviato contro X prevedeva effettivamente la “moderazione dei contenuti” e – che ci crediate o no – avrebbe potuto persino avere un impatto positivo sulla libertà di parola, dal momento che X era apparentemente sotto inchiesta. non è un per non aver rimosso o soppresso i contenuti dell'utente, ma piuttosto per non aver informare gli utenti su tali "decisioni di moderazione dei contenuti" o, in altre parole, shadowbanning. Ma, come mostra Calvet-Bademunt, questo aspetto è stato escluso dall'indagine.
Il fatto è che nessuna piattaforma online di qualsiasi dimensione può rimanere sul mercato dell’UE ed essere una “piattaforma di libertà di parola”. Il DSA rende ciò impossibile.
Pubblicato sotto a Licenza internazionale Creative Commons Attribution 4.0
Per le ristampe, reimpostare il collegamento canonico all'originale Istituto di arenaria Articolo e Autore.