CONDIVIDI | STAMPA | E-MAIL
Si noti che X, la "piattaforma per la libertà di parola", fornisce informazioni sugli utenti della piattaforma ai governi degli Stati membri dell'UE in relazione non solo ai discorsi illegali – e, sì, la legislazione nazionale dei paesi dell'UE include molti "reati di parola" – ma anche ai discorsi legali considerati "dannosi". Questa è stata la vera innovazione del Digital Services Act (DSA) dell'UE: ha creato l'obbligo per le piattaforme di adottare misure di "moderazione dei contenuti" non solo contro i contenuti illegali, ma anche contro i contenuti apparentemente "dannosi" come la "disinformazione".
Si noti che nel periodo coperto dall'ultimo "Rapporto sulla trasparenza" all'UE sui suoi sforzi di "moderazione dei contenuti", quasi il 90% di tali richieste di informazioni sui divulgatori di discorsi apparentemente "illegali o dannosi" proveniva da un solo paese: la Germania. Vedi il grafico sottostante.
Si noti che X interviene anche contro post o account che contengono "discorsi illegali o dannosi" segnalati da "persone o entità" nell'UE. Tali azioni possono comportare la cancellazione o il blocco geografico ("sospensione") dei contenuti. Tuttavia, come indicato nel "opzioni di applicazione" come indicato nel rapporto, può anche comportare varie forme di "filtraggio della visibilità" o di limitazione dell'interazione, "in conformità con la nostra filosofia di applicazione della libertà di parola, non di accesso", come afferma il rapporto.
A differenza di altre piattaforme, la segnalazione di X identifica il Paese di origine di queste denunce. Anche in questo caso, la Germania è in cima alla classifica, con "persone o entità" tedesche che hanno inviato il 42% di tutte le segnalazioni a X su "discorsi illegali o offensivi" e quasi il 50% delle segnalazioni è stato assegnato specificamente agli Stati membri. I dati di X assegnano anche alcune segnalazioni all'UE in quanto tali. Si veda il grafico sottostante. La Germania ha registrato quasi il doppio delle segnalazioni rispetto a qualsiasi altro Stato membro – la Francia si è classificata al secondo posto – e oltre dieci volte più segnalazioni rispetto all'Italia, di dimensioni comparabili. Il 15% delle segnalazioni è stato assegnato all'UE in quanto tale.
È anche degno di nota il fatto che "individui o entità" tedeschi abbiano presentato di gran lunga la maggior parte delle segnalazioni su contenuti che comportano "effetti negativi sul dibattito civico o sulle elezioni", un'altra categoria di discorso che chiaramente non è illegale di per sé, ma che è considerata sufficientemente "dannosa" ai sensi del regime DSA da richiederne la soppressione. (Quindi, sebbene il contenuto non sia di per sé illegale, sarebbe illegale per le piattaforme ai sensi del DSA non sopprimerlo. Questa ambiguità è al centro del regime di censura del DSA). Fonti tedesche hanno presentato ben oltre la metà di tutte queste segnalazioni e oltre il 60% delle segnalazioni assegnate agli Stati membri.
Infine, vale la pena notare, almeno di sfuggita, che la stragrande maggioranza di queste segnalazioni e delle relative "azioni di controllo" riguardano senza dubbio contenuti in lingua inglese. Questo si evince dal fatto che quasi il 90% del "team di moderazione dei contenuti" di X è composto da persone di madrelingua inglese. La "lingua principale" di ben 1535 dei 1726 membri del team è l'inglese, come si può vedere nel grafico sottostante.
Ma perché alla Germania o all'UE dovrebbe essere accordata una qualsiasi giurisdizione sul discorso in lingua inglese? Inutile dire che i tedeschi non sono di norma madrelingua inglese e solo l'1.5% della popolazione totale dell'UE ha l'inglese come lingua madre.
In ogni caso, due cose sono molto chiare dal "Transparency Report" di X. Una è che la "piattaforma di libertà di parola" di Elon Musk non è tale e sta di fatto dedicando enormi risorse, sia in termini di censori umani "addestrati" che di programmazione, per conformarsi al regime di censura dell'UE. E l'altra è che la Germania è la campionessa indiscussa della censura online dell'UE, e quindi senza dubbio del mondo.
Nel periodo di riferimento, che copre poco più di cinque mesi, X ha intrapreso 226,350 "azioni di controllo" sui contenuti segnalati. Questo senza contare le "azioni di controllo" intraprese proattivamente da X in conformità con i propri termini di servizio e le proprie regole compatibili con i DSA.
Per evitare che i lettori abbiano difficoltà a conciliare quanto sopra con la virale baruffa tra Elon Musk e Thierry Breton e i famosi “procedimenti” contro X avviati sotto la guida di Breton, si prega di leggere l’utile resoconto di Jordi Calvet-Bademunt sui “risultati preliminari” dell’indagine della Commissione UE. Qui..
Secondo un nuovo rapporto Bloomberg, i funzionari dell'UE stanno persino pensando di prendere in considerazione i ricavi di alcune delle altre aziende di Musk nel calcolo di una potenziale multa nei suoi confronti. Inutile dire che, nonostante il fatto che le fonti siano anonime, questo è stato ampiamente interpretato come un'ulteriore escalation in una gigantesca lotta per la libertà di parola tra Musk e l'UE.
Ma come dimostra l'analisi di Calvet-Bademunt, il caso dell'UE contro X, così com'è ora, non ha nulla a che fare con un'insufficiente "moderazione dei contenuti" - o, in altre parole, censura - ma riguarda semplicemente altri aspetti più oscuri del DSA.
È interessante notare che il procedimento originale avviato contro X prevedeva effettivamente la “moderazione dei contenuti” e – che ci crediate o no – avrebbe potuto persino avere un impatto positivo sulla libertà di parola, dal momento che X era apparentemente sotto inchiesta. non è un per non aver rimosso o soppresso i contenuti dell'utente, ma piuttosto per non aver informare gli utenti su tali "decisioni di moderazione dei contenuti" o, in altre parole, shadowbanning. Ma, come mostra Calvet-Bademunt, questo aspetto è stato escluso dall'indagine.
Il fatto è che nessuna piattaforma online di qualsiasi dimensione può rimanere sul mercato dell’UE ed essere una “piattaforma di libertà di parola”. Il DSA rende ciò impossibile.
Correzione
La versione originale di questo articolo identificava erroneamente le fonti dei reclami a X per discorsi "illegali o dannosi" come Stati membri dell'UE o la Commissione Europea. Come discusso in precedenza, i dati X citati assegnano le segnalazioni agli Stati membri dell'UE o all'UE in quanto tale, ma le fonti delle segnalazioni non sono i governi in sé, bensì "individui o entità" non identificati. I governi degli Stati membri possono anche segnalare direttamente i contenuti alle piattaforme ai sensi del DSA. Tuttavia, tali ordini di rimozione diretta svolgono un ruolo relativamente secondario.
-
Robert Kogon è lo pseudonimo di un giornalista molto quotato che scrive di affari europei.
Leggi tutti i commenti