Una sintesi della proposta contenuta nel mio saggio “Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti” (Agenzia X Edizioni, 2021): anziché smembrare Facebook da Instagram, o Google da YouTube, è ora il momento di separare una volta per tutte il potere di dare visibilità da quello di toglierla.
In principio fu il Network Enforcement Act: la legge, meglio conosciuta come “NetzDG”, è stata introdotta in Germania nel 2017 al fine di contrastare la diffusione di contenuti d’odio e razzismo sui social media. Pensata appositamente per le piattaforme digitali più importanti, come Facebook, Twitter, YouTube, TikTok,, essa obbliga queste ultime a rimuovere qualsiasi contenuto razzista o di ’”hate speech” da un minimo di ventiquattr’ore a un massimo di sette giorni dalle richieste inoltrate dagli utenti delle piattaforme stesse.
La NetzDG, quindi, è una legge che costringe i social media a fornire tempi certi di risposta su contenuti particolarmente a rischio quando questi sono segnalati da utenti che vivono in Germania, mentre la stessa cosa non avviene in altri Paesi come l’Italia, dove può capitare di non ricevere alcuna risposta alle segnalazioni anche più gravi (come dimostrato anche da Dario Petrelli in un articolo pubblicato su “Che Fare”). Eppure, come ho ricostruito nel mio libro “Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti”, NetzDg e altri provvedimenti simili non fanno altro che aggravare il problema della moderazione di contenuti online.
I social hanno celebrato anzitempo la propria capacità di rimozione dei contenuti indesiderati, e ora i governi di tutto il mondo chiedono loro uno sforzo ancora maggiore
La NetzDG, contestatissima fin dai suoi esordi, è stata ed è tuttora oggetto di innumerevoli tentativi di imitazione: in Italia, con la proposta di legge per combattere l’odio online presentata dall’ex presidente della Camera Laura Boldrini; in Francia, con la “Loi contre les contenus haineux sur Internet” in gran parte censurata dal Conseil Constitutionel; e perfino in Paesi come la Turchia, il Venezuela, il Vietnam, la Russia, la Bielorussia, il Kenya, Singapore, Malesia, Filippine, Mali, Cambogia e Pakistan, come si legge in un report pubblicato dal think tank danese “Justititia” e intitolato – a scanso di equivoci – “The Digital Berlin Wall”.
Il report, come sottolineato tra gli altri anche da Foreign Policy, dimostra come la legge tedesca sia stata utilizzata come modello di riferimento per giustificare e rafforzare la censura online in numerosi Paesi autoritari: una conseguenza diretta delle pressioni crescenti cui sono state fatte oggetto le piattaforme negli ultimi anni per aumentare la propria capacità di rimuovere i contenuti potenzialmente rischiosi, in tempi più brevi, e senza alcun obbligo di trasparenza o documentazione del processo di moderazione. Una pressione esercitata, in primis, da Paesi democratici e oggi presa come modello da Paesi autoritari.
Se oggi Facebook si dichiara in grado di rimuovere 1,3 miliardi di account fake in un trimestre, se TikTok afferma di essere riuscita a rimuovere 90 milioni di video in un semestre, e se perfino Twitter garantisce di poter rimuovere migliaia e migliaia di tweet di “disinformazione”, nulla impedisce ai governi democratici e autoritari di tutto il mondo di imporre requisiti ancora più stringenti, sforzi più intensi e tempistiche più ridotte rispetto a quelle che le piattaforme stesse sono riuscite a raggiungere grazie allo sviluppo di tecnologie volte a potenziare le capacità di intervento e censura dei moderatori di contenuti.
È giunto il momento di smembrare, una volta per tutte, il potere di dare la massima visibilità possibile a un contenuto o a una persona dal potere di togliere arbitrariamente quella stessa visibilità.
In questo senso, la NetzDG può essere letta come una ennesima ritirata del potere politico di fronte a quello delle aziende digitali, cui è stata concessa per legge l’opportunità di incrementare il loro già illimitato potere di sorveglianza e censura nei confronti degli utenti. Come ricordato anche da David Kaye nel suo libro “Speech Police. The Global Struggle to Govern the Internet”, normative come la NetzDG non sono altro che una delega in bianco alle piattaforme per esercitare allo stesso tempo il ruolo di “pubblici ministeri” e “giudici” dei contenuti online, sostituendosi del tutto o in parte alla magistratura e ai tribunali.
Accordando alle piattaforme digitali un potere illimitato di intervento nei confronti dei propri utenti, anche se per una causa giusta come il contrasto ai contenuti d’odio e razzisti, e incentivando la rimozione pura e semplice dei contenuti segnalati senza offrire alcun margine ad indagini più approfondite, né il salvataggio dei contenuti di interesse pubblico in luogo della loro completa rimozione, leggi come la NetzDG rappresentano oggi un ulteriore passo avanti verso la concentrazione di un potere monopolistico di selezione, sorveglianza e censura nelle mani di pochissime aziende private di dimensioni globali.
Se da un lato aziende come Facebook, Twitter, Google, YouTube e TikTok dispongono del potere di rendere virale o meno un contenuto in base al modo in cui vengono progettati i loro algoritmi di selezione editoriale, appare oggi alquanto eccessivo il potere che viene liberamente concesso loro di sorvegliare i propri utenti e rimuovere questi ultimi e i loro contenuti. Anziché smembrare Facebook da Instagram, o Google da YouTube, forse è venuto il momento di smembrare il potere di dare visibilità dal potere di rimuovere quest’ultima, affinché i moderatori possano lavorare per proteggere gli utenti e non, come succede nel modello attuale, per tutelare la reputazione delle aziende che ne fanno uso.
Dalla moderazione di contenuti centralizzata alla moderazione decentralizzata
La proposta, inclusa nel mio libro “Gli obsoleti”, vuole essere un primo spunto di riflessione per provare a uscire dal ristretto numero di opzioni a disposizione oggi: anziché aumentare ulteriormente il potere di censura delle aziende digitali, o all’opposto esentare queste ultime da qualsiasi responsabilità in merito alla diffusione di contenuti d’odio, razzisti e di altre tipologie lesive della dignità e della sicurezza umana, bisognerebbe oggi progettare nuove strategie affinché le persone possano da un lato “difendersi da sole”, grazie all’aiuto di altri operatori specializzati riconosciuti e integrati dalle piattaforme stesse, dall’altro decidere democraticamente tempi, modalità e responsabilità della moderazione di contenuti, che non possono più essere soggetti all’arbitrio di chi quei contenuti li veicola attivamente.
Contrariamente all’opinione oggi diffusa, non esistono ad oggi piattaforme digitali che possano fare a meno dei moderatori di contenuti umani, e non esistono moderatori di contenuti umani che possano fare a meno della tecnologia per poter tenere il passo con quantità e qualità dei contenuti potenzialmente a rischio: a partire da questa constatazione, è possibile progettare entità, strumenti e processi capaci di sostituirsi del tutto o in parte alle agenzie di moderazione di contenuti private cui le piattaforme digitali subappaltano la maggior parte dei poteri di intervento e repressione. Forse non risolveremo interamente il problema secolare dell’odio e del razzismo, ma perlomeno non creeremo i presupposti affinché i social media di domani abbiano ancora più potere e ancora più capacità di repressione di quella attuale.