La politica è incapace di gestire l’odio sui social network — è ora che impari

Scarica come pdf

Scarica l'articolo in PDF.

Per scaricare l’articolo in PDF bisogna essere iscritti alla newsletter di cheFare, completando il campo qui sotto l’iscrizione è automatica.

Inserisci i dati richiesti anche se sei già iscritto e usa un indirizzo email corretto e funzionante: ti manderemo una mail con il link per scaricare il PDF.


    Se inserisci il tuo indirizzo mail riceverai la nostra newsletter.

    image_pdfimage_print

    Andiamo dritti al punto del famoso detto, che faceva più o meno così: “Ogni mattina, nel mondo, non importa che tu sia o non sia l’utente di un grande social network (ma più probabilmente lo sei). In ogni caso, sai già che un nuovo episodio legato alle fake news o all’hate speech conquisterà l’attenzione dei mezzi d’informazione e del dibattito pubblico …”

    La disinformazione e l’incitamento all’odio sembrano ormai aver raggiunto lo status di grandi piaghe della nostra società. A confermare l’impatto di questi fenomeni – ed in particolare la loro influenza sulle nostre vite digitali – vi sono sondaggi come quello effettuato qualche mese fa da Swg per Parole Ostili, dal quale emergeva che il 39% degli italiani teme di essere abbindolato dalle notizie false che circolano sui social, ed il 68% considera la violenza verbale “il nuovo modo di comunicare ai tempi di Internet”.

    La disinformazione e l’incitamento all’odio sembrano ormai aver raggiunto lo status di grandi piaghe della nostra società

    Le risposte della classe politica a queste problematiche variano a seconda dell’area di provenienza dei suoi rappresentanti. Se per i politici conservatori e sovranisti sembra non esserci un’emergenza fake news o hate speech sui nostri social e la principale preoccupazione pare essere quella di vedere le proprie idee “censurate” dagli amministratori di tali piattaforme, secondo coloro appartenenti all’area liberale e democratica occorrerebbe invece spingere i social media ad una maggiore responsabilità e impegno nell’ostacolare la circolazione dei contenuti dannosi sulle loro pagine virtuali.

    Abbiamo visto la retorica liberal nuovamente in azione di recente, sia in Italia – dove Conte (Conte bis, la versione democratica) ha parlato di leggi per “scacciare” l’odio dai social in seguito al caso delle minacce a Liliana Segre – che nella terra natia dei maggiori social media, gli USA, dove Mark Zuckerberg è stato sottoposto a un’udienza parlamentare nella quale ha dovuto rendere conto – tra le altre cose – della decisione di Facebook di non oscurare le notizie false diffuse dai politici.

    Il messaggio lanciato dai rappresentanti delle istituzioni politiche in circostanze come queste è semplice: il comportamento dei gestori delle piattaforme è la causa del problema, e obbligarli a rimuovere le pagine e i contenuti tossici è la soluzione più efficace. Ma la questione potrebbe essere più complicata di così, e a semplificarla eccessivamente si corre il rischio di adottare provvedimenti miopi e controproducenti.

    Non di solo ban vive la moderazione

    Immaginiamo per un momento che sia possibile mettere tutti d’accordo su cosa costituisce incitamento all’odio e sulla necessità di fermare il flusso di fake news; immaginiamo anche che gli amministratori dei social media si mostrino sempre disponibili ad aggiustare i propri regolamenti interni secondo le disposizioni di Stati e comunità internazionali, riuscendo a garantire una rimozione puntuale e precisa dei contenuti tossici. Ebbene, siamo sicuri che rimuovere tempestivamente questi contenuti sia sufficiente ad assicurare l’estinzione di odio e disinformazione dai nostri canali social?

    Infatti, sebbene nei dibattiti mainstream si tenda a parlare di oscuramento dei post dannosi come della miglior strategia praticabile, in realtà non esiste un consenso assoluto sull’efficacia di questo tipo di sanzione.

    Uno studio pubblicato quest’anno su Nature mostra come le pagine e i gruppi social dove circolano odio e fake news siano nella maggior parte dei casi in grado di ricostituirsi dopo la loro chiusura – magari con un nome nuovo sulla stessa piattaforma, o migrando su altri siti dalle policy meno severe. La ricerca, condotta su Facebook e su VKontakte da Neil Johnson (professore di fisica presso la George Washington University), suggerisce pertanto che il semplice ban di queste pagine e dei loro membri non è sufficiente e propone degli strumenti di moderazione alternativi – ad esempio il coordinamento, da parte degli amministratori della piattaforma, di gruppi di utenti decisi a contrastare il proliferare di discorsi tossici con le parole e gli argomenti.

    Una proposta di questo genere può sembrare inattuabile per molte ragioni, e forse lo è. Innanzitutto, essa presuppone una fruizione dei social media più attiva e partecipe da parte degli utenti contrari alla diffusione di hate speech e fake news. Inoltre, è difficile prevedere le possibilità di successo di una simile strategia, ossia le probabilità di riuscire a modificare attraverso il dialogo e in misura consistente gli atteggiamenti di quanti odiano online o condividono notizie false – e chiunque abbia già provato a farlo in certe sezioni commenti dove volano insulti agli immigrati o richiami alle teorie di sostituzione etnica sa bene quanto sia complicato.

    Occorre provare a comunicare con gli individui che diffondono odio e fake news invece di bannarli od oscurarne i contenuti

    Resta da vedere, però, come potrebbero evolversi le cose se i team di moderazione delle maggiori piattaforme supportassero gli utenti più virtuosi, ad esempio coordinandone gli sforzi o segnalando loro dove intervenire – quello dei moderatori che segnalano agli utenti i post contrari alle regole del social network costituirebbe un rovesciamento dei ruoli niente male. Ed è in questa direzione (quella di un impegno attivo nel controbattere ai discorsi di hate speech e di un concertamento degli utenti intenzionati a farlo) che si stanno già muovendo organizzazioni come Amnesty International al fine di rendere gli ambienti social più vivibili e rispettosi dei diritti umani, sebbene attraverso iniziative indipendenti e slegate dall’attività dei moderatori dei social media.

    Per quanto difficoltosa possa apparire l’adozione di tattiche simili, il principio alla base di idee come quelle di Johnson o di Amnesty è che occorre provare a comunicare con gli individui che diffondono odio e fake news invece di bannarli od oscurarne i contenuti, poiché il dialogo potrebbe essere in grado di produrre risultati più duraturi rispetto alla rimozione nuda e cruda.

    Una concezione simile caratterizza già le policy di un grande social network come Reddit. Come ha affermato il suo cofondatore e attuale CEO Steve Huffman (aka Spez) qualche
    qualche tempo fa, in risposta ad un articolo di The Verge in cui si commentava la riluttanza della piattaforma a bannare gli utenti o i subreddit che si producono in affermazioni razziste:

    “Io credo che la miglior difesa contro il razzismo e altre ripugnanti idee, tanto su Reddit quanto nel mondo, invece di provare a controllare attraverso le regole quel che la gente può e non può dire, sia respingere quelle idee in una conversazione libera e incoraggiare le nostre communities a fare lo stesso su Reddit.”

    Non ci è dato sapere se politiche di questo genere vengano adottate per una reale fede degli amministratori di Reddit nella libertà d’espressione – si tratta pur sempre di aziende nate e cresciute negli USA, dove vige una visione profondamente garantista delle libertà individuali – o perché alcuni dei subreddit in cui circolano materiali estremistici ed offensivi sono politicamente schierati (che frequentiate o meno Reddit, probabilmente avrete già sentito parlare di r/The_Donald) e chiuderli equivarrebbe ad alienarsi quote consistenti di utenti.

    D’altra parte, ogni grande piattaforma mira a farsi percepire come un network assolutamente imparziale e pronto ad accogliere tutti i punti di vista. Si prenda Facebook: quando il social di Menlo Park sceglie di rimuovere pagine e profili appartenenti a Casapound e di ricorrere contro l’ordinanza del Tribunale di Roma che le aveva imposto di tornare sui propri passi, lo fa non per un’avversione ideologica alle istanze neofasciste espresse da partiti come quello di Di Stefano, ma perché “ci sono prove concrete che Casapound sia stata impegnata in odio organizzato e che abbia ripetutamente violato le nostre [di Facebook, ndr] regole”.

    A Facebook (come a tutti i grandi social network) non interessa allontanare gruppi o individui sulla base del loro credo politico, e non ha intenzione di fare da argine alla diffusione di idee e argomenti di estrema destra; fra le tante e recenti prove a sostegno di questa tesi si può citare, ad esempio, l’inclusione di Breitbart nella nuova sezione News negli USA. Del resto, la piattaforma di Zuckerberg non è nata con questo scopo, e dovremmo riflettere sul fatto che ci stiamo abituando a pretendere che siano delle aziende private ad ostacolare la propaganda violenta e pregna d’odio di certi partiti.

    Ad ogni modo, citare Reddit come piattaforma da prendere ad esempio per il modo in cui modera sarebbe senz’altro eccessivo, dato che viene tutt’oggi percepito come un ambiente fortemente tossico e i suoi subreddit vengono sfruttati per allenare programmi di IA anti- hate speech. Inoltre, non intendo affermare che gli amministratori debbano rinunciare in toto a prendere decisioni drastiche: il ban e la rimozione rimangono strumenti sacrosanti in certe circostanze, se non si vuole vedere il proprio social network andare in malora.

    Tuttavia, vale la pena segnalare che dall’esperienza su un social in cui gli utenti sono forzati a risolvere i propri contrasti attraverso il confronto verbale e gli scambi di vedute – in molti casi senza poter contare troppo sull’assistenza dei moderatori – nascono anche subreddit come r/changemyview, canale che conta oltre 850.000 membri e luogo in cui si può parlare di qualsiasi argomento, purché lo si faccia con civiltà.

    Infatti, per poter partecipare ai thread pubblicati su r/changemyview – ogni subreddit può stabilire il proprio codice di condotta, nei limiti e nel rispetto delle norme generali imposte dagli amministratori della piattaforma – l’utente deve mostrarsi aperto al confronto, argomentare le proprie idee senza risparmiarsi, e soprattutto essere sincero e pronto a riconoscere la bontà dei ragionamenti altrui (premiandoli con un like apposito).

    Ciò che questa community offre con le proprie regole interne, insomma, è una vera e propria guida per condurre dibattiti sani ai tempi dell’hate speech e delle fake news, ed il successo che ha ottenuto in termini di iscritti dimostra che è possibile immaginare un ambiente digitale nel quale gli utenti si impegnano e collaborano per produrre conversazioni stimolanti e produttive.

    Immaginare senza banalizzare

    Procedure che sfruttino la partecipazione degli utenti potrebbero anche essere affiancate agli strumenti tradizionali adoperati dalle piattaforme, ad esempio con la creazione di meccanismi ibridi che ricorrano al ban e alla rimozione come ultima ratio, laddove i tentativi di mediazione non riuscissero a riportare gli utenti che violano le norme del social network ad atteggiamenti rispettosi delle stesse.

    L’introduzione di simili modifiche costituirebbe un grosso cambiamento nelle strategie di moderazione adottate dalla maggior parte delle piattaforme, ed è probabile che i loro amministratori non vedano di buon occhio tali proposte per varie ragioni.

    La più ovvia ha a che fare con la durata dei tempi di risposta: sospendere un utente che nega l’olocausto, ad esempio, richiede ben meno tempo rispetto a quanto ce ne vorrebbe per fargli cambiare idea parlandoci e spiegandogli come mai ciò che afferma non ha senso – senza peraltro la certezza di poterlo indurre a rivedere le proprie posizioni, mentre il ban di un moderatore è risolutivo come poche altre cose.

    Riflettere sugli aspetti critici dell’attività social è necessario una volta appurati i rischi a cui va incontro la libertà d’espressione

    C’è poi il fatto che coinvolgere in maniera significativa gli utenti nell’attività di moderazione vuol dire iniziare ad aprir loro le porte della piattaforma, cedendo parte di quel potere decisionale custodito, finora, tanto gelosamente – ed è normale che ragionino a questa maniera, trattandosi di organizzazioni che perseguono guadagni stellari.

    Ma i social media gestiscono una parte immensa ed in continua crescita del nostro dibattito pubblico, e riflettere sugli aspetti critici della loro attività è necessario una volta appurati i rischi a cui va incontro la libertà d’espressione quando a decidere cosa è lecito e cosa invece non lo è sono aziende private – che spesso commettono errori clamorosi, siano essi dovuti all’inefficienza dei loro algoritmi, all’impreparazione dei loro moderatori, o al tentativo di salvaguardare la reputazione del loro brand cercando di non scontentare nessuno.

    Sebbene li abbiamo visti difendere strenuamente le proprie policy dalle critiche della classe politica, gli amministratori delle piattaforme sanno di dover agire per migliorare i propri sistemi di moderazione. Facebook, Youtube, Twitter, hanno tutte introdotto delle modifiche in tale ambito nel corso degli ultimi mesi, intervenendo sui termini di servizio, impegnandosi a rimuovere più frequentemente contenuti tossici o ampliando la trasparenza dei processi di valutazione. Ma nessuna di esse sembra aver preso di mira le cause profonde dei loro mali (che sono legate ai meccanismi del modello economico su cui sono basate); e nessuna di esse ha agito nella direzione di un maggior coinvolgimento degli utenti all’interno dei processi di gestione dei contenuti.

    Un approccio che coinvolga maggiormente gli utenti desiderosi di partecipare alla lotta contro hate speech e disinformazione potrebbe correggere alcune distorsioni delle attuali strategie di moderazione, avrebbe l’effetto di creare dibattiti visibili a tutti intorno ai comportamenti sbagliati ed aiuterebbe a conseguire risultati migliori grazie alle conseguenze positive della comunicazione e del confronto delle idee.

    Non si tratta di rinunciare agli interventi dall’alto degli amministratori delle piattaforme, che rimangono in molti casi strumenti essenziali – soprattutto quando si riesce a individuare le sorgenti di notizie false e teorie cospirazioniste assurde, o i bot e i profili falsi generati allo scopo di manipolare l’opinione pubblica. In quei casi, il ricorso al dialogo è inutile e la rimozione e il ban rimangono l’unico modo per arrestare la diffusione di contenuti pericolosi sul nascere.

    Ma dell’utente medio che è stato contagiato da una di queste teorie e passa il tempo a condividerle o ad inveire contro determinate categorie di persone, non ne modifichi gli atteggiamenti rimuovendone i post o sospendendone il profilo; né ti assicuri che non tornerà a diffondere materiale tossico attraverso un account diverso, o su una piattaforma diversa. Anzi, è probabile che bannandolo o silenziandolo si finisca per rafforzare le sue convinzioni e le sue paranoie antisistema.

    La propensione a cedere a tali paranoie, tra l’altro, non nasce dall’azione degli algoritmi dei social media o dall’attività di influencer malintenzionati – ed è questa, in definitiva, la maggiore banalizzazione che dovrebbero smettere di portare avanti nell’area liberale e democratica della sfera politica: quella secondo cui basterebbe correggere l’attività delle piattaforme per abbassare le soglie di odio e disinformazione che affliggono i social network.

    Che ci sia un problema legato alla diffusione di odio e fake news sui canali social appare ormai innegabile

    In Italia (ma non solo), il rancore che anima la società – e che arma i discorsi di coloro che odiano online – viene alimentato dallo scontento per una situazione economica “senza prospettive di crescita”, come scriveva il Censis un anno fa nel suo Rapporto sulla situazione sociale del Paese / 2018. E se già allora si parlava di “sovranismo psichico” degli italiani e di un clima da “caccia al capro espiatorio”, nel Rapporto del 2019 uscito il mese scorso quella italiana viene definita come una “società ansiosa di massa”, afflitta da una “sindrome da stress post-traumatico” (il trauma in questione è quello della crisi finanziaria scoppiata nel 2008 e mai del tutto superata) che ci porta sempre di più a chiuderci in noi stessi e a diffidare dell’altro (“il 75% degli italiani non si fida più degli altri”).

    Inoltre, è difficile capire come possano migliorare i livelli di informazione e la qualità del dibattito sociale in un Paese che investe sempre meno nell’istruzione e in cui si fatica a leggere anche solo un libro all’anno – e questo costituisce a mio avviso uno dei nei più grandi nell’attività di una classe politica liberale che pure ha avuto modo di governare negli ultimi anni, ma non è riuscita o non è voluta intervenire in modo energico sui problemi del nostro sistema scolastico e sul disamore per i libri e per la cultura che caratterizza la nostra società. Le recenti dimissioni del ministro dell’Istruzione Fioramonti, dovute agli scarsi investimenti sulla scuola previsti dalla legge di Bilancio, segnalano una volta di più la mancanza di idee chiare e di una strategia precisa da parte di un governo che, almeno sulla carta, dovrebbe avere a cuore certe tematiche.

    Che ci sia un problema legato alla diffusione di odio e fake news sui canali social appare ormai innegabile, ed è legittimo chiedere ai gestori di queste grandi piattaforme di impegnarsi per garantire quantomeno il rispetto dei propri regolamenti – ma bisogna tenere a mente che si tratta di una questione complessa, nella quale interagiscono molti fattori diversi, e individuare delle soluzioni davvero efficaci non è facile.

    Semplificando eccessivamente il discorso – prendendosela esclusivamente con le piattaforme e invocando più ban e rimozioni – si porta avanti una narrazione che fa comodo a chi ricopre cariche istituzionali e politiche, che può così declinare ogni responsabilità per lo stato di decadenza culturale in cui versa la popolazione; e fa comodo a noi, che come utenti deleghiamo ogni decisione confidando nel giudizio di chi amministra i social network nei quali passiamo gran parte del nostro tempo, e rinunciamo a partecipare attivamente per migliorarne la vivibilità.

     

    Note