Gli algoritmi come prigioni di vetro

Scarica come pdf

Scarica l'articolo in PDF.

Per scaricare l’articolo in PDF bisogna essere iscritti alla newsletter di cheFare, completando il campo qui sotto l’iscrizione è automatica.

Inserisci i dati richiesti anche se sei già iscritto e usa un indirizzo email corretto e funzionante: ti manderemo una mail con il link per scaricare il PDF.


    Se inserisci il tuo indirizzo mail riceverai la nostra newsletter.

    image_pdfimage_print

    Gli algoritmi costruiscono intorno alla nostra esperienza quotidiana online una membrana invisibile, una parete di vetro che ci separa da alcuni contenuti, indirizzandoci verso altre fonti. Ci muoviamo come dei minotauri in un labirinto dalle pareti di vetro, all’interno di bolle impalpabili, ma reali.

    Please Come Back. Il mondo come prigione? Al MAXXI di Roma fino al 28 maggio. A cura di Hou Hanru, Luigia Lonardelli

    Queste bolle, che Eli Pariser chiama filter bubbles, sono diverse dalle bolle del passato: non ci permettono di cambiare filtro, di manipolare/adattare l’algoritmo per ottenere una diversa selezione dei contenuti, che mantenga una maggiore quota di diversità culturale. Inoltre, nel lungo periodo, questi algoritmi tendono a generare pubblici sempre più omogenei tra loro: come aveva già notato nel 2001 Cass Sunstein, il problema con il web è che le persone sono ora esposte soltanto a fonti di informazione scelte precedentemente, che le relegano in una sorta di echo chamber, camere di riverbero, che proteggono gli utenti da qualsiasi incontro non intenzionale.

    Queste pareti di vetro sono la nostra prigione quotidiana, una prigione dai confini morbidi e invisibili. Il regista inglese Adam Curtis, nel suo recente saggio televisivo HyperNormalisation (2016), paragona l’effetto di queste bolle, che ci proteggono dalla complessità del mondo, a quello di medicinali come il Prozac: entrambe ci mostrano solo ciò che ci piace di più.

    L’appartenenza a un determinato pubblico corrisponde all’appartenenza a un determinato profilo di consumo e non è un’affiliazione dalla quale possiamo decidere di smarcarci, a meno che non decidiamo di disconnetterci del tutto dall’internet commerciale.

    Questi algoritmi sono black boxes, scatole chiuse e per niente trasparenti, né accessibili, come sostiene Frank Pasquale. La convivenza dentro questo tipo di pubblici algoritmici non è per niente conviviale, dove per conviviale intendo riprendere il concetto introdotto dal critico e filosofo austriaco Ivan
 Illich nel 1973. Illich immaginava un futuro in cui le persone avessero un rapporto aperto e attivo con il mondo materiale intorno a loro, incluse le tecnologie che utilizzavano: “scelgo il termine ‘convivialità’ per designare l’opposto della produzione industriale. Lo intendo come uno scambio autonomo e creativo tra membri di una stessa comunità e tra le persone e l’ambiente”.

    Per Illich una tecnologia conviviale era uno strumento che le persone potevano manipolare, trasformare, adattare, controllare: “le persone non hanno solo bisogno di consumare oggetti, hanno soprattutto bisogno di poter creare oggetti che gli servano per vivere, potergli dare forma secondo i propri gusti. I detenuti nelle carceri dei paesi ricchi hanno accesso a più oggetti e servizi rispetto ai membri delle loro famiglie rimasti fuori, ma non hanno alcuna voce in capitolo su come devono essere fatte le cose e non possono decidere cosa ci devono fare. La loro punizione consiste nell’essere privati di quella che io chiamo ‘convivialità’. Sono degradati allo stato di meri consumatori”.

    Gli algoritmi proprietari alla base dei recommender systems di Facebook, Spotify, Instagram, YouTube, eccetera, non sono algoritmi conviviali, perché non sono trasparenti, non sono modificabili dagli utenti, né i loro codici sono accessibili. Di conseguenza, i pubblici che sono strutturati e informati da questi algoritmi non sono conviviali, nel senso che non hanno alcuna voce in capitolo sui processi di selezione dei gatekeepers, non possono accedere ai meccanismi di selezione e di filtro, non possono adattarli, né controllarli. Questi algoritmi portano inscritti nei propri codici la struttura e le relazioni di potere che stanno alla base delle aziende che li hanno progettati.

    Una proposta che vada oltre la semplice osservazione critica degli aspetti discutibili e potenzialmente negativi di un sistema di selezione culturale basato su agenti algoritmici potrebbe essere quella di progettare degli algoritmi alternativi e trasparenti, che siano maggiormente capaci di riflettere le preoccupazioni etiche e politiche connesse all’avvento di quella che il filosofo americano Ted Striphas ha chiamato cultura algoritmica.

    Cosa significa? Significa progettare algoritmi che siano trasparenti, i cui codici siano accessibili e modificabili e siano più equi, ad esempio, nella rappresentazione e nella presentazione di minoranze etniche e di genere. Una critica all’attuale sistema proprietario degli algoritmi potrebbe essere articolata in due atti: la prima di tipo “tattico” e la seconda di tipo “conviviale”.

    Per prima cosa, bisognerebbe sviluppare un approccio tattico ai media algoritmici, sovvertirne l’uso e trasformarli in media tattici. Cosa sono i media tattici? Secondo la definizione data nel 1997 dagli attivisti David Garcia e Geert Lovink, un’appropriazione tattica dei media accade quando “i media accessibili alle masse grazie alla rivoluzione nell’elettronica di consumo e all’espansione dei canali di distribuzione (internet), vengono appropriati da gruppi e individui che si sentono esclusi dalla cultura più popolare”.

    Allo stesso modo, potremmo immaginare di appropriarci tatticamente degli algoritmi, sabotando, per esempio, il meccanismo di sorveglianza dei nostri gusti culturali, attraverso un consumo casuale e non rappresentativo dei nostri gusti personali, o attraverso l’uso di tools per la navigazione anonima. Questa e altre possibili appropriazioni tattiche degli algoritmi attuali non sono però sufficienti per sviluppare un’alternativa ai sistemi esistenti.

    Il secondo atto critico dovrebbe essere il passaggio da un uso tattico a un uso conviviale degli algoritmi, tramite la progettazione di nuovi sistemi di misurazione alternativi a quelli esistenti, non proprietari, aperti, modificabili e disattivabili dagli utenti.

    Progettare algoritmi conviviali significa immaginare un’economia politica dei media digitali alternativa a quella esistente, orientata non al profitto ma al benessere della comunità. Un esempio di questo approccio conviviale al design degli algoritmi è rappresentato dal progetto di ricerca del professore di Comunicazione americano Paul Resnick, Enhancing Diversity in News and Opinion Aggregators, che sta svolgendo una ricerca su come costruire nuovi algoritmi capaci di restituire una selezione di informazioni basate sulla diversità di opinioni per migliorare l’esperienza di lettura dell’informazione online. Un algoritmo non deve necessariamente mostrare solo quelle notizie o quei brani di artisti simili ai miei gusti, senza che io abbia alcuna possibilità di scelta.

    Gli algoritmi non sono che calcoli che seguono un set di istruzioni dato generando, di conseguenza, un output. Possiamo politicizzare queste istruzioni e decidere che tipo di istruzioni dare in pasto agli algoritmi. Invece di sperare che gli algoritmi commerciali divengano più trasparenti o più democratici, o semplicemente criticarne l’esistenza senza alcuna possibilità di incidere realmente nelle pratiche culturali di milioni di persone, potremmo immaginare un mediascape più ricco e pluralista, in cui algoritmi commerciali e conviviali confliggano tra loro in termini di design e risultati.

    L’ex ministro dell’economia greco, Yanis Varoufakis, in un video girato in occasione di un festival sull’utopia della democrazia svoltosi a Zagabria nel 2013, mette in guardia il pubblico dalla distopia della quantificazione e della misurazione di qualsiasi aspetto della vita: “Come si fa a misurare la bellezza, l’amore, il prendersi cura di qualcuno? Come si fa a misurare la qualità di un poema? Tutti i tentativi di misurare, quantificare la qualità di un’attività umana sono arbitrari e ci spingono alla competizione per poter salire nella classifica instaurata da questi indici”.

    Nel prosieguo dell’intervista, Varoufakis ammette anche che dei sistemi di misurazione sono necessari, anche se non saranno mai capaci di rappresentare oggettivamente la qualità di un libro, o di una nazione, come nel caso del PIL. Per il mantenimento della democrazia però, ammette Varoufakis, è fondamentale che esistano molteplici indici di misurazione e non uno standard unico. È necessario che si confrontino diversi modelli di valutazione. Così dovrebbero esistere differenti sistemi di raccomandazione fondati su algoritmi che rappresentano economie politiche differenti.

    Questa pluralità di modelli renderebbe evidente l’arbitrarietà di ogni sistema di selezione, filtro, valutazione, e renderebbe le persone più consapevoli della loro esistenza, vulnerabilità e parzialità.

    Se siamo governati da un unico algoritmo proprietario di Facebook, la selezione operata da quest’ultimo finirà per sembrarci l’unica realtà possibile, sostituendosi alla complessità del mondo. Se, al contrario, esistessero algoritmi differenti e conviviali, in grado di contestare, con i loro differenti risultati, la semplificazione operata dagli algoritmi commerciali, potremmo avere almeno diritto di scelta.

    Tra le opere degli artisti in mostra, voglio riprendere qui il lavoro fotografico di Trevor Paglen, il quale ha il merito di aver reso visibile ciò che di solito è invisibile, ovvero la struttura materiale di cavi transoceanici che permette la comunicazione via internet e i luoghi esatti dove questi cavi vengono intercettati dalla NSA per scaricarne i dati.

    La parola “sorveglianza di massa” fa pensare a registratori, videocamere di circuiti di sicurezza e alla NSA che raccoglie enormi quantità di dati provenienti dai nostri telefoni cellulari. Pochi si soffermano a pensare all’aspetto materiale di questa sorveglianza: il governo che succhia letteralmente i dati dalle centinaia di cavi depositati sui fondali degli oceani. Le fotografie di Paglen sono importanti perché disinnescano l’immaterialità delle prigioni di vetro che ci circondano e le rendono evidenti allo sguardo.

    Allo stesso modo, se potessimo vedere, o meglio, avere accesso ai codici degli algoritmi che selezionano per noi l’informazione e i prodotti culturali, se potessimo manipolarli, cambiarne le regole di filtraggio e adattarle alle nostre esigenze, orientarli verso la massimizzazione della diversità culturale invece che verso la massimizzazione dei profitti tramite l’omogeneizzazione dell’offerta, saremmo molto più consapevoli dell’esistenza e
del ruolo delle pareti di vetro che strutturano il nostro raggio d’azione.

    Abbiamo sempre avuto bisogno di qualcuno che organizzasse per noi l’informazione, abbiamo sempre avuto bisogno del lavoro di cura, filtro e selezione fatto dai giornalisti, dai curatori, dai critici. Che oggi questo lavoro non sia più solo appannaggio degli umani ma sia anche attributo di agenti non umani, non rappresenta di per sé un vero pericolo.

    La vera prigione in cui viviamo è la logica di accumulazione capitalista che sta dietro la progettazione degli algoritmi, una logica che via via si appropria di porzioni sempre più estese della nostra vita attiva, si mangia spazi di libertà, momenti di vita un tempo non sottoposti a misurazione, per trasformarli in transazioni economiche.

    Allora, forse, ciò che vorrei che tornasse indietro dal paradiso perduto dell’età moderna, non è un mondo privo di tecnologie digitali o di algoritmi, ma un mondo dove possano coesistere ancora spazi e sfere di vita non sottoposte a misurazione né a transazioni monetarie; un mondo popolato di tecnologie conviviali, costruite dagli uomini per essere condivise, manipolate e adattate ai propri bisogni.

    È il mondo immaginato da Ivan Illich e dal principe Pëtr Alekseevicˇ Kropotkin nel suo magnifico libro, Il Mutuo Appoggio. Un mondo dove le persone sono libere di agire fuori dai confini del mercato, fuori dalla prigione della logica dell’accumulazione capitalistica, per fini non orientati al semplice profitto economico. E forse quel passato di vita cooperativa e comunitaria, descritto da Kropotkin, può anche trovarsi di fronte a noi.

    Invece di volgerci con nostalgia al paradiso perduto della modernità, potremmo guardare al futuro con speranza, perché, al di fuori della prigione di vetro dell’economia digitale capitalista, sta emergendo una nuova economia digitale comunitaria e decentralizzata, quella che teorici come Michel Bauwens e Yochai Benkler chiamano Commons Based Peer Production, un tipo di produzione di beni comuni basata sulla cooperazione tra pari.

    La natura cooperativa delle società pre-capitaliste studiate da Kropotkin e l’idea di convivialità sviluppata da Illich potrebbero tornare indietro e rappresentare un futuro alternativo. In conclusione direi allora, Please, Ivan Illich, come back.


    Immagine di copertina di Trevor Paglen – Creative Time Reports

    Note