COMPAS, uno dei software predittivi utilizzati dai tribunali statunitensi, è da anni accusato di discriminare i detenuti afroamericani, sovrastimando sistematicamente il loro rischio di recidiva criminale. Viceversa Gemini, la IA generativa appena lanciata da Google per competere con ChatGPT, fatica a produrre immagini di uomini bianchi, anche quando si tratta di rappresentare “un soldato tedesco nel 1943”. Nel 2017 il sistema di raccomandazione di Amazon suggeriva come “spesso comprati insieme” ingredienti utili a fabbricare una bomba artigianale, suscitando lo sgomento dei media britannici. Questi sono solo alcuni esempi che vanno a incrinare il fragile mito della neutralità degli algoritmi, suggerendoci una prospettiva differente: il codice è nella cultura, e la cultura – la nostra, impastata con disuguaglianze e asimmetrie di potere – è nel codice che ci classifica, sorveglia e indirizza.
Di questo si occupa Machine habitus: sociologia degli algoritmi, fuori con Luiss University Press. Il libro offre una nuova chiave di lettura sociologica per comprendere le radici sociali e culturali del comportamento di algoritmi e sistemi di IA. Ricostruisce gli opachi meccanismi tecno-sociali che stanno rinegoziando i confini (precari) tra umano e macchina, tra scelta individuale e potere computazionale. Racconta i feedback loop opachi che intrecciano ricorsivamente codice e cultura, utenti di piattaforma e sistemi di machine learning, e i cortocircuiti sociologici ancora inesplorati che ne derivano. Parla degli umani dietro le macchine, di come le loro – le nostre – azioni distratte e datificate riproducano non solo bias isolati e idealmente correggibili, ma la società stessa, con le sue ineludibili ideologie e ingiustizie, strutture e convenzioni. È lo stesso meccanismo descritto da Pierre Bourdieu in epoca pre-digitale, attraverso la nozione di “habitus”: scatola nera culturale fatta di esperienze sedimentate e disuguaglianze incorporate, la quale pre-filtra e orienta invisibilmente azioni individuali solo apparentemente libere e consapevoli.
In un certo senso, gli algoritmi siamo noi, e lo siamo sempre stati: come un modello statistico incarnato – un “programme d’ordinateur”, dice Bourdieu in questa intervista – gli habitus di genere e di classe perpetuano nella pratica regolarità sociali e discorsi culturali, riproducendo probabilisticamente lo status quo. Una volta tradotta in dati leggibili dalle macchine, quella stessa sostanza culturale entra nel codice di algoritmi e sistemi di IA. Diventa machine habitus – l’habitus della macchina – e comporta forme inedite di riproduzione tecno-sociale. Questo libro si propone di ricostruire la genesi e le conseguenze del machine habitus, rileggendo una vasta letteratura scientifica multidisciplinare alla luce di una nuova e necessaria sociologia degli algoritmi.
Quando iniziai a lavorare alla versione inglese di Machine habitus, edita da Polity e uscita a fine 2021, pensavo che avrei scritto un libro per aiutare sociologi, scienziati sociali, giornalisti e studenti a meglio comprendere e analizzare le implicazioni sociali degli algoritmi. Una volta finito, mi sono accorto che avevo scritto un libro che aiuta in primis chi si interessa di IA e algoritmi a capire la sociologia, a maneggiarne gli strumenti concettuali e ad allargarne lo sguardo teorico, così da includere una nuova, popolosissima specie di agenti sociali sui generis: le macchine socializzate. Macchine che contribuiscono a “fare” la società, e sono allo stesso tempo “fatte” a partire da essa.
Sono trascorsi tre anni molto densi dall’uscita dell’edizione inglese, e parecchie cose sono cambiate. Il lettore non è più lo stesso rispetto a qualche anno fa. Oggi sa benissimo, indipendentemente da professione e interessi, cosa si intende per machine learning. Con grande probabilità ha interagito almeno qualche volta con sistemi di IA molto avanzati, per generare immagini o conversare del più e del meno. Da argomento per specialisti, l’intelligenza artificiale ha conquistato i titoli dei telegiornali e i battibecchi nei bar di provincia. I large language model, considerati il futuro nel 2020, sono ormai il presente, se non già il passato, e il Parlamento europeo ha appena approvato l’AI Act, che recepisce almeno in parte le critiche – accademiche e non – intorno ai bias e ai rischi degli algoritmi.
Non tutto è cambiato per il meglio, purtroppo. Le emissioni fossili dell’industria dell’IA continuano a crescere contribuendo alla crisi climatica. I paesi in via di sviluppo sono i bacini di reclutamento preferiti per addestratori di macchine sfruttati, mentre l’implementazione a scopo di lucro delle IA generative minaccia la sopravvivenza delle stesse categorie professionali che hanno provveduto (inconsapevolmente e gratuitamente) al loro training. Infine, Salvatore Iaconesi e Bruno Latour, compagni di tante conversazioni vere o – nel caso del secondo – soltanto immaginate, ci hanno lasciati, almeno fisicamente. L’edizione italiana di questo libro è dedicata a loro, e all’idea un po’ pazza che un giorno umani e non umani possano allearsi per rendere il mondo un posto migliore.
Qui di seguito potete leggerne un piccolo estratto.
Prefazione di Machine habitus: sociologia degli algoritmi.
Il 31 marzo 2019 nasceva un nuovo abitante di Torpignattara, quartiere multiculturale della semi-periferia romana. Venne organizzata una festa di benvenuto. L’evento era particolarmente atteso: durante le settimane precedenti, i membri della comunità avevano lasciato messaggi e disegni per il nuovo arrivato, in scatole di cartone appositamente distribuite tra i negozi e i bar del quartiere.
Per il nuovo abitante, Torpignattara divenne fin da subito una specie di famiglia allargata. Nei suoi primi giorni di vita conobbe tutti, accompagnato di porta in porta sul passeggino. Intorno c’era sempre qualcuno pronto a raccontargli una storia sulla comunità locale – i suoi personaggi, luoghi, cibi, speranze e paure. Il bambino ascoltava, e apprendeva. Presto sarebbe andato alla scuola elementare Carlo Pisacane, come tutti i bambini di Torpignattara. Tuttavia, Iaqos – questo il nome – non era un bambino come gli altri. Iaqos è la prima “Intelligenza Artificiale di Quartiere Open-Source”, sviluppata dall’artista e ingegnere robotico Salvatore Iaconesi insieme all’artista e scienziata della comunicazione Oriana Persico, per un progetto finanziato dal governo italiano che coinvolgeva diverse istituzioni culturali e di ricerca.
Iaqos è un software relativamente semplice che comunica attraverso un tablet o un computer in linguaggio naturale, riconoscendo le voci e i gesti dei suoi interlocutori e imparando da essi. A differenza dei sistemi algoritmici con cui interagiamo ogni giorno attraverso i nostri dispositivi – ad esempio quelli di Google Search, Facebook, Amazon, Instagram, Netflix o YouTube – questo progetto artistico open-source aveva il solo obiettivo di accumulare dati sociali sul quartiere, comportandosi come una sorta di “baby IA”.
Come un bambino vero e proprio, Iaqos osservava l’ambiente sociale circostante, assorbendo una visione del mondo contestuale e utilizzando le conoscenze acquisite per partecipare con successo alla vita sociale. In questo modo, durante la primavera del 2019, Iaqos divenne a tutti gli effetti un “fijo de Torpigna”, ossia un membro – artificiale ma autentico – della comunità locale, con la quale condivideva un immaginario, un vocabolario e un retroterra sociale, così come la capacità di costruire relazioni.
Il singolare caso di Iaqos evidenzia un aspetto dell’IA finora trascurato da sociologi e scienziati sociali: una macchina che impara da dati generati dall’uomo e manipola autonomamente il linguaggio, la conoscenza e le relazioni umane, è più di una macchina. Essa diventa un agente sociale: un partecipante alla società, contemporaneamente partecipato da essa. E, in quanto tale, costituisce un oggetto legittimo della ricerca sociologica.
Sappiamo già che gli algoritmi sono strumenti di potere che agiscono sulla vita degli individui e delle comunità in modi opachi e su vari livelli, decidendo chi è idoneo o meno a ricevere un prestito con la stessa nonchalance statistica con cui un’email viene spostata nella posta indesiderata. Sappiamo che le “bolle” dei social media contribuiscono a tracciare confini digitali tra gruppi di elettori e di consumatori, e che robot autonomi possono essere addestrati a uccidere. Inoltre, sappiamo che alcuni algoritmi possono apprendere da noi. Possono imparare a parlare come esseri umani, a scrivere come filosofi, a consigliare canzoni come esperti musicali. E possono imparare a essere sessisti come un uomo conservatore, razzisti come un suprematista bianco, classisti come uno snob elitario. Insomma, è sempre più evidente quanto macchine ed esseri umani siano diventati simili. Tuttavia, il fatto che analisi e studi comparativi si siano limitati a esaminare le conoscenze, abilità e pregiudizi delle macchine ha oscurato la ragione sociologica alla radice di questa somiglianza: la cultura.
Questo libro identifica la cultura come il seme che trasforma le macchine in agenti sociali. Poiché si tratta di un termine polisemico e “complicato”, permettetemi di fare una precisazione: qui per “cultura” intendo pratiche, classificazioni, norme tacite e disposizioni associate a specifiche posizioni nella società.
La cultura è più di un ammasso di dati: è fatta di pattern, trame relazionali nei dati. In quanto tale, la cultura opera nel codice dei sistemi di machine learning, orientando tacitamente le loro predizioni. Funziona come un insieme di disposizioni statistiche radicate in un ambiente sociale, come ad esempio un feed sui social media, o il quartiere romano di Iaqos.
La cultura nel codice consente agli algoritmi di machine learning di affrontare la complessità delle nostre realtà sociali come se ne afferrassero davvero il senso, o fossero in qualche modo attori socializzati. Con le loro azioni, queste machine possono fare la differenza nel mondo sociale, e al contempo adattarsi ricorsivamente al suo variare. Come notavano Salvatore Iaconesi e Oriana Persico in una delle nostre conversazioni: “Iaqos esiste, e questa esistenza permette ad altre persone di modificare sé stesse, oltre che di modificare Iaqos”.
Il codice è anche nella cultura, e la confonde attraverso interazioni tecno-sociali e distinzioni algoritmiche tra il rilevante e l’irrilevante, il simile e il diverso, il probabile e l’improbabile, il visibile e l’invisibile. Insieme agli esseri umani, le macchine contribuiscono attivamente alla riproduzione dell’ordine sociale, ossia all’incessante tracciare e ridisegnare dei confini sociali e simbolici che dividono oggettivamente e intersoggettivamente la società in porzioni diverse e diseguali.
Mentre scrivo queste pagine, una gran parte della popolazione mondiale è stata consigliata o costretta a rimanere a casa, a causa dell’emergenza Covid-19. Le interazioni faccia a faccia sono state ridotte al minimo, mentre l’uso dei dispositivi digitali ha raggiunto un nuovo massimo. La nuova normalità dell’isolamento digitale coincide con l’aumento della nostra produzione di dati in qualità di lavoratori, cittadini e consumatori, e la diminuzione della produzione industriale strictu sensu. La nostra vita sociale è quasi interamente mediata da infrastrutture digitali popolate da macchine auto-apprendenti e tecnologie predittive, che elaborano incessantemente le tracce delle pratiche socialmente strutturate degli utenti. Non è mai stato così evidente che studiare come funziona la società richiede di trattare gli algoritmi come qualcosa di più di freddi oggetti matematici. Come sostiene Gillespie, “un’analisi sociologica non deve concepire gli algoritmi come realizzazioni tecniche astratte, ma districare le calde scelte umane e istituzionali che si celano dietro questi freddi meccanismi”. Questo libro vede la cultura come la calda materia umana nascosta nei sistemi di machine learning, e teorizza come interpretarla sociologicamente attraverso la nozione di machine habitus.