Giovedì 02 ottobre 2025
L'instabilità è la regola
 
Un estratto da "Cavalcare l'ingovernabile"
Scritto da: Luigi Pellizzoni

Questo testo è un estratto da Cavalcare l'ingovernabile - Natura, neoliberalismo e nuovi materialismi (Ortothes, 2023), di Luigi Pellizzoni.

L'articolo è parte di una serie di estratti da volumi della collana Ecologia Politica di Orthotes EditriceLa collana nasce dalla volontà di pensare la crisi ecologica in termini politico-filosofici. La crisi della natura, quindi, come interna all’economia, alla società, alla politica. Una collana che indaga tutti quei conflitti che parlano una lingua diversa dalla crescita come obiettivo indiscutibile: i conflitti che investono i rapporti socio-ecologici e la resistenza alle strategie politiche neocoloniali di appropriazione e spoliazione, ma anche tutte quelle pratiche sociali che sperimentano forme di riappropriazione della ricchezza sociale e comune, dunque dalle resistenze contadine e bracciantili a quelle ispirate alle relazioni socio-ecologiche pensate all’interno del pensiero e delle pratiche decoloniali e femministe.


In fisica, chimica, biologia, economia, informatica e altrove, il riconoscimento dell’importanza dell’indeterminazione è stato a lungo affiancato da strategie per affrontarla, rivendicando capacità gestionali nonostante la presenza di descrizioni incomplete dello stato delle cose. La meccanica quantistica offre un esempio classico. In economia John Maynard Keynes (1921) ha argomentato a proposito delle “probabilità personali” – ossia stime soggettive del rischio piuttosto che calcoli veri e propri – quali fattori su cui poggiano decisioni di attori che non per questo possono essere detti irrazionali. Frank Knight (1921) ha sostenuto che tali decisioni sono quelle su cui si misura la creatività imprenditoriale, che è cosa diversa dalla gestione quotidiana dell’azienda, così come il vero profitto è diverso dal profitto “normale” di cui parlano i manuali di economia. Il primo consente accumulazione di capitale, dunque possibilità di reinvestimento e di crescita dell’impresa; il secondo la mera, e temporanea, sopravvivenza di quest’ultima. In tutti i casi siamo di fronte a quello che possiamo chiamare un “confinamento” dell’incertezza, nel senso che essa agisce entro determinati limiti operativi: fisici, organizzativi, temporali. Questi argini iniziano tuttavia a cadere velocemente a partire dagli anni Settanta del secolo passato.


In ecologia, per esempio, la tradizionale visione – ancora presente nella generazione del dopoguerra: quella di Eugene Odum con i suoi Fundamentals of Ecology, usciti nel 1953 – secondo cui gli ecosistemi tendono a tornare all’equilibrio dopo aver subito perturbazioni (sia pure entro una soglia di rottura), con le relative assunzioni circa l’ordine e la prevedibilità del mondo biofisico, viene gradualmente sostituita da «una nuova ecologia del caos» (Worster 1990: 8), secondo cui in natura la normalità non è l’equilibrio, la stabilità e la simmetria ma il loro opposto, e che cooperazione, coerenza e organizzazione olistica sono l’eccezione a fronte di una regola basata su competizione, disomogeneità, frammentazione, associazione individualistica. Contingenza, disordine e transizioni catastrofiche non sono perciò contro la vita, ma ciò da cui la vita dipende (Holling 1973). Allo stesso modo, in chimica e in fisica l’attenzione si concentra sulle “strutture dissipative” (Prigogine e Stengers 1979): sistemi termodinamicamente aperti caratterizzati dalla formazione spontanea di anisotropia, cioè di dissimmetria e biforcazioni, che producono strutture complesse, talvolta caotiche e mettono in discussione l’entropia come legge universale della natura e con essa il destino finale di stasi termodinamica (heath death) della materia. La nozione chiave è qui quella di clinamen, il resoconto che Lucrezio fa dell’imprevedibile oscillazione degli atomi che porta all’emergere della materia. Un esempio ulteriore viene dalla cibernetica. Secondo N. Katherine Hayles (1999), nello sviluppo di quest’ultima vanno distinte tre fasi. La prima, dal dopoguerra agli anni Sessanta, assume l’omeostasi quale nozione cruciale.

Il tema è come macchine, organismi e organizzazioni controllano le proprie operazioni e integrità in un contesto da cui provengono disturbi. La seconda, che inizia nei Sessanta e si prolunga fino agli Ottanta, si basa sul concetto di feedback, da cui deriva la nozione di riflessività attorno a cui si articola la teoria dei “sistemi autopoietici” (Maturana e Varela 1985), fisicamente aperti ma chiusi dal punto di vista degli schemi e codici mediante i quali reagiscono all’ambiente. La fase più recente è quella dell’intelligenza artificiale, dove l’attenzione passa dall’auto-organizzazione alle proprietà emergenti, con la programmazione di reti informatiche che tentano di riprodurre le reti neurali e i processi evolutivi, in particolare in termini di capacità di auto-apprendimento. Il carattere contingente e disordinato di un mondo in cui naturale e artificiale sono sempre più indistinguibili è qui inteso come risorsa potente piuttosto che disturbo che i sistemi devono gestire.


In breve, almeno a partire dagli anni Settanta prende piede in una pluralità di campi una svolta, al tempo stesso descrittiva e normativa, circa la costituzione del mondo e la sua agibilità: dall’ordine al disordine e dalla prevedibilità all’indeterminazione. Questa visione considera la realtà come caratterizzata da incertezza e instabilità, viste come condizione e garanzia di dinamismo e vitalità. Non è dunque perseguendo il controllo attraverso chiusura, regolarizzazione e previsione, ma piuttosto “assecondando” o “cavalcando” imprevedibilità e contingenza che si possono perseguire i propri obiettivi. Emblematica è al riguardo la nozione di “antifragilità” proposta da Nassim Nicholas Taleb, autore che si è occupato in particolare di management del rischio. I sistemi fragili, egli dice, si basano su conoscenza, controllo e previsione probabilistica. La società moderna si è organizzata sviluppando “robustezza”, ossia capacità di resistere e riprendersi dopo uno shock, le cui caratteristiche devono però essere previste. Ciò lascia sguarniti di fronte a “cigni neri”: eventi irregolari e imprevedibili di enorme portata. I sistemi antifragili sono quelli che sopportano casualità, incertezza, volatilità ed errori. Sono in grado di affrontare, e anzi di “amare”, ciò che non si sa, traendo vantaggio dall’indeterminazione e dal disordine. «L’antifragilità ha la singolare proprietà di permetterci di affrontare l’ignoto, di fare le cose senza capirle – e di farle bene […] prendendo decisioni non predittive in condizioni di incertezza negli affari, in politica, in medicina e nella vita in generale» (Taleb 2012: 4). Da notare che, secondo Taleb, non importa quale sia l’origine dell’incertezza, se la mancanza di conoscenza o il carattere caotico e imprevedibile della realtà, dato che le conseguenze sono all’atto pratico «del tutto equivalenti» (2012: 13). In altre parole, indeterminazione epistemica e ontologica sono, a tutti gli effetti, la stessa cosa. Il dualismo moderno tra mente e realtà appare qui completamente superato.


La tesi dell’antifragilità fa parte di «un’ampia e immensamente influente letteratura manageriale apparsa a partire dai primi anni ’80 [...] che celebra l’incertezza come tecnica di creatività imprenditoriale, [...] l’arte fluida del possibile» (O’Malley 2004: 3). Al contrario di Knight, il calcolo del rischio viene visto come eccezione e le scommesse ragionate su futuri imprevedibili come la regola. La turbolenza prodotta da commercio globale, concorrenza basata sull’innovazione, fluttuazione dei tassi di cambio e un ambiente fisico percepito come sempre più instabile richiedono flessibilità, adattabilità, capacità di “visione” e di anticipazione non predittiva basata su giudizio esperienziale e regole empiriche, scenari e aspettative (Brown e Michael 2003; Cooper 2010).

Il futuro va insomma affrontato «più o meno allo stesso modo in cui le persone si dedicano agli sport estremi» (O’Malley 2008: 73). Indeterminazione e turbolenza non significano più non-determinabilità limitativa, incontrollabilità paralizzante, ma assenza di vincoli, non-determinazione abilitante. Più il mondo è instabile, più esso è agibile (Pellizzoni 2011a). Sorprese e caratteri emergenti accrescono pericolo e insicurezza ma sono anche «al centro di ciò che è positivo e costruttivo» (O’Malley 2010: 502). I limiti di conoscenza e previsione si trasformano in opportunità per un’azione creativa, il cui valore è sancito a posteriori dal suo stesso successo. Di nuovo, in questa visione dell’attore e del suo ambiente operativo il dualismo tra soggetto e oggetto della conoscenza risulta superato. È un po’ come se il sapere prendesse forma insieme alla realtà che descrive; se il soggetto creasse il suo stesso oggetto, allo stesso modo in cui l’universo del big-bang crea lo spazio-tempo in cui la materia si dispiega.

«i fatti sono incerti, i valori in discussione,
la posta in gioco alta e le decisioni urgenti»

Questo cambio radicale di prospettiva non ha lasciato ovviamente intatto il lavoro scientifico. All’inizio degli anni Settanta il fisico nucleare Alvin Weinberg (1972) aveva coniato il termine “trans-scienza” per esprimere l’idea di una ricerca sempre più posta a confronto con questioni irriducibili al formato della sperimentazione di laboratorio, come nel caso della gestione dei rifiuti radioattivi. Negli anni successivi gli “esperimenti di vita reale” (Krohn e Weyer 1994) si sono moltiplicati. La gestione delle scorie nucleari rimane una questione di primo piano (van de Poel 2011), ma se ne sono aggiunte numerose altre, tra cui le tecnologie genetiche e le nanotecnologie, le reti informatiche e i big data, i campi elettromagnetici, il riscaldamento globale, le pandemie. Ciò che Silvio Funtowicz e Jerry Ravetz chiamano “scienza post-normale” è caratterizzata da situazioni ove «i fatti sono incerti, i valori in discussione, la posta in gioco alta e le decisioni urgenti» (1993: 744). In effetti, più che essere variabili indipendenti, incertezza e posta in gioco si determinano reciprocamente: sono le pretese crescenti di gestione tecnica di un mondo su cui la tecnica stessa impatta in modo sempre più marcato a estendere paradossalmente l’orizzonte di ciò che non si conosce ma può incidere sugli esiti dell’azione (Wynne 1992). Detto altrimenti, complessità, imprevedibilità e indeterminazione sono funzione diretta e non inversa del controllo tecnico della realtà materiale.


Tutto sta allora nel modo in cui ci si rapporta al non-sapere. La classica visione proattiva secondo cui i benefici dell’innovazione superano sempre, nel complesso, i costi implica un approccio “passivo” alla non conoscenza, nel senso che i limiti percepiti del sapere sono intenzionalmente trascurati nella pianificazione o l’azione (Gross 2022). Ciò sia perché quello che si sa è ritenuto sufficiente per gli scopi che si perseguono, sia perché si assume che quello che non si sa ed eventualmente produrrà effetti negativi può essere sistemato in futuro, grazie all’avanzamento della conoscenza. La non conoscenza viene invece resa “attiva” quando i limiti del sapere entrano a far parte della decisione. Questa è la logica della precauzione e in generale degli approcci decisionali che si incentrano sui cosiddetti “falsi negativi”: la possibilità di fenomeni non rilevati ma del cui eventuale verificarsi occorre tenere conto, per esempio progettando apparati tecnologici che siano reversibili o riparabili e duplicando le funzioni svolte dai singoli elementi a costo di un decremento di efficienza prestazionale misurata in termini assoluti, al netto di ogni perturbazione. In base alla logica dell’attivazione del non sapere si dovrebbe anche cercare di contenere il riscaldamento globale il più possibile, pur se i suoi effetti non possono essere definiti con precisione su alcuna scala territoriale.

Rispetto a ciò, il cambio di prospettiva avvenuto di recente può essere descritto come un’attivazione della non conoscenza di nuovo genere. L’idea è di lasciarla agire quale “nescienza”, costitutiva indeterminazione o inconoscibilità (inclusa la loro stessa portata: quanto è esteso il territorio dell’inconoscibile e dell’indeterminato), viste non più come problema ma come risorsa. Potremmo dire che la passivazione della non conoscenza, il ritenere irrilevante ciò che non si sa, si intensifica fino a rovesciarsi nel suo opposto. Quello che non si sa assume la massima rilevanza, ma non per includerlo in qualche modo nella decisione bensì per “surfare” sulla sua superficie, per scommetterci sopra. Vedremo più avanti esempi di questa strategia.


In tale quadro ciò che colpisce è che il congedo dal dualismo ontologico tra soggetto e oggetto della conoscenza, tra attore umano e mondo agito, non corrisponde a un indebolimento ma semmai a un rafforzamento della ragione strumentale. La combinazione, apparentemente incongrua, di indeterminazione e azione orientata allo scopo indica che la volontà di dominio ha preso strade nuove. Il superamento del dualismo ontologico mina alla radice la distinzione, cui si sono appoggiati pensatori come Habermas, massimo esponente della seconda generazione della Scuola di Francoforte, tra sfera delle relazioni sociali, da cui la ragione strumentale va bandita, e mondo materiale, dove essa trova applicazione. L’una cosa, anzi, presuppone l’altra in quanto, per «superare ogni repressione socialmente superflua, non potremo mai rinunciare a quello sfruttamento della natura esterna che ci è indispensabile per vivere» (Habermas 2000: 147). L’idea qui è quella tradizionale, secondo cui il progresso umano dipende da un crescente dominio della natura. Ciò che sta avvenendo è però qualcos’altro: il crollo della distinzione tra sociale e materiale, tecnico e naturale, nel segno dell’asservimento del mondo a disegni dominativi tanto più estesi e ambiziosi quanto meno esso appare composto di cose ontologicamente distinte da chi vi interagisce e le fa proprie.

Partecipa alla trasformazione

Iscriviti alla newsletter
di cheFare

Questa è la nostra informativa privacy.