I progetti dal basso hanno bisogno di teorie, non di algoritmi

Scarica come pdf

Scarica l'articolo in PDF.

Per scaricare l’articolo in PDF bisogna essere iscritti alla newsletter di cheFare, completando il campo qui sotto l’iscrizione è automatica.

Inserisci i dati richiesti anche se sei già iscritto e usa un indirizzo email corretto e funzionante: ti manderemo una mail con il link per scaricare il PDF.


    Se inserisci il tuo indirizzo mail riceverai la nostra newsletter.

    image_pdfimage_print

    Questo contributo fa parte di una serie di approfondimenti in collaborazione con il Master U-Rise dell’Università Iuav di Venezia sul rapporto tra rigenerazione urbana e innovazione sociale. Vuole discuterne gli impatti socio-spaziali, raccontare pratiche virtuose e allo stesso tempo imparare da ciò che non ha funzionato. I docenti del Master U-Rise ci accompagneranno in queste settimane con le loro analisi e riflessioni. Buona lettura.

    La promozione dello sviluppo locale richiede uno sforzo complesso. Se vi fossero ricette semplici in proposito non si giustificherebbero le differenze riscontrabili tra un territorio e l’altro. La Politica di Coesione dell’Unione Europea offre dati molto interessanti, con il suo budget di oltre 500 miliardi di euro nel settennio 2014-2020 concentrati su un obiettivo preciso: ridurre le distanze tra le regioni dell’Unione in termini di sviluppo misurato in base al PIL/pro-capite.

    Nonostante ciò, i dati ci dicono che tra il 2015 e il 2018 la distanza tra il PIL delle 50 regioni europee più ricche e quello  delle 50 più povere è cresciuta del 6,7% (elaborazione su dati Eurostat [NAMA_10R_2GDP], 2020). Anche all’interno delle regioni stesse, i divari aumentano e le mappe dello sviluppo appaiono sempre più polarizzate.

    Cosa c’è nel mix di ingredienti che denota il capitale territoriale delle aree che registrano le performance più elevate? Certamente un insieme di risorse variegate, distribuite tra molteplici attori connessi tra loro da un sistema di relazioni peculiare. Insomma, un’alchimia peculiare e caratteristica, difficilmente riproducibile e trasferibile.

    Ci si domanda quindi se lo sviluppo locale si possa generare; si possa governare. O se invece sia nelle mani di sistemi troppo complessi sui quali è impossibile imprimere una direzione strategica.

    Ci si domanda quindi se lo sviluppo locale si possa generare; si possa governare. O se invece sia nelle mani di sistemi troppo complessi sui quali è impossibile imprimere una direzione strategica.

    In Europa è stato immaginato e testato il cosiddetto CLLD – Community-Led Local Development, ovvero lo sviluppo guidato dalle comunità locali. L’approccio partecipativo dal basso è inteso promuovere responsabilità e impegno presso gli attori locali. Quando il processo di definizione strategica si avvia il gioco diventa collaborativo ed è possibile ospitare nelle arene decisionali interessi diversi e con essi conoscenze e mezzi diversificati.

    L’idea di partire dal locale per creare gruppi d’azione in grado di rappresentare le istanze e le capacità di un territorio pare convincente ma dalla teoria alla pratica il passaggio non è mai scontato, specialmente quando si tratta di metodi e tecniche di programmazione. Oggi la co-progettazione è un mantra, un assunto imprescindibile dei percorsi generativi per definizione aperti e partecipativi. Tuttavia, aggregare intelligenze, raccogliere al tavolo portatori di interesse differenti, non sono requisiti sufficienti per giungere a strategie davvero condivise.

    Al di là del consenso formale su una o più posizioni, ciò che determina la qualità del percorso di programmazione collaborativa è la capacità di giungere ad una comune definizione dei problemi e degli scopi e una condivisa comprensione delle dinamiche che intervengono lungo il continuum bisogno-soluzione. Non si tratta solo di generare consenso, non è un processo di negoziazione e mediazione: la pretesa è quella di riuscire a aumentare le capacità degli individui attraverso la collaborazione, dischiudendo risultati ai quali i singoli non sarebbero potuti giungere.

    Si parla di design strategico collaborativo per cercare di fotografare questo sforzo di composizione e ideazione, un processo che intende giocare e costruire sui significati per mezzo dell’interazione dialogante tra soggetti. Un modo di guardare ai processi di problem solving che mette al centro la nostra capacità di scambiare e generare conoscenza attraverso la relazione.

    Anche in questo caso però, il rischio di ritrovarsi in un discorso fiabesco è molto elevato: la magia del dialogo che crea soluzioni è troppo bella per essere vera. Se il design strategico può essere l’orizzonte e la collaborazione il vettore, a fare la differenza ci sono gli strumenti, le tecniche, i metodi.

    Intanto va fatta una precisazione: quando è utile o necessario mettere assieme più intelligenze in uno sforzo di problem solving?

    Horst Rittel e Melvin Webber nel 1973 avevano suggerito un nome per questo genere di problemi: wicked problems, ovvero letteralmente “problemi maledetti”.

    Per riprendere un contributo classico di Karen Christensen (1985) la risposta potrebbe essere: quando vi è incertezza sull’efficacia delle soluzioni e assenza di consenso sugli obiettivi. In altre parole, in tutti i casi in cui sia impossibile convergere contestualmente su una comune posizione in merito al know-how (come?) e al know-why (perché?).

    Horst Rittel e Melvin Webber nel 1973 avevano suggerito un nome per questo genere di problemi: wicked problems, ovvero letteralmente “problemi maledetti”. Questo tema ha ispirato fortemente le più recenti correnti di design thinking (vedi Richard Buchanan, 1992).

    In questo ambito non esistono soluzioni corrette o sbagliate ma solo migliori o peggiori. Troppa complessità per essere ridotti in dicotomia, troppe interconnessioni tra cause ed effetti per tracciare un sentiero lineare, troppi interessi coinvolti per essere interpretati in modo univoco. Una lettura di profonda ispirazione ci giunge da Jeffrey Conklin (2006), laddove suggerisce che non è possibile comprendere un “problema maledetto” fino a che non ne è stata formulata la soluzione.

    Le scelte imposte dalla definizione di strategie per lo sviluppo locale si calano appieno dentro questo scenario decisionale. Non c’è un punto di stop, il percorso di ricerca delle soluzioni procede di continuo attraverso prove ed errori, per tentativi e approssimazioni. Nell’ambito della teoria della complessità, questi vengono definiti Problemi non deterministici in tempo polinomiale (NP), stando a significare che non siamo nelle condizioni di stimare il tempo che si richiederebbe per eseguire un algoritmo in grado di determinare una soluzione al problema.

    È qui che si concentra il cuore della questione. Quando un motore di regole, per quanto complesso sia, non è in grado di definire una risposta lì emerge la necessità di agire con intelligenza umana. Ciò che distingue una intelligenza artificiale da una umana è infatti la capacità della prima di procedere attraverso algoritmi laddove la seconda ha un talento unico, frutto di millenni di evoluzione, nell’utilizzare le euristiche. Gli algoritmi sono insiemi di regole che consentono di far precipitare un ragionamento da una parte o dall’altra a seconda di parametri programmabili. Le euristiche sono scorciatoie fatte di semplificazioni, scelte arbitrarie, intuizioni. I primi dànno la garanzia della risposta corretta, le seconde restituiscono in fretta delle conclusioni probabilmente vere.

    Un piano per lo sviluppo locale deve incorporare una Teoria del Cambiamento (Carol Weiss, 1995), ovvero un sentiero logico che congiunge input-output-outcome-impact, mezzi e fini, legati da una funzione di senso. Questa teoria è necessariamente progressiva, ovvero ha bisogno di essere agita, attuata, per poter acquisire empiricamente dei fatti nuovi, delle conoscenze che siano in grado di contribuire alla elaborazione del problema. In questo circuito non si può che procedere euristicamente.

    Ecco allora la necessità del “fattore umano” e la sua capacità di farsi guidare da elementi di giudizio non razionali, quali principi etici, scelte valoriali, ecc. Rimane da chiedersi perché è necessario coinvolgere più persone attraverso il paradigma della collaborazione radicale.

    La risposta sta proprio nella necessità di neutralizzare i bias cognitivi, i difetti di ragionamento che si annidano dentro le nostre soggettive euristiche, sotto forma di pregiudizi, stereotipi, credenze acritiche, ecc. Il dialogo, per dirla con Danilo Dolci (Morgante, 2012), diventa lo strumento per costruire verità significative che nascono e si alimentano all’interno di un gruppo.

    Laddove l’obiettività è impossibile e la soggettività è una minaccia, l’intersoggettività diventa un compromesso necessario per dare un fondamento ad un ragionamento a cui si chiede di essere valido provvisoriamente, fino a prova contraria.

    In questo senso, per chi si cimenta in questo genere di prove, è d’obbligo abbracciare il fallimento come momento necessario e imprescindibile. Se problemi determinabili in via algoritmica possono essere gestiti top-down attraverso meccanismi di regolazione feedforward, attraverso un approccio normativo fatto di regole, i problemi NP, quelli maledetti, complessi, richiedono un andamento bottom-up e sistemi feedback in grado di leggere i segnali e attuare correttivi in modo costante.

    Incamerare l’errore tra i nostri strumenti di ricerca e azione è fondamentalmente l’invito che ci giunge nel 2012 da Nassim Nicholas Taleb con il suo concetto di “antifragilità”. Rinunciando alla pretesa di poter essere abbastanza forti da essere resistenti al fallimento, i nostri progetti di sviluppo devono invece assumere la fallibilità quale requisito per la scoperta di soluzioni realmente efficaci alla prova dei fatti.

    La chiave di tutto, per uscire dal loop infinito del testing senza fine, sta nella capacità di denotare le nostre strategie con un chiaro disegno valutativo. Le azioni di un Piano non sono solo processi per produrre output, sono esperimenti in atto e vanno seguiti con attenzione alla ricerca di prove, indizi, evidenze pro o contro la teoria che le ha pensate. A chiudere il cerchio, infatti, assieme alla intersoggettività nella costruzione del disegno strategico, vi è la possibilità di raccogliere dati obiettivi dalla fase di implementazione. Questi frammenti di conoscenza vanno importati nel sistema decisionale per correggere, ridefinire, potenziare le euristiche inizialmente adottate.

    Infatti, la sistematica rilevazione di prove d’evidenza alimenta un processo di codifica e progressiva definizione di teorie esplicative secondo il metodo definito Grounded Theory (Kathy Charmaz, 2009). Si parte dalla frammentazione del dato e dalla sua aggregazione per affinità, allo scopo di far emergere tassonomie di concetti e categorie. Successivamente si procede con la codifica assiale, volta a creare relazioni tra le categorie identificate, ponendole all’interno di una modello paradigmatico volto ad inserire un fenomeno in un contesto, definendo le condizioni causali e intervenienti e quindi le conseguenze. In tale modello viene calata la strategia di azione. Infine, si procede selettivamente verso l’astrazione, attraverso cicli di verifica di tipo deduttivo e induttivo fino alla affermazione di una teoria stabile, denotata da argomenti cogenti e una utile capacità predittiva.

    In conclusione, rinunciare al confortante automatismo del determinismo algoritmico è una necessità per chi è impegnato a generare soluzioni innovative sul campo, cercando risposte a bisogni complessi e/o emergenti. Tuttavia, ciò non significa abbandonarsi all’improvvisazione o rinunciare ad ogni pretesa di codifica del sapere. Con metodo e opportuni strumenti è possibile combinare intuito e ragione, pratica e teoria, qualità e quantità.

    Design maieutico e sviluppo delle politiche attraverso prove di evidenza

    Messina P., Liguoro L. (2017), Dalla pratica alla teoria e ritorno: il caso dello Spin off Universitario SHERPA SRL, paper presentato al convengo della SISP, Section 13 – Università e territorio. Terza missione, trasferimento tecnologico e scienza politica, Università di Urbino, 14-16 settembre (p.14).

    Bibliografia

    Buchanan, R (1992) Wicked problems in design thinking, in Design issues, vol. 8 issue 2 pp 5-21, The MIT Press, Cambridge, Massachusetts.

    Charmaz, K. (2009). Shifting the grounds: Constructivist grounded theory methods for the twenty-first century. In Morse, J., Stern, P., Corbin, J., Bowers, B., Charmaz, K., Clarke, A., Developing grounded theory: The second generation (pp. 127-154). Walnut Creek, CA: Left Coast Press.

    Conklin, J. (2006). Dialogue mapping: building shared understanding of wicked problems. Chichester, England: Wiley Publishing

    European Commission (2018) Guidance for Local Actors on Community-Led Local Development, EGESIF_18-0034-00

    Morgante, T. R. (2012) Danilo Dolci. Esperienza di una maieutica planetaria, Vertigo (Approdi).

    Rittel, H. W. J., Webber, M. M.  (1973) Dilemmas in a General Theory of Planning, in Policy Sciences, Vol. 4, No. 2, pp. 155-169, Springer.

    Taleb, N. N. (2012) Antifragile: Things That Gain from Disorder. New York: Random House.

    Weiss C., (1995), Nothing as Practical as Good Theory: Exploring Theory-Based Evaluation for Comprehensive Community Initiatives for Children and Families (Connell, J, Kubisch, A, Schorr, L, and Weiss, C. (Eds). ‘New Approaches to Evaluating Community Initiatives’ ed) Washington, DC: Aspen Institute.

    Design maieutico e sviluppo delle politiche attraverso prove di evidenza

    Note