La dittatura degli algoritmi prima dei computer, una conversazione con Paolo Zellini

Scarica come pdf

Scarica l'articolo in PDF.

Per scaricare l’articolo in PDF bisogna essere iscritti alla newsletter di cheFare, completando il campo qui sotto l’iscrizione è automatica.

Inserisci i dati richiesti anche se sei già iscritto e usa un indirizzo email corretto e funzionante: ti manderemo una mail con il link per scaricare il PDF.


    Se inserisci il tuo indirizzo mail riceverai la nostra newsletter.

    image_pdfimage_print

    Paolo Zellini è un matematico italiano, professore di Analisi Numerica all’Università di Roma Tor Vergata. Si è distinto negli ultimi decenni per una serie di saggi sul pensiero matematico, osservato però con uno sguardo profondamente umanistico: il libro più famoso, Breve storia dell’infinito (1980), è stato citato da Italo Calvino nelle sue Lezioni americane come il libro “che ho più letto, riletto e meditato”. Negli ultimi anni ha pubblicato La matematica degli dèi e algoritmi degli uomini (2016) e La dittatura del calcolo (2018). Tutti i suoi libri sono editi da Adelphi.

    Zanni: il suo libro “La dittatura del calcolo” è una sorta di unicum nel panorama dei testi sull’età digitale che stiamo vivendo: è un libro che parte dal principio, raccontando la storia dell’analisi numerica, cioè la storia della disciplina matematica che gli algoritmi li studia da secoli, ben prima dell’avvento dei computer. Nei suoi libri lei riesce a riprendere anche alcuni temi che affondano nel mito, nelle origini della matematica, in zone remote nel tempo e nello spazio, come l’India dei Veda e la Grecia di Euclide.

    Zellini: nelle civiltà antiche, nel pensiero matematico antico ma non solo matematico, cominciamo a ad accorgerci di certi modi di pensare, di certe urgenze, di certe ricerche che poi avranno un’importanza capitale, anche per lo sviluppo della scienza successiva.  Uno potrebbe dire, chiaramente, che la scienza è cumulativa e quindi quello che si sa oggi dipende da quello che si sapeva ieri.

    Però, nel caso della matematica, credo che si possano stabilire dei nessi molto evidenti, molto precisi che riguardano proprio alcune formule, dietro le quali uno trova un pensiero, formulato probabilmente nella metafisica indiana la prima volta, e successivamente anche in Grecia, e che si ritrova ai giorni nostri anche nell’analisi moderna. Le formule finiscono per essere quasi le stesse: questa è la cosa stupefacente. Non è così facile trovarne la ragione. Ma questo nesso c’è.

    Uno di questi elementi è senz’altro il “problema dell’accrescimento”: nell’antichità ci si è posto il problema di come un corpo potesse crescere mantenendosi però sempre uguale a se stesso. Come una figura geometrica possa crescere rimanendo sempre la stessa. Questo è uno dei temi più importanti che troviamo nella matematica vedica: siamo nel 600, 700 a.C. – ci sono diversi trattati dislocati nel tempo ed è difficile stabilire una data precisa.

    Per esempio l’altare del fuoco – il vedi – si deve poter ingrandire fino a cento volte mantenendo inalterata la forma, e lo si fa con una geometria, già abbastanza interessante per il tempo, paragonabile a quella di Euclide, in cui si usano degli strumenti come lo gnomone quadrato che poi avrà un ruolo predominante in tutta l’algebra moderna;  questo strumento non sarà più riconoscibile come “figura geometrica”, come si concepiva inizialmente, ma come un prolungamento algebrico di questa figura geometrica. Lo strumento rimane, ma non si riconosceranno più le origini, che sono di carattere geometrico.

    Oltre il “problema dell’accrescimento”, c’è il “problema della potenza”, in greco detta dynamis.  Alcune figure, per esempio dei segmenti lineari, potevano avere la potenza di espandersi nello spazio, per esempio un segmento poteva diventare il quadrato costruito su questo segmento. In questo caso, per i greci, dynamis è sia il quadrato sia il lato che l’ha generato: mentre nella matematica che conosciamo la potenza seconda di x è x^2, cioè, geometricamente, il quadrato costruito sul lato x.

    Invece inizialmente la dynamis, non era solo il quadrato, ma x stesso! Poteva essere ambiguamente l’una e l’altra cosa, e questo denotava naturalmente l’idea della produzione di qualche cosa da qualche cos’altro. Ci sono dei termini analoghi alla dynamis greca nella matematica vedica del primo millennio avanti Cristo e anche nel calcolo babilonese.

    Quindi, il tema della crescita e della dynamis erano diffusi, importanti, e ci sono formule dell’analisi moderna che sono proprio ricalcati su questo modo di pensare.

    Zanni: è molto affascinante vedere questa “sopravvivenza dell’antico” (per usare un’espressione cara a Aby Warburg) anche nella matematica. C’è ovviamente un lato se vuole più filosofico – che ho trovato magari accennato, nei suoi libri – che è una “potenza” del calcolo a cui noi ci affidiamo, potenza che spesso non sappiamo controllare. 

    Zellini: credo fosse Norbert Wiener, il fondatore della cibernetica che lei cita spesso, a usare la metafora dell’apprendista stregone, che evoca potenze che poi non sa governare.  Norbert Wiener sentiva il pericolo del calcolo. A lui interessava molto stabilirne alcuni principi e alcuni sviluppi, e le cose che ha fatto – proprio a livello matematico – sono estremamente interessanti, come per esempio il lavoro sulle serie temporali, in parallelo con Kolmogorov.

    C’è un pensiero preciso dietro quella matematica: l’idea per esempio di ritrovare dei nessi tra mente umana e meccanismo, che è poi l’idea alla base della cibernetica.

    Non perché l’uomo debba essere concepito come una macchina, assolutamente. La finalità era semplicemente vedere che ci sono delle possibili relazioni, delle possibili strutture (come il concetto di retroazione, che Wiener chiamava feeback) che ci sono da una parte e dall’altra: nella nostra psiche e anche fuori, nell’universo, anche in certi meccanismi semplici che usiamo normalmente nella vita quotidiana, come ad esempio un termostato.

    Di fatto, il feedback è alla base di moltissimi algoritmi che ci circondano, come tutti gli algoritmi basati su una iterazione, che “apprendono”. Dove Wiener percepiva un pericolo era nel trionfo assoluto del calcolo: il pericolo di una possibile interpretazione letterale da parte nostra, nelle funzionalità e nei risultati a cui può arrivare un calcolo.

    Siccome il calcolatore può fare delle cose che noi non possiamo fare (calcoli difficilissimi ad una velocità superlativa), noi umani siamo molto propensi a dargli credito. Wiener capiva che i processi computazionali, nella loro efficienza, non rispecchiano sempre le nostre intenzioni in ogni aspetto. Se noi diamo un ordine alla macchina, quest’ordine potrebbe non essere esattamente quello che noi vorremmo dargli.

    C’è un famoso racconto del terrore che Wiener citava sempre nei suoi scritti, La zampa di scimmia di William Jacobs, in cui c’è un amuleto magico, una zampa di scimmia secca, che desta la curiosità e la nostra bramosia del protagonista. Avendo a disposizione tre desideri, questi chiederà per prima cosa 200 sterline; subito suonano alla porta, e un uomo annuncia al protagonista che il figlio era appena morto per un incidente. Lui, come padre, aveva diritto ad un indennizzo di 200 sterline.

    Noi abbiamo un desiderio, e non ci rendiamo conto che questo desiderio può essere realizzato a spese di ciò che non avevamo previsto, ma che per noi è molto più importante.  Senza contare che l’incomprensione può essere pure del segno opposto: noi umani possiamo travisare i risultati di una macchina. C’è un libro interessante in circolazione, Armi di distruzione matematica di Cathy O’Neill, che fa molti esempi di algoritmi che noi usiamo, con i quali amministriamo molti aspetti nella nostra società, che però ci suggeriscono delle soluzioni che non sempre vanno incontro a criteri di equità, di giustizia, o anche solo di buonsenso.

    Zanni: un tema molto interessante, sempre nell’ambito dell’intelligenza artificiale, che è quello dove sono più forti le inquietudini, è nella rivoluzione del deep learning. 

    Sulla capacità che hanno le reti neurali di riprodurre i meccanismi effettivi dell’apprendimento umano, io non so dirle l’ultima parola. Io mi sono interessato a questi problemi soprattutto nei loro aspetti più matematici: in sostanza, sono calcolo del “minimo di una funzione”, cioè bisogna minimizzare l’errore, la discrepanza fra la risposta esatta che noi conosciamo e la risposta che ci dà la rete.

    Per esempio noi sappiamo che c’è una lettera dell’alfabeto, la conosciamo e la rete neurale deve imparare a riconoscerla. Durante questo “apprendimento”, prima di riuscirci può dare delle risposte anche molto incerte, poi man mano nel processo si tratta di minimizzare questo errore, cioè trovare un punto di minimo di una funzione.

    E allora anche qui abbiamo un processo computazionale, che è complesso: possono esserci dei malcondizionamenti, nel senso che piccole perturbazioni sui dati possiamo avere grandi perturbazioni sui risultati.

    Quindi non è che possiamo fidarci del tutto, perché per quanto potente sia lo strumento c’è sempre un quid di incertezza che riguarda la natura stessa del calcolo: la presenza di errori, i malcondizionamenti, di fenomeni di instabilità, che vanno tenuti presente e analizzati. Il rischio è prendere i risultati di un calcolo per oro colato, a cui dover credere per forza.

    Zanni: un altro tema che ricorre nei suoi libri è la rivincita del discreto sul continuo, la rivincita dell’analisi numerica sull’analisi continua. Una cosa divertente che lei affermava è che la comunità matematica ha passato decenni a “struggersi” sui fondamenti della matematica (nell’era di Russell, Hilbert, Gödel) e poi a un certo punto abbiamo tagliato la testa al toro, ci siamo messi semplicemente a calcolare. Lo studio degli algoritmi è quello che ha cambiato le cose.

    Zellini: la storia degli algoritmi si è innestata proprio su una crisi teorica, fondazionale che si è svolta tra fine Ottocento e primo Novecento, ed è stata un rimedio in un certo senso alla crisi dei paradossi dell’infinito. Non si riusciva a capire bene che cosa significasse l’infinito e come lo si potesse descrivere in termini finiti. Questo era un po’ il problema di fondo, affrontato da matematici come Hilbert o Weierstrass. Un po’ perché non era chiaro neanche cosa fosse il “finito”… Non solo l’infinito.

    Ad un certo punto le cose si sono chiarite quando si è iniziato a parlare non più di numeri finiti, ma di un processo finito. Cioè un calcolo che parte alcuni dati iniziali e dopo un certo numero di passi arriva ad un risultato.  Matematici come Dedekind iniziano a guardare anche i numeri stessi come risultato di un processo ricorsivo (infinito): quindi stranamente si rinizia a guardare l’algoritmo partendo da qui. L’algoritmo è qualcosa di finito, che termina, ma che è stato usato per descrivere l’infinito.

    Quindi nel Novecento avremo tutta la scienza degli algoritmi, soprattutto nell’era digitale, da fine anni ‘40 e ‘50, poi lo tsunami che conosciamo bene.

    Zanni: è affascinante vedere quanto fosse alieno il modo di pensare di Turing, perché se uno pensa anche il paper della macchina di Turing, è un paper matematico ma costruisce una “macchina astratta”, era già tra due mondi. 

    Si, Turing elabora un modello matematico, ma non è un modello completamente astratto, è un po’ ibrido. D’altronde è proprio l’algoritmo che è ibrido: non è solo una formula matematica ma è un processo che deve svolgersi nel tempo nello spazio. Nel tempo di esecuzione di una macchina e nello spazio tra memoria della macchina.

    Non può prescindere da questi fattori – che sono fattori un po’ spuri, nel mondo della matematica – che forniscono all’algoritmo un carattere ibrido fra il concreto e l’astratto, tra il fisico e il matematico.

    Note