Per Luciano Floridi, ‘l’intelligenza artificiale non si presenta sotto forma di androidi – che non servono a niente’

Scarica come pdf

Scarica l'articolo in PDF.

Per scaricare l’articolo in PDF bisogna essere iscritti alla newsletter di cheFare, completando il campo qui sotto l’iscrizione è automatica.

Inserisci i dati richiesti anche se sei già iscritto e usa un indirizzo email corretto e funzionante: ti manderemo una mail con il link per scaricare il PDF.


    Se inserisci il tuo indirizzo mail riceverai la nostra newsletter.

    image_pdfimage_print

    Luca Sossella Editore, con Emilia Romagna Teatro Fondazione e Gruppo Unipol, ha ideato il progetto  Oracoli. Saperi e pregiudizi ai tempi dell’Intelligenza Artificiale: una serie di iniziative integrate dedicate all’emergenza delle tecnologie intelligenti e al loro impatto su tutti gli aspetti dell’esistenza umana.

    1. Quattro lezioni-spettacolo a Bologna con esperti internazionali che ragioneranno sulle più importanti questioni etiche, filosofiche, politiche, sociali ed economiche connesse allo sviluppo dell’intelligenza artificiale.
    2. La pubblicazione Oracoli, curata da Paolo Gervasi e in edicola con Repubblica a Milano e in Emilia Romagna, che racconta il progetto, approfondisce la riflessione e si può scaricare in pdf qui.
    3. Una partnership con cheFare per diffondere online il dibattito sulle sfide culturali poste dall’intelligenza artificiale. Qui la serie.
    4. Produzione di video e di un libro sulle quattro lezioni-spettacolo.
    5. Durante la Notte di Radio3, la sera prima di ogni lezione-spettacolo, sarà trasmessa la lezione-spettacolo precedente.
    6. Le trasmissioni saranno pubblicate online sui portali di Rai Radio3 (Media partner di Oracoli), Rai Cultura e Rai Scuola e condivise sui loro canali social. 

    Oracoli prossimi appuntamenti chefare

    Ormai da parecchi anni, parlare dei pericoli legati all’intelligenza artificiale significa soprattutto una cosa: immergersi in scenari alla Skynet o alla Matrix e immaginare un futuro in cui la AI si rivelerà un rischio esistenziale per la specie umana. Visioni fantascientifiche che non hanno fatto solo la fortuna di numerosi film, ma anche dei vari saggi accademici che hanno dato ampio spazio a previsioni tanto catastrofiste quanto avventate.

    «C’è stata una corsa al titolo che fa notizia», spiega a cheFare Luciano Floridi, filosofo della tecnologia e docente di Oxford. «In tutto questo abbiamo responsabilità anche noi accademici: ci siamo infilati in quello che personalmente considero un turbinio di sciocchezze e abbiamo venduto distrazione di massa. All’inizio è stato anche divertente occuparsi di Skynet e, fino a 3 o 4 anni fa, si poteva perdonare l’occasionale libro che dava spazio a questa disinformazione. Oggi invece è irresponsabile, perché ci sono problemi molto più seri da affrontare: il mondo sta cambiando rapidamente ed è su questo cambiamento che dobbiamo riflettere con la profondità necessaria».

    Dal pregiudizio degli algoritmi all’invasione della privacy; dai pericoli legati al riconoscimento facciale fino alla cessione della nostra libertà di scelta: tutti questi temi – che sono centrali per capire come stia cambiando la nostra epoca e quali siano le sfide per il futuro – cedono spesso il passo alle visioni cyberpunk sulla singolarità tecnologica; con il risultato che, ancora oggi, sul tema dell’intelligenza artificiale si fa parecchia confusione.

    Amazon, Netflix, i dispositivi fotografici degli smartphone: l’intelligenza artificiale non si presenta sotto forma di androidi, ma dietro le quinte degli strumenti che usiamo tutti i giorni

    «Si parla di AI dotate di coscienza o di androidi che ci salutano quando torniamo a casa: scenari che non stanno né in cielo né in terra», prosegue Floridi. «L’effetto di tutto questo è che ai convegni capita ancora che mi chiedano se ho mai avuto a che fare con l’intelligenza artificiale. A quel punto, è solo spiegando i meccanismi dietro ai suggerimenti di Amazon o di Netflix, o come faccia uno smartphone a scattare fotografie perfette, che le persone iniziano a capire quale sia la realtà del mondo della AI. L’intelligenza artificiale non si presenta sotto forma di androidi – che non servono a niente – ma dietro le quinte degli strumenti che usiamo tutti i giorni. Il nostro compito, allora, non dev’essere di preoccuparci di scenari fantascientifici, ma di lavorare affinché la AI porti beneficio a sempre più persone; cosa che finora non è avvenuta».

    Seguendo il celebre aforisma di William Gibson, insomma, si potrebbe dire che il futuro è già qui, solo che non è equamente distribuito. «Ed è questo il problema più grande che dobbiamo affrontare: oggi ci sono 700 milioni di persone che non hanno accesso all’acqua potabile e altre che non hanno accesso alle cure mediche», spiega sempre Floridi. «Sotto questi aspetti l’intelligenza artificiale può dare una mano importante; per esempio nella razionalizzazione e distribuzione delle risorse e nel campo della diagnostica: dalla predizione delle malattie alla scelta della cura più adatta. Dobbiamo iniziare da progressi sociali fattibili e cercare di usare queste grandi tecnologie per fare la differenza per milioni di persone».

    I limiti dell’intelligenza artificiale

    Questo scollamento tra potenzialità e pericoli reali e quelli invece di stampo fantascientifico si è mostrato in tutta la sua evidenza durante la dimostrazione – avvenuta nel maggio 2018 – di Google Duplex, un programma in grado di telefonare a un ristorante e prenotare un appuntamento senza che la persona all’altro capo del telefono si renda conto di avere a che fare con un software. Inevitabilmente, nei giorni successivi alla dimostrazione di Google, la domanda che ci si è posti è stata soprattutto una: siamo di fronte all’alba di una nuova era, in cui le AI saranno in grado di comunicare allo stesso livello degli esseri umani?

    La situazione, invece, è completamente diversa: come mostrato da un’analisi dello scienziato informatico dell’Università di New York Gary Marcus, questo software di Google non rappresenta l’embrione di una AI davvero intelligente, come molti hanno sostenuto. In poche parole, la capacità di Google Duplex di prenotare il ristorante non è il primo passo verso obiettivi più ambiziosi e generali: la verità – sostiene sempre Marcus – è che gli esperti di intelligenza artificiale non sono nemmeno certi che sia possibile fare meglio di così. Le AI oggi possono infatti occuparsi solo di campi estremamente specifici e delimitati; mentre le conversazioni non predefinite, in cui i sistemi di intelligenza artificiale affrontano una vasta gamma di argomenti, non sono nemmeno all’orizzonte.

    Tutto questo per una semplice ragione: il deep learning (l’algoritmo alla base degli attuali sistemi di intelligenza artificiale) necessita di un addestramento basato su centinaia di migliaia di dati relativi a un settore ben preciso. Per compiere il passo successivo, e creare una AI in grado di affrontare qualunque argomento, sarebbe invece necessario dotare questi strumenti della capacità di astrazione e generalizzazione tipica dell’essere umano. Un obiettivo che, per il futuro a venire, sembra essere semplicemente irrealizzabile.

    Le AI oggi possono occuparsi solo di campi estremamente specifici e delimitati; mentre le conversazioni non predefinite, in cui i sistemi di intelligenza artificiale affrontano una vasta gamma di argomenti, non sono nemmeno all’orizzonte

    «Parlando di intelligenza artificiale, mi è capitato più volte di usare questa analogia: salire su un albero non è il primo passo per arrivare sulla Luna, ma è la fine della salita», conferma Luciano Floridi. «Posso cercare alberi sempre più alti sui quali arrampicarmi, ma questo non significa che un giorno riuscirò a raggiungere la Luna. C’è un limite a quello che possiamo conquistare: non arriveremo all’intelligenza artificiale di livello umano o alla coscienza dei robot. Per questo ritengo che, in futuro, lo sviluppo della AI dovrà essere più in orizzontale che in verticale: dobbiamo trovare nuovi settori nei quali intervenire e ottenere più efficacia per un minor costo».

    I limiti esemplificati da un sistema come Google Duplex sono gli stessi a cui sta andando incontro un settore come quello delle self driving cars. La crescente automazione delle automobili ha fatto immaginare che, nel giro di pochi anni, sarebbero entrati in produzione dei veicoli in grado di navigare in totale autonomia per le città, portandoci da un luogo all’altro mentre noi leggiamo un libro, chattiamo su WhatsApp o schiacciamo un pisolino.

    Nonostante gli immensi investimenti riversati in questo settore, il rischio è di andare incontro a una colossale delusione: come detto, le intelligenze artificiali sono attendibili solo quando possono fare affidamento su enormi quantità di dati che consentono loro di scovare delle regolarità; ma bastano piccole variazioni e imprevisti per mandare in tilt l’algoritmo.

    Ovviamente, quando si parla di automobili che si muovono nel traffico, gli eventi imprevisti non sono per niente rari; al contrario: sono all’ordine del giorno. «Non è un caso che alcune aziende stiano già uscendo da questo mercato», spiega ancora Floridi. «Questo, comunque, non significa che le auto autonome non abbiano futuro, ma soltanto che dobbiamo rivedere le nostre aspettative. Ci sono alcune situazioni in cui un veicolo completamente autonomo potrebbe già oggi funzionare; per esempio in un aeroporto, in cui le self driving cars possono spostare i dipendenti o portare i passeggeri dal gate all’aereo. Ma non penso che sia realistico immaginare un’auto in grado di muoversi tra i vicoli delle città, di condurci su strade sterrate o prive di strisce pedonali. Sono pronto a giocarmici lo stipendio».

    Comodità o libertà?

    Una soluzione, immaginata da uno dei massimi esperti mondiali del deep learning, Andrew Ng, richiede un totale cambio di prospettiva: invece di immaginare auto autonome in grado di gestire la complessità delle nostre città, dovremmo forse progettare strade – e quindi città – pensate appositamente per le auto autonome. Più che attendersi che le AI si adattino al nostro mondo, insomma, siamo noi che dobbiamo adattare il nostro mondo a loro. Ma è davvero una prospettiva che vale la pena di seguire?

    «Lo stesso si può dire anche per Google Duplex e gli altri assistenti digitali: visto che non sempre capiscono i nostri comandi, siamo noi che stiamo imparando a parlare in un modo che consente loro di capirci», prosegue il docente di Oxford. «Non è niente di nuovo: da sempre l’uomo si adatta alle tecnologie che usa; d’altra parte, siamo noi a essere flessibili e sono loro a essere invece rigide. Tra le varie preoccupazioni concrete sollevate dall’intelligenza artificiale, quindi, c’è anche questa: chi si adatta a chi? L’altro grosso problema che vedo è che non solo noi ci adattiamo alle macchine e non viceversa, ma che queste tecnologie sono costruite per gestire le nostre scelte e preferenze».

    A proposito dei sistemi di intelligenza artificiale con cui abbiamo a che fare tutti i giorni attraverso smartphone e pc e della loro influenza sulle nostre scelte, leggi anche Tecniche pratiche di offuscamento, di Antonio Sgobba

    Si tratta, in estrema sintesi, del classico problema legato ai consigli per gli acquisti di Amazon o ai suggerimenti di Netflix e Spotify. E al timore che, in questo modo, la nostra libertà di scelta si riduca sempre di più. «Tutti questi sistemi di raccomandazione ci invitano gentilmente a prendere una scelta al posto di un’altra. Vale anche per strumenti come lo smartwatch: personalmente, mi sono autoimposto di utilizzarlo e di sfruttare il contapassi per muovermi di più; ma non tutti fanno del self-nudging consapevole (dove per nudging si intende la “spintarella” che ci viene data da sistemi che, per esempio, ci invitano a fare più attività fisica se si accorgono che nei giorni precedenti siamo stati un po’ troppo pigri, nda)».

    «Questo nudging costante, invisibile e che è parte di sempre più strumenti è in grado di fare una bella differenza», prosegue Floridi. «Col tempo, ci accorgeremo magari di non aver preso alcune decisioni in autonomia o di aver compiuto delle scelte senza nemmeno saperlo. Attenzione: non si parla del Grande Fratello o di qualche complotto, questi meccanismi sono nella natura delle tecnologie che stiamo sviluppando. Eppure, i libri che ho comprato su suggerimento di Amazon li volevo davvero leggere? I video correlati di YouTube volevo davvero guardarli? Potremmo considerare questi aspetti come qualcosa di poco grave, e in parte lo sono. Nel giro di qualche anno, però, ci troveremo a essere sottoposti costantemente ai consigli di questa AI un po’ rigida e un po’ stupida, che in continuazione, ogni giorno, ci manda raccomandazioni e suggerimenti a cui noi reagiamo in maniera magari non del tutto consapevole. Bisognerebbe rifletterci maggiormente sopra, non vorrei che la nostra vita finisse eccessivamente nelle mani dei nostri strumenti».

    Nello stesso modo in cui, in politica, bisogna scegliere tra libertà e sicurezza (non si può avere il massimo di entrambe), nel caso degli algoritmi di intelligenza artificiale è necessario avere maggior consapevolezza di quanto si stia barattando la nostra libertà di scelta in nome della comodità. «È così», conferma Floridi. «L’esercizio della libertà costa fatica: pensare non è una cosa naturale, ma un gusto che si acquisisce e va tenuto in allenamento. Ma siccome tutto ciò è faticoso, si rischia di lasciarsi eccessivamente guidare dalla AI per poi ritrovarsi a seguire delle istruzioni. Non bisogna però scadere nelle cospirazioni: non è che dietro Amazon ci sia chissà quale piano malvagio; stanno semplicemente massimizzando le capacità dei loro prodotti».

    Il futuro dell’intelligenza artificiale

    Nonostante i rischi a cui l’intelligenza artificiale ci pone di fronte siano molto più concreti di quelli fantascientifici paventati da figure come Elon Musk – e nonostante i limiti evidenziati – sarebbe un errore pensare che l’evoluzione del deep learning sia già arrivata al termine. Un esempio si è avuto quando, qualche settimana fa, su tutti i giornali è circolata la notizia dei “volti che non esistono creati dall’intelligenza artificiale”.

    L’aspetto più importante di quella vicenda è però passato in secondo piano ed è rappresentato dal sistema utilizzato per creare i volti: il general adversarial network (GAN). A differenza degli altri network neurali, nel caso del GAN non lavora un solo algoritmo, ma ne vengono utilizzati due in competizione tra di loro.

    Per iniziare, si forniscono al primo algoritmo – chiamato generatore – i dati necessari all’addestramento (per esempio, centinaia di migliaia di foto di volti umani). Il generatore impara così a creare nuove immagini, voci o testi indistinguibili da quelli del database a sua disposizione. Il secondo, chiamato discriminatore, dovrà determinare se i risultati che gli vengono sottoposti sono reali o sono “fake” creati dal primo algoritmo.

    Ogni volta che il discriminatore rifiuta correttamente ciò che gli viene sottoposto (accorgendosi quindi che è opera del generatore), il lavoro ricomincia da capo e il primo algoritmo viene spinto a migliorarsi per riuscire a ingannare il suo avversario. La competizione tra i due algoritmi termina quando il discriminatore non è più in grado di distinguere se ciò che gli viene sottoposto sia reale o sia un falso creato dal generatore.

    Nonostante il successo ottenuto con i volti umani, il GAN ha però mostrato parecchie difficoltà in altre situazioni. Per esempio, non è riuscito con successo a ricreare dei gatti, a causa delle posizioni molto diverse che possono assumere, del maggior numero di elementi da collocare correttamente e della scarsa collaborazione dei gatti nel mettersi ordinatamente in posa, come invece fanno gli umani che vengono fotografati in primo piano. Il risultato è un database molto meno ordinato e che rende più difficile all’algoritmo la comprensione di quale siano le fattezze dei gatti. Non solo, tra le foto di gatti usate come database per l’addestramento c’erano innumerevoli meme: di conseguenza, il software si è convinto che la parte testuale del meme facesse parte di ciò che un gatto è, provando così a riprodurla in maniera incomprensibile.

    Tutto ciò, ancora una volta, ci fornisce una dimostrazione evidente di quali siano i limiti delle AI e di quanto un algoritmo, seppur in grado di riconoscere un gatto, non abbia la più pallida idea di cosa esso sia. Questo, però, non deve far sottovalutare l’importanza di questa nuova evoluzione che migliora il lavoro degli algoritmi attraverso la competizione. «È un passo significativo», conferma Luciano Floridi. «Il futuro delle AI passa anche da questa competizione all’interno dell’adversarial network. La loro importanza, però, si capisce soprattutto se viene vista in un ambito più ampio, che non fa riferimento solo alla qualità dei risultati ma alla provenienza dei dati utilizzati».

    «Fino a un paio d’anni fa si diceva che la AI ha successo perché oggi abbiamo a disposizione molti dati, il che è vero, e che avrà sempre bisogno di molti dati; ma questo è invece falso. Molte aziende oggi sono sicure che i problemi di privacy – legati anche all’utilizzo dei dati che vengono impiegati per l’addestramento delle intelligenze artificiali – saranno presto risolti, perché questi dati verranno creati direttamente in casa; sfruttando i cosiddetti dati sintetici».

    Questo è uno degli aspetti più importanti del GAN: la capacità di creare dei dati sintetici (in questo caso i volti) che possono a loro volta essere utilizzati per l’addestramento di altri algoritmi. «Nel caso dei volti siamo in una fase a metà strada: dei due algoritmi in competizione, uno solo non aveva accesso ad alcun database di volti umani e ha generato dati sintetici. In altre situazioni, invece, si può andare completamente verso il dato sintetico. In particolar modo, nelle situazioni in cui un algoritmo viene addestrato a un gioco le cui regole sono costitutive del gioco stesso».

    Dove le regole costituiscono il gioco stesso, è possibile addestrare delle macchine utilizzando solo ed esclusivamente dati sintetici

    Per chiarire l’esempio, basti pensare agli scacchi. Senza regole non esiste questo gioco: le regole normative sono ciò che permette agli scacchi di essere giocati. Il calcio, al contrario, nasce dal prendere a calci una palla e solo successivamente si dota di regole proprie. «Dove le regole costituiscono il gioco stesso, è possibile addestrare delle macchine utilizzando solo ed esclusivamente dati sintetici», prosegue Floridi. «È per questo che AlphaGo è diventato il miglior giocatore di scacchi di tutti i tempi esercitandosi solo per nove ore giocando contro se stesso: non aveva bisogno di alcun dato storico con cui lavorare».

    Affinché questo sistema possa avere un impatto sulla società, bisogna però capire quali siano gli ambiti in cui è possibile estrarre in maniera chiara le regole costitutive dell’attività stessa: «In generale sono dei giochi da tavolo: il Go, gli scacchi, il monopoli. In questi casi si può creare una banca dati sintetica e il sistema diventerà più bravo di qualunque essere umano; ma questi casi non sono particolarmente numerosi».

    La differenza tra sistemi che si basano su regole costitutive e gli altri è, in un certo senso, anche alla base della differenza tra la AI vecchia maniera (quella cosiddetta simbolica) e la AI più recente, basata invece sui dati e sulle reti neurali. Mentre la prima sfrutta le norme che le vengono inculcate dall’alto, e funziona quindi alla perfezione quando ci si trova di fronte a regole chiare e inequivocabili; la seconda utilizza invece i dati senza conoscere le regole: un approccio “dal basso” che le permette di apprendere anche in settori pieni di ambiguità, com’è il caso del linguaggio. Quest’ultima è quella che oggi viene utilizzata nella maggior parte degli ambiti, mentre quella simbolica – dopo un periodo di successo nella seconda metà del ventesimo secolo – è stata gradualmente abbandonata in favore del deep learning.

    Oggi, però, sembra sul punto di vivere una seconda giovinezza: «La AI simbolica e quella basata sulle reti neurali sono due mondi molto diversi e che si parlano poco», conclude Floridi. «Eppure possono interagire in maniera molto efficace laddove c’è bisogno di entrambe e dove possono quindi completarsi a vicenda. Trovare pattern regolari in un enorme banca dati è un lavoro adatto ai network neurali, che nascono appositamente per quello. Se invece bisogna accertarsi che i software facciano sempre e soltanto ciò che noi vogliamo che loro facciano, allora c’è bisogno della struttura logica della AI simbolica. È uno strumento molto dispendioso, che si utilizza per esempio per assicurarsi che i sistemi delle centrali nucleari non abbiano comportamenti imprevedibili. A questo proposito, è probabile che una nuova frontiera per l’intelligenza artificiale sarà utilizzare una AI vecchia maniera come forma di controllo e comando di una rete neurale; approfittando della sua natura logico-simbolica e quindi della possibilità di dimostrare e spiegare i suoi comportamenti. Stiamo parlando di ricerca avanzata che al momento è solo nei laboratori; ma è una novità che presto prenderà piede».

    Non solo competizione tra algoritmi quindi; ma anche collaborazione tra due scuole di pensiero rivali per creare una AI ibrida in grado, probabilmente, di risolvere l’annoso problema della black box dei network neurali. Di fronte a queste evoluzioni concrete e ai rischi e alle sfide insite in una società in cui le AI ricoprono un ruolo sempre più importante, continuare a preoccuparsi di Skynet e della rivolta dei robot non può che essere visto per quello che è: una clamorosa perdita di tempo.

    Note