Dobbiamo capire l’intelligenza artificiale per scegliere in quale società vogliamo vivere

Scarica come pdf

Scarica l'articolo in PDF.

Per scaricare l’articolo in PDF bisogna essere iscritti alla newsletter di cheFare, completando il campo qui sotto l’iscrizione è automatica.

Inserisci i dati richiesti anche se sei già iscritto e usa un indirizzo email corretto e funzionante: ti manderemo una mail con il link per scaricare il PDF.


    Se inserisci il tuo indirizzo mail riceverai la nostra newsletter.

    image_pdfimage_print

    Luca Sossella Editore, con Emilia Romagna Teatro Fondazione e Gruppo Unipol, ha ideato il progetto Oracoli. Saperi e pregiudizi ai tempi dell’Intelligenza Artificiale: una serie di iniziative integrate dedicate all’emergenza delle tecnologie intelligenti e al loro impatto su tutti gli aspetti dell’esistenza umana.

    1. Quattro lezioni-spettacolo a Bologna con esperti internazionali che ragioneranno sulle più importanti questioni etiche, filosofiche, politiche, sociali ed economiche connesse allo sviluppo dell’intelligenza artificiale.
    2. La pubblicazione Oracoli, curata da Paolo Gervasi e in edicola con Repubblica a Milano e in Emilia Romagna, che racconta il progetto, approfondisce la riflessione e si può scaricare in pdf qui.
    3. Una partnership con cheFare per diffondere online il dibattito sulle sfide culturali poste dall’intelligenza artificiale. Qui la serie.
    4. Produzione di video e di un libro sulle quattro lezioni-spettacolo.
    5. Durante la Notte di Radio3, la sera prima di ogni lezione-spettacolo, sarà trasmessa la lezione-spettacolo precedente.
    6. Le trasmissioni saranno pubblicate online sui portali di Rai Radio3 (Media partner di Oracoli), Rai Cultura e Rai Scuola e condivise sui loro canali social.

    L’intelligenza artificiale (IA) e il suo potenziale impatto sociale sono un tema caldissimo nel dibattito pubblico contemporaneo. Quello che per anni è sembrato essere «il futuro» o la frontiera tecnologica finale, ora è arrivato e sta trovando applicazioni sempre più ampie.

    Non avrebbe quindi più senso parlare dell’IA come di qualcosa in procinto di cambiare gli equilibri sociali vigenti o di modificare alcuni assunti tecnologici correnti: in molti settori, l’IA ha già quel tipo di impatto e con risultati visibili.

    Per questo, il modo in cui diamo senso all’IA e le scelte narrative con cui viene presentata sono cruciali per destinarle un ruolo nella società.

    In un articolo del 2016, sostanzialmente già antico per i ritmi dello sviluppo tecnologico, la ricercatrice Kate Crawford, forse l’accademica che sta producendo i contributi più importanti sul tema dell’impatto sociale di queste tecnologie, scriveva che «l’intelligenza artificiale è difficile da vedere». E i suoi impatti sociali ancora di più.

    In un paper pubblicato di recente dal journal Convergence il ricercatore Paolo Bory ha analizzato le evoluzioni di alcune narrative fondamentali con cui è stata descritta l’IA, guardando a due eventi cardine della sua storia: la partita a scacchi tra Kasparov e il supercomputer IBM DeepBlue e la sfida a Go tra Lee Sedol e AlphaGo, la IA di Google DeepMind.

    Nel suo articolo, Bory mostra l’evoluzione di queste narrative tra il 1997 e il 2016, periodo in cui si è passati da descrizioni che vedevano l’IA come un hardware oscuro, i cui log non erano disponibili, ma human-like nell’approccio agli scacchi, ad altre che, invece, davano forma all’IA come un software trasparente dai tratti non umani, se non quasi divini.

    Questa riflessone sul modo in cui diamo senso all’IA è cruciale per comprendere l’impatto che le narrative scelte dalle aziende o degli altri stakeholder del settore potrebbero avere nel guidare l’applicazione dell’IA nella società e nei suoi contesti applicativi più sensibili. Ma, complessivamente, come parliamo oggi di intelligenza artificiale, e che ruolo le stiamo assegnando?

    Per fornire un primo contributo importante allo studio del dibattito pubblico sull’IA, il Reuters Institute for the Study of Journalism (RISJ) di Oxford ha pubblicato di recente un’analisi sulla copertura mediatica del tema nel Regno Unito.

    I risultati mostrano come il discorso sia dominato dalle aziende, dagli annunci corporate o dai lanci di nuovi prodotti commerciali, con addirittura un 12% di articoli complessivi dedicato al solo Elon Musk.

    Dai dati del RISJ emerge anche una tendenza chiara: i nuovi prodotti disponibili o le tecnologie del settore lanciate sul mercato sono ritratte spesso come soluzioni ottimali a problemi pubblici, senza una reale analisi delle questioni in gioco – a cominciare dall’effettiva possibilità che l’IA sia davvero la soluzione migliore per quelle questioni – e senza tenere in considerazione i dibattiti accademici ed etici correnti.

    Vi sarebbe, quindi, un approccio profondamente determinista all’intelligenza artificiale, guidato da quella forma mentis che Morozov già qualche anno fa chiamava ‘soluzionismo’, votata ad attribuire alla tecnologia la capacità innata di essere soluzione a questioni sociali complesse.

    In questo contesto, l’agenda del dibattito pubblico sembra perdere di vista o sottovalutare alcune tra le più controverse forme di applicazione dell’intelligenza artificiale, per altro anche le più concrete. I robot che sostituiscono gli umani, la rivolta della macchine e la potenziale ascesa di una super-intelligenza di livello umano – il Terminator – sono topoi che ricorrono di frequente quando si parla o si legge di questo tema. La loro centralità sembra guidata soprattutto dall’ossessione di voler antropomorfizzare l’IA, specialmente nella sua componente robotica che mima o cerca di emulare atteggiamenti e azioni umane.

    Ma se questi temi sono certamente importanti e da includere nel dibattito complessivo sull’IA, un aspetto cruciale sembra invece etrascurato: nelle sue più pervasive applicazioni attuali, l’IA riguarda i dati e la loro elaborazione su larga scala.

    I sistemi di machine learning, che imparano a prendere decisioni o a svolgere funzioni umane sulla base dei dati di input che ricevono dai loro programmatori, guidano già ora numerose funzioni sociali, molte delle quali presentano anche dei profili di criticità preoccupanti.

    Quali strumenti legati all’IA sono in possesso delle amministrazioni pubbliche? Come vengono utilizzati? A quali dati hanno accesso? Entro quali framework legali operano? La comprensione della posta in gioco dipende da queste domande

    I progressi della robotica di aziende come Boston Dynamics, scientificamente di grande peso e spettacolari nelle loro presentazioni, non possono offuscare il peso che il machine learning ha già oggi. Si tratta di qualcosa certamente più difficile da vedere, per parafrasare nuovamente Kate Crawford, ma è proprio qui che un assessment etico e di policy è più urgente.

    Quali sono gli strumenti di questo tipo in possesso delle amministrazioni pubbliche? Come vengono utilizzati? A quali dati hanno accesso? Entro quali framework legali operano? Attorno a quesiti simili si gioca la possibilità di avere una reale comprensione di cosa sia in gioco con l’aumento dell’incidenza dell’intelligenza artificiale nel contemporaneo.

    I meccanismi o gli algoritmi di machine learning sfruttano «relazioni comuni tra i dati per svolgere funzioni specifiche» e la loro componente “intelligente” è data dalla capacità di imparare meglio a fare ciò per cui sono stati programmati. Inevitabilmente, i bias contenuti nei dati saranno anche riflessi nel comportamento dei sistemi: due libri, il primo di recente pubblicazione e il secondo imminente, hanno indagato i possibili bias del machine learning: Algorithms of Oppression di Safiya Umoja Noble, che ha guardato ai bias razziali, e Invisible Women di Caroline Criado-Perez, che si è concentrato invece sulle questioni di genere.

    Questi rischi ricordano come l’ottimizzazione tecnica non sia sufficiente da sola a costruire strumenti virtuosi di intelligenza artificiale e farne usi socialmente positivi, perché quello che serve è una riflessione che veda la sfera tecnica sedersi al medesimo tavolo con quella filosofica ed etica.

    Leggi anche Apocalisse con figure? Uno scrittore al servizio dell’IA, di Giuseppe Genna

    In un’intervista concessami da Kate Crawford e pubblicata da Wired, la co-fondatrice dell’AI Now Institute di New York ha ricordato come i luoghi di lavoro siano uno dei terreni dove l’approdo dell’intelligenza artificiale può essere più problematico: più che un robot meccanico che prende il posto di un umano, rendendolo obsoleto, lo scenario con cui confrontarsi urgentemente è piuttosto la possibilità di non essere assunti perché il colloquio per un posto vacante è registrato da un software di machine learning in grado di analizzare le reazioni facciali dei candidati e decidere quali sono più aderenti alla linea aziendale.

    È in questi territori, come in altri similmente sensibili dove il peso dei bias può essere più decisivo, che si gioca la possibilità di decidere in che tipo di società vorremo vivere e quale sarà il ruolo e il peso delle intelligenze non-umane.

    Note