ChatGPT: l’intelligenza artificiale tra inquietudini e prospettive

Scarica come pdf

Scarica l'articolo in PDF.

Per scaricare l’articolo in PDF bisogna essere iscritti alla newsletter di cheFare, completando il campo qui sotto l’iscrizione è automatica.

Inserisci i dati richiesti anche se sei già iscritto e usa un indirizzo email corretto e funzionante: ti manderemo una mail con il link per scaricare il PDF.


    Se inserisci il tuo indirizzo mail riceverai la nostra newsletter.

    image_pdfimage_print

    Dovremmo lasciare che le macchine invadano i nostri canali di informazione con propaganda e falsità? Automatizzare tutti i lavori senza distinzione? Sviluppare menti non umane che potrebbero superarci per numerosità e intelligenza fino a sostituirci? Rischiare di perdere il controllo della nostra civiltà?

    Sono queste alcune delle domande contenute in una lettera aperta di fine marzo dal titolo “Pause Giant AI Experiments” firmata da personaggi come Elon Musk, Steve Wozniak e Yuval Noah Harari, insieme a centinaia di computer scientist, esperti e imprenditori del settore tecnologico. Sfide così epocali – conclude la lettera – non possono trovare risposta nelle scelte di tecnici privi di investitura popolare. È necessaria una moratoria sullo sviluppo di modelli generativi di intelligenza artificiale per fermare l’attuale “corsa fuori controllo verso menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, possono comprendere, prevedere e controllare”.

    L’appello è stato pubblicato pochi giorni dopo il rilascio da parte di OpenAI della quarta, potentissima versione di ChatGPT – il software di intelligenza artificiale relazionale, basato su un modello linguistico di nuova generazione, che impiega una tecnologia deep learning e utilizza reti neurali per simulare ed elaborare conversazioni umane (l’acronimo sta per “Generative Pre-trained Transformer”) – e soprattutto dopo una consistente perdita di dati relativi ai dati e alle conversazioni degli utenti.

    Se l’intransigenza di Elon Musk (che OpenAI ha contributo a fondarla salvo poi uscirne) e di altri insospettabili firmatari è stata vista da molti come un tentativo di fermare un rivale divenuto troppo temibile piuttosto che il frutto di un’autentica preoccupazione per le sorti dell’umanità, le inquietudini per questa impressionante accelerazione dell’intelligenza artificiale, e per l’assenza di regole adeguate, sono ampiamente condivise e non possono essere liquidate come strumentali.

    Il giorno dopo la sua pubblicazione, il Center for AI and Digital Policy (CAIDP) americano ha inviato alla Federal Trade Commission la richiesta di avviare un’indagine conoscitiva su ChatGPT per violazione delle norme federali a tutela dei consumatori e, nelle more, di bloccarne il servizio, seguita a ruota dalla BEUC (Bureau Européen des Unions de Consommateurs) – la più importante associazione europea a tutela dei consumatori – la quale ha anch’essa sollecitato un’indagine da parte di autorità europee e nazionali sulla falsariga di quella americana.

    Ma in questa corsa contro il tempo per fermare ChatGPT è stato il Garante italiano della privacy a prendersi la scena emanando un provvedimento che ha fatto il giro del mondo per aver inibito l’uso del servizio in Italia – primo tra i paesi occidentali – per violazioni del Regolamento sulla protezione dei dati personali (più tecnicamente, il provvedimento del Garante ha ordinato la limitazione provvisoria del trattamento dei dati personali degli interessati stabiliti nel territorio italiano e invitato OpenAI, in qualità di titolare del trattamento, a comunicare entro venti giorni le iniziative intraprese per dare attuazione alle richieste e a fornire giustificazioni sulle violazioni contestate).

    Nel merito, il Garante ha censurato l’assenza di un’adeguata informativa sulle modalità di raccolta e di trattamento dati, oltre che di un meccanismo di verifica dell’età degli utenti. ChatGPT – ha osservato il Garante – viola il Regolamento perché non spiega come i dati siano stati raccolti e trattati e per di più non prevede un meccanismo di verifica dell’età degli utenti.

    Fin qui niente di particolarmente allarmante per OpenAI. La richiesta di offrire all’utente informazioni più complete non è tale da creare troppe difficoltà e i rilievi sull’assenza di strumenti di verifica dell’età sono molto simili, anche nella loro formulazione, a quelli impiegati dal Garante per servizi come Replika e TikTok.

    Ben più significative sono le altre due contestazioni, relative alla liceità e all’esattezza del trattamento dei dati.

    Quanto alla prima, architrave del modello europeo di protezione dei dati personali è il principio secondo cui per il trattamento dei dati personali è necessaria una valida base giuridica: il consenso dell’interessato innanzitutto o, in alternativa, specifiche ragioni (ad esempio, la necessità di usare i dati per l’esecuzione di un contratto, l’adempimento di un obbligo o per perseguire un interesse pubblico). Secondo il provvedimento del Garante, nel caso di ChatGPT non sussisterebbe alcuna idonea base giuridica per la raccolta e il trattamento dei dati.

    In linea di principio una censura del genere chiama direttamente in causa il modello di funzionamento di ChatGPT e di molte altre forme di intelligenza artificiale basate sul machine learning e sull’estrazione dei dati presenti su Internet attraverso strumenti automatizzati (web scraping), dato che i modelli linguistici di grandi dimensioni (Large Language Models) non possono funzionare senza essere addestrati su grandi quantità di dati. Come osservava in un post di qualche anno fa dal titolo “La legge di Moore per tutto” l’inventore di ChatGPT Sam Altman, molti dei limiti di sistemi di intelligenza artificiale sono risolvibili aumentando la quantità di dati a disposizione piuttosto che agendo su modelli di ragionamento più sofisticati. E anche se la questione della scalabilità di questi sistemi è cambiata in questi ultimi anni, il rapporto tra AI e dati rimane centrale.

    L’altro passaggio cruciale del provvedimento riguarda il rilievo secondo cui le informazioni fornite da ChatGPT non sempre corrispondono alla realtà, e che quindi – per usare il linguaggio del Regolamento – si realizza un inesatto trattamento di dati personali degli interessati, a causa di un sistema che – come osserva Lillian Edwards – funziona come un setaccio da cui è fisiologico che una quota di informazioni si perdano e riemergano da un momento all’altro in risposta alle richieste degli utenti.

    Anche su questo punto le contestazioni del Garante sembrano investire le modalità di funzionamento di molti sistemi di intelligenza artificiale cosiddetta generativa. I “Large Language Models”, infatti, non agiscono come i tradizionali motori di ricerca, da cui ci si aspetta sempre una risposta corretta, ma sono il frutto di quello che studiose come Emily Bender e Timnit Gebru hanno efficacemente definito “pappagalli stocastici”: sistemi fondati su modelli statistici di analisi del linguaggio che forniscono la risposta un passo per volta, scegliendo la parola successiva più probabile sul piano statistico in un certo contesto, che in molti casi può non essere quella esatta. Questo spiega la strana mescolanza di risposte brillanti e stupidissime cui ci hanno abituato questi sistemi.

    Non è un caso che all’indomani del provvedimento del Garante italiano sia stata la stessa Margrethe Vestager, Vicepresidente esecutiva per il Digitale nell’Unione Europea, a precisare in un tweet: “Non importa quale tecnologia usiamo, dobbiamo continuare a promuovere le nostre libertà e proteggere i nostri diritti. Ecco perché non vogliamo regolare l’intelligenza artificiale, ma l’uso che se ne fa”. E ha aggiunto “non buttiamo via in pochi anni quanto costruito in molti decenni”.

    Insomma, gli ingredienti di una guerra sull’intelligenza artificiale condotta in nome della privacy c’erano tutti. E invece quasi subito sono iniziate le prove di disgelo.

    Dopo una serie di incontri con la società, con un provvedimento dell’11 aprile il Garante ha spiegato quali misure tecniche avrebbe ritenuto sufficienti a soddisfare le richieste contenute nel suo primo provvedimento.

    In risposta, OpenAI ha modificato e reso maggiormente accessibile l’informativa sul trattamento dei dati. Ha riconosciuto il diritto di opposizione al loro trattamento e di rettifica o cancellazione di quelli inesatti, con tanto di modulo online. Ha identificato l’interesse legittimo come valida basa giuridica per l’addestramento degli algoritmi. Ha previsto la possibilità di attivare un sistema di navigazione che non conservi la cronologia. Ha richiesto a vecchi e nuovi utenti di dichiarare di essere maggiorenni o ultratredicenni (in quest’ultimo caso, occorre il consenso di genitori o tutori).

    Da parte sua, il Garante ha espresso soddisfazione per le misure adottate e invitato OpenAI a completare il percorso intrapreso attraverso l’adozione di un sistema di verifica dell’età e l’avvio di una campagna di informazione.

    E così, al grido di “Welcome back, Italy!”, il 28 aprile ChatGPT è stato riattivato in Italia.

    Archiviata (almeno momentaneamente) la questione privacy, affidata alla task force istituita sulla scia del caso italiano dallo European Data Protection Board (l’organismo composto da rappresentanti delle autorità di protezione dei dati europee), l’attenzione è tornata sui “rischi esistenziali” dell’intelligenza artificiale, in una sequenza di appelli, pentimenti e dimissioni da parte dei padri più o meno nobili dell’intelligenza artificiale: ultimi in ordine di tempo, Yoshua Bengio e Geoffrey Hinton, due dei tre vincitori del Turing Award nel 2018 per i loro studi sull’intelligenza artificiale.

    A preoccupare sono i rischi di una tecnologia in costante crescita, resa ancor più insidiosa dal fatto di presentarsi in vesti amichevoli. “A volte penso che è come se gli alieni siano arrivati sulla Terra e nessuno se ne sia accorto perché parlano troppo bene l’inglese”, ha dichiarato Hinton al MIT Technology Review, invitando i regolatori di tutto il mondo a non sottovalutare il problema e ad agire in fretta.

    Ma a dispetto degli appelli rivolti da ogni parte, anche i regolatori hanno i loro problemi. Prima al mondo a tentare di dar vita ad una disciplina organica sull’AI, l’Europa si trova da anni alle prese con un procedimento legislativo che si sta rivelando complesso e difficile, la cui piena attuazione richiederà ancora molto tempo. E non è solo questione di lentezza. La frettolosa aggiunta, avvenuta in questi giorni ad opera del Parlamento UE, dell’AI generativa nella proposta di regolamento sull’AI – una questione appena sfiorata nella versione originale in discussione da anni – getta più di un’ombra sulla capacità del decisore pubblico di stabilire come regolare l’impiego dell’AI.

    Nel frattempo, per ChatGPT le cose sembrano procedere spedite. Non solamente per la rapidità con cui sta conquistando gli utenti di tutto il mondo (ha raggiunto cento milioni di utenti in appena due mesi, polverizzando tutti i record precedenti: prima di lei, TikTok ci aveva messo novi mesi, Instagram due anni) o per il rapido susseguirsi di versioni sempre più potenti (la precedente era appena di novembre 2022). Ma anche perché questa tecnologia sembra definitivamente entrata nel suo iPhone moment: una fase di espansione frutto del rilascio di numerosi plug-in, per molti versi simile a quella che portò Apple ad aprire ad app di sviluppatori terzi per il suo smartphone, che potrebbe presto trasformare ChatGPT in un assistente virtuale potentissimo e soprattutto onnipresente.

    È in questo clima che, a dispetto delle professioni di ottimismo di politici e giuristi, si alimenta ogni giorno di più il mito di un diritto incapace di tenere il passo con la tecnologia e prende corpo la profezia del nostro definitivo ingresso in un’era post-giuridica, nella quale ciò che possiamo fare è anche ciò che dobbiamo fare.

     

    Immagine di copertina: ph. Ankit Verma da Unsplash

    Note