Francesco Grillo
Francesco Grillo

Norme necessarie/ Chi governa gli sviluppi dell'intelligenza artificiale

di Francesco Grillo
4 Minuti di Lettura
Mercoledì 20 Marzo 2024, 00:06

Ha senso provare a governare attraverso la legge uno sviluppo tecnologico come quello dell’intelligenza artificiale (IA)? Di quali strumenti intellettuali abbiamo bisogno per leggere un fenomeno che sta cambiando il modo in cui noi - gli umani - trasformiamo informazioni in conoscenza? È da considerazioni alle quali non siamo più abituati, che deve partire il giudizio sullo sforzo titanico che le istituzioni comunitarie hanno compiuto per fare dell’Europa il primo continente ad avere una legge (appena approvata dal Parlamento europeo) sull’IA.
Il progresso tecnologico è, in effetti, caratterizzato da due famiglie di invenzioni che hanno impatti completamente diversi. Alcune - molto più numerose - hanno uno scopo specifico (lo è la lavatrice che ha avuto enormi meriti). Altre hanno utilizzi teoricamente infiniti (lo fu la scoperta del fuoco durante il neolitico). L’intelligenza artificiale è la venticinquesima nella storia delle “tecnologie ad uso generale” (GPT) secondo la classificazione di Oxford University Press. Ed assomigliarli di più fu l’invenzione degli strumenti che consentirono di scrivere (il papiro, 5000 anni fa in Egitto) e la macchina per la stampa di Gutenberg che decretò la fine del Medioevo. La caratteristica delle tecnologie del secondo tipo è che cambiano tutte le attività umane. In più, però, l’IA si appresta a modificare i nostri stessi processi cognitivi.

Per tutte le tecnologie ad uso generale e, ancora di più per l’IA, la difficoltà è dunque quella di provare governare un processo che ha esiti non ancora prevedibili. Non sembrano essere stati sfiorati da queste considerazioni filosofiche e concrete, i legislatori dell’Unione Europea. E la prima cosa che sorprende è la magnitudine dello sforzo. La proposta di regolamento su IA consta di 458 pagine articolate in 180 premesse, 113 articoli e 13 allegati. È una dimensione cresciuta rispetto alle precedenti versioni dell’atto e che si aggiunge ad altre nove direttive o regolamenti, prodotti dall’Unione sul digitale negli ultimi otto anni. Questa bulimia regolamentare sembra, in realtà, il riflesso condizionato di un legislatore che sentendosi sorpassato dal fenomeno su cui legiferare, comincia ad inseguirne tutte le manifestazioni che nel frattempo si moltiplicano.
Quando la Commissione sottopose al Parlamento e al Consiglio la prima bozza di regolamento su IA era l’aprile del 2021 e il mondo viveva in un’altra era tecnologica. Il vaccino di ultima generazione contro il Covid 19 non era stato ancora approvato e Facebook non aveva ancora cambiato il proprio nome lanciando il Metaverse. Nessuno immaginava che una fondazione creata da Microsoft (Open Ai) avrebbe un anno e mezzo dopo, introdotto un modello di intelligenza artificiale capace di raggiungere 100 milioni di utilizzatori in soli due mesi. Il mondo ha superato le istituzioni e affidare la risposta ai soli giuristi produce paradossi.
Può essere un errore (tragicomico in Italia) l’aver classificato, ad esempio, “ad alto rischio” l’utilizzo dell’intelligenza artificiale anche solo per supportare l’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti. E persino l’aver deciso di cominciare il regolamento, vietando l’utilizzo di sistemi che ”valutino il comportamento sociale di gruppi di persone”, può spuntare un’arma per contrastare, ad esempio, disastri ambientali. Ma ciascuna delle norme di una strumentazione così vasta si presta strutturalmente a poter far perdere opportunità. Senza, peraltro, evitare che i pericoli di innovazioni non controllate ci arrivino addosso da Paesi che vanno avanti con le sperimentazioni con meno scrupoli. Quale può essere un approccio diverso?
Una strada è quella tentata da qualche tempo dagli inglesi che, proprio sul digitale, potrebbero aver il vantaggio di non dover rispettare il metodo europeo. L’idea è quella di intervenire con un’autorità (si chiama CBI a Londra ed è l’equivalente del nostro Antitrust) che aggiunga alle proprie competenze non tanto la regolamentazione di un processo tecnologico di “applicazione generale” che non è regolamentabile, ma lo studio degli impatti di quelle tecnologie per settori industriali (e servizi pubblici). Pool di medici, biologi e informatici potrebbero, ad esempio, concentrarsi sull’identificazione dei rischi e delle opportunità per sanità e ricerca di nuovi farmaci. E lo stesso varrebbe per la scuola, dove gli effetti delle tecnologie sono diverse per materia e età degli studenti/ insegnanti. Lo stesso “ufficio per l’intelligenza artificiale” previsto dalla nuova legge andrebbe riarticolato in questa maniera (evitando l’errore epistemologico di continuare a illudersi che ci siano davvero “esperti di intelligenza artificiale”, laddove questo progresso costringe a cercare lenti nuove). Ma la vicenda del regolamento su IA fa anche intravedere una concezione del consenso che è strana. Sembra che le tempistiche di approvazione siano state condizionate dalla volontà politica di chiudere una partita (che, invece, rimane aperta) prima delle prossime elezioni. Come se poter dire di essere i “primi” nel mondo ad avere una legge sull’intelligenza artificiale, possa spostare voti. In realtà, parte del problema che dobbiamo risolvere è che – tra tanti tecnicismi ridondanti – non sono più di un paio di migliaia i cittadini europei che sanno che in gioco su questi temi, c’è il futuro di tutti. Il futuro dovrebbe diventare questione politica e morale. Invece, è il territorio di “esperti” che, per definizione, non possono immaginare ciò che non c’è ancora; e di avvocati/ lobbisti che di mestiere fanno i manutentori dello status quo; e di funzionari della Commissione che non dovrebbe alcun interesse a cercare “consenso”.
www.thinktank.vision

© RIPRODUZIONE RISERVATA