Intelligenza artificiale, Severino: «Le macchine sono un dono ma servono regole globali»

Intelligenza artificiale, Severino: «Le macchine sono un dono ma servono regole globali»
di Roberta Amoruso
6 Minuti di Lettura
Mercoledì 14 Aprile 2021, 07:48 - Ultimo aggiornamento: 15 Aprile, 09:27

Professoressa Paola Severino, la pandemia ha accelerato un processo in atto anche nella crescita sull'intelligenza artificiale, rendendo evidenti i benefici possibili dell'utilizzo dei dati e degli algoritmi per esempio nel settore sanitario, nelle previsioni e nella diagnostica oltre che nell'individuazione delle frodi online. Molti altri campi, a partire dal settore auto, hanno davanti scenari interessanti. Però è giusto porre dei limiti.
«I limiti sono necessari, e devono essere soprattutto regolamentari e normativi, per evitare che lo sviluppo del machine learning, insieme alla concorrenza spietata tra Paesi e a una prospettiva di uso geopolitico del potere tecnologico, scatenino una competizione mondiale tra sistemi dominati dall'intelligenza artificiale e non più dall'etica e dalla legge».

E quali sono i rischi che corriamo?
«Gran parte dei pericoli deriverebbero proprio dalla deregulation, penso a tutti i rischi connessi al riconoscimento di poteri decisori, anziché solo di supporto alle decisioni; oppure alla accentuazione del divario sociale tra chi possiede le tecnologie e chi ne è privo. Insomma, una nuova corsa all'oro, ma con conseguenze molto più ampie e deflagranti, nel campo dell'economia come in quello dei modelli di vita».

L'applicazione dell'AI nella guida autonoma non manca di sollevare problemi etici. I ricercatori del MIT hanno pubblicato nell'ottobre 2018 su Nature i risultati del sondaggio The Moral Machine Experiment che ha coinvolto 2 milioni di persone in 233 Paesi. Lo studio è nato per capire cosa pensa la gente riguardo alle scelte che un'auto a guida autonoma dovrebbe compiere in caso di emergenza. Per esempio, di fronte alla possibilità di investire un passante o uscire di strada con pericolo per il guidatore. Le risposte furono le più varie. Come andrebbero affrontate situazioni simili?
«La differenza tra uomo e intelligenza artificiale sta nel fatto che l'uomo tende ad ispirarsi a scelte etiche, soprattutto quando deve decidere chi sacrificare tra vita e morte o tra guarigione e aggravarsi della malattia. La stessa pandemia ci ha posto di fronte a scelte difficilissime sotto il profilo morale. L'intelligenza artificiale probabilmente utilizzerebbe solo il criterio del minore o maggiore danno, senza curarsi di tutte quelle sfumature etiche che sono e rimarranno, a mio avviso, caratteristica esclusiva del genere umano.

La nostra intelligenza, poi, non ha natura algoritmica: in noi la componente emotiva è tutt'uno con i meccanismi logici».

Si sostiene che nel settore legale ci sono ampi spazi di applicazione, dal supporto alla gestione dei contratti fino addirittura a prevedere l'esito dei processi. È davvero così?
«Gli algoritmi possono certamente essere utili nella gestione dei contratti e possono anche supportare le attività predittive in alcune materie nelle quali la reiterazione dei fenomeni consente proiezioni attendibili. Penso alla infortunistica stradale ed alla catalogazione di danni come un utile supporto al giudice. Ma nessuno potrà mai sostituirsi alla decisione del giudice, soprattutto in un sistema come l'europeo in cui, diversamente dal modello anglosassone, il precedente non rappresenta il modello di riferimento vincolante per chi deve sentenziare».

Non vede tra i rischi anche l'ipotesi che si possano concentrare certe abilità nelle mani di pochi grandi colossi mondiali?
«Gli enormi investimenti che si stanno apprestando in alcuni Paesi per lo sviluppo dell'intelligenza artificiale fanno concretamente temere che si possa arrivare a veri e propri oligopoli, con il rischio di compromettere una corretta competizione e una leale concorrenza tra gli Stati e di condannare alcuni di essi ad una totale dipendenza, rispetto ad altri che avranno il governo dell'economia e dello sviluppo tecnologico».

Vanno dunque messi dei paletti a certe potenze?
«Sarà difficile limitare la sovranità degli Stati in questa materia. Vi sono solo due possibili soluzioni a questo spinoso tema. La prima è quella del self restraint, cioè della capacità di ogni Nazione di autoregolamentare e delimitare il fenomeno. La seconda, che mi sembra molto più efficace perché tende a non creare eccessive smagliature nella rete normativa, è di regolamentare il fenomeno in un confronto internazionale. Le applicazioni dell'intelligenza artificiale, così come tutti i fenomeni digitali, non si fermano davanti alle frontiere e possono essere efficacemente regolate solo con sistemi normativi globali».

Uno studio del McKinsey Global Institute afferma che entro il 2030 l'AI potrebbe determinare un aumento dell'attività economica globale di circa 13 trilioni di dollari, con una crescita di circa 1,2% del Pil l'anno. L'impatto sarebbe simile a quello che ha avuto nel 1800 il motore a vapore. Il beneficio economico è perciò solo una delle facce.
«Certo, ci sono ad esempio benefici nel campo della sanità, in cui l'intelligenza artificiale ci può aiutare a meglio distribuire i presìdi o addirittura ad eseguire complesse operazioni chirurgiche da remoto. Vi è poi il settore della trasparenza, i cui benefici sono avvertibili nella lotta alla corruzione, nel miglioramento delle performance della Pubblica amministrazione, nel miglioramento del rapporto pubblico-privato, nella crescita di imprese più leali nel concorrere tra loro, nella tutela del consumatore. L'intelligenza artificiale è un potente moltiplicatore del valore della trasparenza, per questo le sue applicazioni scacceranno l'erba cattiva».

La dipendenza sempre maggiore dagli algoritmi di autoapprendimento potrebbe sfuggire di mano inducendo speculazioni finanziarie che possono mettere in pericolo interi Paesi. Pensa che a livello delle istituzioni ci sia piena coscienza di ciò?
«Le speculazioni finanziarie alimentate dall'uso dell'intelligenza artificiale sono da tempo al centro dell'attenzione delle Banche centrali, della Bce e della World Bank. Una particolare attenzione va oggi dedicata alla circolazione di bitcoin. Il circuito del denaro virtuale risente infatti non solo della variabilità di quotazioni derivanti dalla volatilità di uno strumento non agganciato a valori materiali, ma anche dei problemi connessi all'anonimato del soggetto che trasferisce il denaro e di quello che lo riceve. Quanto agli algoritmi di autoapprendimento ed al conseguente rischio di speculazioni disastrose per intere nazioni, credo che solo una limitazione del fenomeno del machine learning attraverso freni normativi possa contenerne le conseguenze».

Lei è vicepresidente della Luiss: fino a che punto la ricerca, e il contributo anche delle università, sarà centrale nel centrare questo equilibrio tra rischi e benefici?
«Assolutamente centrale. Anche perché deve ispirarsi a modelli innovativi ispirati a loro volta alla multidisciplinarietà del tema. In questo nuovo modello di ricerca occorrerà mettere insieme aspetti tecnologici, filosofici, giuridici, politologici ed economici. Solo attraverso questi riflessi prismatici si potrà comprendere il fenomeno e le conseguenze delle sue possibili applicazioni. È esattamente ciò che facciamo in Luiss nel Master in Cybersecurity, il primo introdotto in Italia qualche anno fa e volto a creare figure professionali del tutto nuove, di cui ha un grande bisogno sia il mondo delle imprese private che quello delle istituzioni».
 

© RIPRODUZIONE RISERVATA