Intelligenza artificiale, scontro in Ue sulle regole per ChatGpt. In Italia pronti fondi e bollino di veridicità sui contenuti

Italia, Francia e Germania insieme per ammorbidire la stretta sull'intelligenza artificiale, mentre il governo prepara norme italiane con fondi ad hoc e un bollino di qualità. Ma è scontro tra i ministri Urso e Butti

Un'illustrazione dell'intelligenza artificiale
di Giacomo Andreoli
8 Minuti di Lettura
Mercoledì 22 Novembre 2023, 22:15 - Ultimo aggiornamento: 23 Novembre, 10:39

Sull'intelligenza artificiale si apre un caso in Europa. Italia, Francia e Germania chiedono di ammorbidire la proposta di regolamento Ue su cui era stato trovato un primo compromesso nei mesi scorsi. La richiesta è quindi di prevedere regole meno rigide sulla trasparenza per i big come ChapGpt. I tre Stati, però, dopo aver attivato un apposito coordinamento per integrare i rispettivi fondi nazionali, premono anche su Consiglio, Commissione e Parlamento europei per fare presto e approvare un testo condiviso.

Per il governo italiano un ok entro il primo trimestre del 2024 significherebbe partire subito di slancio con centinaia di milioni di nuovi fondi per agevolazioni alle imprese che sviluppano o implementano tecnologie anche Made in Italy. E poi realizzare una legge quadro entro l'estate che preveda controlli e, in scia con l'Ue, forse anche una sorta di "bollino di qualità" sui contenuti realizzati dall'Ia che rispettano determinati standard etici. All'interno dell'esecutivo, però, sembra esserci uno scontro tra il ministro delle Imprese Adolfo Urso e il sottosegretario all'Innovazione Alessio Butti, con il primo che sta lavorando assieme a Berlino e Parigi sul tema e il secondo che rivendica la sua competenza politica sulla materia, come da delega governativa.

Sam Altman guiderà l'intelligenza artificiale di Microsoft

Il piano italiano sull'intelligenza artificiale

Investimenti per centinaia di milioni su tecnologie di intelligenza artificiale Made in Italy e una sorta di “bollino anti-frode” per riconoscere e valutare i contenuti realizzati dagli algoritmi, contro video e testi fake. Ma anche test tecnici e regole stringenti per provare a fermare cyber-criminali, terroristi e minacce biologiche per la salute pubblica, sul modello americano. In attesa del primo regolamento Ue in materia (l’AI Act), come detto l’Italia già si muove. Entro fine anno arriverà un dpcm del ministro delle Imprese, Adolfo Urso, che darà il via libera alla Fondazione italiana sull’Ia. Sarà a Torino e partirà a gennaio con i primi 20 milioni di fondi pubblici da investire nei settori automotive e spazio.

Subito dopo, con i collegati alla Manovra, arriveranno altre centinaia di milioni di euro per stimolare le tecnologie italiane, con agevolazioni come sulla microelettronica anche per la creazione di nuove aziende. Diverse, comunque, le società già in campo, come Bending Spoons, Oversonic Robotics, Iren e Leonardo.

Quest’ultima vuole usare l’Ia per velocizzare i processi industriali e, sfruttando le capacità predittive delle macchine, per velivoli civili e militari. Ma l’Ia si può usare anche nelle reti idriche ed energetiche, oltre che per i trasporti e la sanità (come certificato dall'Oms). «L’Italia - ha detto Urso - deve dare un suo indirizzo». Il Paese punta ad essere in prima fila per un’Ue non succube di Stati Uniti e Cina su queste tecnologie. Ma che anzi ne controlli di proprie, innovative e con standard etici elevati.

L’Europa investe sull’Ia 5 miliardi, contro i 10 cinesi e i 50 americani. L'Ue deve quindi correre. Per l’Italia, però, va prima costruito un ecosistema di regole e poi si può fare il resto. Per questo Roma fa leva su Francia e Germania, con cui è attivo un apposito coordinamento. I rispettivi fondi nazionali sull’Ia verranno integrati, forse coinvolgendo anche le banche.

Fisco, parte lo scambio di dati nell'Ue per le piattaforme online. Come funziona e cosa cambia per le big tech

La posizione di Italia, Francia e Germania

E a proposito di regole, sul tavolo c'è la cornice di regole generali del regolamento europeo AI Act, su cui si attende l'ok praticamente definitivo del Parlamento Ue a dicembre per poi chiudere con Commissione e Consiglio entro marzo o al massimo maggio. Il provvedimento Ue introdurrà una stretta, bloccando il riconoscimento facciale e i possibili sviluppi sulle analisi delle emozioni e la previsione dei crimini, con più regole anche per ChatGpt. Chi usa l’Ia per realizzare contenuti dovrà dichiararlo.

Germania, Francia e Italia, però, hanno fatto circolare un documento, un “non paper”, che sintetizza un obiettivo comune: salvare i modelli più avanzati di Ia come ChatGpt e Bard da rigide regole di trasparenza e controllo da parte di Bruxelles (pena sanzioni milionarie). Per i tre grandi Paesi europei un rigido reticolo normativo rischia di fermare lo sviluppo di modelli avanzati, frenando la competizione delle imprese Ue con il resto del mondo. Insomma, sarebbe un limite per gli investimenti. Da qui il suggerimento di sviluppare “una auto-regolazione obbligatoria attraverso codici di condotta”. Senza sanzioni pesanti per chi non rispetta queste regole.

Roma, per il Giubileo mille telecamere e uno "scudo" contro gli attacchi hacker: ecco la nuova sala operativa hi-tech

Più controlli con la legge quadro italiana

La ricetta sarebbe quindi la seguente: non spaventare i potenziali giganti dell'intelligenza artificiale con regole troppo dure. Ma secondo diversi esperti e la maggior parte del Parlamento Ue la legge sull'Ia non deve essere forte con i più deboli e debole con i forti. Distanze tra i Paesi europei ci potrebbero essere anche sui sistemi che identificano persone nei luoghi pubblici, osservando i dati biometrici del corpo. 

Ci sono governi che chiedono diverse eccezioni per le applicazioni di polizia, mentre finora il Parlamento Ue è disposto a concederne solo per reati gravi, solo se c'è l'autorizzazione di un giudice. L'Italia spinge per lasciare libertà agli Stati sulle materie legate alla sicurezza, escludendo questi ambiti dal perimetro del regolamento.

In caso di spaccatura in Europa, l'iter di approvazione del regolamento potrebbe rallentare. Italia, Francia e Germania, comunque, vorrebbero che il testo garantisse in Europa il miglior regime di certificazione dei dati al mondo, per sistemi di Ia trasparenti e basati su concetti solidi di verità e menzogna. Da qui l’idea di Roma del bollino, come la spunta blu sui social, per i contenuti prodotti dagli algoritmi intelligenti secondo principi etici.

Il governo italiano spera di un'approvazione rapida del regolamento, trovando subito un accordo. In questo modo Urso vorrebbe portare in Parlamento entro giugno una legge quadro italiana che ne approfondisca i contenuti. Sulla falsa riga di quanto fatto da Joe Biden l'esecutivo vorrebbe l’obbligo di rendicontazione per le aziende che sviluppano queste tecnologie, indagini pubbliche e test specifici per scovare le attività criminali che le usano e un programma europeo di formazione e assunzione statale di esperti. Non viene vista di cattivo occhio nemmeno la stretta Australiana, con il suo esecutivo che ha annunciato norme per le piattaforme di social media e le compagnie hi-tech per bloccare solo i contenuti nocivi creati con l'uso dell' intelligenza artificiale (Ia), come immagini e video intimi deep fake oppure di palese incitamento all'odio.

PagoPA ancora più vicina a cittadini e imprese: le notifiche ora arrivano sullo smartphone

Il possibile conflitto di competenze

Ma è proprio attorno alla posizione italiana che si registra tensione tra Urso e Butti. Per quest'ultimo «l’Italia ha espresso la propria preferenza per regole certe e semplificate, così da contemperare le esigenze dell’innovazione con principi etici. Non si è invece detta a favore di codici di condotta perché non abbastanza efficaci in quanto privi di effettività». Quindi, «più che al “non paper” si dovrebbe fare riferimento alla posizione nazionale sin qui espressa».

Tra i due ci sarebbe un apparente conflitto di competenze, con Butti che rivendica il ruolo di coordinamento in materia di Ia, assegnato dal governo. Come confermato dalla riunione del Comitato interministeriale per la transizione digitale dello scorso 9 novembre, la delega per la definizione degli indirizzi strategici del governo e delle attività di coordinamento sull'Ia è infatti in mano a Butti. Tuttavia Urso, parte dello stesso Comitato, occupandosi di imprese e filiere strategiche con un ruolo governativo più rilevante, non può non essere della partita. Difficile capire qual è esattamente la posizione in merito della presidente Giorgia Meloni, che comunque si è sempre detta spaventata da uno sviluppo incontrollato dell'intelligenza artificiale e spinge per regole certe.

Una cosa, comunque, è chiara: delle regole sull'Ia servono. Il prima possibile. A dimostrarlo anche l'ultima indagine aperta dal Garante per la privacy. Nel mirino i siti internet pubblici e privati per verificare l'adozione di idonee misure di sicurezza adeguate ad impedire la raccolta massiva (webscraping) di dati personali a fini di addestramento degli algoritmi di intelligenza artificiale da parte di soggetti terzi. L'indagine conoscitiva riguarda tutti i soggetti titolari del trattamento, stabiliti in Italia o che offrono in Italia ervizi, che mettono a disposizione on-line dati personali liberamente accessibili anche dagli "spider" dei produttori di algoritmi.

Secondo la vice-diretrice dell'Agenzia per la cybersicurezza nazionale, Nunzia Ciardi, «L'Ia non deve competere con gli essere umani, ma questo non significa che i Paesi non debbano competere per l'Intelligenza artificiale. Nessun Paese si tirerà indietro. E l'Agenzia farà la sua parte».

Portafogli digitali, pronta la rivoluzione taglia-burocrazia

© RIPRODUZIONE RISERVATA