In arrivo le regole Ue: così cambierà l’uso di ChatGpt & Co

Accordo sulla prima legge al mondo. Il co-relatore Benifei: «Passo storico, non cederemo alle pressioni di alcuni lobbisti»

In arrivo le regole Ue: così cambierà l’uso di ChatGpt & Co
di Giacomo Andreoli
7 Minuti di Lettura
Venerdì 22 Dicembre 2023, 11:17 - Ultimo aggiornamento: 3 Gennaio, 17:43

Nel 2024 l’Italia avrà buon gioco a investire con forza sull’intelligenza artificiale, potendo contare su un quadro di regole finalmente chiaro in tutta Europa. Sarà infatti l’anno decisivo per varare in Ue l’AI Act, la prima legge al mondo di regolamentazione dell’uso degli algoritmi intelligenti. Un passaggio accolto con favore da molti politici ed esperti europei, anche se non mancano le critiche delle associazioni di categoria e delle Ong. Un primo accordo complessivo è stato trovato a inizio mese tra Consiglio e Parlamento europei. L’impianto è definito e ora mancano solo i dettagli, ma è proprio su questi che si potrebbe aprire la trattativa tra istituzioni Ue e giganti dell’AI. I lobbisti di Bruxelles si preparano a mesi di intenso lavoro, prima dell’ultimo via libera atteso tra marzo e maggio e l’entrata in vigore delle norme attesa per il 2025. 
La legge europea, che dovrebbe anticipare le decisioni che dovranno essere prese da Cina, Regno Unito e Stati Uniti (il presidente Joe Biden ha firmato solo un primo ordine esecutivo), ha un duplice obiettivo: favorire l’innovazione e tutelare i diritti fondamentali dei cittadini. Si punta a stabilire linee guida che anche gli altri Continenti dovrebbero seguire, visto che per le aziende che producono AI sarà più conveniente obbedire a standard uguali. «È un accordo storico - spiega Brando Benifei, capodelegazione del Pd nell’Europarlamento e co-relatore della proposta Ue - siamo i primi a trasformare codici di condotta, raccomandazioni e buone pratiche per ridurre i rischi in regole vincolanti che aiutano cittadini, imprese e istituzioni. Si fa un salto in avanti rispetto alle altre nazioni del mondo, vietando anche alcuni utilizzi pericolosi».


L’APPROCCIO A DUE VELOCITÀ


I 27 Paesi membri dell’Ue considerano infatti quella dell’intelligenza artificiale una materia delicata. L’Unione punta a non ripetere gli errori fatti in passato, quando a Facebook e ad altre big della tecnologia è stato permesso di diventare aziende multimiliardarie libere di pubblicare sulle piattaforme contenuti di ogni tipo: dalle interferenze nelle elezioni, agli abusi sessuali sui minori, fino all’incitamento all’odio. 
Da qui il tentativo di creare il miglior regime di certificazione dei dati al mondo, per sistemi di Ia trasparenti e basati su concetti solidi di verità e menzogna. Il regolamento europeo proverà a farlo con un approccio “risk-based”: più alto è il rischio, più severe sono le regole.
Queste dovranno garantire la qualità dei dati utilizzati nello sviluppo degli algoritmi e verificare che non si violi la legislazione sui diritti d’autore: suoni, immagini e testi prodotti dovranno essere identificati come artificiali. I sistemi ad alto rischio che verranno introdotti nel Vecchio Continente dovranno poi essere iscritti in un registro. I programmatori saranno obbligati a rendere disponibili i dati che utilizzano per insegnare alla macchina a fare qualsiasi cosa, dallo scrivere un articolo di giornale, alla diagnosi di un tumore. 
Si tratta di un compromesso tra la posizione di partenza del Parlamento europeo e quella di alcuni governi Ue, in primis Italia, Francia e Germania. Roma, Parigi e Berlino avevano infatti fatto circolare a fine novembre un documento negoziale con un obiettivo comune: salvare i modelli più avanzati di AI, come ChatGpt e Bard, da rigide regole di trasparenza e controllo da parte di Bruxelles. Insomma, impedire presunti freni agli investimenti e alla competitività delle imprese europee, sulla scia di una lettera firmata da 100 ceo di aziende che sviluppano l’AI, che chiedeva modifiche al regolamento. La proposta, quindi, era di arrivare a un’auto-regolazione obbligatoria con dei codici di condotta e senza sanzioni. Non si è arrivati a tanto, ma le norme sono state comunque ammorbidite dopo una lunga trattativa.


LE ECCEZIONI


Il regolamento non si applicherà alla sicurezza nazionale degli Stati membri, né ai sistemi militari o di difesa, o tanto meno ai sistemi usati per ricerca e innovazione. L’approccio rispetto alle applicazioni contrarie ai valori europei, come il sistema di sorveglianza di massa usato in Cina, o l’identificazione biometrica nei luoghi pubblici, sarà quindi prudente, ma non troppo restrittivo. La prima verrà vietata, la seconda sarà usata solo in determinati casi, come nella lotta al terrorismo.
Più nel dettaglio, l’utilizzo dei software di identificazione da parte della polizia e dei governi sarà possibile solo per: ricerche mirate di vittime (come rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica e localizzazione o identificazione di una persona sospettata di aver commesso un reato grave (quali terrorismo, traffico di esseri umani, omicidio, stupro). Autorità indipendenti dovranno autorizzare la polizia a usare le tecnologie «predittive», per evitare abusi e salvaguardare il diritto dei cittadini alla presunzione d’innocenza. L’accordo finale sul testo di legge prevede anche che i sistemi di Intelligenza artificiale di uso generale rispettino gli obblighi di trasparenza prima di essere immessi sul mercato. Bisognerà poi trattare con estrema cautela i dati sensibili, come le convinzioni politiche, religiose o l’etnia e le emozioni sul posto di lavoro e nelle scuole.
Ora, come detto, il testo dovrà essere limato dai tecnici. Dopo il via libera definitivo gli Stati membri avranno due anni di tempo per attuarlo e solo sei mesi per proibire gli usi vietati. Partirà però subito l’AI Pact, vale a dire il sistema di conformità volontaria da parte delle aziende ai contenuti dell’AI Act, con un adeguamento anticipato alle nuove disposizioni europee. 
Tutte le norme verranno quindi monitorate da un ufficio europeo, che potrà infliggere sanzioni.

Le multe per chi violerà l’AI Act vanno da un minimo di 7,5 milioni o l’1,5% del fatturato, a un massimo di 35 milioni o il 7% del fatturato, a seconda della violazione e dell’azienda. 

LE POSSIBILI MODIFICHE


Come detto, però, la trattativa per portare a casa la legge non è chiusa e potrebbero arrivare modifiche, anche visto il fuoco incrociato di critiche che si è scatenato. Da una parte c’è l’industria della cosiddetta “Information technology”. 
La polemica è contro l’approccio a due livelli tra i sistemi di AI più e meno potenti, che nella valutazione del comparto potrebbe provocare incertezza giuridica. Inoltre delude il divieto di categorizzazione biometrica, che ostacolerebbe molti usi commerciali dell’intelligenza artificiale, considerati dal settore vantaggiosi e a basso rischio. Le aziende provano a fare sponda sul Ppe, quel partito popolare europeo che ha la maggioranza relativa all’Eurocamera e in cui non mancano malumori per un regolamento non considerato da tutti strategico per mantenere l’Europa competitiva nel settore dell’AI. Il rischio paventato è che l’innovazione si farà comunque, ma altrove. Ma Benifei esclude «che si possano riaprire delle parti così importanti dell’accordo, dando adito alle richieste lobbistiche di pochi grandi sviluppatori europei: il lavoro è in grandissima parte già concluso». 
Dubbi sono emersi anche sul versante opposto, tra le associazioni dei consumatori. Ad esempio la European consumers organization ha parlato di «sistemi di intelligenza artificiale in grado di identificare e analizzare i sentimenti dei consumatori» che «saranno ancora consentiti», il che sarebbe «molto preoccupante visto quanto sono invasivi e imprecisi». E ancora, secondo alcune Ong, con questo regolamento ChatGpt non verrebbe regolamentata a sufficienza. Per Benifei quando le associazioni vedranno il testo finale, «saranno rassicurate». Le nuove norme, aggiunge, «non permetteranno il riconoscimento delle caratteristiche emotive di lavoratori, pazienti e studenti. Nell’ambito dell’uso commerciale riteniamo invece che, con il consenso dei consumatori e rispettando le norme sulla privacy del Gdpr (che vieta le tecniche subliminali), determinate attività possano essere lecite. L’utilizzo di dati biometrici per accedere ai servizi sarà però considerato ad alto rischio». 
A fare la differenza nei prossimi mesi saranno le pressioni delle grandi aziende e le posizioni dei governi nazionali. Anche in ottica G7, che dal 1° gennaio 2024 sarà guidato dall’Italia e che vedrà proprio nel confronto sull’AI uno dei suoi temi portanti. Mantenendo la linea del compromesso seguita finora in Ue, potrebbero essere limate leggermente al ribasso le sanzioni, così da “invogliare” di più gli investimenti. Contemporaneamente, però, potrebbero essere ristretti ancora i casi in cui vengono consentiti l’analisi e l’utilizzo di dati biometrici e psicologici dei consumatori. La partita, insomma, potrebbe essere in parte ancora aperta.
 

© RIPRODUZIONE RISERVATA