Cina, arrivano i robot-magistrati. Ora ti accusa un algoritmo: «Decide col 97% di precisione»

Un procuratore digitale governato da un software che decide col 97% di precisione. Per adesso l’intelligenza artificiale sarà impiegata solo per otto tipi di reato

Cina, arrivano i robot-magistrati. Ora ti accusa un algoritmo: «Decide col 97% di precisione»
di Valentina Errante
4 Minuti di Lettura
Domenica 2 Gennaio 2022, 11:28 - Ultimo aggiornamento: 17:20

Colpevole o innocente, in un futuro non troppo lontano, potrebbe essere un computer a stabilirlo. Una prospettiva che preoccupa ma che a Shanghai è già realtà: l'intelligenza artificiale applicata alla giustizia. Al momento il magistrato-software riconosce solo otto reati, ma si lavora per estendere il campo di azione. E la tecnologia potrebbe ridurre il carico di lavoro. La notizia è stata diffusa dal South China Morning Post: la macchina è stata progettata utilizzando oltre 17.000 casi tra il 2015 e il 2020 e sarebbe in grado di individuare i crimini più frequenti commessi a Shanghai, dalla guida pericolosa alle frodi con le carte di credito.

IL PROGRAMMA

I ricercatori affermano di aver ottenuto un primato mondiale sviluppando la macchina in grado di accusare le persone di crimini.

Il procuratore software avrebbe bassissimi margini di errore, sarebbe in grado di presentare un'accusa con una precisione superiore al 97% sulla base di una descrizione verbale del caso. La macchina è stata costruita e testata dalla Procura del popolo di Shanghai Pudong, l'ufficio del procuratore distrettuale più grande e attivo del paese, spiega il giornale.

COME FUNZIONA

Valutazione delle prove, i presupposti per l'arresto e la pericolosità di un sospettato, sono queste le tre abilità del software. I pubblici ministeri cinesi si servivano già di software, molti di loro impiegano uno strumento noto come System 206. Ma il nuovo giudice-computer operativo a Shangai, sarebbe in grado anche può valutare la pericolosità di un sospettato. Al momento, però, si esprime solo su otto reati: frodi con carte di credito, gestione di un'operazione di gioco d'azzardo, guida pericolosa, lesioni intenzionali, intralcio ai doveri d'ufficio, furto, frode e scelta di litigi e provocazione di guai, un'accusa onnicomprensiva spesso utilizzata per soffocare il dissenso.
Secondo il professor Shi Yong, direttore del laboratorio di gestione dei big data e della conoscenza dell'Accademia cinese delle scienze, che è lo scienziato capo del progetto, però il sofwtare non partecipa al processo decisionale sulla condanna. «Perché - ha spiegato al South China Morning Post - prendere tali decisioni richiederebbe che una macchina identifichi e rimuova qualsiasi contenuto di un fascicolo irrilevante per un crimine, senza rimuovere le informazioni utili. La macchina avrebbe anche bisogno di convertire un linguaggio umano complesso e in continua evoluzione in un formato matematico o geometrico standard che un computer potrebbe capire».

Video

IN EUROPA

L'utilizzo dell'intelligenza artificiale nella giustizia è in crescita in tutto il mondo, non soltanto in Cina. Alcune Procure in Germania usano software per analizzare le immagini. Anche in Italia per rielaborare immagini o ricostruire incidenti vengono utilizzati dei programmi. La Commissione europea per l'Efficienza della giustizia ha elaborato una Carta Etica sull'uso dell'Intelligenza artificiale nei Sistemi giudiziari europei e nei relativi ambienti, adottata nel dicembre 2018. Sono cinque principi generali e quattro appendici, con uno studio approfondito sulle modalità di impiego dell'Intelligenza artificiale nei sistemi giudiziari europei.
Così se da un lato si prevede la creazione di nuovi strumenti strategici «per migliorare la performance del singolo ufficio giudiziario (ad esempio, stabilire i tempi di definizione dei procedimenti, assicurare l'ottimale utilizzo delle risorse, elaborare proiezioni)», dall'altro si raccomandano precauzioni di metodo nell'utilizzo di algoritmi a fini di prevenzione della consumazione di reati (polizia predittiva) o, in caso di indagini già avviate, per l'identificazione dei responsabili. In questi casi i sistemi di apprendimento automatico possono essere impiegati da polizia giudiziaria e pm ad esempio per l'analisi di dati relativi a flussi finanziari in indagini in materia di riciclaggio; i profili di rischio sono legati a possibili effetti discriminatori.
 

© RIPRODUZIONE RISERVATA