Luca Diotallevi
Luca Diotallevi

Rischi collaterali / La soggezione che provoca l’intelligenza artificiale ​

di Luca Diotallevi
4 Minuti di Lettura
Mercoledì 7 Giugno 2023, 00:13

Lo sappiamo, ormai sono in circolazione sistemi che sanno produrre testi di qualità indistinguibile da quella dei testi prodotti da un essere umano.
Quanti di noi hanno disattivato il correttore del cellulare o del computer perché si erano resi conto che dava suggerimenti improbabili. Ora i sistemi di Intelligenza Artificiale (IA) di ultima generazione non fanno più errori del genere. Essi producono testi di qualità (grammaticale, sintattica, semantica, logica) simile a quella dei nostri testi, anzi simile a quella dei testi di coloro tra di noi che sanno scrivere meglio. 
Non basta, quei sistemi di IA lavorano ad una velocità per noi impensabile e prendono in considerazione una quantità di dati enormemente maggiore di quella alla portata persino dei più intelligenti ed informati tra di noi.
Questa situazione produce illusioni che possono essere facilmente prese per speranze, genera però anche paure che come sempre funzionano da cattive consigliere. L’utilità indubbia di molti dei prodotti di questi sistemi di IA dovrebbe impedire che a prevalere siano i cattivi consigli dettati dalle paure. 
Potremmo forse rinunciare a sistemi capaci di selezionare molecole con effetti terapeutici in poche ore invece che in qualche decennio? Di conseguenza è importante capire dove stanno i problemi, dove si annidano i rischi. Solo così potremmo evitare sia le illusioni che le paure.
Partiamo di qui: i sistemi di IA producono testi senza autore. Che cosa significa conoscere l’autore o l’autrice di un testo? Significa sapere chi e – cosa forse ancora più importante – che è stata scelta una parola e non un’altra, è stata costruita una frase e non un’altra, è stato adottato un certo argomento per una certa ragione.ù
Conoscere l’autore o l’autrice di un testo significa sapere chi e soprattutto che ad un certo punto è stata operata una scelta tra moltissime parole, tra moltissime frasi, tra moltissimi argomenti e moltissime ragioni. Ciascuna parola scelta, e così ciascuna frase, ragione o argomento, non sta solo al posto di parole, frasi, ragioni o argomenti sbagliati, bensì sta anche al posto di parole, frasi, ragioni ed argomenti che potevano benissimo essere impiegati senza violare alcuna regola, ma che avrebbero dato al testo un significato completamente diverso. Il nome dell’autore o dell’autrice allertano circa la legittima arbitrarietà del testo, ovvero circa il nesso tra significato e libertà.
Anche i testi generati da sistemi di IA di ultima generazione nascono dalla scelta tra parole, frasi, argomenti e ragioni equipossibili, ma per nulla equivalenti. La differenza tra i testi con autore e quelli di IA sta nel fatto che questi ultimi non rivelano gli algoritmi (ovvero i modi ed i percorsi) che hanno dettato le scelte tra parole, frasi, argomenti e ragioni. 
Non che l’autore manchi (qualcuno quegli algoritmi li ha progettati e ha dato loro alcuni comandi e non altri). Semplicemente nei testi di IA l’autore resta occulto e altrettanto i criteri guida degli algoritmi.
Infine, per la combinazione di ricchezza, anonimato e velocità, quei sistemi possono dare due illusioni: che le tantissime informazioni su cui si basano siano “tutte” le informazioni possibili (il che non è mai vero perché in casi del genere “tutto” è una contraddizione in termini) e che le scelte operate siano deduzioni ovvero le scelte migliori possibili: “quelle giuste”.
Insomma, il rischio concretissimo deriva dal fatto che questi sistemi di IA ci pongono di fronte a testi autorevoli e senza autore.
Questo rischio non è affatto qualcosa di inedito. E’ un rischio ben noto sin dalla più remota antichità. Autorevoli e senza autore sono da millenni i testi che producono e diffondono i miti.
Il mito (e l’ideologia, sua versione parzialmente ammodernata) non è affatto sempre e comunque privo di utilità sociale, ma è allo stesso tempo ciò di fronte a cui la coscienza rinuncia a se stessa per incanto, per spavento o per distrazione.
Con i prodotti delle ultime generazioni di Intelligenza Artificiale ci troviamo di fronte ad un rischio forse inedito per proporzioni, non certo per tipologia. Senza una più diffusa capacità critica, unita ad una maggiore dose di trasparenza, rischiamo una nuova stagione di incondizionata soggezione ai miti. Alla opportunità ed ai rischi generati dai nuovi sistemi di IA dovremmo rispondere aumentando la formazione culturale e la capacità critica, a cominciare da quella dei più giovani. 
L’impressione è invece che l’Intelligenza Artificiale venga proposta come intelligenza surrogata e che la diffusa e crescente povertà culturale spiani la strada al suo uso peggiore.
© RIPRODUZIONE RISERVATA

© RIPRODUZIONE RISERVATA