Rischi collaterali / La soggezione che provoca l’intelligenza artificiale ​

Rischi collaterali / La soggezione che provoca l’intelligenza artificiale
Lo sappiamo, ormai sono in circolazione sistemi che sanno produrre testi di qualità indistinguibile da quella dei testi prodotti da un essere umano. ...

OFFERTA SPECIALE

2 ANNI
159,98€
40€
Per 2 anni
SCEGLI ORA
OFFERTA MIGLIORE
ANNUALE
79,99€
19€
Per 1 anno
SCEGLI ORA
 
MENSILE
6,99€
1€ AL MESE
Per 6 mesi
SCEGLI ORA

OFFERTA SPECIALE

OFFERTA SPECIALE
MENSILE
6,99€
1€ AL MESE
Per 6 mesi
SCEGLI ORA
ANNUALE
79,99€
11,99€
Per 1 anno
SCEGLI ORA
2 ANNI
159,98€
29€
Per 2 anni
SCEGLI ORA
OFFERTA SPECIALE

Tutto il sito - Mese

6,99€ 1 € al mese x 12 mesi

Poi solo 4,99€ invece di 6,99€/mese

oppure
1€ al mese per 6 mesi

Tutto il sito - Anno

79,99€ 9,99 € per 1 anno

Poi solo 49,99€ invece di 79,99€/anno

Lo sappiamo, ormai sono in circolazione sistemi che sanno produrre testi di qualità indistinguibile da quella dei testi prodotti da un essere umano.


Quanti di noi hanno disattivato il correttore del cellulare o del computer perché si erano resi conto che dava suggerimenti improbabili. Ora i sistemi di Intelligenza Artificiale (IA) di ultima generazione non fanno più errori del genere. Essi producono testi di qualità (grammaticale, sintattica, semantica, logica) simile a quella dei nostri testi, anzi simile a quella dei testi di coloro tra di noi che sanno scrivere meglio. 
Non basta, quei sistemi di IA lavorano ad una velocità per noi impensabile e prendono in considerazione una quantità di dati enormemente maggiore di quella alla portata persino dei più intelligenti ed informati tra di noi.
Questa situazione produce illusioni che possono essere facilmente prese per speranze, genera però anche paure che come sempre funzionano da cattive consigliere. L’utilità indubbia di molti dei prodotti di questi sistemi di IA dovrebbe impedire che a prevalere siano i cattivi consigli dettati dalle paure. 
Potremmo forse rinunciare a sistemi capaci di selezionare molecole con effetti terapeutici in poche ore invece che in qualche decennio? Di conseguenza è importante capire dove stanno i problemi, dove si annidano i rischi. Solo così potremmo evitare sia le illusioni che le paure.
Partiamo di qui: i sistemi di IA producono testi senza autore. Che cosa significa conoscere l’autore o l’autrice di un testo? Significa sapere chi e – cosa forse ancora più importante – che è stata scelta una parola e non un’altra, è stata costruita una frase e non un’altra, è stato adottato un certo argomento per una certa ragione.ù
Conoscere l’autore o l’autrice di un testo significa sapere chi e soprattutto che ad un certo punto è stata operata una scelta tra moltissime parole, tra moltissime frasi, tra moltissimi argomenti e moltissime ragioni. Ciascuna parola scelta, e così ciascuna frase, ragione o argomento, non sta solo al posto di parole, frasi, ragioni o argomenti sbagliati, bensì sta anche al posto di parole, frasi, ragioni ed argomenti che potevano benissimo essere impiegati senza violare alcuna regola, ma che avrebbero dato al testo un significato completamente diverso. Il nome dell’autore o dell’autrice allertano circa la legittima arbitrarietà del testo, ovvero circa il nesso tra significato e libertà.
Anche i testi generati da sistemi di IA di ultima generazione nascono dalla scelta tra parole, frasi, argomenti e ragioni equipossibili, ma per nulla equivalenti. La differenza tra i testi con autore e quelli di IA sta nel fatto che questi ultimi non rivelano gli algoritmi (ovvero i modi ed i percorsi) che hanno dettato le scelte tra parole, frasi, argomenti e ragioni. 
Non che l’autore manchi (qualcuno quegli algoritmi li ha progettati e ha dato loro alcuni comandi e non altri). Semplicemente nei testi di IA l’autore resta occulto e altrettanto i criteri guida degli algoritmi.
Infine, per la combinazione di ricchezza, anonimato e velocità, quei sistemi possono dare due illusioni: che le tantissime informazioni su cui si basano siano “tutte” le informazioni possibili (il che non è mai vero perché in casi del genere “tutto” è una contraddizione in termini) e che le scelte operate siano deduzioni ovvero le scelte migliori possibili: “quelle giuste”.
Insomma, il rischio concretissimo deriva dal fatto che questi sistemi di IA ci pongono di fronte a testi autorevoli e senza autore.
Questo rischio non è affatto qualcosa di inedito. E’ un rischio ben noto sin dalla più remota antichità. Autorevoli e senza autore sono da millenni i testi che producono e diffondono i miti.
Il mito (e l’ideologia, sua versione parzialmente ammodernata) non è affatto sempre e comunque privo di utilità sociale, ma è allo stesso tempo ciò di fronte a cui la coscienza rinuncia a se stessa per incanto, per spavento o per distrazione.
Con i prodotti delle ultime generazioni di Intelligenza Artificiale ci troviamo di fronte ad un rischio forse inedito per proporzioni, non certo per tipologia. Senza una più diffusa capacità critica, unita ad una maggiore dose di trasparenza, rischiamo una nuova stagione di incondizionata soggezione ai miti. Alla opportunità ed ai rischi generati dai nuovi sistemi di IA dovremmo rispondere aumentando la formazione culturale e la capacità critica, a cominciare da quella dei più giovani. 

L’impressione è invece che l’Intelligenza Artificiale venga proposta come intelligenza surrogata e che la diffusa e crescente povertà culturale spiani la strada al suo uso peggiore.
© RIPRODUZIONE RISERVATA Leggi l'articolo completo su
Il Messaggero