Lo scontro finale tra uomo e robot: l'allarme di Stephen Hawking

Lo scontro finale tra uomo e robot: l'allarme di Stephen Hawking
di Antonio Galdo
3 Minuti di Lettura
Domenica 11 Ottobre 2015, 00:12 - Ultimo aggiornamento: 00:18
E se le macchine ci dovessero fare fuori? La domanda non è retorica, né immaginifica, come se stessimo parlando di un film o di un libro di fantascienza, ma è la preoccupazione reale che sta contagiando la comunità scientifica nel mondo anglosassone. L’ultimo allarme arriva dalla voce dello scienziato Stephen Hawking che scrive testualmente: «L’intelligenza artificiale può portare alla scomparsa dell’umanità, alla sua distruzione».

Premettiamo che Hawking non è né un mestierante del catastrofismo né un retrogrado profeta dei guasti della tecnologia. Al contrario, si tratta di uno dei più stimati fisici e matematici del mondo, autore di teorie universali come quella sull’inizio dell’universo e sui buchi neri, convinto sostenitore del robot che può rendere l’uomo più libero e più ricco.

La sua inquietudine nasce da una considerazione: «Noi siamo evoluti gradualmente per diventare più intelligenti delle scimmie, e Einstein era più intelligente dei suoi genitori. Il vero rischio non è la cattiveria dei robot, ma la loro straordinaria capacità di diventare rapidamente super intelligenti e molto più capaci dei loro creatori». In pratica l’uomo, che per sua natura ha una lenta evoluzione biologica, si ritrova schiacciato da un’intelligenza artificiale che invece progredisce con ritmi supersonici, e quindi fuori controllo. Noi siamo formiche, i robot hanno le sembianze dei ghepardi.



CONTROCORRENTE

Non è la prima volta che Hawking fa sentire la sua voce controcorrente. Lo ha già fatto qualche mese fa, con altri 400 studiosi di tutto il pianeta che hanno sottoscritto una lettera pubblicata sul sito del Future of Life Institute dove si denuncia l’imminente pericolo legato ai progressi dell’intelligenza artificiale. Con queste parole: «Si tratta di sistemi che devono dire e fare quello che decide l’uomo, e non il contrario. Altrimenti i risultati possono diventare molto più rischiosi dei benefici».

La traduzione dell’appello, con casi concreti, è davvero da incubo. L’intelligenza artificiale, non governata ma imposta all’uomo, introduce armamenti automatici in grado di provocare devastanti guerre accidentali. Presto avremo l’auto senza guidatore: ma chi ci assicura che sia in grado di valutare, con i nostri stessi parametri a partire dalla sicurezza per la vita, il rischio di un incidente? E che cosa resterà del diritto alla privacy con robot in grado di sorvegliarci in modo sempre più pervasivo, con computer, cellulari e email al centro di un sistema che ne intercetta, ne spia e ne archivia ogni piccola mossa? L’Apocalisse dell’intelligenza artificiale finora l’abbiamo vista, e ne siamo rimasti eccitati, soltanto al cinema. Siamo cresciuti con le immagini di 2001 Odissea nello spazio, con la firma di Stanley Kubrick, dove la macchina prende il sopravvento, controlla l’astronave e cerca di uccidere l’equipaggio. Hanno vinto Oscar e premi cinematografici film come la trilogia di Matrix, Io, robot scritto da Isaac Asimov, e Trascendence: tutti legati da una trama narrativa che mostra il volto cattivo, perfino criminale, dell’intelligenza artificiale, e vede per questo l’umanità in pericolo.



CONFINE

Adesso che l’immaginazione ci ha portato in universi sconosciuti e affascinanti, dobbiamo fare i conti con la realtà, e provare a distinguere l’utile dal dannoso. Il fascino dello sviluppo della macchina con la barbarie della sua potenziale capacità distruttiva. Un confine che non appassiona e preoccupa soltanto scienziati di chiara fama, come Hawking, ma anche i grandi protagonisti dell’industria high tech, quella che in fondo negli ultimi decenni ha rivoluzionato i nostri stili di vita. Quella che ha modificato in modo radicale anche il nostro approccio con la chimera della piena occupazione: secondo gli studi dell’università di Oxford, il 47 per cento degli attuali lavori sono a rischio, nei prossimi vent’anni, per l’avanzare dei robot.



Bill Gates, per esempio, a proposito dell’evoluzione dell’intelligenza artificiale, ha detto: «È nata come un aiuto dell’uomo, ma adesso è così forte che può diventare il suo incubo». Ed Elon Musk, uno degli imprenditori più ammirati della Silicon Valley, oggi numero uno della Tesla, avverte: «L’intelligenza artificiale è potenzialmente più pericolosa delle armi nucleari». Sono parole che fanno riflettere. E dovrebbero indurre tutti noi, non solo la comunità scientifica o gli industriali della modernità, a riscoprire limiti e funzioni del progresso tecnologico in chiave umanistica. Ricordandoci, come scriveva Alessandro Manzoni, che «non sempre quello che viene dopo possiamo definirlo progresso».

Antonio Galdo

© RIPRODUZIONE RISERVATA
© RIPRODUZIONE RISERVATA