The Social Dilemma, il pericolo di un algoritmo che sfugge a ogni controllo

The Social Dilemma, il pericolo di un algoritmo che sfugge a ogni controllo
di Andrea Andrei
4 Minuti di Lettura
Martedì 29 Settembre 2020, 15:55

«Quando abbiamo inventato il tasto Mi piace pensavamo che avremmo diffuso positività nel mondo. Non che avremmo spinto gli adolescenti alla depressione o che avremmo creato polarizzazione nella democrazia». Potrebbe essere questo uno dei modi in cui riassumere The Social Dilemma, il documentario diretto da Jeff Orlowski che da quando è approdato sulla piattaforma Netflix sta facendo molto discutere. A pronunciare quella frase è Justin Rosenstein, 37enne programmatore che dopo aver lavorato per Google è passato a Facebook, dove è stato fra i co-creatori del tasto Mi piace. Rosenstein è solo una delle voci che compongono il nuovo documentario del regista 36enne (già famoso per altri due film, Chasing Ice e Chasing Coral, sull'emergenza climatica), insieme a una serie di ex manager della Silicon Valley e studiosi come Shoshana Zuboff (autrice del saggio Il capitalismo della sorveglianza, Luiss University Press) e Jaron Lanier, pioniere della realtà virtuale.

Elon Musk, il chip che connette il cervello a un computer è realtà: Neuralink sperimentato (per ora) sui maiali
WhatsApp, l'allerta della Polizia: attenzione all'invio codici di attivazione. Così rubano i profili

LE DOMANDE
I social newtork hanno cambiato la nostra società? Facebook, Instagram, Twitter, YouTube e le altre piattaforme, che hanno l'indubbio merito di averci messo in contatto abbattendo le barriere dello spazio e del tempo, possono essere dannose? E se sì, cosa possiamo fare? Se c'è una ragione per cui il documentario Netflix sta facendo tanto discutere (e riflettere), è che le risposte a queste domande sono molto più inquietanti di quello che si potrebbe pensare. Si scopre infatti (anche se di questi temi si parla da anni, The Social Dilemma li affronta con chiarezza inedita) come quel gesto di far scorrere il pollice sullo schermo dello smartphone, che è ormai parte integrante della nostra quotidianità, alimenti costantemente un algoritmo programmato per aumentare la nostra dipendenza da queste piattaforme, con l'obiettivo - ovvio - delle grandi aziende del web di creare profitti. Come? Vendendo gli stessi utenti.

Ed è proprio in questo algoritmo la chiave del problema: tutte le nostre attività social, come guardare un video, mettere like a una foto, ignorare un contenuto e soffermarci su un altro, condividere un post o pubblicare un selfie, contribuiscono a creare un profilo di noi stessi sempre più preciso. In sostanza, più tempo passiamo sulle piattaforme e più queste ultime ci conoscono: sanno le nostre abitudini, le nostre tendenze sessuali, i nostri gusti e anche chi sono le persone a noi più care. Lo sanno meglio di noi, perché l'algoritmo è programmato per raccogliere informazioni e, in base a quelle, proporci contenuti più adatti a noi. Il risultato è che più stiamo sui social, più li troviamo interessanti, più non riusciamo a farne a meno.
Ma non è il lato economico quello più spaventoso. Le aziende fanno quello che il capitalismo ha sempre fatto: cercare di guadagnare il più possibile. Il problema è che i social network non sono un prodotto o un servizio, come ad esempio la stessa Netflix, che un utente può scegliere o meno di acquistare: sono una parte ormai imprescindibile della socialità. Il problema è appunto sociale, se si pensa ad esempio all'effetto che la logica del like ha sui minori: The Social Dilemma mostra come negli Usa, da quando queste piattaforme si sono diffuse sugli smartphone, siano molto aumentati i casi di autolesionismo e di suicidio tra i minori di 15 anni, causati da cyberbullismo e depressione. Ma il problema è anche politico: se ho una certa idea, non importa quanto strampalata possa essere (vedi il terrapiattismo), sui social vedrò sempre più contenuti che confermano quell'idea, convincendomi che ho ragione.

LE FAKE NEWS
Il fenomeno delle fake news si alimenta appunto in questo modo, perché a un certo punto è il concetto stesso di verità a venire meno. E se la verità non esiste, ognuno crede in una verità tutta sua. Non si tratta di uno scenario potenziale, ma di realtà: dai negazionisti del Covid al Pizzagate (teoria che si è diffusa negli Usa secondo cui nei sotterranei di alcune pizzerie sarebbe esistito un giro di pedofili), facciamo oggi i conti con una serie di movimenti incontrollabili che stanno polarizzando sempre più il sistema politico, creando divisioni in fazioni che stanno mettendo a repentaglio la tenuta delle democrazie occidentali. È difficile non provare un brivido quando Rosenstein, nel documentario, dice: «Lo scenario che mi preoccupa di più? Nell'immediato, direi una guerra civile». Nemmeno a farlo apposta, il capo degli Affari globali di Facebook, Nick Clegg, la scorsa settimana al Financial Times ha parlato proprio in questi termini: «Se le elezioni americane dovessero precipitare nel caos o in disordini civili, Facebook adotterà misure eccezionali per limitare la circolazione dei contenuti». Ed è qui che il cerchio si chiude, tornando alla frase iniziale di Rosenstein: le aziende che hanno creato questi algoritmi non sono più in grado di controllarne le conseguenze. Non sanno, in pratica, come risolvere il problema. Che tutti abbandonino i social network, oggi, è uno scenario impensabile, così come difficilmente i colossi del web potrebbero essere smantellati in poco tempo. Le soluzioni percorribili sono quindi due: o una regolamentazione da parte degli Stati, oppure un'autoregolamentazione. Per quest'ultima serve però responsabilità, e il primo passo è cominciare a pensare allo smartphone, ai selfie e ai like non come a un'innocua forma di intrattenimento, ma a qualcosa di estremamente serio, da usare con il cervello per evitare conseguenze disastrose.

 

© RIPRODUZIONE RISERVATA