L’intelligenza artificiale è buona o cattiva? La risposta è nella sostenibilità digitale

Stefano Epifani (Digital Transformation Institute): l'IA, la sostenibilità e le pandemie

Di Alessio Jacona*

«L’intelligenza artificiale oggi è come una zappa». Stefano Epifani, professore di Internet Studies presso il dipartimento di Comunicazione e Ricerca Sociale dell’Università La Sapienza, direttore del Digital Transformation Institute nonché autore del libro "Sostenibilità digitale", ama le metafore inconsuete, specie se legate alla campagna che ama e dove ormai vive da anni. Le userà spesso durante il nostro incontro “virtuale” via videochat, soluzione forzata in tempi di lockdown da coronavirus, in un’intervista che sarebbe stata impossibile solo pochi anni fa e che oggi, proprio grazie alla pervasività delle tecnologie, è un “miracolo” alla portata di tutti.

«Una zappa, di per sé, non è utile, inutile o pericolosa - continua Epifani - e la questione non è solo l’uso che vogliamo farne, ma il senso stesso che scegliamo di attribuire a tale uso, la direzione verso cui decideremo di indirizzare tutte le nostre azioni per raggiungere quale obiettivo». Vale per lo strumento simbolo della civiltà contadina - che è stata usata tanto per lavorare la terra quanto per fare la rivoluzione - e vale per quell’insieme di tecnologie in rapido sviluppo che chiamiamo genericamente “intelligenza artificiale”, spesso senza sapere che ci riferiamo ad algoritmi che svolgono compiti verticali e specifici, “agenti” che si evolvono perché apprendono grazie a meccanismi di machine learning. E’ uno dei molti effetti della trasformazione digitale, di quel processo corale che sta cambiando profondamente gli strumenti che adoperiamo, il modo in cui facciamo le cose e, in ultima analisi, noi stessi.

Ma cos’è davvero la trasformazione digitale?
«La trasformazione digitale è quel fenomeno che non riguarda soltanto l’informatica, ma anzi è una conseguenza del fatto che l’informatica sia diventata pervasiva nella società tanto da cominciare a cambiarne la struttura, le forme, le modalità e le dinamiche. Non riguarda solo il cambiamento del modo in cui facciamo le cose, ma del loro stesso senso e del perché le facciamo».

Ci può fare qualche esempio?
«Prendiamo il mestiere del giornalista: il suo lavoro non cambia solo perché mutano gli strumenti a sua disposizione, ma perché a cambiare è il suo stesso ruolo nella società. Se un domani macchine intelligenti dovessero sostituire i giornalisti in carne ossa, ciò vorrebbe dire che questi ultimi non sono stati capaci di reinterpretare il loro ruolo in un contesto dove si sono trasformate sia l’informazione, sia le dinamiche con cui essa viene distribuita, fruita e condivisa. Insomma se io oggi faccio il giornalista, non mi devo chiedere che strumenti dovrò usare in futuro, ma quale sarà il mio ruolo».

Ce ne sarà ancora uno?
«Certo che sì, e sarà farsi interprete di un livello di complessità sempre crescente. Nel momento in cui l’informazione diventa sempre più pervasiva e complessa, ed è sempre più difficile distinguere il vero dal falso, il giornalista deve farsene interprete e assumere un ruolo sempre più centrale nella costruzione del senso»

Qual è il ruolo dell’intelligenza artificiale nella trasformazione digitale?
«Il ruolo e l’efficacia dell’intelligenza artificiale risiedono nella sua capacità di supportare un percorso che non è tecnologico e tecno-centrico ma umano, quello di una società che si sviluppa in modo sostenibile. Un obiettivo raggiungibile grazie all’uso strumentale e consapevole di tutte le tecnologie, inclusa l’intelligenza artificiale».

C’è chi vede l’IA come la panacea di tutti i mali...
«In una sorta di ipocrita delega delle responsabilità, noi amiamo pensare che i problemi legati alla tecnologia derivino dalla tecnologia in sé e non dal modo in cui la usiamo. La conseguenza è che passiamo il nostro tempo a chiederci se l’intelligenza artificiale sia negativa o positiva, se l’impiego della robotica sia un bene o un male, dimenticando che sta a noi decidere come realizzarle perché siano buone o cattive. Che ciò dipende dalla nostra capacità di dare loro un senso, indirizzandone l’evoluzione nella giusta direzione: quella appunto della sostenibilità».

Perché proprio la sostenibilità dovrebbe fungere da principio guida?
«Perché essa è forse l’unico obiettivo condiviso da quasi 200 paesi che insieme hanno prodotto e condiviso una visione collettiva, che ruota proprio intorno alla sostenibilità economica, ambientale e sociale, così come è riassunta nell’Agenda 2030».

Le IA di cui disponiamo oggi vanno in questa direzione? Le sembrano sviluppate nel modo giusto?
«Al momento direi di no. Questo perché siamo noi a creare gli algoritmi e noi per primi ci stiamo dimostrando incapaci di lavorare tutti insieme per perseguire un obiettivo più alto come appunto la sostenibilità. Così accade che da una parte lasciamo che le tecnologie si sviluppino a senso loro, un po’ come delle piantine non curate, mentre dall’altra agiamo in maniera frammentata e sconnessa, dove ognuno pota e cura queste piantine a modo suo, badando solo al proprio specifico interesse».

A chi si riferisce?
«Per esempio alle piattaforme per il social networking, che usano l’intelligenza artificiale per estrarre valore dall’utente senza dargli molto in cambio, o alle piattaforme in generale, che fanno più o meno lo stesso. Se noi non costruiamo un sostrato di valore più alto, che sia figlio di una riflessione comune fatta da una società che sappia immaginare il proprio futuro, è chiaro e naturale poi che i singoli attori commerciali agiscano in piena indipendenza secondo ciò che conviene di più, almeno finchè non si svilupperà una sensibilità comune, appunto, orientata ad un modello di sviluppo sostenibile».

Riassumendo: per dare il giusto indirizzo allo sviluppo dell’intelligenza artificiale (così come di tutte le altre tecnologie) servono una presa di coscienza e un’iniziativa comune?
«Il tema è: ho questa zappa, a che cosa mi serve? Oggi siamo ancora in una fase nella quale ognuno la usa a modo suo: chi poco, chi male, chi addirittura ci si ferisce. Ciò avviene perché ancora non abbiamo un pensiero strutturato in Italia e in Europa che ci guidi nell’utilizzare questi strumenti per perseguire obiettivi più alti. E che ci consentirebbe di costruire delle policy pubbliche cui fare riferimento nei momenti di crisi e di urgenza».

Come ad esempio la pandemia di Covid19, per la quale in molti invocano l’uso di tecnologie di contact tracing, anch’esse basate su IA, per tracciare i movimenti della popolazione?
«Certo. Non avere avviato in passato una riflessione più alta su privacy, libertà e sicurezza rispetto all’uso della tecnologia nell’ambito della gestione delle epidemie - cosa che Agenda 2030 implicitamente indica di fare - ci porta ora a dover ragionare in emergenza e, di fatto, a rischiare di abdicare a diritti che invece avremmo potuto preservare se solo ci avessimo pensato prima. Basta guardare ancora una volta all’Agenda 2030, dove al terzo punto si specifica la necessità di organizzarsi per affrontare questo tipo di problemi. Se ne avessimo tenuto conto e ci fossimo organizzati per tempo, mettendo a sistema le tecnologie disponibili, avremmo potuto sviluppare soluzioni dove privacy e sicurezza non sono in contrasto».

Il mondo sembra dividersi tra chi crede che l’intelligenza artificiale ci salverà e chi teme che ci distruggerà. Lei da che parte sta?
«Credo che l’intelligenza artificiale possa salvarci o distruggerci, e che ciò dipenda da quanto saremo capaci di ascriverla a un percorso più alto che è appunto, quello di guardare alla tecnologia come strumento di sostenibilità. Quella che chiamo sostenibilità digitale. Credo che dipenda da noi e da quello che vogliamo fare con la zappa di cui sopra. La tecnologia come soluzione sarà anche neutrale, come si dice sempre, ma il modo in cui noi la pensiamo, costruiamo ed utilizziamo non lo è affatto».


*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it

RIPRODUZIONE RISERVATA © Copyright ANSA