Pubblichiamo questa intervista al prof. Pierluigi Contucci, professore ordinario di Fisica Matematica all’Università di Bologna, che ha recentemente pubblicato il libro “Rivoluzione intelligenza artificiale. Sfide, rischi opportunità” presso la casa editrice Dedalo.

Una precedente sua precedente  intervista pubblicata su questo sito è presente qui.

Il libro è disponibile all’acquisto, per esempio,  qui e qui.


Come è nata l’idea di scrivere questo libro?

L’idea è emersa gradualmente, stimolata da diversi fattori. Per sua natura il tema dell’Intelligenza Artificiale tocca tutte le discipline. Si può addirittura dire che l’argomento è baricentrale tra i due grandi poli: quello delle scienze dure, quali la fisica, la matematica e l’informatica e quello delle scienze umanistiche quali la giurisprudenza, l’economia e la finanza, la filosofia, l’etica, le scienze cognitive. A tutte queste scienze AI sta imponendo un profondo cambio di paradigma. Quella che abbiamo quindi è quindi un’occasione imperdibile per tentare una ricucitura delle due culture dopo i danni che la loro separazione ha fatto ovunque, ma nel nostro paese più che altrove. Per ricucire occorre però avvicinare i due lembi del tessuto e avere dei punti di appoggio robusti in entrambi. Questo breve saggio si propone come un piccolo passo in quella direzione perché contiene un tentativo di concettualizzare la parte tecnica e mostrare quanto il coinvolgimento della parte umanistica sia indispensabile al buon esito di questa rivoluzione.

Per chi è pensato il testo?

E’ pensato per un pubblico vasto, non specialistico. Qualsiasi persona curiosa può trovare sia spunti di riflessione che un suo soddisfacente percorso personale nella lettura. Gli argomenti trattati infatti inquadrano il periodo attuale come una nuova rivoluzione industriale che non riguarda solo i cultori della disciplina o le persone coinvolte con la sua diffusione. Queste rivoluzioni infatti cambiano il tessuto della società e non solo la tecnologia con cui si manifestano.

Il primo capitolo parte dall’interessante osservazione secondo cui l’attuale percezione pubblica di cosa sia una Intelligenza Artificiale (IA) non proviene dalla scuola né dall’università, ma piuttosto da un immaginario ascrivibile al cinema e, in più generale, a quel panorama di opere che prendono spunto con diversa qualità dalla fantascienza. Che rischio comporta, secondo lei, questo?

L’Intelligenza Artificiale, nata negli anni cinquanta, è stata subito intercettata dai grandi registi dell’epoca e proposta al pubblico in modo visionario. La fantascienza però non ha sempre mantenuto quegli standard iniziali. La tentazione di parlare alla pancia dello spettatore e fare leva sulle sue paure o sui suoi bisogni di rassicurazioni è fortissima, certamente più forte della volontà di parlare all’intelletto. Le visioni distopiche del tema hanno subito preso il sopravvento al cinema che non ha fatto molto né per informare né tantomeno per formare il pubblico. La percezione pubblica quindi è spesso sbilanciata, nel bene o nel male, e ha poche basi fattuali. Il rischio che si corre quindi inizia da quello, già serio, di ragionare su qualcosa senza avere la minima idea di base sul cosa sia e per di più con il pregiudizio di completa sfiducia o, agli antipodi, di fiducia cieca. Poi ovviamente può sfociare in confronto tra opposti polarizzati che paralizzano ogni forma di comunicazione a scapito della conoscenza scientifica.

In che senso, come scrive, può essere utile demistificare la tecnologia dell’IA?

La demistificazione si compie in due passi. Il primo è proprio fatto sgombrando il campo a nozioni pregresse costruite su fonti che non avevano neppure la pretesa di essere attendibili, il cinema per esempio o le notizie che rimbalzano nella rete per attirare l’attenzione e non per formare o approfondire. Il secondo passo è descrivere cosa fa e come lo fa, possibilmente senza ricorrere a tecnicismi.

Nel secondo capitolo osserva che, alcune delle cose che le IA riescono già a fare,  fanno ormai parte della nostra vita e non destano più meraviglia forse a causa di un atteggiamento di rinuncia alla comprensione del funzionamento della tecnologia.  Può citare qualcuno degli esempi contenuti nel testo?

L’avvento delle tecnologie della fisica dello stato solido, in particolare i circuiti con miliardi di transitor, ci hanno disabituati alla comprensione delle macchine moderne come i computer. Mentre una volta con “macchina” si intendeva un meccanismo che in qualche modo si poteva smontare e vedere, ora è impossibile farlo coi chip. La tecnologia quindi non è più accessibile al pubblico a livello fine. Questo ha comportato una certa indifferenza quando sono arrivati i primi risultati notevoli del deep learning come il riconoscimento delle immagini. Le reazioni forti verso AI sono invece comparse quando abbiamo scoperto che la macchina dialoga con noi in modo molto simile all’umano.

Il capitolo successivo dal titolo “Come funziona l’IA” spiega in modo chiaro i due rami in cui la disciplina dell’intelligenza artificiale si è, quasi da subito, suddivisa. Può anticipare ai nostri lettori  in cosa consiste questa suddivisione? Il Deep Learning a che ramo appartiene?

Le due AI sono come delle gemelle diverse. Sono nate nello stesso periodo, gli anni cinquanta, e corrispondono a due approcci diametralmente opposti. Una cerca di imitare le facoltà superiori del cervello, quali la logica e il metodo deduttivo. Quella è facilmente implementabile su macchina e linguaggi superiori tipici dei metodi simbolici hanno permesso di ottenere risultati interessanti con essa, ma solo perché la forza calcolistica della macchina supera facilmente quella dell’uomo. L’altra AI cerca invece di imitare non i processi di pensiero razionale ma di ricostruirli dalla base dei processi biologici neuronali. Questa è stata animata da una coraggiosa fede di alcuni ricercatori che hanno creduto in essa, e soprattutto dal contributo dei cultori di scienze dure che hanno modellizzato matematicamente alcuni processi come quello di memorizzazione e quello di apprendimento. Il deep learning è appunto l’evoluzione attuale del processo di apprendimento basato su dinamiche neuronali.

Nel successivo capitolo ho trovato davvero interessante l’analogia fra la nascita di primi motori (che inizialmente hanno costituito una tecnologia pre-scientifica) con il successivo sviluppo della termodinamica e la situazione attuale dell’IA. In che senso, in altri termini, scrive che è  “ancora da spiegare il perché la macchina sia in grado di apprendere e generalizzare”?

Il parallelo fatto è il cuore del breve saggio, quello che ho chiamato la concettualizzazione degli aspetti tecnici dell’IA. In quel capitolo spiego che la gemella simbolico-razionale dell’IA è in un certo modo la leva della meccanica, mentre il deep learning neuronale corrisponde a un motore nella meccanica. Oggi non sappiamo spiegare perché queste macchine “intelligenti” funzionano nel senso che le nozioni scientifiche che abbiamo non hanno identificato i principi generali su cui l’apprendimento si basa. Potremmo dire che siamo nella fase pre-termodinamica della fisica, quindi di tecnologia pre-scientifica. Ribadisco che questa fase va considerata come foriera di crescita scientifica e salutata con favore e ottimismo insieme alla necessaria cautela.

Nel capitolo “Rischi, opportunità e sfide” analizza la questione etica relativa al fatto che l’intelligenza artificiale già oggi prende decisioni al  posto nostro.  Può fare qualche esempio di ciò ai nostri lettori? Quale è la sua posizione in merito ai rischi di tutto ciò? 

AI decide già chi conviene assumere nelle le aziende, decide a chi la banca concede il mutuo, e lo fa estraendo da grandi banche di dati i parametri necessari per prendere decisioni. Questi parametri però non sono intellegibili. E’ ovvio che le decisioni sulla sorte delle persone necessitano della responsabilità di altre persone. Il rischio che corriamo con AI è che non sia possibile identificare un responsabile umano nel processo.

Il capitolo “L’IA che parla” è dedicato ad analizzare le IA in grado di, come scrive, “parlare con noi in modo fluido” come ChatGPT.  Perché questo tipo di IA, a differenza di altri già esistenti, ha sollevato un grande clamore?  In che senso ChatGPT “sa molto, ma non ha capito niente”?

I modelli generativi di linguaggio stanno facendo parlare molto di se perché noi sentiamo come vicini coloro che parlano la nostra lingua, che ci capiscono. La comunicazione linguistica, verbale o scritta, è quel che definisce veramente l’umano. Vedere quindi che una macchina ci “capisce”, a suo modo, e ci risponde nel merito genera dello sgomento. Quei modelli hanno assorbito una gran quantità di nozioni ma un interlocutore umano riesce a trovare i loro punti deboli in relazione alla loro capacità logica che risulta limitata, almeno per ora. Aggiungo che le ultime versioni sono state sensibilmente migliorate rispetto a quelle di alcuni mesi fa. Il ritmo in cui si fanno progressi tecnologici in AI è senza precedenti nell’intera storia umana.

All’interno di quella che sembra una ormai ineludibile  rivoluzione tecnologica determinata dall’uso dell’intelligenza artificiale, qual è, secondo lei la situazione dell’Italia? In un capitolo apposito del suo libro parla di questo citando numeri, purtroppo abbastanza sconfortanti sul minor numero di ricercatori presenti in Italia rispetto alla media Europea. In che modo si potrebbero promuovere “buone pratiche” per incentivare la ricerca e lo sviluppo di aziende in questo ambito? 

La situazione italiana riflette la struttura generale del nostro paese. Certamente vanno rinforzate le aree STEM nella formazione. Questo deve essere fatto sia nel corpo docente, dalla scuola all’università, che nel numero di studenti nell’istruzione superiore. Serve una comunicazione più agile tra imprese e università e investimenti nella ricerca che siano coraggiosi e commisurati a un paese che vuole stare al passo dei grandi paesi nel mondo. Serve poi parlare al pubblico perché queste decisioni sono prese dalla politica che non ha sempre il pregio di essere lungimirante ma, se stimolata dalla base elettorale, è in grado di muoversi nella direzione giusta.

Nel libro parla di una proposta che lei, insieme con il collega Paolo Branchini dell’INFN, fece in una commissione ministeriale. In che cosa consisteva quella proposta? C’è ancora la possibilità di attuarla?

La proposta aveva diverse dimensioni, tra cui un piano per istituire dei nuovi percorsi formativi consoni al tipo di rivoluzione che stiamo vivendo. Ricordiamo che la rivoluzione industriale portò alla fondazione dei Politecnici in tutto il mondo e quei paesi che li fecero per primi conservano ancora un vantaggio notevole sugli altri. Una delle idee, avanzata anche per fare riprendere terreno al nostro paese, era quella della costruzione di un istituto di ricerca in AI, modellato come la divisione teorica del CERN per esempio. La possibilità di attuarla c’è sempre, se non altro inseguendo qualche altro paese perché nel frattempo l’idea è comparsa negli Stati Uniti, in Australia e altrove, magari per ragioni diverse.

Pensa che ci sia il rischio che il predominio sulla tecnologia dell’IA sia sempre più in mano ai grandi colossi informatici  come Google, Amazon, Facebook a scapito di un uso di questa tecnologia “per il bene comune”?

E’ un grosso rischio perché, riprendendo la questione precedente, la ricerca fondamentale non viene promossa da grandi compagnie. Sarebbe stato impensabile, nel dopoguerra, sperare che le grandi industrie finanziassero la fisica delle alte energie, ecco perché è stato fondato il CERN. Oggi non possiamo sperare che siano le grandi compagnie del digitale a sponsorizzare la ricerca della termodinamica dell’apprendimento.

Nel suo testo lei osserva giustamente che una intelligenza artificiale non è ancora in grado di fare ricerca scientifica e non è in grado (almeno attualmente) di trasformare una serie di osservazioni sperimentali in una teoria scientifica. In che cosa però una IA può già supportare il lavoro di un ricercatore?

Terence Tao

Terence Tao

La macchina, sia attraverso la programmazione classica o il deep learning, può fornire un supporto alla risoluzione di problemi di matematica. La cosa è avvenuta per il teorema dei quattro colori decenni fa e di recente per questioni di algebra e combinatoria (si veda anche l’opinione del Fields medalist Terence Tao a riguado). Al momento tuttavia non riesce a modellizzare un fenomeno, ne tantomeno ad operare quel cambio di paradigma necessario a proporre una nuova teoria. Queste due capacità rappresentano, in qualche modo, l’artigianato e l’arte delle scienze dure e sono destinate a rimanere saldamente nelle mani dell’uomo per quanto ci è dato vedere.

CC BY-NC-SA 4.0
This work is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.