Pubblichiamo questa intervista a Nello Cristianini, professore di Intelligenza Artificiale all’università di Bath e autore del libro “La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano”.

Il libro è disponibile per l’acquisto, per esempio, qui e qui.

E’ disponibile anche un versione in lingua inglese dal titolo “The Shortcut. Why Intelligent Machines Do Not Think Like Us


Qual è il suo campo specifico di ricerca?
Da quasi trent’anni mi occupo di apprendimento automatico, ovvero machine learning, e soprattutto delle sue basi statistiche e algoritmiche, ma anche delle sue applicazioni come strumento per creare intelligenza artificiale.

Qual è stato il percorso che l’ha portata ad avviarsi al settore dell’intelligenza artificiale (IA)?
Ho iniziato a interessarmi subito, già a scuola, programmando i miei primi computer, ma poi ho studiato Fisica, e in quegli anni ho letto quasi tutto quello che trovavo sull’argomento, e poi ho fatto il master e il dottorato su machine learning.

Come è nata l’idea di scrivere il libro “La scorciatoia”? A quale pubblico si rivolge il testo?
“La scorciatoia” nasce dal bisogno di parlare con colleghi di altre discipline, scientifiche e non, che non condividono (ancora) con noi una base comune di fatti e terminologie, e in alcuni casi finiscono per avere opinioni molto forti su cose che non esistono. Ho visto il bisogno di descrivere tutti i fatti, in un linguaggio semplice, per poter avere quella conversazione che e’ essenziale.

Nel primo capitolo del libro evidenzia che dovremmo  abbandonare una certa visione un po’ troppo antropocentrica di intelligenza a favore di  una che vede l’intelligenza come “la capacità di un sistema di agire in modo appropriato in un ambiente incerto”. Può spiegarci perché secondo lei questo è necessario farlo proprio quando si parla di IA?

Perché elimina dalla conversazione una serie di malintesi e confusioni filosofiche: problemi di autocoscienza, senzienza, linguaggio, anima, creatività, che si mescolano tra loro disordinatamente, impedendo un ragionamento chiaro. L’intelligenza va definita in modo semplice, e separato da quelle altre nozioni. Quella confusione ha bloccato il progresso filosofico, e adesso rischia di bloccare anche la regolazione legale del settore.

In che senso lei sottolinea come sia necessario un “mondo regolare” per permettere ogni forma di apprendimento?
Ci vorrebbe una risposta lunga, ma per un blog matematico come il vostro, posso raccomandare ai lettori di leggere John Barrow e Gregory Chaitin, per esempio. L’idea e’ che solo una piccola frazione dei mondi “possibili” può essere modellata, ovvero è non-random in senso matematico. E’ un punto importante sulla natura della conoscenza, ma ci vuole troppo spazio per svilupparlo qui.

Il secondo capitolo, intitolato “La scorciatoia”, è forse il capitolo centrale del suo libro. In esso lei evidenzia come lo sviluppo delle attuali tecniche di Machine Learning (in italiano apprendimento automatico)  possano essere viste, utilizzando la terminologia di Kuhn,  come un cambiamento di paradigma della scienza.
Può spiegare ai nostri lettori in che cosa consiste questa rivoluzione (che lei indica anche con il termine di  “scorciatoia”) che ha portato alla fine della cosiddetta “intelligenza artificiale simbolica” a favore dell’attuale approccio fondato sull’apprendimento automatico “data driven”?

Quel capitolo racconta la storia dei passi culturali, prima ancora che tecnici, che ci hanno portato a cambiare la definizione di quello che cerchiamo in Intelligenza Artificiale. Da un tentativo iniziale di riprodurre il ragionamento logico con cui dimostriamo i teoremi, alla nuova ricetta che si basa sull’apprendimento di pattern statistici – anche complessi – scoperti tra i dati. E’ un passaggio fondamentale, credo che andrebbe letto e digerito dai filosofi della scienza.

Nel libro fra le tante figure di ricercatori, lei ne evidenzia due in particolare: Frederick Jelinek e  Vladimir Vapnik. Chi erano e  perché,  come spiega nel libro, anche  grazie al loro contributo si è capito, per esempio, che “predire la parola seguente in un testo è molto più facile che comprendere una frase”?

Il libro è costruito attorno a tante storie, di momenti specifici, e personaggi specifici, che coincidono con i momenti di svolta del nostro settore. Un momento importante è quello in cui Fredrick Jelinek  – teorico dell’informazione – decide di modellare il linguaggio naturale senza l’uso di grammatiche e solamente impiegando informazioni statistiche, e ottiene un grande successo. Vladimir Vapnik, invece, formalizza matematicamente un approccio al machine learning che è in qualche modo equivalente, ed è quello moderno: lo scopo del gioco è quello di fare previsioni accurate, nient’altro. Quelli sono due momenti diversi, in cui abbiamo cambiato le regole del gioco, e abbiamo aperto la strada per metodi come quelli che vediamo adesso in chatGPT. ci sono molte altre storie come queste nel libro. Andrebbero lette, prima di iniziare a discutere e regolamentere il settore.

Cosa sono le rappresentazioni “aliene” di cui parla nel terzo capitolo e perché capire questa idea potrebbe aiutare a capire meglio come funziona IA,  per esempio ChatGPT?

Per poter comprimere i dati, un passo inevitabile, l’algoritmo deve descriverli, in questo modo rappresentando il mondo in termini più astratti. Lo facciamo anche noi, quando inventiamo il concetto di carnivoro o erbivoro per semplificare il nostro elenco delle diete di ciascun animale. Bene: non c’è ragione di aspettarci che una macchina faccia uso delle stesse astrazioni, Infatti, spesso le macchine descrivono il mondo usando concetti che non esistono nella nostra cultura, e per cui non abbiamo delle parole. Nel libro li chiamo concetti alieni.

Nel quinto capitolo del libro affronta il problema del rischio che gli agenti intelligenti sviluppati possano, per esempio  assorbendo i pregiudizi presenti nella società, prendere “delle scorciatoie pericolose”.  Può spiegare ai nostri lettori questo problema e  le strategie che in questo momento pensa si possano applicare per  evitare i rischi derivanti dal delegare a macchine intelligenti decisioni importanti?

E’ chiaro che se la macchina non può capire le conseguenze delle sue azioni, potrebbe violare importanti norme e anche leggi. Concentrandosi solo sulla qualità delle proprie previsioni, può finire per danneggiare qualcuno. Queste macchine non sono ostili, ma indifferenti.

Ritiene, infine, che i sistemi scolastici dovranno a breve adattarsi a quella che sembra essere ormai una ineludibile nuova rivoluzione tecnologica derivante dell’uso delle IA?

Con giudizio e con cautela. La scuola deve soprattutto fornire le basi culturali per comprendere il mondo, e poi le abilità essenziali per essere dei cittadini e dei lavoratori. Quando si parla di fake news, per esempio, il rimedio non è un nuovo software, ma la cultura, il metodo scientifico, il metodo storico e quello filologico. E’ chiaro però che questi obiettivi si possono anche perseguire con metodi nuovi, per esempio io amo molto sentire parlare in latino su Youtube. Insomma: la scuola serve a formare, e non c’è bisogno di cambiare sempre i contenuti per questo, ma serve anche a dare delle competenze pratiche, e queste cambiano. Nella mia vita, per esempio, ho tratto grandi benefici dall’avere imparato i linguaggi di programmazione già a partire dalle scuole medie.  Nell’ora in cui facevo lavori con il legno, oggi farei fare un po’ di programmazione: non farebbe male a nessuno.

CC BY-NC-SA 4.0
This work is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.