Facebook, 11 luglio 2025
Due parole sulla Ai
Quando sono diventato presidente del corso di laurea in Data Science alla Sapienza, mi sono ripromesso di fare una cosa:non solo curare la qualità della didattica, ma anche delineare e comunicare – con chiarezza – i contorni della rivoluzione culturale ed epistemica che stiamo attraversando.Fino a poco tempo fa vivevo questa urgenza più sul piano applicativo, all’interno delle nostre ricerche. Ma è evidente che la portata del cambiamento va oltre: tocca la politica, l’informazione, il modo in cui produciamo conoscenza e persino la nostra idea di mondo.Una trasformazione profonda, trasversale, in cui la questione del dato è centrale.Uno dei pilastri di questa visione – che chiamiamo Scuola di Data Science di Frattocchie – è ricordare che il machine learning non è la data science: ne è un pezzo, nobile, ma parziale.La data science è un ecosistema: contiene la modellazione, la statistica, la teoria dei sistemi complessi (che è anche il mio campo), la riflessione sul linguaggio, l’analisi strutturale dei comportamenti.Non è un toolkit. È un modo di vedere.Oggi invece la narrazione dominante è devastata.Da una parte informatici che ignorano le basi della statistica. Dall’altra filosofi che ignorano la statistica.In mezzo, chiacchieroni da YouTube che hanno scambiato l’output di un LLM per una rivelazione metafisica.Si parla di interdisciplinarietà, ma senza mai pagarne il prezzo: cioè studiare davvero, con metodo.Sembra la Torre di Babele.E nel frattempo, i concetti fondamentali si confondono, si appiattiscono, si decontestualizzano.L’AI viene raccontata come un soggetto senziente. I modelli vengono chiamati “intelligenti”. Si confonde la capacità di generare testo plausibile con la comprensione, l’invenzione, il pensiero.Qualche mese fa, con il collega Matteo Cinelli, abbiamo pubblicato un piccolo manuale.Tascabile, essenziale, un po’ demenziale per necessità comunicativa.Non per dare risposte, ma per provare a rimettere a fuoco le basi: cos’è un dato, cos’è un modello, cosa significa davvero prevedere.L’idea resta sempre la stessa:ciò che oggi chiamiamo intelligenza artificiale, nel suo uso popolare, non pensa, non capisce, non sa.È una macchina statistica che intercetta pattern, li ricombina, e restituisce uscite coerenti.Un compressore predittivo del linguaggio umano, addestrato su una gigantesca base di esperienza passata.Il vero salto non è negli algoritmi, ma nei dati.Nel modo in cui l’accumulazione massiva delle nostre tracce digitali ha reso possibile costruire modelli che non spiegano il mondo, ma riescono ad anticiparne alcune dinamiche.La data science non cerca verità metafisiche. Cerca regolarità.E se queste regolarità sono abbastanza robuste, diventano previsione.Non stiamo creando menti artificiali.Stiamo imparando a sfruttare – a scala – l’intelligenza che abbiamo già inscritto nel linguaggio, nelle abitudini, nei nostri clic.È una nuova epistemologia della previsione.Non richiede stupore, ma lucidità.E soprattutto strumenti per distinguere ciò che appare intelligente da ciò che è semplicemente utile – o ben confezionato.Ma oggi questi strumenti faticano a emergere.Perché l’ecosistema informativo non è pensato per promuovere comprensione, ma per massimizzare attenzione.E in questo contesto, anche le domande giuste si perdono.Non è solo confusione. È sfiducia.È la forma contemporanea dell’anarchia epistemica:sapere che qualcosa non torna, ma non avere più la griglia per capire cosa.Non è più il problema dell’errore.È l’impossibilità di distinguere tra errore e illusione performativa.Ecco, la responsabilità di chi lavora con i dati oggi – in università, nei centri di ricerca, nella pubblica discussione – è questa:non rincorrere il rumore, ma costruire le condizioni minime per pensare con lucidità.Rimettere in circolo le parole giuste.E, anche controvento, continuare a scegliere la comprensione. O quantomeno indirizzando verso di essa.