Luca Mercalli, la Repubblica 6/7/2007, 6 luglio 2007
«Seren fatto di notte, non val tre pere cotte». Difficile attribuire un senso a questo detto, tant´è che già se lo domandò un paio di secoli fa Antonio Maria Vassalli-Eandi, direttore dell´allora nuovissima specola meteorologica dell´Accademia delle Scienze di Torino
«Seren fatto di notte, non val tre pere cotte». Difficile attribuire un senso a questo detto, tant´è che già se lo domandò un paio di secoli fa Antonio Maria Vassalli-Eandi, direttore dell´allora nuovissima specola meteorologica dell´Accademia delle Scienze di Torino. Termometri, barometri, pluviometri, avevano da poco fatto il loro ingresso nella vita scientifica dell´epoca e subito nacque la curiosità di verificare con statistiche robuste se i proverbi sul tempo, in uso si può dire da millenni, avessero torto o ragione. Il Vassalli-Eandi compilerà molte tediose tabelle con i proverbi e il numero di volte nei quali si verificava o meno la loro previsione, giungendo alla conclusione che funzionavano maluccio. Quindi si continuò a misurare, nella speranza che l´atmosfera rivelasse delle regolarità, e con un po´ di pazienza e molti anni di dati la previsione sarebbe stata un giorno possibile. Non fu così, i dati del futuro capricciosamente non rispettavano mai quelli del passato. Il 14 novembre 1854 durante la guerra di Crimea, una tempesta fece a pezzi la flotta anglofrancese, il ministro della guerra chiamò l´astronomo Le Verrier e lo incaricò di studiare le ragioni del fenomeno: forse, se si fossero comunicati in tempo i dati dei luoghi attraversati dalla tempesta nei giorni precedenti si sarebbe potuto evitare il peggio. Nacque così l´idea di servizio meteorologico, aiutata dal telegrafo: misurare contemporaneamente l´atmosfera in tanti luoghi e poi riportare i dati sulla carta "sinottica", questa sì che era la chiave di volta delle previsioni! Ma ancora una volta le aspettative erano eccessive; certo, qualche progresso si fece, alte e basse pressioni prendevano forma dal ticchettio dell´alfabeto morse, ma si trattava pur sempre di osservazioni del presente, mentre il tempo di domani rimaneva un aleatorio esercizio di intuito. Altri quarant´anni di tabelle e carte isobariche aggiunsero poco alla previsione. Fu il geniale meteorologo norvegese Vilhelm Bjerknes che nel 1904 indicò la nuova via da seguire: non bastava raccogliere delle misure, bisognava applicare all´aria quel corpus di leggi fisiche che si era andato definendo durante l´Ottocento, come le equazioni del moto di un fluido rotante sulla superficie terrestre e quelle della termodinamica. Buona l´idea, ma complicatissima la soluzione, frutto di innumerevoli calcoli che nel 1922 il matematico inglese Lewis Fry Richardson provò a risolvere a mano con settimane di lavoro, ottenendo una modestissima previsione sbagliata. Richardson immaginò pure una sorta di computer umano, un teatro di 64.000 matematici, ognuno con il compito di eseguire una parte dei calcoli, per produrre la previsione in tempo utile. Rimase ovviamente un aneddoto. Dopo la guerra di Crimea, fu la seconda guerra mondiale a dare nuovo impulso alla previsione, grazie alla nascita del computer ad opera di un gigante come il matematico John von Neumann, affiancato dal meteorologo Jule Charney (1917-1981), che nel marzo del 1950 farà uscire dalle valvole ronzanti dell´Eniac la prima previsione del tempo numerica tanto attesa da Bjerknes e dall´umanità. Il mezzo secolo successivo è stato impiegato a perfezionare questo straordinario risultato e ad applicare modelli numerici sempre più raffinati su calcolatori sempre più potenti. Il 31 maggio scorso, il centro previsionale Météo France di Toulouse ha inaugurato il suo nuovo supercomputer Nec SX8R, una delle macchine più potenti d´Europa, capace di 9 teraflop, ovvero novemila miliardi di operazioni a virgola mobile ogni secondo. Su questo calcolatore gira un modello di simulazione dell´atmosfera in grado di prevedere il tempo su una griglia di 2,5 km di lato – praticamente un quartiere cittadino – contro i 10 km consentiti dalla precedente versione. Ecco dunque la meteorologia moderna: un complesso sistema di misurazione dei dati, dove gli antichi barometri e termometri a osservazione manuale sono diventati sensori elettronici sparsi su tutto l´orbe terracqueo, principalmente presso gli aeroporti, ma anche sui ghiacciai e sulle piattaforme petrolifere, collegati via radio e internet, cui si aggiungono i palloni sonda, i radar e i satelliti: milioni di dati sul tempo presente che confluiscono costantemente nei supercomputer dei centri previsionali, che a loro volta, dopo qualche ora di calcolo, restituiscono sempre via internet una moltitudine di tabelle e di coloratissimi prodotti cartografici sul tempo futuro, in genere validi per una settimana. A questo punto entra in gioco il meteorologo previsore, che – più o meno come un medico che osserva radiografie e analisi sanguigne – interpreta la situazione a livello locale, aggiungendo la conoscenza della climatologia del territorio, particolarmente necessaria nelle zone montuose, e integrando la propria esperienza con i numeri forniti dalla macchina. Nasce finalmente il bollettino meteorologico diramato immediatamente ai mezzi d´informazione. Nulla dunque a che vedere con l´icona desueta del meteorologo che guarda fuori dalla finestra, annusa l´aria e sentenzia «domani pioverà». La previsione meteorologica attuale tesaurizza 150 anni di ricerca scientifica d´avanguardia e si fonda su un efficientissimo sistema mondiale di condivisione delle informazioni composto da migliaia di tecnici. L´Organizzazione Meteorologica Mondiale, organo delle Nazioni Unite con sede a Ginevra, stabilisce norme comuni e fa sì che tutti i paesi, anche quelli in guerra tra loro, non facciano mai mancare il flusso dei loro dati: i venti non conoscono confini e un black-out nel sistema di osservazione di un solo paese farebbe perdere affidabilità anche a tutti gli altri. Però non bastano i dati e i computer per fare una buona previsione: i moti dell´aria, come le volute del fumo di una sigaretta, sono turbolenti e quindi caotici. Se ne accorse al Mit il meteorologo Edward Lorenz, che nel 1963 enunciò il celebre aforisma «il battito delle ali di una farfalla in Brasile può provocare un tornado in Texas». Quindi, spinti ad oltre una settimana di simulazione, i calcoli dei supercomputer accumulano troppi errori e la previsione non è più affidabile. Ma a ventiquattr´ore fruiamo oggi di un entusiasmante 95 per cento di probabilità di successo, a cui talvolta non rendiamo nemmeno onore. Altro che le pere cotte di Vassalli-Eandi!