IL – Il Sole 24 Ore , 31 gennaio 2017
Che tempo che farà
Nonostante le calamità naturali e le vittime da esse provocate finiscano spesso in prima pagina, la maggior parte delle persone non sono consapevoli delle numerose catastrofi evitate grazie alle previsioni e agli allarmi meteorologici. Secondo la Banca Mondiale, investendo in agenzie e istituti specializzati si potrebbero salvare fino a 23mila vite ogni anno, oltre a produrre benefici economici pari a 30 miliardi di dollari.
I nostri predecessori hanno osservato, misurato e cercato di fare previsioni sin dal XV secolo. Come ricorda l’americana NOAA (National Oceanic & Atmospheric Administration), pluviometri, barometri, anemometri, igrometri e termometri sono apparsi tutti nell’arco di tempo compreso fra il 1400 e il 1700. Ma è stato solo negli anni Quaranta dell’Ottocento che è nata la moderna meteorologia: con il telegrafo, grazie al quale le informazioni meteo potevano essere rapidamente condivise sulla lunga distanza in modo da determinare modelli per la previsione del maltempo in arrivo.
Il servizio meteo nazionale (National Weather Service) diede inizio alla prima pubblicazione regolare delle previsioni nel 1871. Nel 1904, il matematico norvegese Vilhelm Bjerknes fu il primo ad applicare i principi della fisica in questo campo. Bjerknes definì le condizioni necessarie di questa nuova scienza. Innanzitutto, «la condizione atmosferica deve essere nota a una data ora con sufficiente precisione»; secondo, «si devono conoscere le leggi che determinano lo sviluppo di una condizione atmosferica piuttosto che un’altra». L’idea c’era, ma le dimensioni di calcolo si dimostrarono impraticabili. È stato soltanto dopo la Seconda Guerra Mondiale che pionieri del calcolo come John Von Neumann si convinsero che (solo) i computer sarebbero stati in grado di prevedere l’andamento del tempo. Nel frattempo, la tecnologia radar si stava facendo promettente. Era però costosa, e coperta dal segreto militare. I primi radar a scopo difensivo utilizzati per le previsioni meteo vennero installati sulla costa panamense nel 1943. Dopo la guerra, in Texas e nel Midwest nacquero le reti per l’osservazione e individuazione dei temporali (Storm spotter networks), che sollevarono la questione dell’utilizzo del radar per l’individuazione dei tornado. Dopo che diversi uragani colpirono la costa Est provocando ingenti danni (nella metà degli anni Cinquanta), e l’impiego di tre installazioni radar da parte del National Weather Service per un sistema di allerta precoci, l’interesse per i radar meteorologici subì un’impennata. Negli anni Sessanta, grazie all’avvento dell’elettronica, le stazioni televisive cominciarono a installare propri sistemi radar per le previsioni meteorologiche. La tendenza si diffuse negli anni Settanta, passando dai radar locali alle stazioni radar a distanza per fornire informazioni più dettagliate ed esaustive sulle condizioni meteo in avvicinamento.
Oggi, lo studio delle previsioni meteorologiche è ancora in evoluzione, sempre nella direzione inizialmente tracciata da Bjerknes. Vi è l’ingegneria dei sistemi per la raccolta e la trasmissione di dati dettagliati che cattura all’istante le condizioni meteo su un’ampia area di interesse, oltre alla scienza di interpretazione dei dati da parte di meteorologi e computer che sfruttano le leggi della fìsica per prevedere come una serie di condizioni dia origine a un nuovo insieme. Un terzo elemento è la questione di quanto anticipo sia necessario perché una regione possa prepararsi ad affrontare un evento meteorologico catastrofico. La combinazione di questi tre elementi determina il “livello di approntamento” di un’area, un fattore sempre più critico in un momento di tempeste di intensità crescente. In base ai dati ONU, negli ultimi vent’anni sono morte più di 600mila persone durante tempeste catastrofiche. In una situazione in cui ogni minuto potrebbe fare la differenza tra la vita e la morte, la migliore tecnologia disponibile nel 2012 era in grado di fornire un allerta tornado diretto con un anticipo medio di 14 minuti. I ricercatori del National Weather Service sono ottimisti sul fatto che fra dieci anni questo valore arriverà a un’ora. Non basta. Se i primi radar utilizzavano la riflessione delle particelle nell’atmosfera per “conoscere” la posizione e l’intensità delle precipitazioni, la messa a punto del radar Doppler alla fine degli anni Ottanta ha aggiunto la capacità di determinare la direzione e la velocità dei venti con cui si muovono le precipitazioni. Si tratta di un importante miglioramento. La doppia polarizzazione ha poi consentito ai meteorologi di differenziare fra gocce di pioggia e grandine. Utilizzata per la prima volta nel 2011, può essere impiegata anche per identificare i detriti trasportati dal vento durante un uragano. Questi sistemi radar possono inoltre valutare con maggiore precisione l’intensità delle precipitazioni, che può rivelarsi molto utile nella previsione delle inondazioni. Dato che il tempo è un fattore critico, i ricercatori che operano nel campo dei radar stanno anche investigando su come accelerare le operazioni. Per aggiornare una scansione completa rispetto alla precedente possono infatti volerci anche 4-6 minuti. Il radar phased array, già utilizzato in applicazioni militari, invia al contempo fasci multipli riducendo così il tempo di scansione a meno di un minuto. Questo miglioramento potrebbe portare i tempi di allerta a 18 minuti. Mentre gli algoritmi intelligenti, ovvero quelli per la scansione adattiva, potrebbero ridurre ulteriormente tali tempistiche. Altre aree di miglioramento nell’affrontare la condizione iniziale di Bjerknes sono i palloni meteorologici, che analizzano le condizioni e la velocità del vento (la NASA ne lancia più di 200 al giorno) e le radio sonde, piccoli dispositivi di campionamento che vengono lanciati dagli aerei e che contengono una strumentazione simile. Entrambi inviano “telefonicamente” le letture rilevate utilizzando le trasmissioni radio.
Poi, naturalmente, ci sono i satelliti. Più del 90 per cento delle oltre 210 milioni di osservazioni/giorno che vengono caricate nei computer è di fonte satellitare. Vi sono due tipi fondamentali di satelliti: geostazionari e in orbita polare. I satelliti geostazionari restano in una posizione fissa a circa 22mila miglia (35.406 chilometri) dalla Terra e trasmettono quasi continuamente le immagini della sezione che stanno osservando. I satelliti in orbita polare sono satelliti in bassa orbita terrestre (LEO – Low Earth Orbit), che volano a un’altitudine di circa 515 miglia (829 chilometri). Una rete integrata di questi dispositivi è in grado di fornire un’immagine completa delle condizioni meteo sulla Terra, con aggiornamenti ogni 12 ore. Questi satelliti sono in procinto di essere aggiornati. I sistemi LEO più avanzati conterranno infatti sensori a microonde e infrarossi migliori, in grado di fornire mappe estremamente dettagliate, tridimensionali dell’atmosfera, il che significa previsioni più precise anche per quanto riguarda le tempeste. Parimenti, i satelliti geostazionari verranno aggiornati a breve con i sistemi della serie GOES-R che prevedono un aggiornamento ogni cinque minuti, tre volte più rapidamente di prima.
Con tutta questa tecnologia disponibile per conoscere «le condizioni dell’atmosfera» con «sufficiente precisione», ciò che resta da fare è risolvere la seconda condizione di Bjerknes. che consiste nell’applicare le leggi della fisica per «determinare lo sviluppo di una condizione atmosferica da un’altra». Tutti questi dati di input suddividono la superficie terrestre in quadrati di ampiezza compresa fra 5 e 30 miglia (da 8 a 48 chilometri), producendo indicativamente 15 milioni di campi. Fortunatamente, oggi sono disponibili supercomputer in grado di macinare tutti questi dati a una velocità che va da 14 a 73 trilioni di calcoli al secondo. Le prime elaborazioni dati per il meteo richiedevano ore prima di essere completate. Oggi, vengono portate a termine in pochi istanti. Per passare a griglie più fini, che possono fornire informazioni molto più dettagliate in condizioni di tempesta, sarà necessaria una capacità di calcolo molto maggiore, e saranno necessari computer ancora più veloci. Bill Lapenta, dell’Environmental Modeling Center del NOAA, spera che tutto divenga realtà entro il 2020.
Trasformare tutti queste informazioni in previsioni significative e precise richiede capacità che a oggi i modelli informativi ancora non hanno, anche se i ricercatori stanno lavorando anche su questo aspetto. Inoltre, al fine di migliorare l’elaborazione dati, interviene sempre il fattore umano, visto che i meteorologi utilizzano l’euristica per riconoscere i pattern in questa enorme quantità di dati di immagine. Una distribuzione della pressione atmosferica unica, nota come Tornado Vortex Signature, è stata individuata per la prima volta negli anni Settanta. Alla fin fine, questo tipo di conoscenze viene codificato in modelli informatici successivamente applicati a questa montagna di dati. Ed è qui che oggi si combatte la battaglia, fra servizi pubblici e privati di previsioni meteo che promuovono i propri modelli come i migliori e i più precisi rispetto a tutti gli altri. Molti si basano sulle previsioni del National Weather Service, integrate da ulteriori analisi e previsioni. Altri consolidano le previsioni sulla base di diversi modelli prevalenti, utilizzando una tecnologia proprietaria che integra i dati meteo storici. È probabile che le condizioni meteorologiche restino sempre un argomento di conversazione, tuttavia potrebbe arrivare un momento in cui il loro mistero sarà una cosa del passato...