Meteo: che tempo farà quest’ estate ?

Una cosa è certa: qui dentro il riscaldamento globale non si sente proprio. Il clima è rigido, e non cambierà facilmente. Colpa del vento gelido che esce dalle grate nel pavimento, e che non può fermarsi neanche un attimo. Un poderoso sistema di condizionamento pompa aria fredda sugli oltre7.000 microprocessori di uno dei più potenti supercomputer al mondo. Senza quel sistema rischierebbero letteralmente di squagliarsi nel giro di cinque minuti, per il calore generato dalla loropotenza di calcolo. E smetterebbero di fare il loro lavoro: dirci come sta cambiando il tempo là fuori, e come le nostre vite cambieranno con esso. 

Si chiama Athena il supercomputer che dallo scorso novembre macina calcoli 24 ore su 24 in questo prefabbricato alla periferia di Lecce, nel bel mezzo del campus universitario salentino. Inserito nellaTop 500 delle infrastrutture di calcolo più potenti al mondo, Athena è al secondo posto nella classifica italiana, ed e l’unica dedicata esclusivamente allo studio dell’ ambiente. A spremere senza sosta questo computer sono i ricercatori del Centro Euro-Mediterraneo per i Cambiamenti Climatici, che qui ha il suo quartier generale. Nato nel 2005 per iniziativa dei ministeri della Ricerca, dell’Ambiente e dell’Economia, il Cmcc fa da nodo italiano dell’ Intergovernmental Panel on Climate Change ( Ipcc), l’organismo scientifico che produce le analisi su cui si basano i negoziati mondiali sul clima. Ed è un osservatorio privilegiato per capire come i supercomputer e la tecnologia dei big data stiano trasformando lo studio dell’ambiente. Consentendo previsioni sempre più affidabili e dettagliate, ma soprattutto trasformandole in servizi su misura per legislatori, imprese e cittadini. 

” Quando ho cominciato ci voleva un supercalcolatore per far girare una simulazione dell’atmosfera su cui oggi i miei studenti si esercitano con un portatile”, ricordaAntonio Navarra, 57enne fisico napoletano che presiede il Cmcc dalla fondazione. In otto anni ne ha fatto un centro di eccellenza di livello mondiale: ” Le celle in cui suddividiamo atmosfera e oceano per simularli al computer sono passate da 400 chilometri di lato a 40 negli ultimi 20 anni. Con il dettaglio spaziale è aumentata la completezza dei modelli, che comprendono sempre più processi fisici e chimici, ecosistemi terrestri e marini, dinamiche sociali ed economiche”. Fenomeni molto diversi, ma che – qualcuno più facilmente, qualcuno meno – possono essere tutti tradotti in formule matematiche e simulati al computer. Per questo, al Cmcc ci sono climatologi, oceanografi, fisici dell’atmosfera, ma anche economisti, ingegneri, esperti di agricoltura, specialisti del settore energia. Il centro ha una struttura di rete, e i suoi ricercatori si dividono tra la sede centrale di Lecce e quelle di Bologna, Milano, Venezia, Sassari, Viterbo, Capua e Benevento, ognuna specializzata in un particolare aspetto dei problemi climatici. 

In comune hanno tutti una gran fame di risorse di calcolo. La scienza del tempo e del clima è big data science per eccellenza: non esisterebbe senza i grandi computer. Anche se, in teoria, l’atmosfera terrestre si può descrivere con poche equazioni della fisica classica, che si conoscono dalla fine dell’Ottocento. ” Il problema è che non si possono risolvere con carta e penna, sono troppo complesse. Non esiste la soluzione del clima”, sintetizza Silvio Gualdi, che dirige la divisione Servizi climatici del Cmcc a Bologna. Per trasformare quelle equazioni in uno strumento utile a fare previsioni, bisogna barattarne il numero con la semplicità: suddividerle in una miriade di calcoli, più semplici presi uno per uno, ma così numerosi che a un essere umano non basterebbero molte vite per risolverli. E infatti, continua Gualdi, anche se il metodo matematico per farlo risale agli anni ’20 del secolo scorso, la scienza del clima non fece nessun progresso fino all’arrivo dei primi computer. Da lì in poi, in compenso, è cresciuta allo stesso ritmo della legge di Moore. Anzi, ” la simulazione dell’atmosfera è stata a lungo la killer application dei supercalcolatori, e uno dei banchi di prova su cui viene testata la loro efficienza”, dice Navarra

Per essere competitivo con i grandi centri di climatologia americani come l’ Argonne National Laboratory, dove girano bestioni che stanno nella Top Ten mondiale dei supercalcolatori, il Cmcc aveva bisogno di un centro di calcolo ” che ci desse i denti per mordere“, sintetizza Navarra. Ed eccoli qua, i denti, nel Supercomputing Center del Cmcc. Il pezzo da novanta è appunto Athena, un sistema Ibm fatto da 7712 core (il cuore operativo dei microprocessori) che lavorano in parallelo, suddivisi in quasi 500 nodi che a seconda delle esigenze possono funzionare come computer a sé o aggregarsi in un’unica macchina. Con 3,5 Terabytes di ram, è capace di eseguire fino a 160mila miliardi di operazioni al secondo. Una macchina del genere produce ovviamente enormi quantità di dati che poi vanno immagazzinati: vicino ad Athena ci sono uno storage system a disco da 840 Terabytese un archivio a nastro da 3 Petabytes (cioè milioni di Gigabytes). Nella stanza accanto gira ancoraCalypso, il predecessore in dotazione al Cmcc dal 2008: un cluster di quasi 1000 processori capace di 18mila miliardi di operazioni al secondo. 

Sui due supercomputer girano senza sosta i modelli – programmi software che simulano uno o più fenomeni – messi a punto dai ricercatori Cmcc sparsi per l’Italia. Il primo tassello sono le simulazioni di atmosfera e oceano (gli elementi fondamentali del clima) realizzate dal gruppo di Bologna. Suddividono il mondo in una griglia, e poi risolvono quelle famose equazioni per ogni sua cella. In questo modo possono simulare l’evoluzione climatica minuto per minuto, fino a domani o fino al prossimo secolo. La scelta del passo di griglia dipende dagli obiettivi. ” I modelli globali, quelli che si usano per gli scenari del cambiamento climatico e che simulano tutto il pianeta, hanno una risoluzione di circa 100-200 chilometri per cella”, spiega Gualdi: ” Quelli regionali, per esempio relativi all’intera Africa, lavorano su celle da 50 chilometri, mentre quelli locali arrivano a circa 10. Ma facciamo già esperimenti sull’Italia con un modello a risoluzione di 2,7″. Che, per capirci, vuol dire distinguere l’evoluzione delle condizioni atmosferiche tra un quartiere e un altro di una città. Ovviamente con la risoluzione aumenta la potenza di calcolo richiesta. ” Le prestazioni si misurano in termini di anni simulati al giorno. Un modello ad alta risoluzione dell’oceano come il nostro può richiedere fino a due giorni per simulare un anno”, dice Giovanni Aloisio, che dirige il centro di supercomputing. In più, per rimediare alla grande incertezza delle simulazioni, se ne fanno diverse per ogni esperimento, cambiando di poco i parametri per ottenere una media dei risultati. Facile capire come la richiesta dimemoria potenza di calcolo vada in orbita. 

Per il Cmcc, la prima e più classica applicazione di quei modelli è la previsione del cambiamento climatico a lungo termine, in particolare sul Mediterraneo. Per la cronaca, chiarisce Gualdi, quei modelli dicono che nella nostra parte di mondo ci aspetta un aumento della temperatura media da 1,5 a 2 gradi da qui al 2050, un clima più secco d’estate e un mare più salato. Tutti eventi che avranno un impatto importante su turismo, agricoltura, pesca, rischi idrogeologici. Gli studi del Cmcc non si limitano però al Mediterraneo. ” Ci occupiamo anche di monsoni indiani, clima tropicale, siccità in Africa. Dove c’è un problema interessante lo andiamo a risolvere”, dice Navarra.

All’altro estremo, i modelli di atmosfera e oceano servono anche a fare le classiche previsioni del tempo. E la potenza di fuoco del supercalcolatore consente un livello di dettaglio mai raggiunto. Il laboratorio Ocean Lab del Cmcc a Lecce, per esempio, combina i modelli meteo con una simulazione del Mar Mediterraneo (completa di profondità dei fondali, apporto d’acqua dai principali fiumi, salinità e correnti) che fornisce ad armatori, pescatori, guardia costiera o semplici velisti una proiezione dettagliatissima. ” Possiamo prevedere le onde e le correnti, e quindi i movimenti di una chiazza di idrocarburi”, spiega il responsabile del laboratorio Giovanni Coppini. ” Dare strumenti di soccorso alla guardia costiera, per esempio simulando come una persona caduta in mare viene spostata dalle correnti. O ancora, aiutare l’equipaggio di una nave a ottimizzare la rotta, per evitare le zone in cui il mare è più agitato o per scegliere la rotta che fa consumare meno”. Alcune di queste informazioni il Cmcc le mette online, accessibili a tutti e navigabili su una mappa 3D, con Sea Conditions, un servizio di previsioni del tempo sul mare che è da pochissimo disponibile anche su una app Android

Tra gli scenari climatici di lungo periodo e le previsioni a breve termine c’è una terra incognita in cui fino a pochi anni fa nessuno si avventurava, ma che ora i supercomputer permettono di esplorare. In quanto a tecnologie, non c’è molta differenza tra prevedere che tempo farà a Milano tra un giorno, un mese o un secolo. Le equazioni sono le stesse, e il modello che fa una cosa può fare anche l’altra, purché calibrato alla risoluzione giusta. Ci si potrebbe aspettare che con l’aumento della potenze di calcolo leprevisioni del tempo (oggi affidabili fino a 7-8 giorni al massimo) possano spingersi sempre più in là. In realtà, chiarisce Navarra, ” la potenza di calcolo non c’entra, c’è un limite teorico di circa due settimane che dipende dalla teoria del caos. Le equazioni dell’atmosfera sono molto sensibili a piccole variazioni nelle condizioni iniziali”. Una piccola variazione che fa poca differenza sul breve periodo ne fa una sempre più grande andando avanti nel tempo. Non il proverbiale battito d’ali di una farfalla, magari, ma una nuvola in più qui o un aumento di pressione atmosferica là sono sufficienti a cambiare il corso degli eventi e a rendere inaffidabile ogni previsione oltre le due settimane. Non è che non siamo capaci di prevedere il tempo tra un mese. È il tempo stesso che non ha ancora deciso come sarà.

Questo vale per previsioni puntuali, del tipo “ alle quattro a Roma pioverà”. Diverso il discorso per leprevisioni probabilistiche, che possono dirci se su una certa zona, nel corso di qualche mese, pioverà più del solito, o farà più freddo del normale per quella stagione. Sono le cosiddette previsioni stagionali, che si spingono fino a tre mesi di distanza. ” Noi le facciamo in modo sperimentale, e a livello mondiale solo pochi centri al mondo le realizzano a livello operativo”, ci racconta Alessio Bellucci del Cmcc di Bologna: ” Il problema è che sono più o meno affidabili a seconda delle zone”. In particolare, hanno un maggior livello di certezza sul Pacifico e il Nord America, dove si fa sentire El Niño: una variazione periodica, in buona parte prevedibile, delle temperature sul Pacifico, che influenza il clima per mesi e fino a migliaia di chilometri di distanza. Non fino all’Europa però, dove le previsioni stagionali dipendono piuttosto dalla circolazione atlantica ma funzionano molto meno, almeno per ora.

Sono di questo tipo le previsioni per l’estate che il gruppo di Gualdi e Bellucci, usando Athena, ha dato in esclusiva a Wired. Il computer lavora su due parametri: temperatura media e precipitazioni medie (espresse in millimetri di acqua al giorno) per una certa area, riferite ai tre mesi successivi. Per entrambe, calcola le anomalie previste rispetto alla media degli ultimi vent’anni nello stesso periodo, ma dice anche quanto si fida dei suoi stessi calcoli: se la probabilità che la sua previsione ci azzecchi è bassa (sotto il 30%), media, o alta (sopra il 60%, quando il segnale è particolarmente forte). A fine maggio (mentre lavoravamo a questo numero di Wired) Athena ha previsto un’estate 2013 più calda del normale sugli oceani dell’emisfero sud e, invece, freddina (ma con minor fiducia statistica) su Pacifico del nord e dell’est, Nord Atlantico, Africa meridionale, Sudest asiatico. Quanto all’Europa, si prospetterebbe un’estate più fredda del normale sulla parte occidentale e nordoccidentale del continente (Spagna e Francia, per capirci), e leggermente più calda del solito sull’Europa dell’est. Sostanzialmente nella media (o appena sotto), le temperature italiane, così come le precipitazioni. Queste ultime si prospettano invece ben sotto la media sul Nord Europa. Previsioni da prendere con cautela, come si è detto, e come medie su tutto il periodo. Intanto, però, le previsioni fatte con lo stesso metodo a inizio aprile preannunciavano abbastanza chiaramente le temperature molto sotto la media che ci sono toccate a maggio.

Ancora più innovative sono le previsioni decadali, le ultime nate del settore. ” Sono una via di mezzo tra le previsioni meteo e gli scenari climatici, e possono andare da un anno fino a 20. Come le previsioni meteo, richiedono una conoscenza accurata delle condizioni iniziali. Il problema è che, a differenza del meteo, dipendono in modo cruciale dagli oceani, su cui abbiamo molti meno dati rispetto all’atmosfera. Ma negli ultimi dieci anni l’utilizzo di enormi quantità di boe, dotate di sensori per le correnti e la temperatura dell’acqua, ha permesso grandi progressi”, prosegue Bellucci

Il mercato potenziale per le previsioni stagionali e decadali è enorme. Negli Stati Uniti, per esempio, esistono già società come The Climate Corporation che le utilizzano per offrire agli agricoltoriprodotti assicurativi su misura, coprendo il rischio di perdere il raccolto a causa di un’estate troppo arida o un inverno troppo rigido. ” In Italia il mercato non c’è ancora, ma dovrà nascere»”, dice Carlo Carraro, rettore dell’Università Ca’ Foscari di Venezia e che al Cmcc dirige la divisione Valutazione economica degli impatti e delle politiche dei cambiamenti climatici. ” Le compagnie di assicurazioni hanno un gran bisogno di questi dati, basti pensare che lo scorso anno le Assicurazioni Generali hanno perso 600 milioni di euro per alluvioni o altri eventi catastrofici che hanno colpito i loro clienti. Ne ha bisogno il settore agricolo, così come chi produce condizionatori. E poi ci sono i grandi investitori che vogliono avere indicazioni su cosa puntare nel medio e lungo periodo”, prosegue Carraro. Un esempio su tutti: lo scioglimento dei ghiacci dell’Artico apre possibilità di investimento straordinarie nel settore dei trasporti, dell’ estrazione petrolifera mineraria. Ma il passaggio a Nordovest diventerà navigabile tra 10, 20, o 30 anni? Per chi sta pensando di metterci qualche miliardo, saperlo fa la differenza.

Le cose si fanno davvero interessanti quando le simulazioni del clima vengono accoppiate a modelli che riproducono colture, trasporti, mercati finanziari, investimenti in tecnologia, per capire come una cosa influenzerà l’altra. In Sardegna, per esempio, Donatella Spano (in forze al Cmcc ma anche prorettore per la ricerca dell’Università di Sassari) lavora sui modelli Svat (Soil, Vegetation and ATmosphere) che simulano l’interazione tra caratteristiche e umidità del suolo, crescita della vegetazione e fenomeni atmosferici, e permettono di prevedere la risposta di diverse coltivazioni al clima. Possono simulare le condizioni di un terreno agricolo giorno per giorno fino al 2100, e dirci come cambierà l’ agricolturaitaliana. Nel complesso le aree coltivabili nel territorio italiano sono destinate a ridursi, ma per alcune colture si sposterà piuttosto la zona ideale dove produrle: sarà più conveniente piantare ulivi al nord e aumenterà la resa del frumento in alcune zone del sud e in Sardegna, per esempio. Dati, spiega Spano, verso i quali le grandi industrie dell’agroalimentare iniziano a mostrare molto interesse. Ma anche in questo caso la prospettiva è globale. Il gruppo ha lavorato con il governo nigeriano per aiutarlo a capire quale impatto avrà il cambiamento climatico sulla produzione agricola del paese (drammatico: riduzioni dei raccolti fino al 25% da qui al 2050), e anche quali misure sarebbero più efficaci per evitare crisi alimentari.

Altri modelli lavorano sulle foreste, che nel cambiamento climatico hanno un ruolo cruciale. Altri ancora sui fiumi, a cominciare dal bacino del Po. Ma la sfida più grande è forse inserire nei modelli la stessasocietà umana, quanto di più imprevedibile ci sia. È ciò che fa il modello Witch (World Induced Technical Change Hybrid), sviluppato da Valentina Bosetti Massimo Tavoni alla sede milanese del Cmcc. Fa proiezioni da qui a cento anni su come cambieranno economia e tecnologia in risposta al clima, e come lo influenzeranno a loro volta: andamento del prezzo del petrolio, diffusione di innovazioni nel settore energetico, influenza dei diversi paesi sui negoziati mondiali. Le simulazioni di Witch ci dicono, per esempio, che gli investimenti in ricerca e sviluppo del settore energia andrebbero subito quintuplicati per sperare di ridurre l’uso dei combustibili fossili in tempo utile per evitare costi successivi molto più grandi. Dati che spetterà alla politica usare, ma che è fondamentale avere.

Tutti i modelli del Cmcc non sono che tasselli dell’immenso puzzle del clima, a cui lavorano anche decine di altri centri di ricerca nel mondo. Per questo, il centro di calcolo di Lecce è inserito in una retepeer-to-peer mondiale, la Earth System Grid Federation, che consente ai vari nodi di mettere in comune i propri dati, archiviarli in un formato comune e confrontare i risultati dei vari modelli. Il che vuol dire ancora più dati e più richiesta di potenza di calcolo. Tanto che all’orizzonte, spiega Giovanni Aloisio, ci sono già le Exascale Machines, che aumenteranno il numero di operazioni al secondo fino a un milione di volte rispetto ad Athena o Calypso. Arriveranno entro la fine del decennio e i climatologi, c’è da scommettere, saranno tra i primi a metterci le mani. 

Credits Wired.it

COVER MEGAMETEO 3_Arch-Dorso5_4Col.indd