Chi non conosce il detto "Rosso di mattina, la pioggia si avvicina". E il suo opposto “Rosso di sera, bel tempo si spera”. Per secoli, le persone si sono affidate alle previsioni meteorologiche, e perché no, anche a qualche detto, nel prepararsi agli eventi climatici o temperature previste per i giorni successivi.
Le tecniche moderne sono molto più sofisticate rispetto al "guardare il cielo". I meteorologi di oggi si affidano a supercomputer che elaborano grandi quantità di dati utilizzando modelli statistici. Macchinari che possono eseguire più di 10.000 trilioni di calcoli al secondo, filtrando centinaia di miliardi di osservazioni meteorologiche in tutto il mondo ogni giorno. Tuttavia, è ancora complesso conoscere in anticipo le condizioni meteorologiche. L'atmosfera è un sistema dinamico e caotico con molte incognite. A peggiorare il tutto, il riscaldamento globale, il quale sta aumentando la frequenza di eventi meteorologici intensi come ondate di calore, inondazioni e tempeste.
La necessità di previsioni meteorologiche rapide e accurate non è mai stata così rilevante, poiché le imprese, le autorità e le famiglie sono sempre più attente a salvaguardare le proprie attività e salute, contenere i costi e adattarsi ai rischi meteorologici, che causano danni economici globali stimati in 200 miliardi di dollari all'anno Fonte: Swiss Re, “Economic losses set to increase due to. climate change, with US and Philippines the hardest hit” (Le stime di Swiss Re si basano su quattro rischi meteorologici: inondazioni, cicloni tropicali, tempeste di neve in Europa e violenti temporali).
Fortunatamente, l'avvento del machine learning (ML) e dei modelli di big data permettono agli scienziati di prevedere i cambiamenti dell'atmosfera con maggiore precisione e su orizzonti temporali più lunghi. Al contempo, i progressi tecnologici hanno trasformato le previsioni meteo in un'impresa commerciale, abbattendo le barriere all'ingresso in quello che tradizionalmente è stato un servizio pubblico sottofinanziato.
Un importante traguardo è stato raggiunto l'anno scorso dai modelli di ML pre-addestrati sviluppati dall'azienda cinese Huawei. Una volta istruito, il Pangu-weather è un programma 3D ad alta risoluzione che consente di ottenere previsioni meteorologiche più rapide e accurate rispetto ai sistemi convenzionali con un solo server. A questo ha fatto seguito Google, la cui unità DeepMind ha presentato alla fine del 2023 il sistema di previsioni meteorologiche GraphCast, basato sull'intelligenza artificiale e funzionante su un computer desktop. A marzo, Nvidia ha lanciato Earth-2, una piattaforma per simulare le condizioni meteorologiche e climatiche.
"I modelli basati sui dati possono competere con quelli basati sulla fisica. La comunità scientifica sta facendo passi da gigante e l'apprendimento automatico può aiutarci a fare un salto di qualità e a spingerci verso la creazione di modelli più veloci e a più alta risoluzione", afferma il dottor Nicolas Gruber, professore di fisica ambientale al Politecnico di Zurigo ed esperto di modellazione climatica. “Attualmente, la maggior parte dell'innovazione in questo campo è guidata da aziende private. Le maggiori aziende tech hanno compiuto ingenti investimenti in questo ambito”. Allo stesso tempo, è importante notare che il settore privato si basa sulla grande quantità di dati aperti che la comunità scientifica e gli enti pubblici, come i servizi meteorologici, forniscono a pagamento. Senza questi, l'addestramento di questi modelli basati sui dati non sarebbe stato possibile”.
Serve sempre maggior precisione per contrastare i cigni neri
Le moderne previsioni del tempo si basano sulla previsione numerica del tempo (NWP), fondata a sua volta sulla fisica, e utilizza le ultime osservazioni meteorologiche (temperatura, precipitazioni, pressione, vento e umidità) insieme a un modello matematico dell'atmosfera per produrre una previsione.
Oggi, secondo il Prof. Gruber, i progressi nel campo dell'informatica ad alta potenza computazionale hanno reso possibile una maggiore risoluzione delle previsioni NWP, con una lunghezza delle griglie di circa 1,5 km per un periodo di 7-10 giorni, il doppio rispetto a 20 anni fa. Pur trattandosi di una svolta importante, la risoluzione non è ancora sufficiente per consentire alle autorità di pianificare efficacemente la prevenzione dei disastri e il supporto all'evacuazione in caso di eventi estremi come gli uragani, o alle imprese di evitare le perdite dovute a inondazioni o siccità.
“La sfida sta nell'essere più precisi nell'identificare i percorsi delle tempeste e nel prevedere le aree da evacuare”, afferma il Prof. Gruber. In effetti, è necessaria una risoluzione ancora più precisa, nell'ordine di un metro, per mostrare con accuratezza come si formano e si sviluppano le nuvole, che secondo gli scienziati rappresentano la maggiore fonte di incertezza nelle proiezioni. Si tratta però di un risultato non economico per un metodo NWP convenzionale: i modelli con risoluzione di un metro necessitano di risorse computazionali 100 miliardi di volte superiori rispetto agli attuali modelli più avanzati da un chilometro Fonte: FourCastNet - Accelerating Global High-Resolution. Weather Forecasting using Adaptive Fourier Neural Operators.
L'AI e il ML promettono di affrontare queste sfide. Ad esempio, Earth-2 di Nvidia genera immagini con una risoluzione di 12 volte superiore rispetto alla sua controparte NWP, con una velocità 1.000 volte superiore e un'efficienza energetica 3.000 volte superiore. Fonte: NVIDIA, “NVIDIA Announces Earth Climate Digital Twin” Tuttavia, il Prof. Gruber è meno fiducioso sulla capacità dei modelli di ML di far fronte alla volatilità e all'intensità senza precedenti che deriveranno dal cambiamento climatico. In genere, l'apprendimento automatico si basa su modelli di regressione statistica, addestrati con centinaia di milioni di parametri storici di dati meteorologici, come la pressione barometrica o le condizioni del cielo. Ma gli eventi dannosi, come le alluvioni mortali a Dubai nel 2024 o l'ondata di calore da record a Delhi all'inizio dello stesso anno, di solito non rientrano in questo contesto.
"I modelli di Machine Learning sono efficaci nel riprodurre i parametri e lo schema di dati che già possediamo. Ma otteniamo solo ciò per cui sono stati addestrati. Diventa problematico se si verifica qualcosa di inaspettato che non fa parte dell'addestramento”, afferma il Prof. Gruber. “Con il riscaldamento globale, stiamo entrando in un territorio sconosciuto: non sappiamo come sarà un mondo più caldo di 2°C o 4°C”.
Fame di energia e di risorse
I modelli di machine learning richiedono un'ampia fase di addestramento all'interno di un'infrastruttura di grandi dimensioni, come un centro dati, dotato di supercomputer. Il Prof. Gruber afferma inoltre che il consumo di energia per il loro set-up stia diventando un vincolo per lo sviluppo futuro dei sistemi di modellistica meteorologica e climatica. Ad esempio, un modello utilizzato dal Prof. richiede un supercomputer che consuma 1 megawatt (1MW) di elettricità. Sulla base di questo modello, ciò implicherebbe l'emissione di oltre 4.000 tonnellate di CO2 all'anno, equivalenti a più di 25 milioni di chilometri percorsi da un'auto a benzina media. Alcuni dei più grandi supercomputer del mondo consumano fino a 20 MW.
Questo avviene in un momento in cui l'Intelligenza Artificiale e i data center che supportano questa tecnologia sono già causa di stress per le reti elettriche locali. L'Agenzia Internazionale per l'Energia prevede che l'elettricità consumata dai data center sarà più che raddoppiata a livello globale entro il 2026, raggiungendo oltre 1.000 terawattora, una quantità approssimativamente equivalente a quella consumata annualmente dal Giappone.
“Scalare i modelli di ML è una sfida, perché l'aumento della potenza di calcolo non sempre produce miglioramenti proporzionali nelle prestazioni”, afferma il Prof. Gruber. “La potenza computazionale necessaria per sostenere l'ascesa dell'IA raddoppia all'incirca ogni 100 giorni, il che non è sostenibile. È indispensabile bilanciare la progressione dell'IA con gli imperativi della sostenibilità”.
Spunti di investimento
L'avvento del Machine Learning e dell'Intelligenza Artificiale porta con sé enormi vantaggi. A gettare le basi di questa tecnologia all'avanguardia sono i data center, che competono per l'energia, l'acqua e il terreno con altre aziende, industrie e residenti locali. La loro crescente impronta ambientale implica però un aumento della domanda di soluzioni più efficienti per ottimizzare l'uso dell'energia e delle risorse in modo più efficace.
I crescenti eventi meteorologici estremi stanno portando a un aumento degli sforzi per investire nell'adattamento climatico (climate adaptation), progettato per incrementare la resilienza urbana e delle infrastrutture nelle città. Si prevede che questo mercato - che comprende edifici e tecnologie verdi, pratiche agricole sostenibili e il potenziamento della preparazione alle catastrofi - raggiunga i 2.000 miliardi di dollari nei prossimi anni (fonte: Bank of America). Inoltre, il ROI risulta essere interessante: ogni dollaro investito in strategie di adattamento potrebbe generare un ritorno di 2-10 dollari entro il 2030 (fonte: World Resource Institute).
Che si tratti di tecnologie efficienti dal punto di vista energetico o di strategie di climate adaptation, le aziende che forniscono soluzioni ambientali sono in grado di offrire un premio di rendimento persistente nel lungo periodo. Tramite i nostri due fondi Pictet-Global Environmental Opportunities e Pictet-Clean Energy Transition, che dimostrano l’approccio olistico di Pictet, andiamo alla ricerca anche di tutte queste aziende cercando sempre di combinare due obiettivi fondamentali: offrire agli investitori ritorni interessanti, oltre a una crescita sostenibile per il pianeta.