EUCOOKIELAW_BANNER_TITLE

Ci si può fidare delle previsioni meteo?

0

Le condizioni meteo hanno sempre condizionato le attività umane, ed è quindi del tutto naturale che destino un grande interesse per tutti. L’aumento della connettività e la diffusione degli smartphone ha provocato una vera e propria esplosione dell’offerta informativa in ambito meteorologico. E, in tema di grande concorrenza, c’è sempre chi gioca al rialzo: oggi è molto frequente vedere siti azzardare previsioni anche oltre i dieci giorni. Ma che livello di attendibilità hanno queste previsioni?

Può sembrare un argomento divagante dalle mie tematiche abituali, ma l’evoluzione delle metodologie di previsione meteo è in larga parte dipendente dai paralleli sviluppi della tecnologia ICT.

Il modello previsionale

Sebbene la scienza, la fisica dell’atmosfera, abbia una solida conoscenza delle regole che condizionano l’evoluzione delle condizioni meteo, la loro complessità rende impossibile un approccio analitico al problema. E’ invece possibile utilizzare una tecnica diversa, basata sui metodi numerici: si parte da una situazione concreta, rilevata sul campo, e viene elaborato un modello matematico, una simulazione costruita dagli scienziati della possibile evoluzione delle masse di aria a partire dai dati rilevati. Questo introduce un primo elemento di incertezza: quanto è vicina la simulazione matematica al reale comportamento dell’atmosfera?  I modelli matematici hanno infatti un elemento caratteristico di approssimazione: si avvicinano al comportamento reale, ma non sono in grado di duplicarlo fedelmente.
A questo si aggiunge un altro problema.  Per elaborare una previsione attendibile bisogna disporre di un numero congruo di rilevazioni. Maggiore è la quantità di dati, migliore sarà il risultato del lavoro. Ovviamente per rilevarli servono punti di misurazione, cioè una rete di stazioni affidabili. Misurare le grandezze fisiche interessate non è banale, ed esistono standard internazionali da rispettare per riportare dati corretti dal punto di vista scientifico. Inserire nel modello anche solo pochi dati non corretti potrebbe infatti condizionare le previsioni a livello globale. E dato che sono installazioni costose, soprattutto da manutenere, la loro diffusione non è sicuramente capillare. Questo peraltro influenza l’attendibilità delle previsione per le zone in cui non è presente una stazione di rilevazione: i modelli, infatti, producono le previsioni solo in corrispondenza dei punti di misurazione. Tutte le altre aree vengono elaborate utilizzando delle tecniche che aggiungono un ulteriore livello di approssimazione.

L’elaborazione

L’elaborazione di tutti questi dati è un problema molto complesso, maggiore è la quantità di dati (di rilevazione) da elaborare, maggiore è il livello di sofisticazione del modello da utilizzare, maggiore sarà la potenza di calcolo da impiegare. In questo complesso sistema di relazioni si aggiunge un’altra variabile fondamentale: il tempo necessario per completare i calcoli. Le previsioni devono essere sviluppate velocemente, altrimenti rischiano di non essere più tali. Per questo il lavoro duro è fatto da grandi organizzazioni, come il NOAA americano o l’European Centre for Medium-Range Weather Forecasts di Reading, nel Regno Unito, che elabora le previsioni per i suoi 34 paesi membri. All’ECMWF utilizzano a questo scopo un supercomputer Cray XC30 chiamato Anemos: con i suoi 83,160 core è classificato al 38′ posto della speciale classifica dei computer più veloci del mondo.
L’elaborazione (seria) delle previsioni meteo, quindi, non è cosa alla portata di piccole organizzazioni.

L’effetto farfalla

Ma anche se elaborate correttamente, c’è un elemento intrinseco che sfugge a qualsiasi tipo di analisi: il cosiddetto effetto farfalla.
L’atmosfera è infatti un sistema caotico: in parole povere sono sistemi in cui anche una differenza impercettibile nelle condizioni iniziali provoca evoluzioni radicalmente differenti. E’ un concetto teorizzato per la prima volta da Alan Turing (quello del film the imitation game), che in un saggio del 1950 – Macchine calcolatrici ed intelligenza – affermò che anche la semplice differenza di posizione di un elettrone avrebbe potuto causare a distanza di tempo avvenimenti del tutto diversi, come l’uccisione di un uomo per un evento naturale o la sua salvezza. Concetto poi ripreso da Edward Lorenz, meteoreologo del mitico MIT di Boston, con la storica correlazione fra il battito d’ali di una farfalla ed un uragano dall’altra parte del globo.

Il risultato

Sommando tutti questi elementi diventa evidente che la discrepanza fra le previsioni meteo e l’evoluzione reale delle condizioni meteo ha due limiti che non sono aggirabili. La prima è che questa aumenta esponenzialmente man mano che si dilata la scala temporale della previsione. La seconda è che è strettamente dipendente anche dallo stato iniziale di analisi: è evidente che una previsione fatta d’estate con un’alta pressione diffusa e livellata è molto più affidabile di una in cui lo stato di partenza è una complessa configurazione invernale con varie perturbazioni ad influenzarsi  in aree ristrette. In condizioni particolari anche una previsione a 3 giorni potrebbe essere scarsamente affidabile. Oltre quell’orizzonte si dovrebbe parlare più correttamente di tendenze e non di previsioni.

Di chi fidarsi?

Dato l’alto e sempre crescente interesse nei confronti della meteorologia (che, ricordo, alla stregua dell’informatica è una scienza) vi è oramai una offerta larghissima di siti che fanno previsioni di tutti i tipi. Ovviamente rimane sempre valido il concetto di base: se un servizio è gratuito è perché normalmente il modello di business dipende alla pubblicità raccolta grazie all’interazione con i visitatori. Questa si può ottenere creando siti di qualità, ma anche puntando su un certo sensazionalismo nella previsione. Cosa peraltro accentuata anche da concomitante atteggiamento dei canali di informazione. In questi giorni si è parlato di tempesta polare per una normale irruzione di aria fredda in una situazione generale che invece costituisce una anomalia. O vedi l’abuso di termini inventati come bomba d’acqua, certamente più roboanti del corretto termine di nubifragio.
Il rischio, sempre in agguato, è che giocando troppo sul sensazionalismo si perda di vista la realtà.
Il mio suggerimento è quello di tenere sempre presente che:

  • parliamo di previsioni e non di certezze
  • le previsioni oltre i tre giorni non possono essere considerate affidabili
  • nessuno potrà mai prevedere con attendibilità cosa succederà in un determinato luogo ad una determinata ora
  • esistono siti istituzioni, come quello dell’Areonautica Militare Italiana, di provata attendibilità

E poi: bisogna usare la memoria! La qualità di un sito può essere facilmente valutata da chiunque verificando se le sue previsioni sono confermate o no dalla realtà. Se ci farete caso, scoprirete che molti di quelli che gridano costantemente al lupo al lupo dovrebbero, invece, essere considerati delle novelle Cassandra.

La foto del titolo è mia.

Condividi:

L'autore

Consulente Informatico, blogger, problem solver, radioamatore. Ho iniziato la mia attività nel 1977 sviluppando sistemi di calcolo nell'area energie alternative e rinnovabili e da allora mi sono sempre interressato delle frontiere della tecnologia. Nel 1984 sono stato fra i pionieri delle BBS, i primi servizi telematici pubblici, e l'anno successivo ho portato in Italia Fidonet, la prima rete pubblica mondiale, che ho coordinato sino al 1994. Sono attivamente su Internet agli inizi degli anni 90, Nel 1998 sono stato fra i primi a credere nella convergenza digitale, arricchendo internet con materiale multimediale, come audio e video, anni prima del Web 2.0. Continuo da sempre ad occuparmi di informatica e di tecnologia con un occhio attento al futuro che ci attende. Continuo a lavorare come consulente informatico, con una specifica competenza in sicurezza, reti di comunicazione, sistemi operativi e tecnologie di virtualizzazione.

Lascia un commento