Caldo record o grande inganno? Ecco perché dati e confronti sono falsati

Come vengono misurate le temperature, tra errori del passato e manipolazioni del presente: dai vecchi termometri alla posizione delle attuali centraline meteo

16.7k 64
Caldo giornali

Da anni siamo bombardati con cadenza quasi quotidiana da notizie allarmanti secondo le quali ci troveremmo nel bel mezzo di una drammatica crisi climatica. Questa tendenza al catastrofismo si acuisce poi in estate, quando, durante la calura estiva, le notizie assumono connotati che talvolta sfiorano il ridicolo.

La giostra dei media

I titoli si rincorrono a ritmi parossistici rilanciando la crescita drammatica delle temperature con frasi del tipo “È l’estate più calda da tot anni!”, oppure “Mai così caldi gli oceani da tot anni” e così via, salvo poi essere smentiti dal meteo dopo solo pochi giorni. A proposito, ma una volta non si diceva che il meteo non è il clima?

Continuando con la giostra dei media, c’è chi dice che quello di quest’anno è il luglio più caldo degli ultimi 100.000 anni, c’è chi rilancia a 120.000 anni, poi si scopre che “120.000” nasceva da una cattiva traduzione dall’inglese di “… hundreds if not thousands of years …”.

Sembra proprio che le varie agenzie di stampa internazionali facciano a gara a chi la spara più grossa, finendo col generare nei soggetti più sensibili – o forse in quelli più scaltri, chissà… – un nuovo tipo di ansia, la cosiddetta “eco-ansia”, per l’appunto.

Quest’estate poi, per incutere maggiormente terrore ai poveri telespettatori, i mezzi di informazione hanno introdotto una geniale innovazione: comunicare non più e non solo le temperature atmosferiche ma – udite, udite! – le temperature al suolo, trasformandoci tutti d’un botto in tecnici della Ferrari interessati a misurare la temperatura dell’asfalto della pista per scegliere il tipo di pneumatici più idoneo alla gara, e chissà che magari non si riesca meglio noi di Frederic Vasseur! Insomma, un vero e proprio circo Barnum, con tutto il rispetto per la professionalità del buon vecchio Phineas!

La tesi dei climatisti

Una parte della comunità scientifica – non certo il 97 per cento, come sostengono geologi e climatologi de noantri, ché già a enunciarle queste percentuali di consenso ci si copre di ridicolo – sostiene effettivamente che la temperatura media globale sarebbe cresciuta nell’ultimo secolo di 0,7 ± 0,2 °C.

A detta delle agenzie intergovernative sul clima, prima tra tutte l’IPCC (Intergovernment Panel on Climate Change – Panel intergovernativo sul cambiamento climatico), sul banco degli imputati ci sarebbe l’aumento della concentrazione in atmosfera dei gas serra nel periodo che va dal 1750 ad oggi, cioè a partire dalla Rivoluzione industriale in poi. Il principale sospettato sarebbe l’aumento della concentrazione di CO2 in atmosfera che, dal valore di 280 parti per milione (0,028 per cento) del 1750 sarebbe cresciuta fino al valore odierno di 420 ppm (0,042 per cento).

In buona sostanza, IPCC sostiene che l’aggiunta di una molecola di CO2 ogni 10.000 altre molecole dei gas componenti l’atmosfera avrebbe provocato l’incremento di temperatura asseritamente osservato. Le domande allora nascono spontanee: come vengono misurate le temperature? Com’è variata nel tempo la precisione sulle misure di temperatura? Come viene calcolata la temperatura media globale? Cerchiamo quindi di vederci chiaro procedendo con ordine.

Come vengono misurate le temperature

(1) Dalle ere geologiche fino alla seconda metà del SettecentoPer la stima delle temperature della Terra in tempi remoti e fino all’invenzione del termometro, la scienza fa ricorso ai cosiddetti “dati proxy”, cioè indizi ricavati indirettamente dall’osservazione di altri fenomeni avvenuti in prossimità del punto dove si vuole conoscere la temperatura, come ad esempio lo studio dei ghiacciai, l’analisi chimico-fisica dei fossili, lo studio dei sedimenti geologici, l’analisi degli anelli di crescita degli alberi e la tecnica della stratigrafia isotopica.

L’analisi congiunta di questi “proxy” dà origine ad una stima approssimativa della temperatura media del luogo nel periodo di interesse, con approssimazioni di qualche °C e risoluzione temporale di qualche centinaio d’anni.

(2) Dalla seconda metà del Settecento alla Seconda Guerra MondialeDalla sua invenzione nella forma proposta da Daniel Gabriel Fahrenheit (1714), perfezionata successivamente da Anders Celsius (1742) – configurazione rimasta poi identica fino al secondo Dopoguerra – un termometro di precisione al mercurio per la misura della temperatura atmosferica era fatto da un’ampolla inferiore contenente il mercurio, un capillare di vetro del diametro di 0,7 mm innestato nell’ampolla e una scala graduata con tacche che segnavano il decimo di grado °C.

Il principio di funzionamento si basa sulla capacità del mercurio di espandersi o contrarsi in maniera direttamente proporzionale alla temperatura, passando dall’ampolla inferiore al capillare in maniera proporzionale alla temperatura esterna. Maggiore la temperatura, maggiore l’altezza della colonna di mercurio. La scala di misura era generalmente -10 / + 50 °C (fondo scala quindi di 60 °C).

Un termometro al mercurio soffriva tuttavia di tre errori di misura: (1) errore nella lettura della scala graduata: la risoluzione della scala graduata di un termometro di precisione era, come detto, il decimo di °C. Pertanto, l’errore visivo di lettura era ± 0,05 °C.

(2) Errori costruttivi. Pur essendo già molto avanzata, la tecnologia di fabbricazione del vetro nel XVIII e XIX secolo non poteva spingersi oltre certe tolleranze minime di fabbricazione. In particolare, il diametro del capillare era affetto, nella migliore delle ipotesi, da un errore del ± 0,5 per cento sul valore nominale che si ripercuoteva in un errore del ± 1,0 per cento sul valore nominale della sezione del capillare (l’errore relativo di una misura elevata al quadrato raddoppia) e, in definitiva, sul volume.

Per piccoli volumi di mercurio nel capillare, cioè per basse temperature, l’errore era contenuto mentre, al crescere delle temperature e quindi dei volumi di mercurio nel capillare, l’errore diventava via via sempre più significativo, fino a raggiungere l’1 per cento del fondo scala, cioè ± 0,6 °C.

(3) Errore legato all’ossidazione del mercurio. Pur se custodito in ambiente sigillato, con l’andare del tempo una parte del mercurio contenuto nel termometro dà luogo a fenomeni di ossidazione. Ciò si traduce in un vero e proprio attrito radente della colonna di mercurio che si muove all’interno del capillare di vetro, che ostacola il raggiungimento della posizione finale corrispondente a una data temperatura, producendo così un errore sistematico via via crescente nel tempo che, per termometri di più di qualche anno di vita, arriva a ± 0,2 °C.

Ricordando che gli errori relativi in cascata si sommano aritmeticamente, ne deriva che un termometro a mercurio, dalla seconda metà del Settecento al secondo Dopoguerra, fosse affetto da un errore di misura che poteva variare da ± 0,65 °C a ± 0,85 °C a seconda dell’età del termometro, in pratica un errore medio di ± 0,75 °C.

Alcuni termometri, infine, avevano delle piccole “navette” che si spostavano all’interno del capillare di mercurio e si fermavano rispettivamente in corrispondenza della temperatura minima e massima raggiunta durante il giorno. Tuttavia, la precisione di posizionamento di queste tacche mobili (che andavano poi “resettate” manualmente) era, se possibile, ancora peggiore della precisione del termometro.

(3) Dal secondo Dopoguerra ad oggi – Con lo sviluppo impetuoso dell’elettronica conseguente alla realizzazione del transistor nel secondo Dopoguerra, le misure di temperatura hanno guadagnato sia in termini di precisione che di accuratezza e stabilità nel tempo. I moderni sistemi di misura si basano sul fenomeno della variazione lineare della resistenza elettrica (conseguenza diretta dell’espansione di volume) di una resistenza di precisione al platino (Pt100) che, alla temperatura di 0 °C, vale 100,00 Ω mentre a 100 °C ne vale 138,50. In tutti gli altri valori di temperatura, la resistenza crescerà o decrescerà linearmente con la temperatura secondo la relazione:

R[Ω] = 100[Ω] + 0,385[Ω/°C] ∙ t[°C], da cui:

t[°C] = (R[Ω] – 100) / 0,385

Leggendo il valore di resistenza si può quindi conoscere il valore di temperatura con una precisione che può arrivare fino a ±0,03 °C, se la Pt100 è in classe di precisione cosiddetta “1/10 DIN”.

Confronti con il passato

L’analisi delle differenti precisioni delle letture di temperatura per periodi storici differenti ci conduce a una prima considerazione di fondo che si può capire bene attraverso un esempio: se in un dato sito e in un dato periodo dell’anno fu osservata, per esempio, nel 1873, una temperatura media di 24,5 °C ed oggi, in quello stesso sito e nel medesimo periodo dell’anno, se ne osserva una di 25,20 °C, non abbiamo elementi disponibili per poter affermare che quel dato sito abbia subìto un incremento di temperatura media negli ultimi 150 anni, pur se le letture apparenti dimostrerebbero il contrario.

Ciò in quanto la lettura del 1873 è da riferirsi in realtà all’intervallo 24,5 ± 0,75 °C, cioè 23,75 – 25,25 °C, mentre la lettura odierna va riferita all’intervallo: 25,20 ± 0,03 °C, cioè 25,17 – 25,23 °C. Come si vede, l’intervallo odierno è tutto contenuto all’interno dell’intervallo della misura del 1873; sicché, la conclusione rigorosa dal punto di vista della teoria delle misure è che, essendo l’incremento apparente di temperatura media tutto compreso all’interno degli errori di misura dello strumento meno preciso, nulla possiamo affermare al riguardo.

Pertanto, l’allarme sull’incremento della temperatura globale nell’ultimo secolo di 0,7 ± 0,2 °C va per lo meno ridimensionato tenendo conto della precisione delle misure dei termometri al mercurio, che quindi diventa -0,25 / +0,15 °C.

Quindi, se riscaldamento globale c’è stato nell’ultimo secolo, non abbiamo elementi matematici per poter affermare che esso possa essere stato superiore a +0,15 °C, che è circa un sesto del valore strombazzato ai quattro venti dai catastrofisti climatici. Ma le sorprese non finiscono qui.

Errore di Aliasing

Che cos’altro poi differenzia la lettura delle temperature di prima del secondo Dopoguerra da quelle dal secondo Dopoguerra ad oggi? La metodologia di rilievo delle misure.

In passato, le misure erano affidate alla buona volontà dei dipendenti delle stazioni meteorologiche i quali, per effettuare un rilievo, dovevano recarsi personalmente alla centralina per leggere visivamente il valore di temperatura, appuntarlo su un brogliaccio, tornare negli uffici e riportare infine data, ora e lettura sul registro ufficiale della stazione.

Anche ammettendo la massima scrupolosità e l’assenza di errori di trascrizione, questa operazione, ben che andasse, veniva ripetuta durante la giornata non più di una ventina di volte. Sicché, tutte le variazioni di temperatura che intercorrevano tra una lettura e quella successiva finivano nell’oblio: è ciò che, nella teoria dei segnali, si chiama “errore di aliasing” e accade quando si prendono le misure a intervalli di tempo troppo lunghi rispetto alla velocità di variazione della grandezza da misurare. Esemplificando con un esempio, se ho queste 3 misure:

h 13:00 – 26,4 °C

h 14:00 – 27,2 °C

h 15:00 – 26,7 °C

non saprò mai se tra le 13:00 e le 14:00 o se tra le 14:00 e le 15:00 la temperatura sarà stata maggiore di 27,2 °C. Potrei, ad esempio, essermi perso la vera temperatura massima alle 14:35 di 27,7 °C ma non lo saprò mai: crederò invece che la temperatura massima del giorno sarà stata 27,2 °C, commettendo pertanto, a mia insaputa, un errore di aliasing di 0,5 °C.

Oggi invece l’acquisizione delle misure di temperatura è automatica e viene effettuata a cadenza di 1 minuto. In tal modo, la centralina meteorologica è in grado di misurare fedelmente l’andamento effettivo della temperatura cui è sottoposta la sonda della centralina e, quindi, di non perdersi mai nessun valore di massimo e di minimo.

Naturalmente, anche questo gioca a favore di un bias delle temperature odierne verso l’alto rispetto a quelle registrate in passato. Ma, nonostante questo ulteriore ordine di problemi, le sorprese non finiscono qui.

Posizionamento delle centraline meteo

A inficiare ulteriormente l’affidabilità dei calcoli comparativi tra passato e presente c’è un terzo fattore di inquinamento delle misure: il posizionamento delle centraline meteo. Il problema più diffuso è rappresentato dal fatto che stazioni meteo che in passato erano state installate in aperta campagna o su edifici cittadini nel secolo scorso, si ritrovano oggi immerse nell’inquinamento termico di una moderna città perché inglobate all’interno del tessuto urbano che nel tempo è avanzato dalla periferia verso la campagna.

È il caso, ad esempio, della storica centralina meteo di Sidney, che una volta sorgeva in aperta campagna mentre adesso si ritrova inglobata in pieno centro cittadino con, addirittura, nelle sue immediate vicinanze installati dei pannelli fotovoltaici e dei quadri elettrici di potenza.

Anche in Italia vi sono innumerevoli esempi analoghi, tra cui citiamo l’Osservatorio astronomico “Vajana” di Palermo, la cui stazione meteo è installata sul tetto del Palazzo Reale tra le due cupole in rame del famoso edificio storico, intorno cui sono stati poi di recente installati gli scambiatori di calore dei sistemi di climatizzazione di tutto l’edificio, affastellati tutti intorno alla capannina meteorologica.

Non fa eccezione la stazione meteo dell’Osservatorio Ximeniano di Firenze, installata anch’essa sul tetto dello storico edificio in Borgo San Lorenzo, recentemente impermeabilizzato con guaine nere in bitume che riducono l’albedo (la capacità di una superficie di riflettere la radiazione solare), favorendo così l’assorbimento della radiazione solare con conseguente innalzamento artificioso della lettura della temperatura e, quindi, di inquinamento delle misure.

Infine, meritano una particolare menzione le stazioni meteo di tutti gli aeroporti che – correttamente – registrano i valori letti in corrispondenza delle piste di atterraggio e decollo con relative sovratemperature dovute agli scarichi dei gas degli aerei in transito come da disposizioni IATA, non fosse che i loro dati termicamente inquinati sono anch’essi inseriti tout court nella rete mondiale del WMO (World Meteorological Organization – Organizzazione meteorologica mondiale).

A tal proposito, clamoroso è il risultato di uno studio del meteorologo statunitense Anthony Watts il quale, con i colleghi Sterling Burnett, James Taylor e Jim Lakely, ha condotto nel 2022 una verifica indipendente delle stazioni meteo del NOAA (National Oceanic and Atmospheric Administration – Amministrazione nazionale oceanografica e atmosferica) in tutti gli Stati Uniti, scoprendo che il 96 per cento di esse non risponde agli standard di qualità imposti dal NOAA stesso, e che generano quindi dati inaffidabili e affetti da errori sistematici.

Manipolazione dei dati

Dulcis in fundo, per salvare capra e cavoli ed ovviare all’inquinamento termico urbano delle centraline meteo sorte in campagna e via via inglobate dalle città, Il WMO prevede degli algoritmi di “omogeneizzazione dati” per tener conto delle mutate condizioni al contorno, ma questi sono oltremodo intrusivi e del tutto arbitrari: consistono, ad esempio, nell’aggiunta o sottrazione di un dato valore arbitrario di temperatura (∆t) a seconda della particolare configurazione oppure, ancora peggio, nello scarto dei dati non compatibili con una data baseline attesa.

Si tratta quindi di una manipolazione arbitraria bella e buona dei dati grezzi che ha l’effetto – non si sa se involontario o intenzionale – di introdurre una polarizzazione proprio nella direzione di quei risultati attesi.

Il calcolo della temperatura media globale

Come se non bastassero tutte le défaillances viste finora, c’è un ultimo punto oscuro: come si calcola la temperatura media globale? Qui il mistero si infittisce in quanto la metodologia di calcolo seguita dalle organizzazioni internazionali è del tutto ignota, né la letteratura aiuta al riguardo: sembra proprio che conoscerla sia un privilegio da iniziati…

Voi mi direte: “Ma è semplice: la temperatura media globale si fa prendendo tutte le letture e facendo la media aritmetica!” Benissimo! Ma quali letture? Facciamo delle ipotesi ragionevoli.

Innanzitutto, quelle delle centraline meteo della rete WMO, la stragrande maggioranza delle quali tuttavia è affetta da significativo inquinamento termico e conseguente manipolazione dei dati con introduzione arbitraria di bias, come abbiamo visto.

Inoltre, vi sono i rilievi satellitari che misurano le temperature al suolo da cui vengono poi desunte le temperature atmosferiche. Tuttavia, per far questo in maniera corretta occorrerebbe la conoscenza puntuale delle caratteristiche del suolo per tener conto di fattori quali l’albedo e l’orografia del territorio, elementi di cui tuttavia i sistemi satellitari tengono conto solo con risoluzioni spaziali non più piccole di un ettaro (10.000 m2) e di temperatura non inferiori a ±0,2 °C, introducendo quindi essi stessi errori di misura.

Poi ci sono le boe oceaniche che leggono le temperature degli oceani. Ma, anche in questo caso, l’estrema variabilità delle possibili condizioni meteo-marine induce inevitabilmente errori di bias verso l’alto. Immaginate infatti due boe, una ai tropici in condizioni di bonaccia, con la parte emersa della boa (quella entro cui si trovano gli strumenti di misura) completamente asciutta e arroventata dal sole, ed una nel Mare del Nord durante una tempesta con mare forza 7: la media aritmetica delle due letture risulterà inevitabilmente spostata verso valori più elevati di quelli reali, così come del resto fanno anche gli algoritmi di manipolazione delle letture, come abbiamo visto nel caso delle centraline meteo.

Supponiamo infine di prendere tutte queste letture e di calcolarne la media aritmetica, tirando fuori la temperatura globale media della Terra. Ma siamo sicuri che i punti di misura siano uniformemente spaziati su tutto il globo? E, in caso contrario, siamo sicuri che una maggiore concentrazione di punti di misura in determinate parti del globo non porti anch’essa ad uno spostamento verso l’alto delle medie?

Conclusioni

Cosa possiamo concludere alla fine di questa lunga digressione? Che la teoria delle misure non ci consente di trarre conclusioni di alcun tipo partendo dai rilievi di temperatura dal Settecento ad oggi a causa della vasta eterogeneità delle precisioni, dei disturbi termici e del bias introdotto dagli algoritmi di manipolazione nelle misure di temperatura, nonché a causa della fumosa metodologia di calcolo del valore di temperatura media globale.

Ciò ovviamente non vuol dire che negli ultimi 270 anni non vi sia stato effettivamente un incremento della temperatura media globale ma che, ammesso che sia possibile stabilire in maniera univoca una metodologia di calcolo universalmente accettata – cosa oggi apparentemente ben lungi dall’essere definita – con i dati disponibili non è possibile né conoscere tale incremento e né tantomeno quantificarlo con la precisione del decimo di °C che viene millantata dalle organizzazioni internazionali.

Analogamente, se incremento di temperatura media globale negli ultimi 270 anni c’è stato, con i dati a disposizione non è possibile stabilire se questo sia dovuto effettivamente all’attività umana dal 1750 ad oggi – come spergiurato da quelle stesse organizzazioni internazionali – oppure se esso sia dovuto alla ciclicità dell’attività solare, il motore primo della vita sulla Terra.

Seguici sui nostri canali
Exit mobile version