Scioglimento dei ghiacci in Groenlandia (foto: William Bossen)

L'apocalisse che non c'è

Umberto Minopoli

L’isteria mediatica e la scienza che si adegua. Il riscaldamento globale non si risolve azzerando le emissioni. Steven Koonin ha un piano B: una carbon free soft, che non comprometta ricchezza energetica e sviluppo

Ogni anno la povertà energetica – limitato accesso all’elettricità e uso del legno e dei combustibili sporchi (carbone, kerosene, etanolo) – causa quattro milioni di morti. Quasi lo stesso numero del Covid: una pandemia all’anno. Riguarda il 40 per cento della popolazione mondiale. Eppure, per i governi l’emergenza è il clima. Ondate di caldo, inondazioni, piogge torrenziali – dalla Siberia al Canada, agli Usa, al Nord Europa, al Mediterraneo – evocano la metafora del mondo che brucia. Insieme ad altri eventi naturali –  ghiacciai che si sciolgono, livello dei mari che si alza, siccità e deforestazione – sono rappresentati, quotidianamente, come il “clima che si è rotto”. Ai cambi climatici, indotti dall’uomo, è imputata la responsabilità del clima impazzito. E’ l’Apocalisse che non c’è, denuncia Unsettled (2021) un libro che è già un caso letterario. L’autore è Steven Koonin, fisico, scienziato del clima, ex sottosegretario, alla Scienza e all’Energia nei governi Obama.

 

Koonin non nega il warming: “Che il pianeta si stia scaldando è un fatto”. Come pure è vero che nel riscaldamento operi un’influenza umana, attribuibile ai combustibili fossili. Sono errate però, afferma l’autore, le conclusioni che se ne traggono: nessuna catastrofe è alle porte. C’è arbitrarietà, semplificazione e approssimazione nelle dicerie sul clima. L’isteria confonde il dibattito pubblico. Si attribuiscono alla scienza esagerazioni, falsità e azzardi: che uragani, ondate di caldo, inondazioni siano oggi più frequenti di quanto fossero nel secolo scorso; che le temperature più calde crescano seguendo una rampa lineare; che il livello dei mari si elevi a un ritmo diverso rispetto al secolo scorso.

 

Si può non negare il riscaldamento e, tuttavia, ritenere azzardato spiegarlo tutto con l’influenza umana, ritenere che essa si riduca alla CO2 emessa; e, infine, che si possa veramente regolarne, a piacimento, le quantità in atmosfera e credere che questo, di per sé, abbia un effetto sulle temperature del pianeta. Koonin ritiene che alla scienza vengano attribuite molte idee sbagliate, luoghi comuni, inesattezze che distorcono il dibattito pubblico sul clima. E che non si trovano affatto nei report dell’Ipcc (Intergovernmental Panel on Climate Change) e della Wmo (World Metheorological Organization), le agenzie di esperti dell’Onu. Ad esempio: la tesi che gli eventi meteorologici severi (allagamenti, siccità, bolle di pioggia, temporali, cicloni tropicali) si starebbero intensificando, in correlazione diretta con i cambi climatici. Ripetuta, quotidianamente, dai media, questa convinzione è definita, nei report Ipcc, “a bassa attendibilità” (low confidence). Ancora da indagare. Eppure, ricorre ossessivamente.

 

Nessuna osservazione o memoria degli eventi climatici supporta, secondo Koonin, la tesi di accelerazioni significative, in atto, del clima, di cambi inediti o di effetti meteorologici diversi dal passato recente. Il pianeta si scalda, ma la meteorologia resta, più o meno, quella di sempre. Senza novità negli ultimi 50 anni. O, perlomeno, non ne abbiamo prove certe. Il meteo estremo non si sta intensificando. Ma questo, nell’immaginario attuale suona come un’eresia.

 

L’isteria sul clima è colpa del “media coverage”. Che drammatizza gli eventi climatici per calamitare audience. Pare che il clima si venda bene. Il messaggio al grande pubblico viene semplificato. Esso ha l’impressione di accedere, senza sforzi, a informazioni complesse. Del resto, i report ufficiali e le pubblicazioni scientifiche sul clima sono oggetti esoterici, inaccessibili ai non addetti ai lavori. La semplificazione sacrifica l’accuratezza, ma estende la platea. Il catastrofismo evoca, nell’opinione pubblica, due reazioni di riflesso: che i cambi climatici siano opera dell’uomo; che bisogna fare “qualcosa di radicale e urgente”. Purtroppo, la risposta dei governi finisce col diventare rituale e frustrante: “E’ colpa della CO2, tagliamo le emissioni”.

 

La comunità scientifica ha finito per adeguarsi. Allettata dall’ascolto di massa, sacrifica all’illusione didattica, l’obbligo di “dire la verità”, di contrastare le deformazioni e le fandonie. E così “contribuisce, anch’essa, a oscurare (becloud) il dibattito pubblico”. I politici, di governo e di opposizione, trovano pagante il mainstream sul clima. Le decisioni sulle emissioni, del resto, hanno una particolarità: l’orizzonte della verifica (2050 o, addirittura, 2070) travalica, ampiamente, i limiti temporali dei mandati. Koonin teme che questa sfasatura sollevi un problema democratico: di responsabilità e affidabilità delle decisioni politiche sul clima. E vorrebbe che a prendere decisioni sul clima non fosse una politica instabile e traballante. Ma che, su quelle che si appoggiano a motivazioni scientifiche, la comunità scientifica fungesse da peer review.

 

La scienza del clima è chiamata a un’opera di verità e di umiltà. Non sa ancora tutto sul clima, sul suo passato e sull’evoluzione futura, sulle interazioni tra i fattori e forzanti (tra cui l’influenza umana) che lo influenzano. A costo di deludere, la scienza – suggerisce Koonin – dovrebbe rendere nota, al pubblico dei profani, la sua metodologia. E confessare quanto in essa pesi un connaturato “principio di incertezza” e probabilismo.

 

Il clima è una manifestazione della termodinamica, la scienza del calore. Secondo Einstein, la “più vera delle scienze”, quella che si avvicina di più al funzionamento reale (caotico) della Natura. E’ la disciplina, infatti, della casualità e della statistica. Il clima, dal lato del metodo di indagine è ormai, fondamentalmente, climate computing: simulazione, in laboratorio, della realtà e dell’ambiente e degli eventi naturali in essi (temperature e meteo). Che gli esperti raccolgono in modelli. Si sfruttando la potenza di calcolo (milioni di miliardi di operazioni) di avanzati computer per elaborare (data fusion) migliaia di dati, variabili, forzanti. Che vanno, di continuo, selezionati, elaborati e aggiornati. E che scontano l’inevitabile effetto farfalla di Lorenz: il loro stato evolve, a distanza di ore o giorni, in insiemi del tutto diversi e imprevedibili. Simulazione, dunque. Di un oggetto, il clima, che resta, in ogni caso, caotico. E che può evolvere in modo assai difforme dal modello. Vale per i modelli e gli scenari che l’Ipcc costruisce e proietta al 2050 e oltre: esercizi, ipotesi, nessuna certezza. E dal valore prescrittivo del tutto limitato. Come osservava lo statistico americano George Box: “Tutti i modelli sono sbagliati, ma alcuni tornano utili”. Occorre tenerlo in mente quando, di una ipotesi dell’Ipcc, si scrive: “Lo dice la scienza”.

 

C’è un grafico iconico della scienza del clima: si chiama Global Surface Temperature Anomalies (1850-2019). E’ l’immagine del global warming, la sua raffigurazione classica. Fotografa 170 anni di storia della temperatura terrestre: dal 1850, la data allegorica dell’avvio dell’industrializzazione, a oggi. Serve a capire che cosa è, esattamente, nella scienza del clima, il global warming. E quali supposizioni si fanno su di esso. Il grafico suddivide i 170 anni in blocchi di 20 anni: è l’intervallo di tempo minimo, secondo gli esperti, per distinguere il clima dal meteo. L’immagine mostra una larga striscia in salita (slope). E’ fatta, a denti di sega, di 170 piccole asticelle, parallele e in sequenza (è il clima registrato di ogni singolo anno), a diversa altezza tra loro. L’andamento delle asticelle degli anni è, esasperatamente, oscillante (su e giù) e frastagliato: difficile estrapolarne un senso. A darlo, invece, è una linea nera mediana sovrapposta alla striscia degli anni. Lì puoi cogliere il messaggio. La linea mediana sale in modo regolare fino al 1980. Poi si impenna bruscamente. Segno che lì, il warming ha accelerato. Ecco i cambi climatici! Invece, può essere misleading. La linea mediana è un artificio geometrico che, in ogni caso, copre una vivace variabilità annuale (che si ripeterebbe se, al posto degli anni, si mettessero le aree geografiche del mondo). Il disordine convulso (su è giù) del clima annuale ci dice della realtà del clima e del meteo: c’è alternanza di anni, mesi, e giorni più o meno caldi. Una irriducibile variabilità. L’ordine lo ritroviamo solo astraendo dalla variabilità: la linea mediana ci dà una tendenza. Ma nulla di più. Azzardato fare agende, scelte politiche ed economiche sui risultati del data fusion di un computer o sul disegno di linee di un grafico. Si finirebbe come nell’aforisma che dice: “Il clima è quello che ti aspetti, il tempo (meteo) è quello che trovi”.

 

Il goal dei governi è l’azzeramento delle emissioni di CO2 alla metà del secolo. Koonin lo definisce daunting: un proposito scoraggiante. Ha un impatto debole e incerto sulle temperature; ha costi certi, ma benefici dubbi; rischia di portarci dalla ricchezza alla povertà energetica. C’è molta disinformazione sulla CO2. Insieme agli altri gas serra (vapore acqueo, metano, ozono, ossido di azoto), essa funziona da termocoperta naturale. La terra riceve, sotto forma di energia radiativa dal sole, ogni secondo, 239W/m2, la potenza di due lampadine da 100W. La superficie terrestre, però, ne rinvia altrettanta sotto forma di calore (radiazioni infrarosse). Non ci scalderemmo e il pianeta non sarebbe abitale. I gas serra, invece, intercettano e catturano questo calore di rimando e lo trattengono in atmosfera, scaldando la Terra. E’ la nostra fortuna. La CO2 è poco diffusa (0,04), ma molto efficace: cattura le frequenze infrarosse più potenti, quelle che sfuggono agli altri gas serra. Per questo ha un forte potere riscaldante. Per molti secoli, la sua presenza in atmosfera è stata di 280 ppm (parti per milione). Poi, agli inizi dell’800, e in coincidenza con l’industrializzazione, la svolta. Oggi è a 410 ppm, quasi un raddoppio: 130 ppm in più, 2,8 molecole di CO2 in più ogni 10.000 degli altri gas serra. Questa quantità, attribuita al bruciamento dei combustibili fossili, è ritenuta l’eccesso. Ad essa si attribuisce il warming. Questa aggiunta fa sì che il calore, intercettato e trattenuto dai gas serra, passi dall’81,1  all’81,7  per cento. Si fatica a credere che questa esigua differenza, da sola, spieghi l’intero aumento delle temperature (+1,5° C) degli ultimi due secoli e mezzo.

 

C’è di più: la CO2 è un gas assai stabile. Il 60 per cento del gas emesso rimane in atmosfera 20 anni, il 55 per cento ci resta un secolo e il 15 per fcento, addirittura, un migliaio di anni. Insomma, la CO2 che già c’è, è destinata a restare. Le politiche antiemissive non la toccano: riguardano solo quella che emetteremo. Se continuassimo ad emettere as usual, nel 2070 l’anidride carbonica in aria raddoppierebbe (820 ppm).  E tuttavia, il calore catturato e trattenuto dai gas serra passerebbe solo dall’81,7  all’82,1 per cento. Se attuassimo, invece, i tagli previsti dai green deal stabilizzeremmo l’attuale percentuale di calore intercettato. Questo è il deal della decarbonizzazione (carbon free): fissare l’attuale stock di CO2 in atmosfera. Niente, nella scienza del clima, assicura davvero che azzerare le emissioni al 2070 o al 2050 (posto che tutti lo facciano) e stabilizzare l’attuale CO2 basti a trattenere l’aumento delle temperature entro i 2° C. Il gioco non vale la candela. Comunque: i numeri dicono che, in ogni caso, l’apocalisse è esclusa.

 

Evitare il raddoppio della CO2 si dovrebbe. Ci siamo evoluti a tassi più bassi di essa in atmosfera. Ma il carbon-free, ammonisce Koonin, è una chimera. La scommessa è ad alto rischio. C’è una correlazione diretta, fisica, tra popolazione mondiale che cresce, consumi energetici, crescita economica (growt) ed emissioni. Si riuscirà, con una popolazione mondiale in aumento (9 miliardi di persone) a tagliare le emissioni senza arrestare la crescita e abbassare i consumi energetici?  Impervio e dubbio, secondo il fisico Usa. Irrealistico. Tanto più se si intende realizzare il carbon free, come sostengono molti governi, nei prossimi 30 anni. La CO2 è un problema irrisolvibile se affrontato solo tagliando le emissioni. Per ragioni fisiche ed economiche. Forse occorrerebbe, suggerisce Koonin, la geoingegneria: tecnologie per rimuovere la CO2 dall’atmosfera a che aumentino la riflessività (albedo) del pianeta. Sono allo studio.

 

Il clima sta cambiando, l’uomo gioca un ruolo, i nostri bisogni di energia crescono e il carbon-free è una chimera. Rinunciamo alla decarbonizzazione? Koonin ipotizza un’alternativa, un piano B: una carbon free soft, graduale, senza azzardi e realistica. Che non comprometta ricchezza energetica e sviluppo.

 

La ricetta dell’ex ministro democratico dell’Energia è quella di puntare su misure cost-effective (convenienti) e sulle tecnologie. In tempi giusti: senza fretta, ansia e allarmismi. Sapendo che non si posseggono ancora le tecnologie sostitutive dei combustibili fossili. Koonin propone un approccio pragmatico: decarbonizzare il più possibile le energie fossili (efficientamento del metano, gasificazione del carbone); puntare su tecnologie emission-lite (leggere) presto disponibili: nuovo solare, piccoli reattori nucleari (Smr) fusione nucleare, batterie di accumulo per le reti elettriche; efficienza energetica nelle applicazioni domestiche e di trasporto.

 

Su clima ed energia, conclude Koonin, occorre “restaurare l’integrità della scienza”. Che deve tornare allo studio del clima. Serve “più pensiero e meno computing”: avere idee più chiare sul funzionamento del clima, sulle influenze umane su di esso e, soprattutto, sull’evoluzione futura delle temperature.  La scienza deve tornare a  “consigliare” i decisori. Ed essere, nel dibattito pubblico un fattore di atteggiamenti positivi. Senza allarmare. Qualunque sarà il futuro del pianeta.