Home News “Global prosperity”, l’altra faccia del cambiamento climatico

Che tempo fa dopo Cancun

“Global prosperity”, l’altra faccia del cambiamento climatico

1
2

L’ultimo di una serie di summit internazionali sul cambiamento climatico sponsorizzati dall’Onu ha chiuso i battenti nella paradisiaca città messicana di Cancún. Si tratta del sedicesimo, per l’esattezza. Circa duecento delegazioni da tutto il mondo, pari a 25mila partecipanti, si sono riunite per ben due settimane con l’obiettivo di ribadire lo stesso concetto già emerso un anno fa a Copenaghen: bisogna fermare il global warming, qualsiasi cosa esso sia.

Rapporti scientifici “incontestabili” ci spiegano che, negli ultimi 100 anni, la Terra ha aumentato la sua temperatura di 0,74 gradi centigradi e che oltre 300mila persone nel mondo sarebbero già morte a causa della fame, delle malattie e dei disastri naturali direttamente collegati all’impatto del cambiamento climatico.

Greenpeace e l'Associazione Internazionale dei Medici per l'Ambiente “confermano” che la mortalità umana cresce del 3% per ogni grado di aumento della temperatura terrestre. La Australian Medical Association “assicura” che l’aumento delle temperature contribuisce alla nascita delle dittature nel mondo (perché le risorse alimentari scarseggerebbero e, di conseguenza, ciò favorirebbe il costituirsi di regimi autoritari), ed è per questo stesso scopo che la Croce Rossa Internazionale chiede 292 milioni di dollari l’anno “per armarsi contro le minacce del global warming”...

LEGGI IL PAPER DELLA FONDAZIONE MAGNA CARTA

  •  
  •  

1 COMMENT

  1. Osservazioni sul metodo scientifico dei climatilogi
    Tempo fa mi sono preso la briga di fare una ricerca sui modelli usati dai climatologi per fare catastrofiche previsioni sul futuro del mondo e, pur occupandomi di un argomento completamente diverso (l’elettronica integrata) che, comunque, utilizza massicciamente modelli al calcolatore, sono rimasto esterrefatto per la ingenuità e il livello di approssimazione dei modelli della climatologia. Non riesco a capire come mai la comunità scientifica di altre discipline non sia mai insorta contro questi signori la cui improntitudine danneggia l’immagine dello scienziato.

    Per fornire un minimo d’informazione su quanto ho trovato a quel tempo fornisco alcuni elementi sulla la ragionevolezza e la valenza scientifica dei modelli utilizzati nelle simulazioni, basati su appunti che scrissi a quel tempo. I modelli sono inadatti a una descrizione unitaria dei fenomeni. Inoltre, i metodi di analisi numerica sono inadeguati a risolvere problemi complessi non-lineari con condizioni al contorno “sfumate”. Le limitazioni e gli errori non consentono di parlare di fascia di accuratezza, poiché le indeterminazioni dovute ai modelli portano a qualsivoglia soluzione. Ovviamente, anche le previsioni sono arbitrarie: possono indicare un riscaldamento nel breve termine, ma nuovi dati in ingresso sono capaci di ottenere soluzioni inattese, quale il raffreddamento, a meno di manipolazioni dei dati in ingresso (cosa fatta).

    L’utilizzo di supercomputer con capacità elaborative eccezionali non ha rilevanza perché se i modelli sono approssimati, o peggio errati, i risultati sono di sicura inattendibilità. Parametri correttivi di natura empirica hanno consentito, con scarsa valenza scientifica, di ottenere un’approssimata concordanza con osservazioni e misure. Il tutto, visto nell’ottica di una pura attività di ricerca, è un nobile tentativo di risolvere problemi di complessità enorme. I limiti sono però lo spreco di risorse economiche e un inadeguato uso di potenza di calcolo prima d’avere opportunamente formulato il problema e la sua descrizione.

    Un particolare buffo è che l’IPCC ha voluto vendere come positivo l’uso di 23 modelli distinti che portano a risultati apparentemente concordanti, essendo resi simili da opportuni “scambi di opinioni” tra i gruppi di ricerca. Invece, è proprio la mancanza di un modello unico quello che indica la natura empirica degli approcci, che sono proposti senza possibilità di un’adeguata e rigorosa verifica sperimentale. La debolezza scientifica è anche evidente dall’anomala indisponibilità dei modelli matematici usati dai climatologi. I numerosi documenti dei panel ONU non forniscono supporto scientifico e relative equazioni. Il rapporto dell’IPCC AR4WG1, che nel Capitolo 8 parla di modelli climatici e della loro valutazione, non riporta in ben 74 pagine nemmeno un’equazione. Ci sono invero svariati riferimenti bibliografici alla fine del Capitolo 8 e, tramite loro, è possibile trovare un po’ d’equazioni. Ad esempio, il primo riferimento bibliografico è un articolo di Abramopoulos e altri, scritto nel lontano 1988 che presenta un ragionevole modello idrogeologico. Esso, pur riconoscendo l’importanza del modello del terreno per previsioni a lungo termine, assume che la legge di Darcy valga in modo generalizzato. Il modello è “microscopico” con studi che vanno a 3,44 m di profondità, dove si suppone ci sia rocca; altrimenti si assume che il terreno sia permeabile (?). Un parametro, ZD, dichiarato importante, è poi stimato in 0,63 dell’altezza della vegetazione (ma perché tale numero?). I risultati del modello non sono poi confrontati a misure! I grafici delle simulazioni riguardano giorni e, in un caso, un anno, mai secoli!! L’articolo è un buon modello di tentativo, pur non verificato sperimentale. Il punto è che equazioni con ragionevolezza microscopica sono usate nel modello IPCC numero 13 per stime macroscopiche e centenarie.

    Un altro esempio delle tante stranezze si trova nel modello 17 dell’IPCC proposto da un gruppo di ricercatori francesi per studiare l’accoppiamento di effetti atmosferici (dinamica 3D, effetti solari, trasporto turbolento, moti convettivi, nuvole, …). Questi sono descritti da modelli vecchiotti (Sadourny and Laval, 1984; Van Leer, 1977; Hourdin and Armengaud, 1999; Hourdin et al., 1995, Laval et al., 1981; Louis, 1979; Miller et al. 1992; ecc.) che furono sviluppati senza alcuna interrelazione tra loro e con accuratezze disparate. Inoltre, gli autori apportano modifiche empiriche per risolvere anomalie tipo l’irrealistica predizione delle precipitazioni vicino al Madagascar. Il lavoro, pur denotando un commendevole sforzo per ottenere un sistema numericamente risolubile, diventa poi il modello 2L20 che, confrontato con il precedente LJ7, ha la bontà di non divergere per simulazioni lunghe (circa 300 anni). La cosa che però disturba è la “scientificità” di alcuni aspetti, tipo lo studio dell’accumulo di neve ai poli e il distacco di iceberg. Il modello 2L20 prevede semplicemente che la massa di neve che eccede i 3000kg/m2 venga spedita nell’oceano dopo un filtraggio temporale di 10 anni (?). Ancora una volta, non è l’approssimata descrizione di aspetti importanti, ma l’uso dei risultati grossolani che ne derivano per dare indicazioni ai “policy makers”.

    Un punto dolente in tutte le analisi di sistemi complessi è l’utilizzo di equazioni non lineari. Esse determinano caos, turbolenza e cicli periodici. Per lo studio del moto dei fluidi si usano le equazioni di Navier-Stockes che, come ben sanno i ricercatori che le utilizzano, ottengono soluzioni per lo meno ragionevoli solo se le approssimazioni fatte sono verificate e se la descrizione del sistema è completa. Si deve, in particolare, tenere conto di numerosi ed essenziali feedback, che, nei modelli climatici sono molto, ma molto inadeguati. Bisogna poi ricordare che con sistemi non-lineari piccole variazioni nei coefficienti e minime differenze nelle condizioni iniziali influenzano in modo sostanziale l’evoluzione temporale (effetto farfalla), portando a stabilità o a oscillazioni.

    Esistono anche molti limiti nelle simulazioni numeriche che, come noto, utilizzano dati digitali la cui rappresentazione è discreta nell’ampiezza, nel tempo e nello spazio. Tutto questo è codificato dal teorema del campionamento. Ebbene, i dati usati dai modelli climatici hanno griglie di 200-400 km, mentre una perturbazione atmosferica è poco più di un km. Gli intervalli temporali sono giorni o settimane. Ne consegue che grandi perturbazioni climatiche e le loro evoluzioni sono intellegibili. L’artificio usato, chiamato “parametrizzazione”, cerca di mettere una pezza ma non è certo la soluzione all’errore teorico del sottocampionamento.

    Altre amenità si trovano in un articolo usato come base scientifica per i modelli I modelli 11 e 12 dell’IPCC relativi per gli studi di accoppiamento tra fenomeni (Coupling, flux adjustment). L’articolo “GFDL’s CM2 Global Coupled Climate Models. Part I: Formulation and Simulation Characteristics” apparso sul “Journal of Climate” il 1/3/2006. Il testo è disponibile sul Web.

    L’articolo invece che un modello unico ne usa due: CM2.0 e CM2.1, pare perché uno funziona in certe situazioni e il secondo in altre. A Pag. 644 della rivista l’articolo sorprendentemente dichiara che i modelli usati sono il collage di modelli distinti di atmosfera, oceano, ghiacci, e terra accoppiati con il modulo “flux coupler”. Sempre a Pag. 644 dice di usare un modello atmosferico preesistente (Lin 2004) “migliorato” nello schema delle nuvole con l’aggiunta di parametri (quali, quanti, perché? Quali valori e come si calcolano? Non si sa!). Poi, il modello del terreno manda a zero l’evaporazione quando il terreno è gelato alla profondità di 30 cm. A Pag. 647 per risolvere il problema di un persistente cold bias il modello delle nuvole aumenta in modo arbitrario il valore di un parametro del 45%. In aggiunta considera mar Caspio una superficie terrestre speciale. Siccome il modello CM2.0 non tratta laghi, quando la quantità d’acqua al suolo è meno del valore di saturazione, una sufficiente quantità d’acqua fresca è mossa istantaneamente dall’oceano fino alla bocca del fiume Indi per mantenere il Caspio in saturazione (??). A Pag. 648 dichiara di non considerare gli effetti di aerosol vulcanici poiché, dice, non interagiscono direttamente con lo schema nubi, quindi non considera un qualsiasi effetto indiretto delle nubi. A Pag. 649 dice che nel modello l’acqua dei fiumi è scaricata negli oceani a 40 m di profondità. Poi, decide che la viscosità in direzione del polo per il secondo modello è 5 volte quella orizzontale, per ottenere più vigorose “subpolar gyre circulations”. Poi, più avanti, pur dichiarando che “i risultati hanno una certa rassomiglianza con le osservazioni” ma che “i modelli descritti non definiscono bene la stratosfera” dato che “interazioni tra stratosfera e troposfera possono giocare un ruolo fondamentale nella variabilità climatica e nei cambiamenti” stanno sviluppando nuovi modelli che prevedono maggiori risoluzioni.

Aggiungi un commento

Please enter your comment!
Please enter your name here