Il motivo per cui ci misuriamo l’uccello.

Il test che ho fatto prima (che NON e’ mio, cosi’ come non lo era l’obelisco di Zin, ma aspetto un pochino di sbroccatori per fornire, se mi andra’, il link) era un test per far toccare con mano una cosa molto semplice: la misura e l’accettazione dei dati, anche nelle scienze esatte come la fisica, non sono dei processi banali. Esiste una scienza, la metrologia, che si occupa proprio di questo. E no, non e’ una materia banale.
Vi sarete accorti di come io abbia usato quelle che sembrano delle convenzioni. Per esempio, ho deciso cosa fare della sensibilita’. In realta’ non sono stato io, ma e’ una convenzione accettata; poiche’ le convenzioni non cadono dal cielo sicuramente e’ motivata. Ho detto che l’errore sia simmetrico, a meno di non conoscere le sistematicita’, cosa che mi ha permesso di escludere gran parte delle risposte. Ho accettato il principio di Occam . Ho poi scelto di accettare la misura di 164, scegliendo di andare sul dato fisico in ogni caso, anziche’ negarlo e andare per logica, scelta che per il fisico e’ obbligatoria perche’ e’ una convenzione (piuttosto riuscita) di quella scienza: se la lancetta del nostro strumento oscilla attorno al valore medo di 164, dobbiamo proprio leggere 164,   e a questo punto possiamo solo scegliere un intervallo d’errore simmetrico, mica possiamo dire che in realta’ oscilli attorno al 175 e dimenticarci del 164 che abbiamo misurato.

Tutto questo avviene perche’ anche sulle misure e’ possibile mentire. Per esempio, nel post che ho fatto ho mostrato come la scarsa conoscenza dello strumento di misura permetta, di fatto, solo di escludere gli errori logici evidenti.
Se prendiamo l’era moderna, popolata dai satelliti, quello che il satellite che misura una certa area con una certa frequenza vi fornira’ e’ un blocco di dati in formato HDF (http://eosweb.larc.nasa.gov/HBDOCS/hdf.html) , che per essere accettati dovranno innanzitutto venire resi pubblici, e se citati bisognera’ spiegare come li si sia letti.
Proprio per il fatto che alcuni errori sfuggono facilmente per via delle ambiguita’ del linguaggio naturale o delle cattive condizioni di misura, il mondo della fisica sperimentale e’ un mondo che necessita della massima trasparenza. Persino durante la guerra fredda, perche’ i dati provenienti dalle missioni Venera fossero accettati, fu necessario fornire TUTTO il materiale richiesto,e  TUTTE le metodologie di misura e lettura. In piena guerra fredda!
Faccio notare inoltre che sto parlando SOLO della LETTURA dei dati e della loro raffigurazione. Anche la visualizzazione di dati scientifici , che spesso permette di vedere “ad occhio” gli errori di metodo, e’ una materia di studi vera e propria.
Se ci aggiungiamo anche il data mining dei dati ricevuti, che a sua volta e’ una scienza, capite che la semplice operazione di “leggiamo i dati” e “vediamo cosa dicono” sia un’operazione che necessita di TOTALE trasparenza sui metodi usati per il data mining  e sulla lettura dei dati stessi.
Voi stessi mi accusate di aver usato un linguaggio ambiguo nella formulazione del problema: di fatto i dati erano ben pochi, avrei potuto omettere le parti che mi accusate di essere ambigue e menzionare solo “strumento sconosciuto”, scala 0,50,100,150,200, e basta. Avrei avuto meno ambiguita’ , e avrei richiesto ugualmente la soluzione. Ma la morale e’ ancora piu’ forte: nelle materie scientifiche sperimentali OCCORRE la TOTALE trasparenza e la TOTALE mancanza di ambiguita’, da quelle linguistiche (e il motivo per cui si creano terminologie e nomenclature) a quelle concettuali.
Leggetevi QUESTO DOCUMENTO, che definisce i termini da usare quando si parla di misure, e capirete il background che serve solo per LEGGERE una misura! Dovete studiare una vera e propria LINGUA. Dal punto di vista del VIM, il mio test non era solo “ambiguo”, era letteralmente illeggibile. Ma se non si passa la vita a parlare quella lingua, quella che sembra una “semplice” operazione di lettura di una cifra diviene impossibile, perche’ si leggera’ un documento senza capire cosa voglia dire in quella lingua. Figuriamoci se , come fa IPCC, chi emette il documento rifiuta di esporre metodi e strumenti.

Negare, in qualsiasi modo, la TOTALE trasparenza dei dati, e dei criteri di lettura e di elaborazione  EQUIVALE AD INVALIDARE IL LAVORO SCIENTIFICO: avete visto con quanta facilita’ semplicemente perche’ il test offriva un brutto “colpo d’occhio”, molti di voi hanno risposto ipotizzando un errore sistematico, cioe’ aggiungendo informazioni.

E il problema era banale: misura la tua assistente, misurati l’uccello.
Morale della storia: lo stesso atteggiamento di reticenza dell’ IPCC e’ un atteggiamento completamente antiscientifico; in passato reticenze di qusto genere sono state considerate sufficienti a respingere delle teorie.
Perche’ allora le varie accademie hanno accettate?
Perche’ quel lavoro e’ “furbo”: insieme a dati normalmente improponibili, ci sono delle “evidenze” , cioe’ si portano le prove non del fenomeno, ma dei suoi effetti. Si sciolgono i ghiacciai, etc etc .
Cosi’, il fisico e’ portato a dire che “most likely” c’e’ un fenomeno di riscaldamento globale. Certo, tutti i fisici poi denunciano le carenze accademiche, le incompletezze, le ambiguita’, ma siccome c’e’ un’affermazione che “most likely” risponde al vero, hanno sottoscritto.
Faccio notare come alle accademie nazionali non veniva chiesto un giudizio analitico sul lavoro (che ha raccolto ondate di critiche) ma semplicemente di essere sottoscritto o meno, cioe’ un giudizio sintetico.
Ne’ alle accademie nazionali e’ stato chiesto di proporre la LORO teoria: stavate freschi, che una decina di accademie nazionali europee proponessero TUTTE la stessa teoria!
L’operazione e’ stata furba: un rapporto ambiguo, incompleto , volutamente lacunoso per volonta’ degli stesori (che NON forniscono informazioni e NON rispondono alle richieste di informazione) , e’ stato proposto ad un giudizio sintetico (e non critico ne’ analitico) affermando una tesi “most likely” vera, cioe’ che esiste il riscaldamento globale e che il tasso di CO2 sia parte del fenomeno.
I dati sul rapporto, la loro lettura con criteri ignoti (non voglio citare le famose email : dopotutto potrebbero anche dire il falso ) , il data mining avvenuto usando software  metodi  NON documentati, non sono di qualita’ accettabile: ma la risposta e’ che NON si tratta di un lavoro scientifico in senso stretto, ma di un rapporto ad un organo POLITICO.
Se io vado a spiegare a mia figlia il teorema di Pitagora come si spiega ai bambini diciamo delle scuole medie 8quando sara’ tempo) , probabilmente tutte le accademie  sottoscriveranno. Ma se lo faccio ad un corso di geometrie complementari, qualcuno prendera’ i capitoli sugli spazi normati, quelli sugli spazi metrici, verra’ da me e mi dira’ : “scusa, com’e’ che quello e’ un teorema?” e NO, non lo sottoscrivera’.
E questa e’ stata l’astuzia dell’operazione. Si e’ detto alle accademie: questo e’ un rapporto sintetico ad un organo politico, sottoscrivi LE SUE CONCLUSIONI?
Le accademie di tutto il mondo hanno detto si’, “most likely” c’e’ un riscaldamento globale in corso, e “most likely” il CO2 vi prende parte.
Poi i furboni sono andati sui giornali, dall’opinione pubblica, a dire “avete visto? Tutte le accademie lo hanno sottoscritto, questa e’ la verita’, questa e’ la bibbia”, dalla prima parola all’ultima.
Il test che ho fatto mostra quanto sia facile venire ingannati da una formulazione ambigua dei problemi, dai propri riflessi, dal colpo d’occhio. E ripeto: leggere i dati , anche misurazioni banali, non e’ un lavoro banale. Figuriamoci il data mining.
Per rendere credibili lavori simili occorrono una trasparenza e una metodologia condivisa di tale portata e severita’ che le reticenze dell’ IPCC hanno, di fatto, invalidato il loro lavoro. La stesura ambigua dei risultati e il rifiuto di parlare dei metodi fanno di quel lavoro un ammasso di fuffa
Uriel

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *