Etichettato: definizioni statistiche

Le bugie dei Grandi Numeri: la rimozione dell’incertezza


Dubitare delle statistiche è atto profondamente eversivo, ed è facile capire perché. I grandi numeri sono la base del ragionare economico contemporaneo, e osservare, pure timidamente, che non c’è alcuna certezza che non sia ipotetica nelle astrussime rilevazione dei istituti che se ne occupano, è capace di far franare la costituente stessa delle nostre economie, basate sul calcolo e la congettura, visto che per calcolare e congetturare servono dati certi.

Ora parrà a molti che questo argomentare appartenga alla percezione dilettantesca di chi, come me, sfogli a volo d’uccello questioni così complesse. Eppure, vedete: non è così. Ci sono fior di studiosi che si occupano di questa roba e fra i tanti ne ho scovato uno, Charles F. Manski, che ha pubblicato un Paper per il NBER eloquente già dal titolo: “Communicating Uncertainty in Official Economic Statistics”.

Capirete la mia sorpresa quando ho scoperto che le mie intuizioni malfondate sono meritevoli di disamina “scientifica”, e addirittura di conclusioni così disarmanti: “Non sappiamo essenzialmente nulla su come il processo decisionale (quindi della politica, ndr) potrebbe cambiare se le agenzie di statistica comunicassero con trasparenza e con regolarità l’incertezza statistica”.

Già, l’incertezza.

Perché, vedete, il problema è che tutta la statistica, e la comunicazione che se ne fa, si basa su una sistematica rimozione proprio dell’incertezza di tali rilevazioni, che, al contrario, vengono vissute come stime puntuali sulle quali basare le proprie decisioni. Ciò spiega perché il nostro autore proponga alcuni metodi per rilevare tale incertezza e imparare a comunicarla, al fine di evitare errori.

Ma non è questo il punto focale. Ciò che conta rilevare è che “le agenzie governative di statistica riportano i dati come stime puntuali senza accompagnarle con misurazioni degli errori che possono contenere”.

Ne consegue che “le notizie pubblicate che comunicano le statistiche ufficiali al pubblico presentano le stime con poche o addirittura nessuna menzione sulle possibilità di errori”.

Il dibattito, perciò, spesso si costruisce su dati lanciato in pasto all’opinione pubblica senza un minimo di caveat che potrebbero ridurli a ciò che sono, ossia congetture, e quindi cambiare la natura stessa del dibattito.

Faccio un esempio. Di recente l’Istat ha rilasciato il dato sul Pil del primo trimestre 2014, registrando un calo dello 0,1%, che misurato in valore pesa circa 1,5 miliardi di euro di prodotto in meno. Per giorni non si è parlato di altro, in maniera alquanto demenziale, con le borse terremotate insieme alla salute del governo. Lo stesso copione al contrario l’abbiamo visto quando l’Istat ha rilasciato il dato del Pil del quarto trimestre 2013, quando invece l’indice segnava un aumento dello 0,1%. In quel caso furono applausi e sospiri di sollievo.

Ma cosa sarebbe successo se l’istituto avesse messo come caveat che il valore di uno 0,1% di un Pil, distribuito sull’insieme delle voci del prodotto, può facilmente equivalere proprio al margine standard dell’errore statistico di misurazione?

Come vedete, la rimozione dell’incertezza è funzionale al governo delle nostre società. Perché se dubitassimo dei numeri, non potremmo articolare alcun discorso politico sui numeri, dimostrandosi con ciò che l’economia, che si costruisce sulla statistica, è di per sé un atto politico, in barba ai tanto decantati principi di neutralità e scientificità.

Vale la pena, perciò, continuare a leggere il paper di Manski, se non altro per sentirsi meno soli, quando si pensano certe cose.

Tipo quando scrive che “riportare i dati statistici come stime puntuali è una tendenza comune a molti analisti che tendono a proiettare incredibile certezza (il corsivo NON è mio, ndr), incoraggiando i policy makers e il pubblico a credere che gli errori sono piccoli e senza conseguenza”.

Notate il verbo credere.

“In assenza di un’agency guidance – continua – le persone che capiscono che le statistiche ufficiali sono soggette ad errori devono autonomamente congetturare la magnitudine di questi errori. Così chi utilizza le statistiche ufficiali può mal interpretare le informazioni che le statistiche forniscono”. E questo, aggiungo io, nel migliore dei mondi possibili. Quello, vale a dire, dove uno che legga i dati non si accontenti del numeretto, ma si vada a leggere le definizioni che sostanziano i dati e che spesso dicono cose molto diverse da quello che uno pensa.

La conseguenza di questa situazione è che si parla con la massima certezza di questioni che sono profondamente incerte. E questo lascia ampia margini alla conduzione retorica del ragionare economico, che in tal modo diventa strumentale a quello politico.

“Le agenzie statistiche potrebbero mitigare le interpretazioni sbagliate delle statistiche ufficiali se misurassero l’incertezza e la riportassero nelle loro news release e pubblicazioni tecniche”, visto che “la qualità delle decisioni può risentirne”.

Il problema è che misurare gli errori, campionari o no, (sampling error, o non sampling error)  “è molto sfidante per le agenzie”. “Questi errori possono essere originati da molte fonti e non c’è consenso su come misurarli”. E tuttavia, “avere uno staff nelle agenzie che analizza gli errori avrebbe certo maggiore capacità informative che avere rapporti statistici che vengono considerati come verità”.

Ciò spiega perché il nostro studioso arrivi a ipotizzare addirittura tre tipi di incertezza statistica: transitoria, permanente e concettuale.

Ecco vedete: una volta rimossa la rimozione, l’incertezza mostra il suo volto di hydra dalle mille teste. Può dubitarsi di ogni cosa, pure di consuetudini mentali come il concetto di dato aggiustato per la stagione (seasonal adjustement) “che porta con sé un tipo di incertezza concettuale alquanto fastidiosa”, visto che “lo scopo della destagionalizzazione è facile da spiegare, ma assai meno da facile da realizzare”.

Nel dettaglio, nota Manski, la destagionalizzazione, nella sua definizione,  si propone di rimuovere le influenze dei eventi prevedibili sugli andamenti stagionali, “ma non si specifica come”.

Sicché tocca agli econometristi trovare il modo, elaborando supercazzole (il testo cita il metodo X-12- ARIMA method) che nessuno ormai sa più spiegare.

E anche qui incontriamo un grande vulnus della statistica: le definizioni. Sappiamo già che sono le definizioni a delimitare l’ambito della rilevazione. Ma come si fa capire il senso di tali definizioni se queste ultime sono di per sé interpretabili?

Ciò spiega perché i tecnici tengano ben chiuso questo vaso di pandora: nessuno ha voglia di parlare di questioni statistiche, materia assai difficile, quando tutti possono parlare di economia, che non è meno difficile ma assai più popolare (e soprattuto remunerativa). In tal modo tutti insieme, appassionatamente, possono parlare di politica.

La lettura del paper di Manski, da questo punto di vista, è assai utile.

In sostanza, ad ogni forma di incertezza analizzata può corrispondere una diversa revisione del valor statistico, che l’autore sperimenta analizzando, fra gli altri, i dati (e i metodi) del Bureau of economic analysis americano che riporta i dati trimestrali del Pil.

Argomento attualissimo, visto che di recente il Bureau ha riportato la stima del Pil Usa nel primo trimestre 2014 americano registrando un inquietante -1%.

Leggendo Manski scopriamo però che nella stima iniziale del pil trimestrale, circa il 25% dei dati necessari al calcolo, specie quelli realtivi al settore dei servizi, non sono disponibili. Le revisioni successive possono essere significative, ma il punto è che “il dato della stima iniziale fornisce una fotografia dell’attività economica che somiglia ai primi secondi di un’immagine Polaroid nella quale l’immagine sia confusa”.

Chiaro no?

Col risultato, nel caso preso in esame dal paper, che una stima del Pil del +2,7, diventa, una volta rivista, del 2%. Il che significa un errore statistico dello 0,7%. Altro che il nostro misero 0,1%.

Solo che mentre si spendono fiumi di parole e di inchiostro sui dati statistici, solo pochi addetti lavori sprecano tempo a parlare di della loro incertezza. E a questo punto dovrebbe essere chiaro perché.

Ciò, malgrado tali errori abbiano conseguenze importanti sull’economia. E anche questo dovrebbe esser chiaro. “Fino ad ora – nota l’autore citando Croushore – gli studiosi di macroeconomia hanno ipotizzato che le revisioni dei dati statistici fossero di piccole entità ed episodiche, e che comunque non avessero effetti sui modelli economici, le analisi e le previsioni. Ma i ricercatori hanno mostrato quanto questa assunzione sia falsa e che le revisioni dei dati possono avere influenza per diverse ragioni”.

Bello anche l’esempio: nel gennaio 2009, nel mezzo della crisi iniziata a settembre 2008, la stima iniziale sul Pil evidenziò un declino del 3,8% (a tasso annuale) nel quarto trimestre, ma un mese dopo il dato fu rivisto al ribasso del 2,4%, mostrando un declino del Pil reale del 6,2%. “La revisione di 2,4 punti fu la più ampia mai registrata sul dato trimestrale – nota – è questa larga revisione è arrivata proprio in un momento inopportuno”.

O forse no. Vi ricordo solo che due mesi dopo la Fed, già partita da fine novembre 2008 con il suo QE, aveva raggiunto quota 1,7 trilioni di acquisti di MBS, spinta certo dalle pressanti necessità di rivitalizzare l’economia.

Lungi da me voler fomentare la dietrologia. Ma – vedete – i grandi numeri offrono grandi opportunità.

Basta saperle cogliere.

(2/fine)

Leggi la prima puntata

Le bugie dei Grandi Numeri: più Pil(u) per tutti


Dovremmo infine porci, arrivati a questo punto del nostro discorso, una semplice domanda: di cosa parliamo quando parliamo di economia?

Non so a voi, ma la prima cosa che viene in mente a me sono le statistiche, les Grands Nombres, come ebbe a chiamarle Alain Desrosières in un celebre libro di una ventina di anni fa. E poi i grafici, le tabelle e gli indicatori, che su questi grandi numeri sono costruiti, e infine le teorie e i teoremi, che da essi vengono dedotti, in omaggio al più vieto metodo scientifico, al fine neanche celato di avere – retoricamente – ragione con la scusa di cercare una qualche verità almeno pratica, se non teorica.

Ecco, quando sento parlare di economia, oppure leggo di economia, l’unica cosa che mi viene in mente è che anche il più raffinato ragionamenti si basa sui numeri.

Le statistiche.

Perciò, mi rispondo, quando parliamo di economia non facciamo altro che combinare logicamente dati statistici, magari filtrandoli con un’idea/teoria, al fine – retorico – di persuadere qualcuno di qualcosa.

Detto in soldoni: quando parliamo di economia, facciamo politica.

Mi chiedo quanti ne siano consapevoli e quanti invece, sedotti o intimoriti dall’armamentario economicistico, commettano l’errore di considerarlo credibile. Ossia degno di credito.

L’essere credibile, non a caso, è alla base dell’economia, così come della finanza, che è una sua applicazione. Non dico tanto che tale credibilità impensierisca gli addetti ai lavori, che con l’economia ci campano e buon per loro. Dico che riguarda voi, noi, tutti quelli che l’economia la subiscono come una maledizione biblica.

Mi spiego meglio: il ragionamento economico, come ogni altro ragionamento, partendo da certe premesse può condurre a conclusioni assolutamene vere – nel senso che la logica dà a questo termine – ma assolutamente non reali. Basta ricordare il brillante equilibrio generale walrasiano per comprenderlo.

Con l’aggravante che il ragionamento economico ha un altro handicap: i dati di cui si serve per tessere le sue imboniture sono sostanzialmente una rappresentazione, densa di errori e di approssimazioni.

I grandi numeri sovente nascondono grandi bugie.

Ciò malgrado, il combinato disposto fra dati incerti e ragionamenti irrealistici determina il discorso economico contemporaneo, che tanto è credibile quanto più è astruso, perché a nessuno verrà mai in mente di confutare le premesse di una pagina di matematica o di un algoritmo statistico. Perciò è retoricamente efficace.

Tutto ciò vi parrà molto astratto, ma in realtà è assai concreto.

Qualche giorno fa l’Istat ha ricordato, con grande scandalo dei soliti disattenti, che a settembre verrà aggiornato il SEC, ossia il sistema dei conti nazionali, alla versione 2010, visto che vige ancora la versione 1995.

La notizia è diventata tale perché la stampa, semplificando come è suo mestiere, ha notato che nel computo del prodotto (PIL) andranno considerate anche alcune voci sommerse dell’economia illegale, come la prostituzione o il contrabbando di droga.

Apriti cielo. I benpensanti, molti dei quali non sanno neanche cosa sia il Pil però lo adorano, si sono scandalizzati. Sicché è intervenuta una robusta precisazione da parte di Bruxelles, dalla quale dipende Eurostat, che poi è l’ente statistico dell’Ue, seguita poi da una sottolineatura del nostro Istat. Vale la pena riportare questo balletto di dichiarazioni perché chiarisce molte cose.

Per Bruxelles ha parlato tale Emer Traynor, portavoce del commissario Ue al Fisco, dal quale dipende – fate attenzione – Eurostat.

Che c’entra il fisco con la statistica?

C’entra eccome. E’ fin dai tempi di Cromwell che lo stato usa le statistiche, anzi le ha inventate, per spremere tasse dai redditi e dai patrimoni. Il fatto che non sia cambiato nulla in tutti questi anni conferma l’assunto: ossia che l’economia è un fatto politico, sin dal suo sorgere, e la statitistica è il suo strumento operativo del quale la politica fissa la fisionomia per renderla omogenea ai suoi desiderata.

Non è un caso che nel nostro tempo malato di econom(an)ia vadano così forti gli econometristi, ossia coloro che riducono tutto a numero.

Scusate, divago.

Che ha detto il nostro portavoce? In sostanza che le attività illegali facevano parte del Pil da decenni e che quello che cambierà, con l’entrata in vigore del SEC 2010 è che i criteri di calcolo verranno armonizzati.

Armonizzati: che bella parola. Fa pensare alla musica. E invece qui si tratta di rendere comparabili i dati dei paesi aderenti ad Eurostat. Arida statistica omologante. D’altronde come si potrebbe avere un mercato unico, moneta compresa, se i dati non fossero omogenei?

Ancora una volta, quando parliamo di economia, parliamo di numeri. E quindi di statistica.

Comunque, la precisazione del nostro portavoce ha evidenziato che già dal SEC 95 era previsto l’inserimento delle attività illegali, malgrado, come ha precisato Istat “sia molto difficile misurarle per l’ovvia ragione che esse si sottraggono a qualsiasi forma di rilevazione”.

E tuttavia, conclude il portavoce Ue, “era necessario superare le riserve relative all’applicazione omogenee fra i paesi Ue degli standard già esistenti”, fra le quali primeggia appunto quella relativa all’inserimento delle attività illegali.

L’unificazione europea si fa beffe delle riserve mentali, anche (anzi soprattutto) a livello statistico.

Poche ore dopo il nostro portavoce, l’Istat è uscita con una dichiarazione del direttore della contabilità nazionale, Gian Paolo Oneto. Costui ha spiegato che “finora le attività illegali non sono mai state conteggiate nel Pil, in Italia e nella maggioranza dei paesi europei, anche se a livello internazionale già c’erano delle raccomandazioni che però non definivano tali attività in maniera precisa e quindi non erano applicate, tranne in casi sporadici”.

“Non definivano tali attività in maniera precisa”, ricordatevi queste parole.

La conclusione di questo teatrino politico/statistico è che con i nuovi criteri il dato del Pil italiano sarà rivisto al rialzo. E’ facile capire perché: aumentando le voci di computo, anche se sulla base di stime di dati che “si sottraggono a qualsiasi forma di rilevazione”, il prodotto aumenta. Ma non solo per questo.

Cambiando le definizioni, infatti, cambiano anche le regole di calcolo. E questo è il punto focale.

Il SEC 2010, infatti, prevede che le spese per ricerca e sviluppo siano conteggiate come investimenti e non più come costi. E anche questo cambia in positivo il valore del Pil. Così come cambia la contabilizzazione dei beni inviati all’estero o ricevuti dall’estero per essere sottoposti a lavorazione senza che vi sia un cambio di proprietà (per il cosiddetto processing). L’adozione delle nuove definizioni, inoltre, modificherà in modo significativo la stima dei flussi con l’estero di beni e servizi.

Risultato: Più Pil per tutti.

Più Pilu, direbbe Cetto Laqualunque.

E  tutto il nostro discorso economico nazionale a riformattarsi di conseguenza.

Quale sarà il frutto di questo gran lavoro degli econometristi e degli esperti di statistica economica, lo vedremo a ottobre prossimo, quando il SEC 2010 mostrerà, numericamente, le sue carte. Ma sappiamo già che al termine, secondo le prime indicazioni, il Pil potrebbe essere rivisto al rialzo fra l’1 e il 2%.

Gran lavoro per gli statistici, quindi, ma anche per i letterati, visto che le definizioni della contabilità nazionale, che vengono fissate sempre a livello europeo, sono la base epistemologica del conteggio, anche quando “non si può rilevare”.

Come abbiamo visto, cambiare una definizione impatta sul valore e sulla destinazione della voce di computo, e quindi sul calcolo finale del prodotto. E chi le scrive le definizioni? La legge, ossia la politica (ufficialmente) e i tecnici (ufficiosamente).

Le definizioni, di conseguenza, sono il fondamento della statistica, come lo erano, nel tempo remoto, della filosofia.

A questo punto dovreste aver chiaro di cosa parliamo, quando parliamo di economia.

(1/segue)

 Leggi seconda e ultima puntata