Etichettato: maurizio sgroi

Nella mente (confusa) del central banking


Maestro della semplicità, che, come insegnava Karl Jaspers, è tutt’altro che la semplificazione, Claudio Borio, nella sua recente allocuzione sul futuro della politica monetaria, ci aiuta a entrare nella mente del central banking mettendo a fuoco tre ipotesi fondanti della modellistica che ne animano i ragionamenti. Li abbiamo intravisti tante volte, ma vale la pena approfittare della lezione di Borio per riepilogare. Serve a comprendere la visione del mondo di questi economisti, e soprattutto la logica sottintesa nelle loro scelte di policy.

La prima di queste convinzioni – Borio le chiama belief – è che “le fluttuazioni economiche riflettono shock esogeni piuttosto che intrinsecamente dinamiche instabili”. Questi shock, nella quale anche i fattori finanziari svolgono un ruolo, vengono assorbiti dall’economia, che tende a tornare verso il suo stato originario. Questa ipotesi, presa letteralmente, “mette fuorigioco il ciclo congiunturale nel quale l’espansione pianta i semi delle future contrazioni, e per estensione mette fuorigioco anche l’ipotesi che le politiche accomodative possano generare le condizioni per le contrazioni future”.

Secondo questo approccio, le politiche monetarie possono favorire le recessioni solo se consentono all’inflazione di crescere. Quindi “la stabilità dei prezzi è una condizione sufficiente per la stabilità macroeconomica”.

La seconda di queste convinzioni è che la politica monetaria abbia un impatto solo transitorio sull’economia reale. Che, di conseguenza, la moneta sia neutra. Una ipotesi che affonda le sue radici nella storia economica e che oggi è stabilmente insediata nel cuore dei modelli neo-keynesiani, che descrivono gli equilibri di lungo periodo “una volta che le rigidità nominali siano dissipate”.

A molti tutto ciò sembrerà esotico, ma il corollario di questo teorema è che la politica monetaria non abbia influenza sui tassi reali di interesse nel lungo periodo. Questi ultimi – i mitici tassi naturali di interesse – vengono fissati nel mercato dei beni, indipendentemente dalle politiche monetarie. E questo spiega perché le banche centrali manovrino con tanta disinvoltura i tassi nominali e perché abbiano preso piede teorie suggestive come quella della stagnazione secolare. E soprattutto perché le banche centrali operino seguendo il principio che “l’unico modo per la politica monetaria di guadagnare margine è aumentare l’inflazione, in modo che i tassi di interesse nominali possano aumentare insieme ad essa”.

La terza convinzione completa questo quadretto idilliaco e consiste nel ritenere molto rilevante il costo di una caduta persistente del livello dei prezzi: la deflazione. La paura della deflazione ha chiare origini storiche, evidentemente, e i modelli neo-keynesiani, che di questa paura secolare sono la risultante, incorporano questo timore ipotizzando un mondo che trovi un equilibrio di sotto-occupazione. Stile giapponese, per intenderci, dove ogni stimolo monetario finisce con l’essere intrappolato nella stessa liquidità che produce.

Ovviamente, dice Borio, queste convinzioni affondano le loro radici nei fatti. Ma è vero altresì che i fatti cambiano e almeno dai tempi della grande crisi finanziaria del 2008 i dubbi sulla fondatezza di queste convinzioni, o almeno sulla loro esaustività, sono cresciuti significativamente.

Il modello, tuttavia, non è cambiato. Servono tempo, analisi, e magari una nuova generazione di economisti che guardi al mondo con occhi differenti. Un processo lungo e complesso. Per capirlo basta ricordare che i modelli attuali solo il risultato di una ricerca teorica iniziata con l’opera di Keynes e raffinata nel corso di alcuni decenni, prima di diventare uno strumento operativo di uso comune. E nel frattempo, come dobbiamo cavarcela?

Allo stato attuale, se la prima di queste convinzioni inizia ad essere messa in dubbio, la seconda e la terza sono ancora graniticamente piantate nella testa dei banchieri centrali e dell’economia mainstream. Anzi, “per certi aspetti queste due credenze si sono anche rafforzate”. “Forse la Grande Depressione – suggerisce Borio – ha lasciato una profonda impronta nella mente delle persone”. E qui la sfida intellettuale si fa maggiormente cogente: cosa dovremmo fare qualora fossimo ragionevolmente certi che gli occhiali tramite i quali abbiamo osservato fino ad oggi il mondo, traendone immagini rassicuranti per quanto distorte, si dimostrassero alla prova dei fatti difettosi?

Quanto a questo, Borio mostra di nutrire diversi dubbi sulla correttezza di queste ipotesi fondanti e scorrendo le sue argomentazioni è molto difficile dargli torto. Facciamo un esempio: il costo deflazione. “Quanto è giustificato questo stretto legame tra deflazione e debolezza della produzione? La risposta è “meno di quanto si possa pensare”, spiega. E per illustrare questa conclusione cita uno degli effetti della globalizzazione: “Un aumento della forza lavoro o miglioramenti tecnologici spostano la curva di offerta aggregata verso l’esterno: i prezzi scendono e la produzione aumenta”. Per fare un esempio più vicino alla nostra comprensione dei fatti, pensate a quanto siano diminuiti i prezzi degli smartphone e dei computer e chiedetevi se questo abbia diminuito o piuttosto favorito la loro produzione. “Non bisogna neanche andare troppo lontano nella storia per trovare episodi di deflazione “benigna” – conclude -. Negli anni recenti Cina, Norvegia e Svizzera, fra gli altri, sono casi calzanti”.

Ed ecco perciò il problema: abbiamo un modello che ci dice cosa è giusto e cosa è sbagliato, che però si rivela sempre meno adatto a comprendere il presente, e figuriamoci il futuro. Cambiarlo è molto difficile, e quantomeno serviranno anni, ammesso che altri come Borio inizino a questionarlo.

Nel frattempo le banche centrali devono ritrovare spazi di manovra per avere munizioni da utilizzare nella lunga fase di transizione verso la normalità, ammesso che se ne possa parlare. E questo, aldilà delle questioni teoriche che pure sono seducenti, è il cuore della questione sollevata dal nostro economista. E questo richiederà decisioni difficili, non solo da attuare, ma soprattutto da spiegare.

Ma, “per fare progressi”, conclude Borio citando il fisico Richard Feynman, “bisogna lasciare socchiusa la porta dell’ignoto”. Il problema è spiegarlo correttamente ai mercati, che ormai sono central-banking-dipendenti. E che di ignoto non vogliono neanche sentir parlare.

(2/fine)

Puntata precedente: Ritorno al futuro per il central banking

Cartolina. La liberazione del debito


Per un refuso della Storia, in questo primo scorcio di XXI secolo invece che la liberazione dal debito, abbiamo raggiunto la liberazione del debito. Quest’ultimo cresce senza più alcun pudore da quando gli uomini di stato hanno capito che non deve essere necessariamente restituito, e ormai ha raggiunto livelli che sono uguali e contrari a quelli dei tassi di interesse, che pure avrebbero dovuto remunerarlo. Il combinato disposto ha generato una confortevole gabbia, dentro la quale prosperiamo, fino a prova contraria, in cambio di una leggera costrizione. Il debito libero, noi in trappola. Il seguito dopo la pubblicità.

Il timore dell’inflazione fa accelerare il mattone


L’accelerazione globale dei prezzi sta provocando una robusta impennata dei corsi immobiliari, già parecchio esuberanti in larga parte delle economie avanzate e in diversi economie emergenti. Gli osservatori continuano a sottolineare la transitorietà di questa fiammata inflazionistica, ma le conseguenze sul settore immobiliare sono evidenti: i prezzi aumentano.

Forse i risparmiatori, o almeno la parte di coloro che con la crisi Covid ha visto crescere i propri risparmi, iniziano a temere che l’inflazione inizi a mordere e riscoprono la seduzione del mattone, che come ogni asset aumenta anche in ragione delle politiche espansive, fiscali e monetarie. Oppure siamo entrati in un nuovo ciclo di espansione settoriale. Rimane il dato: in termini reali i prezzi globali delle abitazioni non solo hanno recuperato il livello anteriore alla grande crisi del 2008, ma sono cresciuti del 22,4% in media, secondo i dati raccolti dalla Bis di Basilea. E le economie avanzate assai più di quelle emergenti.

A livello trimestrale la Banca osserva che nel primo quarto del 2021 a livello globale i prezzi sono aumentati del 4,6% su base annua a fronte del 4,1% dell’ultimo quarto del 2020. Si tratta dell’accelerazione più rilevante dai tempo della Grande Crisi finanziaria del 2007-2009. Nelle economie avanzate la crescita è stata del 7,3%, sempre in media, mentre negli Emergenti “solo” del 2,5%.

Se guardiamo il dato aggregato in termini reali (grafico sopra), permane la grande differenza fra economie avanzate ed emergenti, con le prime cresciute del 29,2% rispetto al livello pre-crisi e le secondo del 17,1%. Anche all’interno delle economie avanzate ci sono grandi differenze. Fra le economie del G20 ce ne sono alcune dove i prezzi reali dal 2010 sono aumentati di oltre il 40%. Fra questi, l’India, il Canada, la Germania e gli Stati Uniti.

Solo due paesi, Italia e Russia, stanno sotto il livello del 2008. Ma si tratta di robuste eccezioni. Se guardiamo i dati riferito alle principali economie dell’Unione Europea, infatti, si osserva che su base annua i prezzi reali sono tutti in salita, anche se meno ripida di altre economie (+5%), con profonde variazioni fra i paesi: dal +9% e +8% di Olanda e Germania, al +1% italiano a alla crescita zero in Spagna.

Se paragoniamo gli andamenti dell’Eurozona con quelli degli altri paesi avanzati, in confronto è ancora più visibile.

Ci sono stati paesi come la Nuova Zelanda e la Danimarca, dove il primo quarto del 2021 ha visto i prezzi reali su base annua crescere rispettivamente del 19 e del 14%. Negli Usa sono aumentati “solo” del 10%. I malpensanti diranno che esiste il rischio di una nuova bolla. Forse hanno ragione. Ma se è così non riguarda solo il mattone.

Alle origini della globalizzazione. Il boom dei prestiti bancari internazionali


L’ultima quarterly review della Bis, pubblicata di recente, contiene un capitolo molto interessante sui settant’anni di prestiti bancari internazionali che hanno consentito all’economia internazionale di arrivare alla fisionomia che esibisce oggi, dove una montagna di credito girovaga alla ricerca di opportunità alimentando, in egual misura, speranze e crisi, al prezzo di una montagna di debiti. Nessuna globalizzazione sarebbe possibile senza credito internazionale, e questo dovrebbe essere chiaro a tutti. E tuttavia è meglio ribadirlo, visto che l’infrastruttura finanziaria che regge gli scambi internazionali è solitamente poco osservata.

Poiché un’immagine racconta meglio di mille parole cosa sia accaduto negli ultimi sette decenni, meglio partire dai dati raccolti dal Bis sin dal lontano 1963, quando iniziarono le serie delle statistiche bancarie. Non a caso. Già dagli anni ’50, infatti, si era iniziato ad osservare il risorgere dei prestiti internazionali dopo il disastro degli anni ’30 e della guerra. I ’50 del secolo scorso, in tal senso, somigliavano ai ruggenti anni ’20 prima della crisi del ’29. E questo non deve stupire. E’ nella natura di questo mercato, che si basa sulla competizione fra le banche, alimentare i prestiti internazionali e amplificare di conseguenza i boom creditizi che di solito finiscono col precedere le crisi finanziarie. Il ’29, da questo punto di vista, fu solo l’ennesimo episodio di una lunga serie che dura fino ai giorni nostri.

Per dare un’idea delle quantità, nei primi anni Sessanta, i crediti/prestiti internazionali non arrivavano al 2% del pil mondiale. Poco più di quarant’anni dopo – nel 2007 – questa quota era arrivata al 60% del pil, per ritracciare verso il 40% nei primi mesi del 2021. Vale la pena sottolineare che nel tempo all’attività bancaria ordinaria si è affiancata quella degli istituti finanziari non bancari: le banche ombra. Inoltre, buona parte di questi prestiti vengono spesso contrattati in valute diverse da quella di residenza della banca che li concede.

Questa evoluzione si deve al concorrere di diverse forze: la costante ricerca di arbitraggi, per sfruttare i vulnus della regolazione per lucrare qualcosa; la liberalizzazione dei flussi di capitale che culminò negli anni ’80 e da allora è progressivamente aumentata; l’innovazione finanziaria, che ha inventato strumenti sempre più complessi e quindi aumentato la possibilità di offerta di credito a una domanda sempre più abbondante. In una parola, l’aumento dei crediti internazionali, ha seguito la crescita della globalizzazione che a partire dal secondo dopoguerra ha caratterizzato la fisionomia del nostro mondo.

Il lato oscuro di questa forza impetuosa è stata la crescita degli squilibri globali. “I prestiti transfrontalieri hanno consentito il boom del credito al centro di diverse crisi finanziarie internazionali – scrive la Bis – in particolare la crisi del debito latinoamericano all’inizio degli anni ’80, la crisi finanziaria asiatica alla fine degli anni ’90 e la grande crisi finanziaria (GFC) del 2007-09. Prima di ogni crisi, la competizione tra le banche per la quota di mercato ha contribuito all’impennata del credito internazionale”.

Potremmo domandarci se tale caratteristica abbia a che vedere con la circostanza che a partire dal XX secolo si innovò sostanzialmente la pratica bancaria che durava da secoli. Ossia la consuetudine di raccogliere denaro in patria e poi prestarlo all’estero. Infatti già dai Settanta il mercato offshore era già una quota importante dei prestiti internazionali. Le banche, in sostanza, raccoglievano fondi fuori dal loro paese di residenza per prestarli ovunque. “Istituti di credito e debitori hanno optato in modo schiacciante per condurre le proprie attività in valuta estera nel mercato offshore”, spiega la Bis. Il perché è facile da intuire: minori controlli, più opportunità di profitto. Le banche conobbero molto prima di altri le delizie della globalizzazione.

E non solo loro. “Gli istituti non bancari al di fuori degli Stati Uniti collocano solo una piccola parte dei loro depositi in dollari Usa presso banche negli Stati Uniti. La quota dei loro depositi in dollari nelle banche al di fuori degli Stati Uniti è stata del 90% nei primi anni ’90 e in media del 77% nel periodo 2000-21”. Il capitale, insomma, è mobile e alla costante ricerca di opportunità. Il nazionalismo finanziario, ammesso che sia davvero esistito ed abbia senso economico, non abita più qui.

Questa tendenza non riguarda solo gli Usa. Anche le non banche europee e quelle giapponesi – queste ultime addirittura dagli anni Ottanta – depositano i loro fondi fuori dalla loro residenza. E questo spiega perché Londra abbia conservato una supremazia nel mercato bancario internazionale superiore a quella della sterlina in quello valutario.

Ancora oggi (marzo 2021) Londra pesa circa il 16% del mercato bancario internazionale. A dimostrazione del fatto che la storia ha il suo peso, pure quando ormai è vecchia di più di un secolo.

(1/segue)

Se la fuga dalle grandi città aggrava la diseguaglianza


Poiché siamo in un momento di profonda transizione, della quale sono ancora molto incerti gli esiti, vale la pena dedicare un po’ di tempo all’osservazione di un fenomeno recente, incoraggiato dalla pandemia, che si sta rivelando ottimo vettore per una delle ossessioni del nostro tempo: la diseguaglianza.

Quest’ultima, com’è noto, affligge il nostro dibattito pubblico ormai da un oltre un decennio e dovremmo chiederci perché. Ma poiché non lo facciamo – o almeno non tutti lo fanno – possiamo continuare a popolare questo filone letterario tentando almeno un sguardo che esuli una volta tanto dal semplice livello dei redditi.

Lo spunto ce lo forniscono un paio di osservazioni molto interessanti. La prima è stata prodotta dalla Bis di Basilea nell’ambito della sua ricognizione statistica sugli andamenti dei prezzi immobiliari e fa seguito a una lunga serie di conclusioni alle quali sono arrivate diverse banche centrali e alcuni osservatori di settore: i prezzi salgono insieme alle compravendite, ma più nelle aree esterne alle grandi città che nei grandi centri. Come se fosse in corso una sorta di esodo, incoraggiato dalla pandemia e dallo smart working.

A tal proposito, la Bis scrive che “evidenze aneddotiche suggeriscono che la domanda di abitazioni possa essersi spostata verso le aree sub-urbane e rurali, via dalle grandi città, durante la pandemia, riflettendo l’impatto di alcuni fattori. I dati preliminari suggeriscono che questo spostamento inizia a riflettersi in termini di differenze fra gli sviluppi dei prezzi in alcuni paesi”. Il grafico sotto da un’idea di questi sviluppi.

La Bis osserva che l’inflazione dei prezzi del mattone, che abbiamo già osservato, è stata meno pronunciata nelle grandi città rispetto alle aree esterne. Sui 21 paesi osservati, tale tendenza si è osservata in 11 capitali/grandi città, mentre in altre cinque si è osservata la tendenza opposta. Si tratta quindi di un’evidenza molto sfumata. Ma definita abbastanza da meritare un approfondimento.

E’ interessante osservare che queste tendenze di breve periodo sono molto diverse da quella di lungo, che si possono osservare dal grafico sotto.

In Olanda, ad esempio, dal 2019 i prezzi sono saliti più nelle aree esterne che nelle grandi città, al contrario di quanto accaduto se guardiamo il decennio iniziato nel 2010. A conferma del fatto che un ciclo è iniziato, ma non è affatto detto che duri. Come abbiamo già osservato, le forze che sostengono la congestione nella grandi città, che è uno dei vettori che favoriscono la rendita, fra le quali spicca quella immobiliare, sono all’opera e non si daranno facilmente per vinte. Basta pensare al dibattito in corso nel nostro paese sullo smart working. Chi difende il lavoro in ufficio con l’argomento che favorisce baristi e ristoratori delle zone direzionali, di fatto favorisce anche la rendita del settore immobiliare, mettendo insieme due interessi molti diversi fra loro: quello di un barista e quello di un fondo immobiliare. Ciò per dire che le analisi economiche per classi sociali o di reddito sono vagamente fuori fuoco.

La seconda osservazione interessante arriva da uno studio recente del Nber che analizza gli effetti del lavoro da remoto nelle città americane che ci riporta al discorso centrale: la questione della diseguaglianza. Gli autori hanno osservato che le città a maggiore densità abitativa sono le stesse che esibiscono una maggiore specializzazione in lavori ad alta specializzazione (high-skill), che poi sono gli stessi che hanno più probabilità di essere svolti da remoto.

E in effetti la tendenza osservata nel corso della pandemia conferma questa potenzialità. “Molti addetti ai servizi altamente qualificati hanno iniziato a lavorare da remoto – scrivono -, sottraendo la loro spesa dalle industrie dei servizi al consumo delle grandi città che dipendevano dalla loro domanda”. Un esito da non sottovalutare. Questi servizi, infatti, – classicamente la colazione al bar la mattina, o il parrucchiere – venivano in larga parte prodotti dai lavoratori low-skill impiegati nelle grandi città, che di conseguenza “hanno dovuto farsi carico del recente impatto economico prodotto dalla pandemia”.

Per dirla diversamente, il banconista di un bar del centro, che non può certo lavorare da remoto, si è trovato non solo a dover fare i conti col lockdown, che l’ha privato del reddito, ma ha dovuto fare fronte anche alle spese per continuare a vivere nella grande città, di certo ben superiori a quelle di un piccolo centro. Per questo gli autori dello studio parlano di “ampie implicazioni per le conseguenze distributive nella transizione dell’economia verso il lavoro da remoto”. Il rischio è che si amplino ancora di più le differenze fra i ceti. Da una parte i lavoratori qualificati, che possono scegliere di vivere lontano dalla congestione, godendo persino di un miglioramento della loro situazione reddituale – e basta considerare il risparmio che deriva dall’azzeramento degli spostamenti – dall’altra i meno qualificati, alle prese con redditi declinanti, nel contesto molto costoso della grande città.

Questo scenario è stato elaborato per gli Usa, ma basta scorrere le nostre cronache recenti per notare la somiglianza con le dinamiche di casa nostra. I servizi low-skilled nelle grandi città italiane hanno subito un duro colpo a causa della pandemia che ha contribuito ad allargare la forbice della diseguaglianza dei redditi.

La “dipendenza” individuata dai ricercatori americani dei lavoratori poco qualificati dai redditi di quelli molto qualificati non è certamente solo un fenomeno Usa. La grande città prospera in questa interdipendenza. Solo che la tecnologia ha creato un alternativa. Adesso gli high-skill possono lavorare da remoto, e vivere benissimo, al contrario dei low-skill. E in questo scenario se il governo vuole agire in chiave redistributiva può scegliere fra usare la leva fiscale a vantaggio dei lavoratori poco qualificati – i classici bonus – o semplicemente riportare nei loro uffici gli high-skill. Che poi è quello di cui stiamo discutendo adesso. Che lo facciano i privati è da vedersi. Ma questa è un’altra storia.

Ritorno al futuro per il central banking


“Nei trenta e più anni della mia carriera professionale, gran parte della quale è stata spesa lavorando per la comunità delle banche centrali, non ricordo tempi più sfidanti di quelli che stiamo vivendo adesso”, dice Claudio Borio, capo del dipartimento economico e monetario della Bis di Basilea, in una lunga allocuzione dei primi di settembre. E chiunque segua anche solo per sentito dire le peripezie ormai ultradecennali delle banche centrali – prima del 2008 quello era un mondo esoterico per i non addetti ai lavori – non farà fatica a capire il motivo.

Le banche centrali, infatti, sono alle prese con difficili sfide che sono insieme intellettuali e materiali. Hanno a che fare col paradigma che ha alimentato le loro decisioni recenti – in sostanza un allentamento monetario senza precedenti – e le sue conseguenze visibili. Una per tutte: l’aumento dei loro bilanci. Quelle non visibili le scopriremo chissà quando.

Borio individua tre tipi di sfide. La prima: “L’ambiente economico sta diventando sempre più difficile”, a causa principalmente “della perdita senza precedenti di spazio per le azioni di policy”. Non c’è molto che una banca centrale possa fare dopo aver azzerato i tassi e gonfiato i propri bilanci. La seconda sfida è di tipo intellettuale: “I fatti stanno testando sempre più il paradigma di lungo periodo sul quale le banche centrali basano la propria azione”. La terza sfida è di tipo istituzionale: “Guardando al futuro, l’indipendenza della banca centrale potrebbe essere minacciata”. In un mondo sommerso da debiti che ne richiedono costantemente altri, il motivo è evidente.

Lasciando da parte il terzo tema, Borio si concentra sostanzialmente sul secondo, sul quale anche in passato aveva offerto pregevoli spunti di riflessione. Con una premessa: “Negli anni a venire ricostruire spazio per le azioni di policy – buffer monetari – sarà essenziale”. Detto diversamente, chi pensa che il pedale dello stimolo monetario possa essere schiacciato all’infinito nutre robuste illusioni. Ancor prima di mandare fuori strada la macchina dell’economia, accelerare ancora la produzione di moneta manderebbe fuori strada le banche centrali, la cui esistenza è letteralmente legata al filo sottile della fiducia che sono capaci di generare. Per dirla con le parole di Borio, “poiché le banche centrali acquistano una quantità crescente di attività, questo rischia di essere percepito come un’erosione delle basi di un’economia di mercato”. Ossia del mondo come lo conosciamo.

Cosa ha determinato la perdita di “spazio di manovra” delle banche centrali? Le crisi, sicuramente: quella del 2008, per cominciare, e quella del Covid, che hanno costretto a spingere forsennatamente sul pedale monetario per stabilizzare le turbolenze globali. Ma “questa non può essere l’intera storia: le crisi sono solo episodi, anche se i loro effetti possono essere di lungo periodo”. Ci sono fattori più profondi al lavoro e bisogna capire quali.

Borio indica innanzitutto l’inflazione, “che si è dimostrata poco sensibile agli allentamenti monetari”. I motivi sono diversi e molto dibattuti. Dall’appiattimento della curva di Phillips in poi. Ma il fattore più interessante e meno dibattuto è “l’ascesa del ciclo finanziario come fenomeno economico prominente”. Ossia, il ruolo sempre più importante che l’espansione finanziaria, considerata come l’interazione fra condizioni di finanziamento, prezzi degli asset e livello dei rischi, ha interpretato nel ciclo economico.

“A partire dai primi anni ’80, ha avuto luogo un sottile cambiamento nel ciclo economico”, dice il nostro. “Fino ad allora, le recessioni sono state innescate da un aumento dell’inflazione, che ha provocato un inasprimento della politica monetaria e ha contribuito a trascinare l’economia verso il basso. Da allora in poi, le recessioni sono state spesso innescate da una svolta nel ciclo finanziario – deviazioni del rapporto credito/PIL dalla tendenza a lungo termine – poiché le espansioni hanno inaugurato contrazioni con pochi cambiamenti nell’inflazione e quindi nell’orientamento di politica monetaria”.

Questo cambiamento ha probabilmente molto a che fare con l’evoluzione sociale iniziata quegli anni, a cominciare dalla liberalizzazione dei capitali. Ma il punto è qui capire se la freddezza dell’inflazione allo stimolo monetario sia collegato al ciclo finanziario e quindi alla globalizzazione, della quale il primo è una delle conseguenze visibili insieme all’aumento della forza lavoro “liberata” dal combinato disposto della crisi sovietica e dell’ingresso cinese nell’economia internazionale. “E’ difficile credere che il processo inflazionistico potesse rimanere immune all’ingresso di 1,6 miliardi di lavoratori a basso costo nell’economia globale”. Phillips, d’altronde, aveva ipotizzato la correlazione della sua curva in un’economia chiusa. Esattamente come Keynes la sua Teoria Generale. In ogni caso, la non reattività dell’inflazione, ha persuaso le banche centrali ad accelerare la moneta, interrompendo la vecchia consuetudine di farla rallentare in presenza di boom finanziario.

Tutto ciò si è tradotto in un costante calo del tasso di interesse e quindi dello spazio di manovra delle banche centrali, cui ha fatto eco una crescita sostanziale dei debiti globali.

Ecco come è scatta la trappola del debito nella quale ci siamo infilati e che adesso richiede una soluzione che prima ancora di essere sperimentata – una sorta di politica anti-ciclica in un momento di boom – deve essere innanzitutto concepita a livello analitico. E questo per la semplice ragione che i modelli di banca centrale sono macchine automatiche che funzionano sulla base di ipotesi macro e micro.

Il paradigma che guida i pensieri dei banchieri centrali si basa su tre convinzioni incorporate nel modello neo-keynesiano “nel quale la corrente generazione di banchieri centrali è stata addestrata”. Detto semplicemente queste convinzioni formano la mente del banchiere centrale collettivo, così come la cornice teorica del gold standard formò un secolo fa quella dei banchieri centrali di quel tempo. Vediamo allora queste convinzioni, sinteticamente illustrate da Borio. Ci accorgeremo che la realtà è molto diversa da come siamo abituati a considerarla.

(1/segue)

Il blog va in vacanza. Ci rivediamo a settembre con la nuova stagione: Growing


Anche la nona stagione del nostro blog si è conclusa, lasciandosi alle spalle molte macerie, parecchi lutti e altrettante speranze, che trovano alimento nelle tante buone notizie che arrivano dal fronte economico che tuttavia non riescono a compensare le ansie che sorgono sul versante sanitario.

Siamo assediati dalle varianti del virus, che variano in tempo reale anche il nostro quadro economico, e stendiamo un velo sulla nostra convivenza sociale, ormai chiaramente indirizzata verso uno scontro fra vaccinati e non. Come ogni cosa nel nostro paese, anche la pandemia ha generato una polarizzazione delle posizioni che non serve a niente e a nessuno, e che tuttavia appassiona i tanti amanti del chiacchiericcio più o meno social a sfondo politico.

Se guardiamo il quadro più grande, magari prendendo a prestito dall’ampia reportistica internazionali che in queste ultime settimane ha delineato gli scenari per i prossimi mesi, emerge con chiarezza un’evidenza: la ripartenza dopo i mesi bui del lockdown è stata forte e robusta. Ma questo non vuol dire affatto che la crescita, che pure serve sostenere le nostre economie, a cominciare dai debiti che hanno accumulato, lo sarà altrettanto.

La riapertura delle attività ha liberato la molla compressa delle produzione e del consumo, ma ancora troppe incertezze – le famose varianti – rendono difficile immaginare un futuro senza pandemia. E perciò l’energia della molla “liberata” potrebbe scaricarsi ancor prima di aver generato una spinta capace di rimettere le economia su un percorso di crescita più robusto di quello assai tiepido che si trascinava stancamente dalla crisi del 2008.

Il punto è tutto qua: c’è una sottile differenza fra ripartenza e crescita. E nasce dal fatto che, a parte la pandemia, la sostanza delle nostre società è minata da alcuni trend di lungo periodo – quello demografico per cominciare – che sembrano fatti apposta per abbassare le potenzialità della produzione.

Questi trend vengono compensati da altri – uno per tutti: quello dello sviluppo tecnologico, da sempre grande driver dell’evoluzione sociale – ma non è chiaro se tale compensazione sarà sufficiente. E nel dubbio i policymaker stanno alimentando da anni la narrazione secondo la quale con i dovuti stimoli – leggi: risorse erogate più o meno a pioggia sul lato della domanda e qualche riforma su quello dell’offerta – l’economia ritroverà un tasso di crescita capace di tirarci fuori da quella che somiglia a una (in)felice stagnazione.

Perciò la nuova stagione del blog, la decima, sarà dedicata all’osservazione di questa crescita. Non soltanto relativamente alle quantità, che poi sono le uniche contemplate nel nostro dibattito pubblico, ma soprattutto cercando di capirne la qualità. La Cina per anni ha fatto pil pompando cemento e acciaio, ma probabilmente è cresciuta assai meglio da quando ha iniziato a primeggiare sul 5G. Lo stesso vale per noi: riusciremo a evolverci da un’economia export-oriented aggiugendo qualità alla nostra organizzazione interna?

La scommessa del mitico PNRR sta tutta qua. E senza voler essere pessimisti, non c’è neanche da essere ottimisti quando un paese, ancora una volta, si affida a una sorta di miracolo per cambiare se stesso. Troppe aspettative conducono a delusioni, ma evidentemente non lo ricordiamo mai.

Alla ripresa di settembre saranno questi i temi in gioco. Cerchiamo di ricordarlo, mentre torneremo a discutere di vaccini, dad, lockdown, restrizioni e queste varie amenità.

Auguri per le vacanze. Soprattutto a chi non le fa

Ci vediamo a settembre.

La Nazione Globale. La strada verso l’assolutismo


Qualunque sarà il futuro della globalizzazione, nel suo articolarsi fra rotte commerciali, una moneta per gli scambi, una lingua per la comunicazione e soprattutto un ordine politico, è chiaro a tutti che la tecnologia digitale sarà il medium attraverso il quale questo futuro diventerà intellegibile, per la semplice circostanza che ormai la rete incorpora praticamente qualunque rappresentazione del reale. 

La cloud è diventata la levatrice di una realtà virtuale che minaccia di essere più reale di quella che siamo abituati a contemplare con le nostre categorie figlie della filosofia settecentesca. Il digitale sta lentamente svuotando di realtà l’analogico: prima lo “aumenta”, aggiungendo dati alle nostre informazioni che derivano dai sensi. Poi lo spiazza, rendendo via via queste ultime superflue. Infine lo rimpiazza. Il dato digitale finisce per diventare l’unico rilevante perché omogeneo, infinitamente replicabile, elaborabile, trasmissibile e dulcis in fundo, monetizzabile. 

Perciò oggi il dato digitale significa denaro e, soprattutto, potere. I campioni della rete in pochi anni hanno superato per valore le vecchie multinazionali “analogiche” e si candidano a diventare nazioni globali generatrici di nuove cittadinanze, che non aggregano persone analogiche ma user digitali. Queste entità si attrezzano con una loro moneta, loro rotte commerciali e rendono possibile, nel silenzio dei loro data center un nuovo assolutismo che minaccia di scardinare l’ordine politico iniziato con le rivoluzioni borghesi del XVIII secolo.

Questa Grande Trasformazione inquieta i poteri costituiti almeno quanto li seduce, perché vedono nelle opportunità della cloud la premessa di un nuovo ordine sociale. Le cronache che arrivano dalla Cina, dove molti campioni della rete vengono regolarmente frustrati nei loro tentativi di emancipazione, ricordano la tormentata evoluzione della città medievale europea, nata con la protezione benigna dei feudatari, ansiosi di estrarre rendite dai borghi, tassati in cambio della concessione dei privilegi, e poi fucina della rivoluzione che condusse alla fine dell’ordine medievale. Oggi come ieri un potere emergente lotta per affermarsi ai danni di uno costituito che inizia con blandirlo e poi finisce col temerlo. 

La storia ci insegna che di solito questi movimenti conducono a una fusione. All’epoca la città medievale divenne la capitale della nazione retta da un sovrano assoluto, che mise all’ordine politico imperiale. Oggi la fusione fra i vecchi poteri “analogici” e le nazioni digitali potrebbe condurre a un nuovo assolutismo, assai più cogente di quello che dominò l’Europa nel Seicento.

Tutto ciò spiega perché sia rilevante osservare da vicino il movimento sotterraneo e silenzioso che sta decidendo il futuro della rete globale. Un confronto che si fa sempre più serrato e che già fra pochi mesi potrebbe condurre a novità rilevanti. Il prossimo marzo, infatti, a Hyderabad, in India, si svolgerà la World Telecommunication Standardization Assembly, appuntamento quadriennale organizzato dall’ITU, l’agenzia che opera in seno all’Onu col compito di fissare gli standard internazionali per le telecomunicazioni, già teatro in passato di importanti eventi che hanno contribuito a delineare il quadro all’interno del quale sta maturando la contrapposizione fra due diverse visioni della rete che hanno implicazioni profondamente differenti sul futuro di tutti noi.

Dal “giorno zero” di Internet, nell’ottobre del 1969, quando il primo messaggio informatico venne inviato da un computer di una università americana a un altro, la rete ha conosciuto un’evoluzione vertiginosa. I computer delle università finirono collegati all’Advance Research Projects Agency (Arpa), che nel 1972 divenne il Darpa, ente di ricerca per il Dipartimento della difesa Usa. Per il ventennio successivo Internet rimase sotto il controllo del governo federale, fino a quando, agli inizi degli anni ’90, la rete non fu aperta al settore privato. Ciò diede spazio a una serie di istanze vagamente utopistiche e libertarie che ancora oggi vivacchiano ai margini della rete, dopo aver celebrato la propria epifania con la creazione di bitcoin nel 2008.

Quei tempi generarono un modello di governance della rete, che ancora in larga parte vale anche oggi, fondato su molti portatori di interessi. Una governance multi-stakeholder che si basa sul concerto di diversi organismi della società civile. Si tratta di entità poco note alla cronache non specialistiche, come ad esempio l’Internet Engineering Task Force (IETF), l’Internet Architecture Board (IAB), l‘Internet Society (ISOC), e poi l’Icann, (l’Internet Corporation for Assigned Names and Numbers) uno dei luoghi più strategici dove i vari interessi arrivavano a composizione. 

L’Icann nasce nel 1998 in California come società no-profit, sponsorizzata dal governo americano. Non più però dal Dipartimento della Difesa, ma da quello del Commercio. Icann serve a garantire l’unicità del nome di un dominio e la sua praticabilità. Assegna i nomi dei domini di primo livello (Top Level Domain, TLD) che generano i vari suffissi (.org, .com, eccetera), e poi gestisce l’assegnazione dei root name server, ossia dei server che consentono di raggiungere il dominio desiderato. Icann, infine, regola l’assegnazione dei blocchi di indirizzi IP (Internet protocol) che servono a identificare sulla rete i dispositivi collegati.

Ma dietro i compiti tecnici è facile individuare molta discrezionalità politica. Come è stato opportunamente ricordato, c’è molto di politico quando siamo chiamati a decidere se il dominio United.com sia da assegnare alla United Airlines, alla United Emirates Airlines, o al Manchester United. E la decisione spetta a Icann, al quale si rivolse un tribunale americano quando chiese di sottrarre per ritorsione all’Iran il suffisso .ir.

Icann fu creato per interporre uno schermo tecnico fra il governo Usa e Internet, ma divenne subito chiaro che lo schermo era troppo trasparente. E tuttavia rimase tutto immutato fino al 2016, quando la National Telecommunication and Information Administration (Ntia), che fa riferimento al dipartimento del Commercio statunitense, cessò la sua influenza sull’Icann. Ma non fu certo un atto di liberalità. Piuttosto la conseguenza di una catastrofe. Che ovviamente passava da Internet.

La rete infatti nel frattempo era finita all’attenzione di molte economie emergenti – i BRICS dei primi anni Duemila -, che molto rapidamente fecero capire di soffrire l’egemonia statunitense, compresa quella su Internet. Fu proprio sulla governance della rete globale che Cina e Russia siglarono la prima entente cordiale cogliendo l’occasione della World Conference on International Telecommunications (WCIT) chiusa a Dubai il 14 dicembre del 2012. La conferenza, dall’ITU aveva come obiettivo di ridefinire il regolamento delle telecomunicazioni internazionali (ITR), che risaliva al 1988, quando ancora Internet in pratica non c’era. Si fece avanti una coalizione di stati, guidata da Russia e Cina col proposito di definire un ruolo maggiore dello stato nazione nella governance di Internet. A questa visione si oppose quella di un secondo gruppo di paesi che voleva mantenere lo status quo con dentro gli Stati Uniti e i suoi alleati. La globalizzazione emergente faceva capolino nel mondo delle telecomunicazioni, provando a “spiazzare” gli incumbent. 

La frattura non si ricompose. Si formarono due blocchi: 89 stati d’accordo con Russia e Cina, 55 con gli Usa.

La coalizione guidata da Russia e Cina aveva proposto che fosse l’Itu a prendere il posto dell’Icann nella gestione di Internet. Un modo neanche troppo velato per spostarsi da un modello multi-stakeholder a un modello multi-statale, o multilaterale che dir si voglia, per giunta in un contesto – l’Onu appunto – dove Russia e Cina dispongono di un notevole potere di interdizione. 

Da questa situazione di stallo si generò una notevole turbolenza un anno dopo, quando sulle cronache esplose il caso Snowden. La notizia che l’NSA statunitense spiava mezzo mondo investì come una valanga gli Stati Uniti e costrinse il governo a rivedere le regole del gioco. Lo stesso anno a Montevideo i rappresentati di Icann e di altre organizzazioni a capo della governance della rete si dissero favorevoli alla condivisione della governance a livello globale. Le elaborazioni durarono un triennio, alla fine del quale il governo Usa completò la sua separazione da Icann, rinunciando così, almeno formalmente, ad esercitare la sua egemonia su Internet.

Ma poiché la natura ha orrore del vuoto, le forze, già ben sviluppate della globalizzazione emergente trovarono facilmente lo spazio per esprimere la tendenza a “regionalizzare” il controllo della rete. Per farlo si tirò in ballo la madre di ogni pretesto: la sicurezza. Gli stati volevano “blindare” i propri territori proteggendoli dalle “incursioni” estere. E lo fecero.

L’esempio più noto è forse il Great Firewall cinese, che in pratica “isola” il paese dal resto del mondo a discrezione del governo. Ma non è l’unico. Gli osservatori raccontano che nei primi sei mesi del 2017 Google, Facebook e Twitter hanno ricevuto 114.169 richieste di rimozione di contenuti da 78 stati e 179.180 richieste di informazioni su utenti da altri 110 governi. E’ emersa anche la tendenza a segmentare le infrastrutture. La proposta cinese chiamata DNS extension for autonomous Internet, che si proponeva di “regionalizzare” i domini di primo livello (i TLD), togliendo questo compito all’Icann, andava in questa direzione. Ne sarebbe conseguita la frammentazione dell’infrastruttura. Non è stata accettata, ma il tentativo è stato compiuto.

Queste memorie servono a comprendere meglio gli scenari che si agitano in vista del meeting indiano dell’ITU del prossimo marzo. Il confronto fra governance multi-stakeholder e multilaterale si è infatti radicalizzato. Perciò l’ITU, a guida cinese ormai da diversi anni, è divenuto così rilevante. Il segretario generale, Houlin Zhao, vuole trasformarlo in “agenzia tecnologica”, ossia un contenitore ampio abbastanza da ospitare dibattiti impegnativi come quello proposto l’anno scorso da Huawei, che proprio qui inviò la proposta per disegnare una nuova architettura dell’IP che avrebbe riscosso l’interesse dei russi, dell’Arabia Saudita e di molti paesi africani mentre scatenava le proteste da parte dell’Internet society.

Per inquadrare i termini della questione bisogna ricordare che i dati vengono trasmessi attraverso la rete Internet sulla base di un protocollo che si chiama TCP/IP, dove TCP sta per “Transmission Control Protocol” e IP sta per “Internet protocol”. Le informazioni che compongono un file vengono suddivise in pacchetti che vengono indirizzati verso la macchina destinataria tramite un indirizzo IP, che quindi consente di identificare il destinatario finale. Per questo molti temono che la proposta cinese sia un espediente per aumentare il livello di controllo della rete. 

Vero o falso che sia, il punto saliente è che l’Onu, anche probabilmente grazie a un certo lavorio diplomatico da parte dei cinesi, sia divenuto una sorta di camera di compensazione delle istanze nazionali sul futuro di internet. Il focus della governance si sta spostando da un ambiente formalmente a-governativo a un forum intergovernativo. Quando la Cina dice di voler favorire il multilateralismo, vuole dire anche questo. 

L’intento è chiaramente rappresentato anche dall’ampio lavoro che Pechino sta compiendo, sempre in sede Onu, per contribuire alla fissazione degli standard internazionali, che fa parte del suo più ampio piano Standard China 2035, derivazione del Made in China 2025. Gli standard decidono i requisiti dei prodotti che l’industria propone al mercato. Sono un componente fondamentale di ogni globalizzazione e vengono definiti presso diverse organizzazioni internazionali. Il 3GPP, ad esempio, è un sottogruppo dell’ITU che ha il compito di produrre specifiche tecniche per le tecnologie wireless, fra le quali il 5G, dove la Cina ha primeggiato proprio grazie a una politica molto attiva suscitando parecchi allarmi fra gli osservatori. 

Il rapporto del 2020 della Cyberspace Solarium Commission, organismo governativo statunitense incaricato di elaborare una strategia per la difesa del cyberspazio dagli attacchi ostili, dedica un ampio spazio alla crescente influenza cinese nella fissazione degli standard internazionali. Il timore è che Cina e Russia, approfittando dell’apparente disimpegno statunitense presso gli organismi internazionali, stiano provando a costruire le nuove regole del gioco globale della rete. Melanie Hart, ricercatrice del China Policy Center for American progress, lo ha detto chiaramente nel corso di un’audizione presso la China Economic and Security Review commission nel marzo del 2020. “Il sistema delle Nazioni Unite è sia l’obiettivo principale che la piattaforma principale per la spinta alla riforma della governance globale di Pechino”, dice. “Sfortunatamente, mentre la Cina intensifica i suoi sforzi per minare i principi democratici liberali in tutto il sistema delle Nazioni Unite e aumentarli o sostituirli con quelli autoritari, gli Stati Uniti si stanno tirando indietro, cedendo il terreno e fornendo il massimo spazio di manovra alla Cina per raggiungere i suoi obiettivi”.

La Cina, ad esempio, è stata molto attiva all’interno delle commissioni tecniche sul 5G. Huawei ha primeggiato, con oltre 19.000 contributi e oltre 3.000 ingegneri inviati alla fissazione dei processi di standardizzazione di questa tecnologia. Fra le imprese americane, Qualcomm ha prodotto 5.994 contributi e inviato 1.701 ingegneri e Intel ha offerto 3.656 contributi tecnici e inviato 1.259 ingegneri. Huawei ha avuto approvati 5.855 contributi, che sono entrati a far parte dello standard 5G, a fronte dei 1.994 di Qualcomm e i 962 di Intel. La conseguenza è che l’azienda cinese si stima detenga il 36% dei brevetti essenziali per lo standard globale del 5G e gli Usa solo il 14.

Da qui la preoccupazione espressa nel rapporto: “Al crescere dell’influenza della tecnologia cinese nell’informare gli standard internazionali, crescono anche i valori e le policy che accompagnano la visione di Pechino per l’uso di queste tecnologie. La Cina sta scrivendo un futuro digitale di tecnologie proprietarie nella quali la “sorveglianza progettata” può facilmente essere quella di default”. Le tecnologie, checché se ne dica, non sono mai neutre sullo sviluppo di una società, come scriveva McLuhan negli anni in cui nasceva Internet. 

I timori statunitensi forse derivano dalla paura di perdere la supremazia. Ma dovremmo chiederci cosa succederebbe se avessero ragione. Soprattutto dobbiamo ricordare che questa trasformazione tecnologica, irrefrenabile e profonda, si coniuga con lo sviluppo della grandi piattaforme hi tech, che sono macchine per la produzione di dati personali e quindi merce pregiata per ogni governo. Il caso Didi, l’Uber cinese della quale Pechino ha vietato la quotazione all’estero con il pretesto che i dati raccolti dall’azienda sono un problema di sicurezza nazionale, la dice lunga su come i governi considerino le informazioni custodite nel ventre di queste compagnie. Ma se è ragionevole attendersi che la Cina sviluppi un modello tecnologico che sia coerente con la sua vocazione a forte guida pianificata, cosa farà l’Occidente?

Il tentativo cinese di spostare sui tavoli Onu la governance di Internet è un segnale dei tempi. Molte nazioni, anche fra i paesi avanzati, vogliono più potere sulla rete, non solo perché è uno strumento di controllo molto potente, ma anche perché hanno capito che le grandi piattaforme – nate e cresciute nella cloud – sono capaci di sottrarre loro spazio politico.

La partita è in corso e l’esito dipenderà molto da ciò che faranno gli Stati Uniti. Per loro si profila un dilemma molto difficile: favorire l’istanza multilaterale, e quindi implicitamente cedere supremazia digitale internazionale guadagnando sovranità territoriale nei confronti delle proprie piattaforme – le nazioni globali digitali – oppure quella multi-stakeholder, rischiando però così di favorire uno shift of power dal territorio alla cloud. Questo mentre la Cina sembra comunque intenzionata a perseguire una fusione fra nazione territoriale e digitale che per il suo peso specifico rischia di cambiare significativamente le regole del gioco globale. 

Che sia una questione di non facile soluzione, lo illustra bene anche un recente paper pubblicato da alcuni studiosi giapponesi che muta il dilemma sul futuro di Internet in trilemma, prendendo a prestito quello reso celebre da Dani Rodrik fra Democrazia, Sovranità e Globalizzazione. Ognuno di questi concetti viene collegato a una diversa entità politica: la tendenza democratica appartiene agli Stati Uniti, che hanno impostato una piattaforma aperta; quella che privilegia la Sovranità a un gruppo di paesi, alla testa dei quali si è messa la Cina; quella che privilegia la globalizzazione fa riferimento ai campioni dell’hi tech che provengono da entrambi i paesi e che il progresso tecnologico ha trasformato sostanzialmente in entità concorrenti agli stati nazionali.

Il paper evidenzia come guardare ai problemi del futuro di Internet come a una semplice risultante del confronto fra Usa e Cina rischia di essere alquanto riduttivo e per giunta poco realistico, visto che l’ingresso delle grandi compagnie tecnologiche ha aggiunto un elemento di notevole complessità al quadro analitico. Inoltre, ai margini del trilemma vivono e operano anche numerosi corpi intermedi – si pensi ad esempio all’Onu e alle sue agenzie – che pure se non hanno abbastanza massa critica da risultare determinanti, mantengono comunque un notevole potere di influenza. 

Immaginare il futuro di Internet come l’esito di uno scontro di potere fra Usa e Cina, da questo punto di vista, non è più probabile della circostanza opposta. Per dirla con le parole dei due studiosi giapponesi, “chi vede probabile uno scontro fra Usa e Cina non sembra considerare la possibilità che i due stati possano raggiungere un accordo”. Questa intesa potrebbe essere siglata proprio a spese dei campioni di internet che peraltro i cinesi sembrano tollerare sempre meno. 

E’ in questa coincidenza – o competizione – di interessi che si innesca il trilemma di Internet, il cui futuro ha molto a che vedere con chi sarà maggiormente capace di “catturare” i dati che viaggiano dentro la rete. 

“Il potere nel cyberspazio – ricordano gli studiosi giapponesi – è l’abilità di avere accesso a dati e influenzare il comportamento di altri. Chiunque controlli il cyberspazio è lo stesso che ha accesso al numero maggiore di dati”. Parliamo quindi dell’egemonia, né più né meno.

Se questa è la posta in gioco, è chiaro che le vecchie categorie interpretative del confronto fra nazioni territoriali non sono più in grado di “leggere” la realtà. Agli attori tradizionali si sono aggiunti attori non territoriali. E questi tre attori – Usa, Cina e compagnie internet, spingono ognuno per far prevalere le proprie posizioni. L’auspicio dei ricercatori è che la democrazia e la globalizzazione – quindi l’ordine basato sulla collaborazione fra Usa e compagnie di Internet che ha funzionato finora – continui a caratterizzare Internet. Ma sarebbe errato sottovalutare il “richiamo della foresta” che promana dall’istinto territoriale collegato all’esigenza della sovranità degli stati “analogici”. “Sta diventando chiaro che il Regno Unito e gli Stati Uniti stanno cercando una forma democratica di cyberspazio che metta in sicurezza di diritti sovrani degli Stati”, avvertono i due studiosi. Una deriva cinese, insomma, ma all’occidentale. Mentre altre nazioni come “Giappone, Olanda e Singapore lavorano per un cyberspazio democratico con inter-operatività globale”. Difficile al momento capire come si muoverà l’Europa, mentre rimane ancora avvolta nel mistero la strategia che useranno le Internet company, ammesso ovviamente che ne abbiano una, per difendere la loro posizione.

Comunque si risolverà questo trilemma, una cosa risulta chiara. Si sta combattendo una guerra sotterranea per il controllo dei dati nel mondo di domani. Noi siamo gli originatori di questi dati. Quindi quei dati siamo noi. 

Detto diversamente, la risoluzione del trilemma sembra destinata a configurare l’ordine politico del XXI secolo, ossia una delle costituenti della globalizzazione che verrà. L’ipotesi di una convergenza fra Usa e Cina verso un sistema dove la tecnologia diventi uno strumento di controllo, prendendo a pretesto il rispetto delle prerogative nazionali ovviamente in nome della sicurezza, disegna la possibilità di uno scenario neo-assolutista che dovrebbe preoccupare tutti coloro che hanno a cuore le libertà civili. Non sembra probabile, ma è possibile. E tanto basta.

Questo post fa parte del saggio La Nazione Globale. Verso un nuovo assolutismo, in corso di redazione. Per agevolare la lettura non sono state pubblicate le note al testo con i riferimenti bibliografici, che saranno disponibili nella pubblicazione completa. Sfogliando il blog è possibile trovare altri capitoli in corso di elaborazione, che saranno aggiornati al procedere dell’opera.

Cartolina. Il valore delle idee


Qualora servissero conferme della graduale smaterializzazione delle nostre economie, probabile premessa di tutto il resto, basta osservare l’andamento del peso specifico dei diritti di proprietà intellettuale negli accordi commerciali nell’ultimo quarto di secolo. Negli anni ’90 se ne parlava poco e niente. Oggi sono una parte determinante di questi accordi. In un futuro prossimo è facile immaginare che saranno i protagonisti assoluti. Il valore delle idee, espressione vagamente romantica nel XX secolo, quello dell’acciaio e della fabbrica pesante, tende ad essere l’unico di peso nel XXI, quando ormai tutto si misura col metro dell’effimero. Sicché l’economia diventerà virtuale come le persone, ormai trasformate in user. E la proprietà intellettuale smaterializzerà il valore. Fino a farlo sparire.

Di cosa parliamo quando parliamo di diseguaglianza?


L’ultima relazione annuale della Bis di Basilea dedica un intero capitolo a uno dei temi più ricorrenti del nostro dibattito pubblico: la diseguaglianza. Chiunque frequenti le cronache, economiche e non solo, sa perfettamente quanto se ne parli e avrà sicuramente letto centinaia di pagine dove esperti, più o meno credibili, illustrano con dovizie di statistiche l’entità e lo sviluppo di queste disparità, sottolineandone gli effetti perniciosi sulla domanda aggregata, la stabilità finanziaria e, dulcis in fundo, su quella sociale. Una società diseguale è più instabile di una più equilibrata, fanno capire. E tanto basta ad invocare interventi redistributivi.

La conseguenza di questo ampio discorrere è che la letteratura sulla diseguaglianza ormai fa genere a parte, per quant’è copiosa. Per i più frettolosi esiste anche una vulgata che si può sintetizzare in poche righe: a partire dagli anni ’80, a causa della liberalizzazioni dei movimenti di capitale e la spinta sulla globalizzazione, con l’ingresso della Cina nel Wto nel ruolo di ciliegina sulla torta, la diseguaglianza all’interno dei paesi è aumentata, pure se è diminuita quella fra paesi. Risultato: i ricchi sono più ricchi, i poveri più poveri. E giù fischi.

A questa narrazione le banche centrali hanno contributo non poco, producendo però pregevoli contributi scientifici. Una tendenza che è cresciuta nel tempo, come mostra la frequenza crescente dell’uso del termine diseguaglianza nei discorsi dei banchieri centrali.

Come si può osservare, la diseguaglianza inizia ad apparire sempre più di frequente a partire dagli anni Dieci del nuovo secolo. Prima, evidentemente, non era in cima ai pensieri dei banchieri centrali. Tale attivismo è una probabile conseguenza delle politiche straordinarie messe in campo dalle banche centrali per superare la crisi del 2008, che ha alimentato molti interrogativi circa gli effetti distorsivi di una politica monetaria tanto espansiva. Non a caso la Bis, nella sua ricerca recente, dedica ampio spazio agli effetti dei tassi bassi e del QE sulla diseguaglianza.

Il punto, però, è che se chiedessimo a persone diverse cosa intendono per diseguaglianza avremmo probabilmente risposte molto differenti. Il termine ormai è tanto abusato quanto frainteso. Sembra serva soltanto a smuovere emozioni, piuttosto che ragionamenti.

Ma se si vanno a leggere gli studi, possiamo individuare almeno tre definizioni statisticamente misurabili di diseguaglianza: quella dei redditi, quella della ricchezza e quella dei consumi. Il quadro si potrebbe completare se considerassimo anche la diseguaglianza delle opportunità, storicamente alla base di molte politiche (e promesse). Ma non è cosa che si possa agevolmente determinare. Buona quindi per i proclami, meno per la modellistica.

C’è un’altra cosa da ricordare. Quando parliamo di diseguaglianza dei redditi, dovremmo specificare sempre – cosa che raramente si fa – se la misuriamo prima o dopo l’imposizione fiscale e il contributo dei trasferimenti pubblici. Perché le differenze, misurate con l’indice di Gini, sono rilevanti, come si evince dal grafico (sotto) elaborato dalla Bis.

Come si vede, nel nostro paese l’indice di diseguaglianza dei redditi è persino superiore a quello degli Stati Uniti, prima degli effetti redistributivi provocati dal governo, mentre è assai inferiore dopo. Notate, inoltre, come in Italia l’indice di Gini prima dell’imposizione fiscale sia il più elevato – più è elevato maggiore è la diseguaglianza – fra le grandi economia considerate.

Una osservazione analoga si dovrebbe fare anche se guardiamo a un’altro tipo di diseguaglianza, quella della ricchezza, ossia del patrimonio. Quest’ultimo, che si compone di asset finanziari e reali – tipicamente gli immobili – è soggetto a un’imposizione fiscale, ma soprattutto è molto sensibile agli effetti della politica monetaria, pure se, secondo la Bis, gli effetti sulla diseguaglianza di queste politiche sono modesti e di breve termine.

Possiamo farcene un’idea osservando un altro grafico elaborato dalla Fed di S.Louis, che prende in considerazione gli effetti sui patrimoni della crisi Covid, a seconda della fascia di ricchezza.

Come si può osservare l’1% più ricco ha subito il calo più drastico del proprio patrimonio (-10%) nel primo trimestre del 2020, quando la crisi Covid fece crollare i mercati, per poi recuperare successivamente. Un anno dopo l’indice ha superato i 120 punti, quindi la ricchezza è cresciuta di circa il 20% rispetto al pre covid. E’ interessante però osservare che il maggior guadagno post-crisi lo hanno spuntato le famiglie che appartengono al 50% più povero della popolazione (+30%). Probabilmente hanno visto crescere la propria ricchezza, per lo più basata sul mattone, grazie alla ripresa dei corsi immobiliari. La diseguaglianza ha molti modi di esprimersi, anche se non tutti sono egualmente popolari.

E uno dei modi meno popolari è quello che si può osservare guardando a un’altro tipo di diseguaglianza della quale si parla molto poco, forse perché meno intuitiva: quella dei consumi. Ne accenna un bollettino di qualche mese fa della Banca centrale europea, che ha elaborato un grafico che vale la pena riportare.

“Le disuguaglianze nei consumi – scrive la Bce – sono talvolta considerate un indicatore del tenore di vita e del benessere migliore rispetto alle misure basate sul reddito o sulla ricchezza”. E’ bene sottolinearlo. E quanto ai nostri esiti, ciò che si osserva è che “i consumi risultano sostanzialmente meno concentrati della ricchezza netta, fattore che sembrerebbe indicare che il benessere economico è distribuito in maniera più uniforme rispetto alla ricchezza”.

Ciò significa che, ai fini pratici, la diseguaglianza nei consumi è un indicatore più realistico per misurare il livello di vita di una persona. Poco importa quanti denari abbia il mio vicino, se comunque io posso spendere quello che mi serve per vivere dignitosamente. Una riflessione che raramente fa capolino nelle analisi sulla diseguaglianza, che spesso invece puntano sugli effetti regressivi della concentrazione della ricchezza sulla domanda aggregata o sulla stabilità finanziaria, quando non si limitino a moraleggiare sulle ingiustizie distributive.

Di cosa parliamo, perciò, quando parliamo di diseguglianza? Come si può ricavare da questa breve illustrazione, le risposte non sono scientificamente univoche, mentre lo sono quanto agli esiti: qualunque sia la diseguaglianza che abbiamo in mente, che esista nella realtà o che sia un riflesso della nostra cattiva coscienza, la conclusione è che debba essere ridotta.

Da qui emerge una risposta corale: serve un maggior livello di intervento pubblico a fini redistribuitivi, persino superiore a quello che già lo stato svolge con la tassazione.

E’ in quest’area grigia che nascono proposte come quella della dote ai diciottenni tramite la solita patrimoniale. Togliere denaro per dare denaro. Raramente si pensa a come far aumentare la ricchezza, per la semplice ragione che è più facile prenderla. Robin Hood è di sicuro più popolare di Adam Smith. Ma se è così, allora dobbiamo essere consapevoli che quando ci lamentiamo della diseguaglianza stiamo dicendo che vogliamo più intervento pubblico nell’economia, credendo in fondo che sia il viatico per la felicità. Vero o falso che sia, importa poco.