Categoria: Annali
Se le borse cadono è colpa della pioggia
Così siamo arrivati al punto che gli osservatori esperti delle traversie del nostro sistema economico guardano ai cambiamenti climatici come a uno dei nuovi e più potenti driver dell’instabilità finanziaria. E non so bene se ridere, notando come l’intrusione dell’economia reale nel ciclo finanziario avvenga oggi tramite il canale della pioggia, o prendere sul serio questa preoccupazione.
Non bastassero i rischi provocati dal diluvio di liquidità, ora ci si mette anche Giove pluvio a terremotare le borse?
Rimane il fatto che in questi giorni sono usciti due documenti che mi costringono a propendere per la serietà: il maltempo, oltre a tutto il resto, fa male anche alla finanza e per i più svariati motivi.
Il primo che illustra questi rischi è Mark Carney, governatore della Banca d’Inghilterra, che ha recitato un pregevole speech alla sede dei Lloyd’s di Londra il 29 settembre scorso (“Breaking the tragedy of the horizon – climate change and financial stability”). Che un banchiere centrale, incidentalmente anche chairman del financial stability board della BoE, parli dei rischi derivanti dal maltempo per le assicurazioni non è certo una coincidenza. Le assicurazioni infatti sono una delle architravi del sistema finanziario, e quelle inglesi in particolare, come lo stesso Carney ci ricorda in apertura del suo intervento.
Pensate che i Lloyd’s da soli pagano 300 mila stipendi e pesano 25 miliardi di Pil. E certo non è solo in questi due numeri che si può esaurire il peso e l’importanza di una compagnia di assicurazioni, che ha relazioni finanziarie con le famiglie, le imprese e gli investitori.
Ciò spiega bene, pure se per sommicapi, perché il cambiamento climatico sia finito nell’agenda dei regolatori finanziari. Costoro, che si guardano bene dal prendere posizione sulla diatriba scientifica fra chi ci crede e chi no, si limitano ad osservare alcuni fatti assai concreti “Dal 1980 – spiega Carney – il numero di eventi che hanno condotto a perdite legati al clima sono triplicati, e la perdite reale per le assicurazioni sono passate da una media annuale di 10 miliardi di dollari degli anni ’80 fino ai 50 miliardi dell’ultimo decennio”. Con l’aggravante che “le sfide di fronte alle quali ci troviamo oggi di fronte impallidiscono davanti a quelle che può riservarci il futuro”. Il cambiamento climatico, perciò “è una tragedia all’orizzonte”.
Il banchiere apocalittico, versione economicizzata del profeta di sventura, trae le proprie convinzioni innanzitutto dalla circostanza che l’arco di intervento dei policy maker che fanno girare l’economia è sostanzialmente più breve di quello geologico del clima. I signori del denaro ragionano su periodi di qualche anno, il clima cambia lungo i decenni. E già basta solo questo a sollevare il timore che quando il diluvio arriverà non saremo, semplicemente, pronti.
In questo spread temporale, chiamiamolo così, si addensano varie tipologie di rischio, che vanno da quelli provocati dal costo dei danneggiamenti, che le assicurazioni devono ripagare, ai debiti futuri che tali problemi possono causare, fino ad arrivare ai rischi causati dal cambiamento di tecnologie: “Un’azione politica orientata a promuovere un’economia con meno emissioni può condurre a una reassesment fondamentale”.
Il perché è presto detto: il 19% delle compagnie quotate nel FTSE lavorano nel settore energetico e un altro 11% lavorano in settori in qualche modo ad esso collegati (chimica, costruzioni, eccetera). Quindi la rivoluzione ecologica, che molti reputano necessaria per “riparare” il clima, impatta direttamente sul sistema finanziario. E quindi sugli investitori inglesi, comprese le compagnie assicurative, esposti a vari livelli verso queste compagnie.
Insomma, per dirla con le parole di Cairns, “il cambiamento climatico può minacciare la resilienza del sistema finanziario e la prosperità di lungo termine”
Tale visione si arricchisce leggendo un paper del NBER (“Modelling uncertainity in climate change, a multi-model comparaison”) grazie al quale scopro una nuova branca dell’economia che sfuggiva alla mia attenzione: l’economia dei cambiamenti climatici. Aldilà della ricognizione tecnica, che qui poco rileva, è il fatto stesso che si stia iniziando a modellizzare l’impatto dei cambiamenti climatici sul tessuto economico che trovo interessante. Niente sfugge all’abbraccio preoccupato dell’economia. Neanche il clima.
Ne abbiamo fatta di strada, dai tempi di “Piove, governo ladro”.
Il tramonto italiano del welfare familiare
Osservo con una certa malinconia il tramonto del welfare familiare italiano, quella somma di sussidi e sostegni che per così tanto tempo ci ha caratterizzato, ormai in gran parte sostituito dal fenomeno del credito al consumo, che tanto era personale e fonte di imbarazzi il primo, quanto freddo e anonimo il secondo. Vi leggo un altro esito inevitabile della nostra modernità e non so se compiacermi del fatto che una volta eravamo persone e oggi numeri di pratica, oppure semplicemente rassegnarmi. La famiglia italiana, come tutte le famiglie moderne, ormai è diventata sottile e potenzialmente illiquida come un’obbligazione. Difficile da collocare, e altrettanto debole sul mercato.
Inutile chiedersi se sia stata la grande crescita del credito al consumo a provocare questo tramonto, o se sia stato il declino tout court della famiglia a favorire lo sviluppo del credito al consumo: sarebbe come chiedersi se venga prima l’uovo o la gallina. Però una cosa non posso esimermi dal notarla: i prestiti fra parenti si può anche deciderli di condonarli e solitamente non generano interessi. Quelli con le banche sono esattamente all’opposto. Il trionfo dell’economia della testa su quella del cuore.
E tuttavia ancora oggi il fenomeno, per quanto sul viale del tramonto, ha un certo peso specifico nella nostra economia nazionale. Tanto è vero che Bankitalia vi ha dedicato un paper recente (“Il sostegno finanziario della rete familiare durante la crisi”) scritto da Laura Bartilloro e Cristiana Rampazzi, che ci consente di sapere alcune cose.
La prima, che è sempre opportuno ricordare, è che fra il 2008 e il 2014 il reddito disponibile delle famiglie italiane è diminuito del 9%, senza però che ciò abbia impedito ai consumi di crescere dell’1%. Che è poco, ma sempre meglio di niente. Ciò supporta quella che viene chiamata teoria del consumption smoothing, ossia la tendenza delle famiglie a non variare il livello dei consumi lungo un arco medio-lungo della propria vita, ricorrendo al credito o ai risparmi per stabilizzare i propri bilanci.
La crisi peraltro ha ridotto dell’1% la ricchezza finanziaria lorda, per lo più a causa della svalutazione delle attività, e ha condotto le banche a restringere l’offerta di credito. Ciò ha creato parecchie difficoltà ad alcuni, specie i capofamiglia di età inferiore ai 35 anni, che presumibilmente hanno chiesto aiuto alle famiglie per mantenere stabile il proprio livello di consumi.
La domanda che le autrici si son fatte è se e quanto i prestiti familiari o amicali abbiano pesato nel tentativo delle famiglie in crisi di rimanere a galla. Bene. I dati mostrano che fra il 2006-08 il 3,9% delle famiglie ha chiesto aiuti alla cosiddetta rete informale, per arrivare al 4,5% successivamente, ossia una volta che la crisi si è conclamata. “La sua rilevanza – scrivono – non è trascurabile in termini macroeconomici: l’importo totale degli aiuti è pari a un terzo del valore del credito al consumo e nel 2012 il valore mediano dell’aiuto ricevuto per chi vi aveva fatto ricorso era solo di poco inferiore a quello dei prestiti per scopi di consumo”. Quindi la rete informale pesa, in valore, un terzo del totale dei crediti al consumo in italia e l’importo dei prestiti era in linea con quello richiesto alle banche.
Altre risultanze sono degne di nota: “La probabilità di chiedere aiuto aumenta se si possiede un debito per scopi di consumo, a causa dell’insufficienza del credito ricevuto dagli intermediari rispetto alle esigenze di spesa o alle necessità legate al
pagamento della rata del prestito stesso”. In pratica chi chiede aiuto alla famiglia ha molto probabilmente un debito sulle spalle e non è riuscito ad avere di più dal sistema creditizio o non riesce a pagare le rate. In sostanza è un debitore subprime. “Gli arretrati nel pagamento delle rate di un prestito e delle bollette contribuiscono a determinare il ricorso alla rete di sostegno informale”.
Le prime vittime di questa situazione sono i più giovani, che in media sono sempre più poveri: “Solo il possesso di elevate attività finanziarie e l’età del capofamiglia (più di 45 anni) rendono meno probabile il ricorso alla rete di sostegno informale”. E poi un’altra circostanza: il sostegno non basta ad assicurare che alla fine, se il declino di reddito prosegue, i soggetti interessati debbano finire col ridurre i consumi. “A fronte di una riduzione del reddito – la probabilità di continuare a consumare normalmente è inferiore per chi ha fatto ricorso alla rete di sostegno familiare”. Quindi se si perde il lavoro e non si hanno ricchezze finanziarie o altre fonti di reddito c’è poco da fare: bisogna tagliare i consumi. A meno che non si riesca a ricorrere in maniera decisa al credito al consumo, che “contribuisce a mantenere stabili i consumi anche se in misura inferiore”. Ma è evidente che si tratta di un palliativo.
Le autrici concludono affermando che “a parità di altre condizioni, la rete di sostegno
informale non ha quindi contribuito direttamente al consumption smoothing osservato nel periodo della crisi; non si può escludere però un maggior calo dei consumi in assenza degli aiuti ricevuti da parenti o amici”. Insomma, la rete relazionale ha aiutato poco o niente. Forse perché ognuno doveva vedersela con le proprie difficoltà. E questo mi pare il segnale più esplicito del tramonto del welfare familiare.
Ne osservo anche un altro in un grafico, dove si vede che le famiglie italiane sono quelle che, nel confronto europeo, meno di tutte hanno ricevuto contributi a fondo perduto. Il che mi stupisce. Così come anche osservare la bassa percentuale di famiglie giovani che ricevono contributi dalla rete informale.
C’è un caveat però di cui bisogna tener conto. Lo studio si è focalizzato sui redditi senza considerare le eredità. Queste ultime non sono da sottovalutare. Il paper riporta che nell’area dell’euro si stima che i trasferimenti intergenerazionali formino in media il 60% della ricchezza netta, l’11% al netto degli immobili. E in un paese come il nostro, che è il più vecchio e fra i più ricchi dell’Europa, è facile capire quanto sia importante il peso relativo di questa voce.
Forse il vero welfare italiano non è rappresentato dai piccoli contributi o prestiti, più o meno a fondo perduto. Ma proprio dall’eredità. Il che, ne converrete, è alquanto triste.
Sei milioni di salari inglesi sono sotto la soglia di sussistenza
Mi fa un certo effetto che si parli di living wage nel Regno Unito, che traduco come salari di sussistenza, traviato come sono da studi giovanili maldigeriti di economia politica, che subito mi riportano ai padri di questa disciplina: Smith, Ricardo Malthus. Ripesco nella mia memoria e ricordo di come questi illustri pensatori discettavano, pur con le dovute differenze, sull’opportunità che i salari dei lavoratori di una società capitalistica, quindi perfettamente concorrenziale e perciò idilliaca, è opportuno si tenessero a livello di sussistenza, ossia sufficienti a consentir loro di vivere, per le più svariate ragioni che non sto a riepilogarvi perché adesso ci interessano poco.
Quello che ci interessa è osservare come la contemporaneità ci abbia condotto a un esito che neanche i papà dell’economia avevano ponderato, pur nella loro immensa fantasia, ossia che il mito della produzione ormai generi corrispettivi per chi lavora nemmeno sufficienti a farli sopravvivere. Persino Malthus sarebbe inorridito.
In questa fase pre-classica, o post capitalista se preferite, il lavoro dell’istituto di statistica britannico è prezioso perché inonda di luce cristallina l’esito della nostra modernità. Ci informa, per cominciare, che volenterosi studiosi hanno elaborato una misura del salario di sussistenza, iniziativa promossa dalla Living Wage Foundation e dal sindaco di Londra. E ci ricordano che anzi tale misura verrà estesa costruendo un nuovo indicatore, il National living wage, che il governo inglese ha annunciato presentando il suo budget estivo, purtroppo ancora non disponibile.
Ma fa nulla. I dati diffusi dell’ONS sono abbastanza eloquenti per capire di cosa si tratti. La prima notizia meritevole di menzione è che la proporzione dei lavoratori che guadagna meno della paga di sussistenza è cambiata notevolmente negli ultimi anni. Chi conosce l’evoluzione del mercato del lavoro britannico certo non si stupirà. E tuttavia leggere che nel 2014 c’erano circa sei milioni di salari che stavano sotto il livello di sussistenza mi sembra rimarchevole. E’ utile ricordare che questo indicatore è stato costruito per calcolare il costo minimo della vita a Londra o fuori Londra.
Un grafico mostra che ormai la percentuali di coloro che hanno una paga inferiore alla sussistenza sfiora a Londra il 20% mentre svetta verso il 25% nel resto del Regno Unito, in decisa accelerazione dal 2010. Ciò vuol dire che un lavoratore su quattro, in media, sta sotto il living wage.
Interessante, poi, notare la divaricazione crescente fra l’andamento del salario di sussistenza, che in termini reali è cresciuto del 3% fra il 2008 e il 2014, e la mediana della paga oraria, che sempre fra il 2008 e il 2014, è diminuita del 10% sempre in termini reali. Una situazione che un grafico mostra in tutta la sua eloquente chiarezza. Significa che mentre aumenta il costo minimo della vita, diminuisce e assai di più la paga. Il che, ne converrete, è alquanto scoraggiante.
Se guardiamo alle popolazioni, scopriamo che nel 2014 in situazione di salario inferiore alla sussistenza si trovavano il 16% delle retribuzioni dei lavoratori maschi a Londra e il 18% fuori, mentre le percentuali per le lavoratrici salgono rispettivamente al 22% e al 29%. Inoltre che il 48% dei lavoratori fra i 18 e i 24 anni londinesi stavano in questa situazione e il 58% fuori Londra. I giovani sono sempre quelli più penalizzati, evidentemente. Ma neanche agli anziani va così bene: nella classe fra i 55 e i 64 si sfiora il 20% fuori Londra mentre per gli ultra sessantacinquenni si supera il 30%.
Se dal chi passiamo al dove, scopriamo che il 60% di questi lavoratori sotto la sussistenza sono impiegati nel settore dei servizi di vendita e customer satisfaction, o nel settore della ristorazione o delle pulizie e che la quantità di lavoratori sottopagati nel settore privato è quasi tripla rispetto a quella del settore pubblico. Il che consente di apprezzare una delle conseguenze finora poco osservata della discussa rivoluzione che ha interessato il lavoro inglese.
Infine, possiamo osservare che la qualificazione gioca un ruolo determinante. Le cosiddette “occupazioni elementari”, quindi low skill, sono quelle dove si concentra questa situazione. A Londra oltre il 70% di chi ha un lavoro del genere ha un salario sotto il livello di sussistenza.
Quindi nella patria di Smith, Ricardo e Malthus, una porzione sempre più ampia di lavoratori non guadagna abbastanza per vivere. Però, dicono tutti, l’economia britannica va bene.
Dimenticano di ricordare per chi.
L’alba di Skynet sui mercati finanziari: l’uomo (economico) dietro (e dentro) il computer
Giunti a questo punto mi faccio una semplice domanda: chi manovra le macchine che ormai giocano un ruolo così importante nel definire la salute dei nostri mercati finanziari?
La risposta più ovvia è: le persone.
Già, ma che persone? E soprattutto, come lavorano queste persone? Quali sono i principi che mettono alla base del loro operare?
La domanda, come vedete, ne nasconde tante altre le cui risposte finiscono col delineare una fisionomia che, essendo praticamente dominante sui mercati, può dirci molto sull’esito di questa inusitata rivoluzione nella quale la matematica ha di fatto surclassato la teoria economica. Chi pensa che i trader si basino sulla macro o micro economia per le loro scelte è legato a una visione tradizionale ormai in via di superamento.
Decido perciò di conoscere meglio queste persone, usando il metodo che ormai usiamo tutti quando vogliamo conoscere meglio qualcosa (e questo già dovrebbe farci pensare): la rete.
Girovago un po’ a caso e mi imbatto in una testimonianza che inizia a darmi alcuni indizi. Si tratta di una giovane con cinque anni di esperienza alla Getco, una delle tante compagnie di HFT che adesso ha cambiato nome, sulla quale non mi dilungo perché somiglia ai vari Terminator che abbiamo già conosciuto.
Più interessante leggere cosa scrive la nostra testimone. Racconta di essere stata reclutata dal MIT e di essersi trovata immersa in un ambiente di poche persone, ma enormemente soddisfacente, dove le difficoltà intellettuali erano compensate dalla soddisfazione nel risolverle. Dove c’era “molta matematica, teoria dei giochi, economia, tecnologia, scienza del computer e ingegneria”. La tecnologia usata è “cutting edge”, che potremmo tradurre come estrema o di avanguardia. L’HFT viene considerato come il driver di molti progressi tecnologici, fonte e utilizzatore di grandi quantità di dati”.
Il lavoro, spiega, somiglia a quello che fa Google Search: “Trovare segnali utili a prevedere ciò che altri users (non persone, ndr) stanno cercando è simile a cercare segnali per prevedere dove vadano i mercati”. Quindi il trader analizza segnali, non quantità economiche strictu sensu, un po’ come facevano gli uomini radar negli anni ’50, ai tempi della guerra fredda. Ed è fortemente influenzato dal comportamento altrui, cercando con l’analisi di prevederlo e quindi anticiparlo. Un comportamento tipico della teoria dei giochi, che, non a caso, è la seconda risorsa in ordine di importanza fra quelle citate dopo la matematica e prima dell’economia.
Sarebbe fuori luogo qui approfondire la teoria dei giochi. Ricordo solo che fu sviluppata sempre negli anni ’50, in piena guerra fredda, al fine di prevedere e anticipare il comportamento di un qualunque avversario, nella fattispecie erano i russi, basandosi su un semplice gioco mentale: ossia che i giocatori siano egualmente spietati e motivati nel raggiungere la vittoria e quindi disposti a qualunque calcolo e comportamento capace di soddisfare il presupposto della razionalità: la massimizzazione del profitto. Ossia la vittoria al gioco.
L’eco dell’uomo economico ottocentesco risuona forte, in questa teoria. E trova conferma in quel che racconta la nostra testimone: “E’ tutta una questione di risultati”. Non importa come ti comporti, né se segui il galateo aziendale. Nessuno ti dice ciò che devi fare purché rispondi all’obiettivo: make money trading. Se le tue idee funzionano fai soldi. Se non fai soldi non importa il tuo grado di seniority, né tutto il resto”. Con la sottolineatura che “l’HFT dà a tutti le stesse opportunità di diventare un top trader”. Sempre che tu sia un genio della matematica, della teoria dei giochi, eccetera.
Ed ecco un altro affastellato del nostro uomo economico contemporaneo: la capacità di far soldi diventa l’unico metro di misura della tua efficienza e quindi un derivato del tuo merito. Il mito della meritocrazia rivive nell’empireo del cloud, esattamente come l’uomo economico che lo sostiene.
Il trading, poi, “è una sfida costante” assai stimolante per le personalità che, come la nostra testimone, tendono ad “annoiarsi facilmente” e che amano essere “quantitativi e tecnici”. I quants, come li ha soprannominati un celebre libro di qualche tempo fa, amano anche distinguersi dagli altri traders, sentendosi come “una banda a parte” che fa parte di un’industria “cut-throat”, che mi piace tradurre con tagliagola, anche se risulta un po’ estremo, perché ha a che fare con “grandi quantità di denaro, la cultura del segreto e la competizione”. In pratica che amano partecipare alla grande guerra che si combatte per il conquistare il denaro.
La nostra testimone spiega che l’HFT ha una brutta reputazione sui media perché “le notizie sono finanziariamente incentivate a disinformare, generare controversie e provocare”. Ne deduco che, sicuramente a ragione, abbia una pessima opinione dell’informazione e fatico a darle torto. Ma pure che i trader algoritmici vivano con sofferenza l’essere considerati con nefandezza dall’opinione pubblica, che però perdonano in quanto vittima della loro ignoranza. Mi risultano alquanto aristocratici. Consapevoli però che “quando inizi a lavorare in finanza devi imparare a non curarti troppo di quello che pensa la gente”.
Ma la domanda migliore è questa: “Perché si dovrebbe persistere a costringere un uomo a fare ciò che gli esseri umani non sono i migliori a fare, cioè calcoli veloci e complessi, aggregare e analizzare terabyte di dati, presentare ed elaborare numerosi feed di dati contemporaneamente?”
Già, perché? L’incarnazione dell’uomo economico in una macchina che esalta la sua capacità di calcolo potenziandola infinitamente mi sembra l’esito ovvio di questa tecnologia.
Fra i vari commenti che leggo all’articolo ne trovo di entusiastici (“L’HFT è la cosa migliore che mi sia capitata”) che fra le varie ragioni di questo entusiasmo adducono la circostanza che sia “tutto scientifico” e che “le sfide in questo gioco siano immense” o che “il professional quant tranding è una stupefacente combinazione di matematica, psicologia, teoria dei giochi, teoria dell’informazione, delle probabilità, dell’entropia, vita, gioco d’azzardo, epistemologia e tecnologia”. Di economia non fa menzione nessuno. L’uomo economico contemporaneo, che vive dietro e dentro un computer, non sente di averne più bisogno e se la lascia alle spalle come fa un bimbo diventato grande, che misura la sua efficienza in termini di risposte al nanosecondo.
Una vita stressante, senza dubbio. Esplorando forum e commenti leggo di persone che lavorano fino a 18 ore al giorno, consapevoli di quanto sia dura. L’HFT “richiede ogni oncia della mia attenzione”, scrive un tale. Leggo anche di una compagnia che offre 136 mila dollari l’anno per un analista quantitivo, e poi, ormai immerso nella corrente delle chiacchiere, mi trovo quasi a invidiarli, questi super cervelloni che fanno soldi non per la passione dei soldi, ma della matematica che ci sta dietro, ossia del pensiero astratto. Alcuni dicono che lavorare per l’HFT “è gratificante dal punto di vista morale” e se molti non lo capiscono è solo perché “non trovano intuitivo il concetto di trasferimento del rischio”.
Altri, meno entusiasti, scrivono, dopo aver lavorato per anni nell’HFT di averlo odiato. “Praticamente ho fatto da baby sitter a un computer”, osservano. Ed è proprio questa immagine che mi lascia la seduzione più grande. Stiamo allevando computer, tenuti a bada da persone, uomini economici inconsapevoli, che si sforzano di diventare come loro, mentre maneggiano algoritmi scritti in logica di guerra.
Sta davvero sorgendo l’alba di Skynet sui mercati finanziari.
E non solo. Leggo un commento che mi apre un’altra finestra. Un tale consiglia ai trader HFT di abbandonare la finanza e usare i loro molti talenti per aprire una compagnia specializzata in diagnosi precoci. Gli algoritmi predittivi possono diventare una miniera d’oro in un mondo ossessionato dalla paura della morte. In fondo non c’è nessuna differenza ormai fra la durata di una vita e quella di un’obbligazione.
Almeno non ce n’è per l’uomo economico dietro al computer.
(4/fine)
L’alba di Skynet sui mercati finanziari: i nuovi Terminator
Dunque ormai è assodato che alcune entità, che lavorano col trading algoritmico ad alta velocità, si sono ritagliate un ruolo più che rilevante nel mercato dei titoli di stato americani. Questi soggetti sono capaci di determinare eventi potenzialmente traumatici, come dimostra l’accaduto dell’ottobre 2014, e ciò malgrado sono ancora poco conosciuti e ancor meno si sa delle loro strategie e delle tecnologie che utilizzano, sulle quali vige uno strettissimo riserbo.
Questi nuovi Terminator agiscono all’ombra di una regolazione che si è dimostrata finora incapace di contenerne gli esiti, mentre il grande pubblico ne ignora sostanzialmente la loro esistenza.
Eppure le loro tracce sono numerose, anche se finora confinate nell’informazione di settore. Qualche tempo fa il sito Risk.net ha pubblicato una lista confidenziale delle prime 10 top company che lavorano con questi metodi sul mercato dei titoli Usa, prendendo spunto dai dati raccolti su alcune piattaforme elettroniche fra maggio e giugno del 2015 e che si ritiene svolgano fra il 65 e il 70% del volume delle transazione sull’interdealer market.
Ne è venuto fuori che le prime tre società, Jump Trading, Citadel e Teza Technologies, abbiano generato volumi di transazioni per 2,4 trilioni di dollari nel periodo. Altresì che otto di queste entità non sono banche. JP Morgan, che pure sta nella lista di queste entità, è solo al quinto posto.
Fra queste non banche si segnalano KCG, Spire-X, XR Trading, DRW e Rigel Cove. Nel rapporto viene notato come questa attività di trading, oltre che rilevante, sia anche notevolmente concentrata.
Inevitabile chiedersi perciò chi siano, questi soggetti che, piaccia o no, stanno conformando i mercati finanziari.
Comincio la mia ricerca partendo da Jump Trading, che dai dati diffusi da Risk.net ha sviluppato il 28% delle transazioni del campione analizzato. On line trovo il sito, ma tutto ciò che esibisce è una pagina di un gradevole grigio perla, con indicate le sedi ove opera, un link per le posizioni aperte e un paio di mail per i contatti. Zero informazioni sulla compagnia, la proprietà, la storia. Scopro che fino a un anno fa queste informazioni erano pubblicate. Ma poi in un soprassalto di pudore i padroni di Jump devono aver deciso di farle sparire. Devo contentarmi perciò di esplorare ciò che le cronache riportano.
In alcune trovo conferma della sensazione che coltivo dall’inizio di questa storia: questi soggetti non amano la pubblicità. Ma trovo anche qualche informazione. La Jump è stata fondata a Chicago 15 anni fa e ormai conta 400 dipendenti. I fondatori sono due trader, Bill Di Somma e Paul Gurinas. I suoi ricavi annuali hanno superato i 500 milioni di dollari nel 2010, con un profitto netto di 268 milioni. Del resto si sa molto poco. Si sa che la compagnia ha assunto una pletora di scienziati, matematici e programmatori per costruire i propri algoritmi, e che si è anche dotata di una torre di trasmissione dati in Belgio, una volta usata dalla Nato, per spuntare qualche nanosecondo di vantaggio sui concorrenti, che in larga parte si limitano ad affittarle.
La Jump è un po’ il prototipo di queste compagnie, nate su iniziativa di alcuni trader, o direttamente di scienziati. Il CEO della Teza, la numero tre della nostra lista che per fortuna è un po’ più loquace della Jump, si chiama Misha Malyshev, dottore in Astrofisica nel 1998 a Princeton con specializzazioni in fisica teoretica dopo aver conseguito la laurea in matematica e fisica a Mosca. Quindi ha lavorato per la Bell, transitato per la McKinsey, con la quale ha imparato l’arte e l’amore per il business, e quindi si è messo in proprio, nel 2009. Prima però si è fatto le ossa col gruppo Citadel, il numero due della nostra lista, lavorando nel gruppo delle analisi quantitative. Da lì è divenuto rapidamente capo dell’unità che si occupa di High frequency trading, dove è rimasto fino al 2009. Come anche i fondatori della Jump, la Teza e il suo padrone sono molto attivi nella filantropia. Il che denota un chiaro animo gentile e una evidenza convenienza fiscale. Purtroppo il sito non riporta bilanci o altro.
Decido di concedermi l’ultima ricognizione e scelgo la Spire X, che ha un nome che fa molto Skynet. E che risulta altrettanto evanescente. Ne trovo tracce molto scarne nei recessi della rete, dalle quali deduco che è una compagnia giovanissima, che impiega pochissime persone. E tuttavia, nella nostra breve classifica per volume di trading generato sta appena sotto JP Morgan e sopra Barclays.
Cosa hanno in comune queste entità? La prima cosa che salta all’occhio è che sono tutte proprietary firm, ossia aziende create da persone fisiche e tuttora di loro proprietà. Poi che reclutano scienziati per far girare le loro macchine, che fanno trading basandoli su algoritmi quantitativi. Per queste compagnie, insomma, le vecchie categorie dell’economia non hanno sostanzialmente senso: quello che importa sono le quantità pure. Infine, queste compagnie sono nate e si sono sviluppate nell’ultimo decennio e ormai surclassano le vecchie banche, che in confronto sembrano dinosauri. E come il famoso meteorite ha fatto con i dinosauri, i trader automatici adesso minacciano di terminarle.
Il problema è che rischiano di non essere le sole.
(3/segue)
L’alba di Skynet sui mercati finanziari: caccia alla balena bianca
C’è molto da scoprire leggendo l’istruttivo rapporto del dipartimento del Tesoro americano rilasciato nel luglio scorso nel quale si analizzano gli eventi che nell’ottobre 2014 condussero all’esplosione di volatilità nel mercato dei titoli del Tesoro Usa.
Il fatto fu rilevante, oltre che per la sua entità, per la circostanza che fosse preso di mira l’asset più importante dei mercati, che sta alla base praticamente di tutto ciò che è finanza. Il Treasury, appunto. La percezione della minaccia, avvertita quel 15 ottobre, fu talmente evidente che per l’occasione si sono mobilitati, oltre al Dipartimento del Tesoro, la Sec, la Fed, la Fed di New York e Commodity futures trading commission (CFTC), che in questi mesi hanno lavorato al rapporto ufficiale.
Il motivo è spiegato nella premessa: “Il mercato dei Treasury è il più profondo e liquido mercato di obbligazioni governative al mondo. Gioca un ruolo critico e unico nell’economia globale, servendo come primario mezzo di finanziamento del governo federale, significativo strumento di finanziamento e veicolo di hedging per gli investitori globali, oltre che come benchmark free-risk per altri strumenti finanziari e mercato fondamentale per l’implementazione della politica monetaria della Fed”. Insomma: se i fondi pensione e gli altri veicoli collettivi di risparmio sono considerati la balene del sistema finanziario, verso le quali si avventano gli squali affamati degli speculatori, il mercato dei titoli di stato americani è come Moby Dick: la balena bianca. Arpionarla implica per l’Achab di turno enormi profitti istantanei, capaci però di terremotare la tenuta del sistema globale. Esattamente come è accaduto un anno fa.
Il 15 ottobre 2014 questo mercato sperimentò un livello inusuale di volatilità e un brusco andirivieni dei prezzi, con condizioni generali di liquidità che divennero insolitamente tese. Lo yeld sul benchmark dei titoli a dieci anni, che influenza significativamente i prezzi di altri asset, sperimentò un trading range di 37 punti base, per poi chiudere a 6 punti base dal suo prezzo di apertura. Fino ad allora un livello così elevato di oscillazione intraday si era registrato solo in tre occasione, a partire dal 1998. Ma a differenza di quanto accaduto il 15 ottobre, tale oscillazione trovava giustificazione in significanti annunci di politica economica.
Peraltro, tutto il movimento si concentrò fra le 9.33 e le 9.45 A.M. In dodici minuti lo yeld sul titolo a 10 anni perse 16 punti e quindi rimbalzò. Un fatto senza precedenti nella storia del mercato dei titoli Usa.
Il lavoro degli analisti, considerato ancora provvisorio, svela parecchie delle novità intervenute in questi anni sul funzionamento di questo mercato che rimane tuttora una terra incognita pure per coloro che dovrebbero conoscerlo meglio. L’analisi ha incluso anche il mercato secondario nonché le opzioni e i futures su queste obbligazioni.
La prima informazione che vale la pena riportare riguarda la fisionomia degli intermediari che agiscono su questo mercato. I regolatori hanno identificato cinque diversi tipi di aziende che partecipano al mercato. In comune però hanno tutte una caratteristica: “Ogni tipo di azienda utilizza un certo di livello di trading automatico, con varie sensitività alla velocità di mercato, e funzionano sia come fornitore di liquidità che come prenditori, con periodo di conservazione che varia a seconda della strategia adottata”. I bank-dealers, ad esempio, usano strategia di trading manuale in percentuali maggiori di altri in alcuni segmenti del mercato. I PTFs (principal trading firm), al contrario, sono caratterizzate dall’uso pressoché esclusivo di trading automatico e sono concentrati esclusivamente sul trading, a differenza dei bank-dealers che lavorano anche come custodi o agenti nelle transazioni.
L’analisi degli eventi parte dalle 8.30, quando furono rilasciate le informazioni sulle vendite al dettaglio, che risultarono leggermente più basse del previsto. Solitamente, nota il rapporto, i mercati reagiscono a queste notizie facendo ribassare il tasso di interesse sull’obbligazionario, “ma la risposta, questa volta, fu insolitamente brusca”. I tassi andarono giù di 11 punti base nei 25 minuti successivi, assai più di quanto fosse prevedibile. Ne seguì un altrettanto brusco cambiamento del trading. I volumi cominciarono a salire mentre contemporaneamente si prosciugava la liquidità.
I rendimenti continuarono a seguire il trend ribassista nell’ora successiva fino a che, alle 9.30, nonostante l’apparente mancanza di notizie, iniziarono a muoversi bruscamente. Nei sei minuti fra le 9.33 e le 9.39, lo yeld sul decennale diminutì di 16 punti. Fra le 9.39 e le 9.45 il trend cambiò direzione annullando quasi completamente il movimento precedente. L’evento che ha cambiato le nostre cronache finanziarie si consuma in questi dodici minuti. E il fatto che si sia così tanto contratto lo spazio di tempo che genera un evento dovrebbe farci riflettere. I movimenti dei mercati finanziari sono profondi, bruschi, violenti e rapidi, come quelli dei terremoti.
Detto in soldoni, il decennale crollò dal 2,02% delle 9.33 all’1,86 delle 9.39, per tornare all’1,99% delle 9.44.
Il problema è che tali movimenti, accettabili quando si tratti di asset poco liquidi o scarsamente rappresentativi, lo sono di meno quando di mezzo ci sono i titoli di stato Usa. Anche perché sono stati associati a volumi di trading che nella finestra-evento sono stati da sei a dieci volte più elevati di quelli medi del giorno. Il tutto mentre le tensioni sulla liquidità spingevano alcuni operatori a sganciare i meccanismi automatici di quotazione per limitare i rischi.
A ciò si aggiunga che gli effetti dell’esplosione di volatilità si contagiarono rapidamente anche ad altri mercati, compresi quelli valutari, delle commodity e quelli azionari, anche se in maniera più modesta. L’urlo della balena bianca, insomma, risuonò profondamente nei sotterranei dei mercati..
I dodici minuti di caos, inoltre, provocarono diversi danni a tutti coloro che erano lunghi sul decennale, ossia avevano puntato al rialzo. A cui, evidentemente, corrisposero altrettanti guadagni da parte di altri.
Per capire chi e cosa abbia provocato questo terremoto, la commissione ha analizzato le transazioni e gli ordini di negoziazione dei partecipati. L’analisi non ha condotto a una spiegazione univoca per l’andirivieni del prezzi, e tuttavia i dati hanno evidenziato un numero rilevante di sviluppi nel mercato prima e durante la finestra-evento.
I primi risultati hanno stabilito che i gruppi più attivi che operarono durante i 12 minuti sono stati i PFTs e i bank dealers, ma il movimento di picco sui prezzi si è verificato quando i PFTs hanno amplificato il loro volume di transazioni, mentre al contrario declinava il contributo dei bank dealer. In termini di messaggi di traffico, ossia nuovi ordini, cancellazioni e modifiche a ordini esistente, è emerso che le PTFs ne hanno generato circa l’80%. Ciò lascia ipotizzare che queste compagnie, che lavorano con poco capitale e molta tecnologia, scatenino i loro algoritmi in operazioni spesso contraddittorie che però al termine dell’ondata sono capaci di generare profitti. Alcuni hedge fund, ad esempio, si sono segnalati per le loro posizioni insieme corte e lunghe sul treasury, nei due diversi momenti della finestra evento.
Al tempo stesso si è osservato un notevole aumento del self trading, ossia di un’attività nella quale un’entità si posiziona sia come venditore che come compratore nel book di negoziazione. Anche su questa pratica le PTFs hanno dominato, forse perché, ipotizza la commissione “possono far partire diversi algoritmi di trading contemporaneamente”. Per la cronaca, i regolatori sottolineano che sovente il self-trading nasconda condotte illegali. Nei primi sei minuti della finestra evento il self trading arrivò al 14,9% nel cash market e all’11,5% in quello dei future, quando solitamente non supera la metà.
Fra le 9.33 e le 9.39, le PFTs hanno aumentato la loro quota di trading in un range compreso fra il 73,5% e il 68,4%, mentre i bank-dealers scendevano fra il 21,4 e il 14,1%. In pratica i computer hanno fissato il prezzo dei decennali a fronte di volumi crescenti. Nei sei minuti successivi, quando i prezzi ritracciarono, l’attività di trading del PTFs rallentò, fra il 62,3 e il 56,6%.
Un’altra informazione interessante è quella relativa al grado di concentrazione. In alcuni dei mercati correlati ai Treasury monitorati dalla commissione, come il cash-market, i 10 PTFs più attivi hanno condotto il 94% del trading di tutto il gruppo (sono 37 in tutto), mentre fra i bank dealer il dieci attori più attivi (su 44) hanno pesato il 79% delle transazioni.
Altre analisi condotte a livello algoritmico hanno indicato che il trading aggressivo iniziato nella fase iniziale dell’evento dei PFT ha sempre funzionato seguendo la direzione dei prezzi, pesando notevolmente sugli squilibri osservati.
Insomma: le PTFs sono state le grandi protagoniste dei dodici minuti di terremoto vissuti sul mercato dei titoli di stato. E certo non si sarebbe arrivati a questo risultato se già dal finire degli anni ’90 non ci fosse stato un sviluppo così rilevante del trading elettronico, che dai primi del 2000 ha pure coinvolto segmenti di mercato finora interdetti. Ciò ha provocato un cambiamento sostanziale. Fino al 1992 questi segmenti di negoziazione erano riservati solo ai brokers designati dalla Fed di NY. Ma poi fu garantito l’accesso a tutte le entità che erano componenti del Government Securities Clearing Corporation. Da quel momento l’accesso fu sempre più consentito a nuove entità, fra le quali, nella metà degli anni 2000, si segnalarono le PTFs, che adesso pesano per oltre la metà del trading sui future e nel mercato elettronico dell’interdealear cash market.
Qualcuno ha iniziato a temere che queste pratiche portino con sé rischi, visto che “il trading automatico si muove a velocità che possono eccedere la capacità di controlli manuali e interventi”. Anche perché le PTFs, agendo come operatori specializzati del mordi e fuggi, sono poco capitalizzate rispetto alle banche tradizionali e perciò assai più fragili.
Per concludere questa lunga e noiosa quanto istruttiva ricognizione, vale la pena osservare che l’ammontare del debito denominato in Treasury è aumentato drasticamente dal 2007. Nel giugno di quell’anno la montagna di Treasury sul mercato quotava 4,3 trilioni di dollari, al 30 aprile 2015 aveva raggiunto i 12,6, ossia quasi il triplo.
Ciò fa della balena bianca la preda ideale delle armate robotiche, che dal flash-event del 15 ottobre hanno imparato diverse cose. Hanno capito di essere sistemiche e soprattutto hanno capito che il mercato dei titoli Usa è il ventre molle e gigantesco della finanza globale. Se Skynet fosse cattiva come in Terminator, saprebbe benissimo come far partire l’attacco globale.
Per fortuna non è cattiva. Vuole solo far soldi.
Pure a costo di distruggerli.
(2/segue)
Leggi la prima puntata Terza puntata Quarta e ultima puntata
L’alba di Skynet sui mercati finanziari
Nei sotterranei della finanza, dove l’occhio non vede e quindi il cuore non duole, si sta consumando una rivoluzione silenziosa nella quale vecchi protagonisti, ormai divenuti riluttanti, cedono la supremazia a giovani rampanti, come sempre è successo in tutti i grandi cambiamenti.
Tale rivoluzione, purtroppo ancora poco osservata, viene condotta da un organismo chimerico, un ircocervo, nato dal matrimonio ormai antico eppure anch’esso poco osservato, fra la fisica e la finanza officiato dalla matematica tramite il suo strumento applicato, ossia l’informatica. La rivoluzione della finanza del sottosuolo, perciò, è innanzitutto una rivoluzione tecnologica e scientifica. Perciò sostanzialmente sociale. Gli esiti sono già visibili in alcuni episodi raccontati dalle cronache, ma non arrivano a conformare la società. Per ora.
Ciò che si vede, ma che poco si conosce, è la sua risultante: l’automazione del trading, ossia degli scambi finanziari guidati da algoritmi, che ha generato per partenogenesi una pletora di compagnie di HFT (High frequency trading) che piano piano stanno sostituendo le vecchie banche, che nei mercati svolgevano il ruolo di arbitri e garanti delle contrattazioni, con un modello di business che prevede poco capitale e molta tecnologia, in perfetta coerenza con l’esito immaginifico della nostra economia.
Qualcuno sorriderà, pensando che questa intemerata apocalittica sia un sollevar polvere per celare i dilemmi sostanziali della nostra economia, quelli che misuriamo con i deficit e i surplus, con l’accumularsi degli squilibri e il declinare dei prezzi. Cose reali, insomma. Ma il mio timore è che costoro pecchino di ottimismo. L’influenza del ciclo finanziario su quello economico, infatti, ormai è cosa fin troppo evidente per esser sottaciuta. E una volta che si osservi l’incredibile sviluppo dei sistemi automatici di trading e il loro effetto sui cicli finanziari, sarebbe poco saggio non fermarsi un attimo a riflettere e porsi una semplice domanda: ma questi sistemi di calcolo che ipotesi sussumono? O, detto in termini più chiari: come funzionano?
Prima di rispondere è opportuno mettere in rilevo gli effetti che tali diavolerie possono avere sulla stabilità finanziaria. E il fatto stesso che il Fmi abbia giudicato opportuno dedicarvi un box del suo ultimo rapporto sulla stabilità finanziaria (“Electronic Trading and Market Liquidity”) lascia dedurre che l’abbiano, e pure rilevante.
“Negli ultimi decenni – scrive il Fmi – le piattaforme di trading elettroniche sono state introdotte in un’ampica varietà di mercati”. Per osservare l’impatto che tali pratiche possono avere sulla stabilità, il Fmi ha preso ad esempio il mercato dei derivati OTC (over-the counter), ossia uno dei più ampi al mondo per valori nozionali, e ne ha tratto la conclusione che “l’introduzione delle piattaforme elettroniche ha generalmente condotto a benefici alla liquidità dei mercati”. E tuttavia, “recenti episodi che hanno interessato la liquidità hanno anche indicato le potenziali vulnerabilità che possono essere condotte dal trading elettronico, specialmente con l’high frequency trading”. Una considerazione accuratamente bipartisan dalla quale deduco che queste piattaforme aiutano quando tutto va bene e distruggono quando tutto va male, come l’energia nucleare. Sono, direbbero gli economisti, procicliche.
Quindi abbiamo da un lato lo sviluppo di piattaforme elettriche di trading, ormai disponibili anche per il mercato retail, come quella che usano i privati cittadini quando giocano al casinò della borsa. Abbiamo, vale a dire, un’infrastruttura telematica ormai evolutissima. E poi abbiamo delle pratiche, fra le quali l’HFT, che riguardano solo alcuni operatori specializzati. Per capire la differenza è sufficiente notare come una piattaforma di HFT abbia come unità di misura il nanosecondo, ossia il milionesimo di secondo, per valutare l’arco di tempo delle sue transazioni, che vengono condotte nell’ordine delle migliaia al secondo.
Ma allora in cosa sta il vantaggio? “Il trading elettronico può grandemente favorire l’incontro fra il venditore e il compratore”, pure se “d’altra parte le nuove strategie adottate da queste piattaforme possono causare distruzione della liquidità di mercato in risposta a shock”. Il motivo dovrebbe essere chiaro: un uomo pensa, prima di farsi prendere dal panico e vendere. Una macchina vende senza patire alcun sentimento. E’ più efficiente appunto. Il che com’è ovvio fa la gioia dei profeti dell’efficienza.
Gli studi sull’impatto del trading elettronico sono purtroppo ancora scarsi, nota il Fmi, ma in generale sono concordi sui benefici. L’elettrificazione dei mercati a reddito fisso, quindi quelli obbligazionari, ha facilitato l’incontro fra venditori e compratori, ossia la liquidità delle obbligazioni, comprese quello più sottili, come si chiamano in gergo le obbligazioni che non esprimono grandi volumi di trading e quindi sono per natura poco liquide.
Per le obbligazioni trattate in origine nei mercati OTC, quindi non regolamentati, la migrazione all’elettronico “può condurre a un boost nei volumi di trading e della liquidità di mercato”, nota il Fmi, ricordando come negli Usa la migrazione di alcuni derivati OTC su piattaforma elettronica è iniziata nell’ottobre 2013, con la decisione della Commodity Futures Trading Commission (CFTC) di autorizzare il primo Swap Execution Facility (SEF), ossia rendere disponibile su piattaforma telematica un sistema che consente agli operatori di contrattare Swap in maniera aperta e trasparente. Trasparenza, velocità, efficienza: come non convincersi che sia la strada giusta?
Infatti gli Usa si sono talmente convinti che da febbraio 2014 hanno deciso di obbligare gli operatori a utilizzare SEF per eseguire gli scambi su tutti i contratti “disponibili per lo scambio”. Insomma: il carico di lavoro per questi sistemi è aumentato significativamente. “La prima ondata si è focalizzata su alcune tipologie di contratti altamente standardizzati che coinvolgono le controparti centrali, come alcuni Interest rate swap o gli index-based credit default swap”.
Una volta che l’esperienza di queste pratiche si consoliderà, spiega il Fmi, “potranno essere tratte importanti lezioni dalla grande elettrificazione e standardizzazione dei mercati dei corporate bond”.
Al tempo stesso però, nota il Fondo, “le piattaforme elettroniche possono facilitare la crescita di aziende di HFT, con potenziali impatti negativi sulla liquidità”. Queste aziende, infatti, vengono sospettate di essere all’origine dell’episodio dell’ottobre 2014, quando ci un un rally nelle quotazioni dei Treasury americani. “Eventi come questi – nota il Fmi – come anche il flash crash del 2010, quando vennero giù le borse e il mercato dei futures, mostrano come la liquidità può evaporare molto rapidamente e come la mancanza di liquidità può amplificare gli shock”.
Quindi queste entità possono favorire episodi di volatilità sui mercati finanziari, proprio in virtù della potenza operativa di cui dispongono, aggravando trend negativi così come esasperano quelli positivi.
Non finisce qui. “La struttura del mercato dei Treasury Usa – sottolinea ancora – ha sperimentato significativi cambiamenti nell’ultimo decennio”. In particolare si è registrato il declino del ruolo delle banche e un aumento di importanza proprio delle compagnie di HFT. “Sono cambiati i canali di origine della liquidità”, spiega ancora. “Le banche probabilmente ora hanno meno spazio di bilancio dedicato alle strategie di market-making”. Quindi hanno lasciato spazio alle imprese HFT che “operano tipicamente con capitale molto basso”. Ne consegue che in tempi normali, la liquidità è ampia, ma quando si verifica uno shock, il mercato è più vulnerabile perché “il mercato tradizionale e i nuovi soggetti responsabili non sono in grado o non vogliono fornire liquidità”.
Insomma, c’è molta più efficienza, anche quando ci si fa male.
L’esempio dell’ottobre 2014 è assai eloquente.
Il 15 ottobre il mercato dei Treasury visse uno degli episodi di volatilità più ampi degli ultimi 25 anni. Un dato giudicato negativo delle vendite al dettaglio spinse gli hedge fund a riposizionarsi scommettendo su un ritardo nel rialzo dei tassi della Fed (capite bene perché se ne parli così tanto). Ciò condusse a una crescita graduale dei prezzi che spinse i market-maker tradizionali a ridurre la liquidità, semplicemente sfilandosi dal mercato.
Ne conseguì che fra le 8.50 e le 9.33 A.M. il book di negoziazione si assottigliò drammaticamente. Nello stesso arco di tempo si scatenarono le armate algoritmiche. Si registrò un’impennata delle attività di HFT. Nell’arco di 12 minuti la liquidità evaporò e pochissime negoziazioni, ma molto ampie, generarono un flash-event, ossia un picco. Il picco spinse le compagnie di HFT a un trading molto aggressivo per ridurre i rischi a cui si erano esposte, ma poiché la liquidità era evaporata i prezzi divennero estremamente volatili, conducendo ad ulteriore trade di copertura, veloci e microistantanei. Come infiniti robot gli algoritmi massimizzavano i profitti sconvolgendo il mercato dei titoli di stato americani, che per loro (ma non per noi) erano semplici numeri di codice.
Più tardi un rapporto congiunto delle autorità americane sottolineò la predominanza delle armate HFT su quelle umane. Mentre i vecchi broker-dealers si ritiravano dal campo, le armate automatiche avanzavano veloci e compatte.
Risultò che nel flash-event la quota di trading svolta dagli HFT abbia raggiunto l’80% del totale, a fronte di una media del 50%. E che gli HFT avessero comprato aggressivamente durante la salita dei prezzi e venduto furiosamente durante il crollo.
Non è un film dell’orrore.
E’ solo l’alba di Skynet sui mercati finanziari.
(1/segue)
All’origine del bad equilibrium: il mito della Produzione
Mentre sfoglio libri d’altri tempi e analisi di oggi, cercando di capire da dove sia iniziata la fine di questa storia, noto sorpreso che da qualunque lato lo si osservi, il nostro peregrinare ballerino conduce sempre nello stesso dove: la produzione. O, detto più comprensibilmente, la sua crescita. Nel nostro immaginario economico i due termini sono praticamente sinonimi, mentre gli statistici confezionano l’indice del prodotto interno lordo, e non a caso.
Crescere è il nostro imperativo categorico, che già denota un difetto nella costituzione dello spirito di questo tempo, giacché dovrebbe appartenere al normale svolgersi di una vita, la crescita, pur’anche di un organismo economico. E invece è un pensiero fisso, una malattia, che fatalmente ci ossessiona e chissà quanto ci impedisce di crescere sul serio. Intendo dire lungo una traiettoria più ampia, se non quantitativamente più alta, di quella espressa dagli indici del prodotto nazionale.
Al Prodotto, quindi, è stato assegnato per comune consenso un potere davvero demiurgico: quello di conformare la realtà. Muovendosi origina tutta la panoplia delle variabili che sono le maschere delle rappresentazioni confezionate dagli economisti nelle loro teorie. Se non ci fosse la produzione di qualcosa non ci sarebbero i salari per chi produce, i profitti per chi la intraprende, le rendite per chi affitta il capitale o gli strumenti. La produzione, perciò, generando i redditi delle comparse economiche, implica al suo interno la misteriosa alchimia dei prezzi, guidata dal gioco di domanda e offerta, che nella visione tradizionale degli economisti sono il giusto punto di equilibrio capace di soddisfare tutti: l’operaio, l’imprenditore e il rentier.
Da circa 80 anni lo Stato è diventato comprimario di questo teatro di marionette e anzi rivendicando ai privati il ruolo da protagonista, sedotto e mai abbandonato dalle provvidenziali “eresie” keynesiane pubblicate sempre circa 80 anni fa nell’intento disperato di uscire dal cono della depressione. Il risultato è che adesso i prezzi devono remunerare anche le imposte, ormai a un livello esorbitante, così come anche servire i debiti, anche essi a livelli inusitati. Ciò implica che il Prodotto debba crescere sempre di più per sostenere anche questa faticosa rappresentazione.
Su questo quadro sintetico s’innesta l’attualità. Oggi come ieri tutte le soluzioni proposte dai vari osservatori internazionali sono palesemente indirizzate a favorire la produzione, che già negli anni ’50 l’economista americano John K. Galbraith dipingeva come un mito in un celebre libro (La società opulenta) osservando con sapida arguzia il suo essere un cascame culturale del XIX secolo, quando i problemi della produzione erano al centro dell’attenzione degli economisti perché si ragionava su società autenticamente bisognose di tutto, a differenza di quella che lui osservava nel secondo dopoguerra, che già esibiva le distorsioni provocate dalla ricchezza. Galbraith ne deduceva – sintetizzo malamente – che una società opulenta dovrebbe spostare l’angolo visuale dalla produzione di beni materiali a quella di servizi pubblici. Per capirsi: è inutile, oltre che inflazionistico, continuare a produrre automobili se non ci sono strade sufficienti e sicure dove farle camminare.
Più di sessant’anni dopo ci troviamo esattamente allo stesso punto. L’oggetto del dibattere rimane la produzione. I disaccordi si generano all’interno di un recinto specialistico dove sedicenti esperti, quelli che Luigi Einaudi chiamava i periti, discettano se l’aumento della produzione debba derivare da politiche della domanda – meglio se pubblica e magari a deficit – o da politiche dell’offerta che vengono ammantate dietro la dizione generica di Riforme Strutturali, che è un modo educato e moderno di dire che dobbiamo essere sempre più bravi, istruiti, flessibili, competitivi cosicché i mercati possano provvedere a noi secondo il nostro merito. E poiché tutto il meccanismo economico si è conformato lungo le coordinate di questo dibattito favolistico non c’è più spazio per discorrere di altro.
E’ interessante, tuttavia, seguendo sempre Galbraith, tornare all’origine di questa idea per provare a penetrarne il presupposto celato. A ben vedere il desidero di una produzione crescente altro non è che la mercificazione del nostro bisogno di sicurezza economica. Poiché dalla produzione si fa seguire l’occupazione e da quest’ultima la nostra capacità di stare al mondo, è giocoforza puntare sulla produzione per tenere in equilibrio le nostre società. Questo non è un fatto incidentale, ma una precisa scelta politica che il mondo occidentale ha fatto nel secondo dopoguerra.
Sempre Einaudi, nell’introduzione a un libro del 1948 (“La Germania ritorna sul mercato mondiale”) dove Ludwig Erhard spiegava le ragioni del nuovo miracolo tedesco, osservava con tono che a me pare dolente il sorgere di questa nuova ossessione che dominava la politica e faceva strame di antiche consuetudini e pudori ancor più remoti. “Qui non si vuole muovere critica a un atteggiamento politico, che probabilmente è fatale”, scrisse, ricordando “i sottili problemi posti dalla premessa della piena occupazione” che si sarebbero realizzati una volta che si fosse definitivamente superata la premessa sulla quale si era basata sino ad allora l’economia. “La premessa antica era che la politica monetaria e finanziaria fosse subordinata al mantenimento di un rapporto fisso della unità monetaria nazionale con un determinato peso di oro fino. La premessa moderna è che la politica monetaria debba essere subordinata all’osservanza del comandamento della piena occupazione (…). Che cosa significava l’antica premessa? Che un impegno deve essere osservato (..) oggi invece stati e privati sanno di non assumere più lo stesso obbligo quando contraggono obbligazioni (…). La domanda angosciosa è: i principi delle assicurazioni sociali, della piena occupazione e della uguaglianza delle fortune e dei redditi fino a che punto hanno prodotto risultati vantaggiosi alla collettività? Non si è già oltrepassato il punto critico, dimenticando i valori antichi della responsabilità individuale, della osservanza degli impegni assunti, dell’incentivo a innalzarsi nella scala gerarchica? Non siamo tornati troppo indietro abbandonando il tipo di società regolata da contratto liberamente negoziato a favore di una società basata sui regolamenti delle leggi?”. Indietro, notate bene, non avanti.
La piena occupazione, quindi, o quantomeno un livello soddisfacente di occupazione capace di garantire la sicurezza economica e quindi l’ordine sociale rimane, ieri come oggi, al centro dell’agenda politica internazionale. Come esempio basti soltanto ricordare che la Fed aveva messo un certo tasso disoccupazione fra i suoi target della sua politica di quantitative easing.
Il fatto che sessant’anni di politiche basate sull’idea della piena occupazione, e quindi della produzione, ci abbiano portati a una situazione di instabilità permanente alimentata da debiti crescenti ormai palesemente inesigibili non sembra turbare nessuno. Gli specialisti – i periti – continuano a dividersi sui rimedi e pochi si stupiscono – anzi si dicono soddisfatti – che un solo stabilimento produca 100 mila automobili al giorno e dica di voler ancora aumentare la produttività sostanzialmente a scapito delle retribuzioni, che poi l’acquisto delle stesse auto dovrebbero garantire, mentre si assiste a una concentrazione della ricchezza di tipo ottocentesco.
L’esito di tutto ciò è che il desiderio di sicurezza, di cui la piena occupazione è la declinazione economicistica, ha costruito un mondo che invece alimenta l’insicurezza. Il mito della produzione genera il timore di una stagnazione secolare, che peraltro è una paura che risale sempre agli anni ’30, quando Alvin Hansen la teorizzò in un’opera del ’37.
Tale dilemma non potrà essere affrontato se non si cambierà il paradigma che sta alla base del nostro vivere sociale. I tre attori sociali che fanno l’economia reale, ossia i produttori, i consumatori e lo stato, devono elaborare uno schema di relazione che modifichi consuetudini ormai superate dalla storia, dando un significato diverso a parole antiche come lavoro, reddito, capitale, moneta.
Purtroppo questa riflessione non è neanche cominciata. I politici agitano ricette economiche che non comprendono, gli economisti s’impiccano e ci impiccano all’econometria, le persone alla paura del futuro, ossia ciò che origina il bisogno di sicurezza economica. E il girotondo ricomincia.
Ed è questa mancanza di riflessione la vera origine del nostro bad equilibrium.
(4/fine)
La liquidità internazionale diventa gassosa
Basterebbe una riga a chiudere questo post: la liquidità non è in declino, ma è pronta ad evaporare. Tutto qua. E poiché la sintesi proviene dal Fmi, che così ha intitolato un survey article dedicato a suo ultimo Global stability financial report, non trovo parole migliori per commentarle a mia volta che osservando quello ormai evidente: la liquidità, a furia di circolare vorticosamente, si è scaldata a tal punto da diventare gassosa. Basta un niente per farla evaporare. O esplodere, se preferite.
Nulla che non fosse già chiaro a molti. Del paradosso della liquidità, abbondante quanto instabile, i regolatori si occupano da tempo, reiterando allarmi come al solito destinati a rimanere inascoltati. Utili pro memoria, tutt’al più. Perché ormai è chiaro che la giostra funzionerà finché funzionerà. E solo dopo spunteranno come funghi gli esperti del giorno dopo a spiegarci il perché e il per come dello sconquasso.
Intanto contentiamoci di rispondere alla domanda, anch’essa paradossale che fa il Fmi: come può essere bassa la liquidità nonostante l’abbondante liquidità fornita dalle banche centrali? Ciò serve a delineare il quadro all’interno del quale la giostra gira.
Meglio cominciare dall’inizio. La liquidità, ossia l’abilità degli operatori di mercato a comprare o vendere grandi quantità di asset finanziari al minor costo di scambio e nel minor tempo possibile, mostra di declinare in alcune classi di asset. Tale tendenza tuttavia viene mascherata dai bassi tassi di interesse. Così almeno la racconta il Fmi che concentra l’attenzione – e non a caso – sul segmento dei corporate bond per motivi che sono tecnici ma anche squisitamente geopolitici. Lo dimostra il fatto che un altro capitolo del GFSR è dedicato al debito corporate dei paesi emergenti, che ormai suscita più d’una preoccupazione.
La logica che sta sotto al processo di trasformazione “gassosa” della liquidità è molto semplice. “Negli anni recenti – spiega il Fmi – gli investitori si sono abituati a assumere maggiori rischi in cambio di maggiori rendimenti e le politiche monetarie accomodative, basate sui tassi bassi e gli acquisti di bond, hanno sostenuto la liquidità di mercato”. Ciò tuttavia ha condotto a cambiamenti strutturali dei mercati. A tal punto che il Fmi raccomanda un ritorno morbido alla normalizzazione delle politiche monetarie proprio per fare in modo che non si realizzi quella distruzione dei mercati che la politica monetaria ha voluto evitare.
In questa esemplare dimostrazione dell’eterogenesi dei fini, a farla da padrona è la volatilità, i cui indici schizzano in alto in maniera randomica, essendo quest’ultima una misura del nervosismo dei mercati, da una parte, e della sostanziale instabilità della materia gassosa che ormai regge gli scambi internazionali al prezzo di una notevole sofferenza della crescita. “Quando la liquidità di mercato è bassa gli investitori possono decidere di posporre le decisioni di investimento e la crescita economica ne soffre”. Viene meno, quindi il presupposto sulla base del quale è stato costruito l’incantesimo monetario.
A complicare la questione, la circostanza che la la liquidità, come tutte le entità pressoché metafisiche che governano il nostro discorso economico, è difficile da capire. Nei processi che la circolazione del denaro alimenta agisce una pluralità di operatori, ognuno dei quali segue logiche che possono andare in conflitto con quello che poi è il proposito della giostra: fare girare appunto i soldi. “L’appetito del rischio dei market maker (gli intermediari che consentono di effettuare gli scambi, ndr) – sottolinea – influenza la loro inclinazione agli scambi”. Se cioé una di queste entità, solitamente una banca d’affari, per questioni di regolazione più stringente o per semplice avversione al rischio, cessa di svolgere in maniera efficiente la sua funzione di intermediario, ciò che ne risente è la capacità del mercato finanziario di alimentare gli investimenti tramite il canale del credito. La liquidità evapora, appunto.
Altri fattori hanno reso più complesso il funzionamento della giostra. L’introduzione delle piattaforme elettroniche, che secondo il Fmi ha reso più efficienti i costi e la velocità delle transazioni (ma non si considera che queste piattaforme hanno chiari comportamenti prociclici), così come i larghi acquisti di bond pubblici da parte delle banche centrali, hanno ridotto la disponibilità di questi asset, spingendo gli investitori altrove.
Comunque sia, ne è risultata “una crescente fragilità nei mercati della liquidità”, osserva Gaston Gelos, capo della divisione del Fmi che analizza la stabilità globale. Tale fragilità emerge anche nei mercati giudicati più stabili, come dimostrano gli episodi dell’ottobre 2014, che ha riguardato l’obbligazionario americano, e quello dell’aprile 2015, che ha riguardato l’Europa. Col risultato che “se le condizioni finanziarie peggiorano o gli investitori si stancano di particolari categorie di asset, la liquidità può rapidamente evaporare”.
Segni in tal senso si osservano adesso nei mercati dei bond dei paesi emergenti. E poiché il contagio si comunica con estrema facilità da un mercato all’altro, ciò è sufficiente per coprendere che la bolla di aria calda sulla quale gira la giostra potrebbe semplicemente scoppiare, da un momento all’altro e senza preavviso.
“E’ cruciale che si continui con le riforme delle infrastrutture di mercato per aumentarne la resilienza – conclude Gelos. Al tempo stesso le banche centrali e i supervisori finanziari devono prepararsi per episodi di breakdown della liquidità”.
Quindi non si discute più del se.
Ma del quando.
Il calo delle commodity affossa gli Emergenti
Poiché le brutte notizie camminano sempre in compagnia, non mi stupisco di leggere, sfogliando un capitolo dell’ultimo World economic outlook del Fmi, una preoccupata analisi sull’andamento dei mercati delle materie prime, che solleva una questione parecchio importante: l’effetto del calo delle quotazioni delle commodity sull’economia dei paesi esportatori.
Questi ultimi, essendo paesi emergenti, vedono quindi complicarsi una situazione già resa complessa dagli alti livello di indebitamento che hanno raggiunto le loro economie, in un contesto finanziario che inizia ad esser loro avverso. Un rallentamento delle commodity implica necessariamente un calo degli introiti, da un parte, e ha effetti sulla crescita, dall’altra, andando a impattare sul funzionamento profondo di questi paesi. Ne deriva che dovranno faticare ancor di più per ripagare i propri debiti e insieme garantire la sicurezza economica delle loro popolazioni.
Qualche cinico penserà che in fondo sono problemi loro. Anzi sarà pure contento, visto che il calo delle quotazioni finisce col provocare un sostanzioso trasferimento di ricchezza dai paesi esportatori a quelli importatori. Ossia da molti poveri a pochi ricchi. Ma costui dovrebbe ricordare che le interconnessioni del nostro meraviglioso mondo tendono a esportare i problemi ben lungi da dove sono originati, come sa chiunque abbia dimestichezza con l’analisi dei flussi bancari fra le economie avanzate e quelle emergenti.
Come ogni cosa, anche il rallentamento delle quotazioni delle commodity parte da lontano, ed è utile osservare l’andamento di questi mercati fin dal 1960, grazie a un grafico che il Fmi mette a disposizione del suo studio. Qui salta all’occhio l’impennata del prezzo delle commodity nei primi anni del 2000, e in particolare di quelle energetiche e dei metalli, anche se pressioni al rialzo si notano anche in quelle alimentari.
Il rallentamento iniziato ormai da un anno ha raffreddato il boom, ma come si può osservare in alcuni mercati, siamo ancora ben oltre il livello “storico”. E ciò è un motivo più che sufficiente per sollevare l’interrogativo se possa esserci una correzione ulteriore e, nel caso, quanto andrà ad impattare sulla crescita dei paesi coinvolti.
L’Fmi ha condotto una simulazione dalla quale emerge che il calo già subito potrebbe impattare per circa l’1% sul tasso di crescita dei paesi esportatori nel periodo 2015-17, rispetto alla crescita che si è registrata fra il 2012-14. Nei paesi esportatori di energia, tale calo sarà ancora più pronunciato: si stima si possa arrivare fino al 2,25% in media ogni anno.
Ciò viene aggravato dalla circostanza che l’effetto sull’economia potrebbe non essere semplicemente ciclico, ma strutturale: “Gli investimenti e quindi l’output potenziale tendono a crescere più lentamente durante una fase di ribasso dei prezzi delle commodity”, spiega uno degli analisti.
Il fattore strutturale, a sua volta, si avvita con quello congiunturale, il che peggiora le conseguenze dello slowdown. Dal che il Fmi deduce che “i policymaker dei paesi esportatori di commodity dovranno andare aldilà della politiche di supporto alla domanda, e adottare riforme strutturali per migliorare il capitale umano, aumentare gli investimenti e ottenere più elevati tassi di crescita della produttività”.
Gira e rigira, arrivano sempre le riforme strutturali. “Un cambio più flessibile e regole capaci di evitare gli effetti procicliche della politiche fiscali può alleggerire il peso dei ribassi sulle economie esportatrici”, nota il Fmi. E poi ci sono quelle riforme che fanno bene a tutti: creare un clima favorevole al business, migliorare l’istruzione, eccetera.
Ma lo studio del Fmi, stime a parte, è utile perché è stato condotto esaminando i dati di 40 paesi esportatori negli ultimi 50 anni. E non è tanto importante il fatto che molti di questi paesi dipendano pesantemente dagli incassi esteri per la loro politica fiscale, né che tali entrate siano procicliche, quindi aiutano quando tutto va bene e danneggiano quando i prezzi calano.
Il fatto sul quale il Fmi sorvola ma che giova rilevare è che queste economie raggruppano miliardi di persone. Che prima non stavano bene e adesso rischiano di stare peggio.
