Categoria: cronicario
Sei milioni di salari inglesi sono sotto la soglia di sussistenza
Mi fa un certo effetto che si parli di living wage nel Regno Unito, che traduco come salari di sussistenza, traviato come sono da studi giovanili maldigeriti di economia politica, che subito mi riportano ai padri di questa disciplina: Smith, Ricardo Malthus. Ripesco nella mia memoria e ricordo di come questi illustri pensatori discettavano, pur con le dovute differenze, sull’opportunità che i salari dei lavoratori di una società capitalistica, quindi perfettamente concorrenziale e perciò idilliaca, è opportuno si tenessero a livello di sussistenza, ossia sufficienti a consentir loro di vivere, per le più svariate ragioni che non sto a riepilogarvi perché adesso ci interessano poco.
Quello che ci interessa è osservare come la contemporaneità ci abbia condotto a un esito che neanche i papà dell’economia avevano ponderato, pur nella loro immensa fantasia, ossia che il mito della produzione ormai generi corrispettivi per chi lavora nemmeno sufficienti a farli sopravvivere. Persino Malthus sarebbe inorridito.
In questa fase pre-classica, o post capitalista se preferite, il lavoro dell’istituto di statistica britannico è prezioso perché inonda di luce cristallina l’esito della nostra modernità. Ci informa, per cominciare, che volenterosi studiosi hanno elaborato una misura del salario di sussistenza, iniziativa promossa dalla Living Wage Foundation e dal sindaco di Londra. E ci ricordano che anzi tale misura verrà estesa costruendo un nuovo indicatore, il National living wage, che il governo inglese ha annunciato presentando il suo budget estivo, purtroppo ancora non disponibile.
Ma fa nulla. I dati diffusi dell’ONS sono abbastanza eloquenti per capire di cosa si tratti. La prima notizia meritevole di menzione è che la proporzione dei lavoratori che guadagna meno della paga di sussistenza è cambiata notevolmente negli ultimi anni. Chi conosce l’evoluzione del mercato del lavoro britannico certo non si stupirà. E tuttavia leggere che nel 2014 c’erano circa sei milioni di salari che stavano sotto il livello di sussistenza mi sembra rimarchevole. E’ utile ricordare che questo indicatore è stato costruito per calcolare il costo minimo della vita a Londra o fuori Londra.
Un grafico mostra che ormai la percentuali di coloro che hanno una paga inferiore alla sussistenza sfiora a Londra il 20% mentre svetta verso il 25% nel resto del Regno Unito, in decisa accelerazione dal 2010. Ciò vuol dire che un lavoratore su quattro, in media, sta sotto il living wage.
Interessante, poi, notare la divaricazione crescente fra l’andamento del salario di sussistenza, che in termini reali è cresciuto del 3% fra il 2008 e il 2014, e la mediana della paga oraria, che sempre fra il 2008 e il 2014, è diminuita del 10% sempre in termini reali. Una situazione che un grafico mostra in tutta la sua eloquente chiarezza. Significa che mentre aumenta il costo minimo della vita, diminuisce e assai di più la paga. Il che, ne converrete, è alquanto scoraggiante.
Se guardiamo alle popolazioni, scopriamo che nel 2014 in situazione di salario inferiore alla sussistenza si trovavano il 16% delle retribuzioni dei lavoratori maschi a Londra e il 18% fuori, mentre le percentuali per le lavoratrici salgono rispettivamente al 22% e al 29%. Inoltre che il 48% dei lavoratori fra i 18 e i 24 anni londinesi stavano in questa situazione e il 58% fuori Londra. I giovani sono sempre quelli più penalizzati, evidentemente. Ma neanche agli anziani va così bene: nella classe fra i 55 e i 64 si sfiora il 20% fuori Londra mentre per gli ultra sessantacinquenni si supera il 30%.
Se dal chi passiamo al dove, scopriamo che il 60% di questi lavoratori sotto la sussistenza sono impiegati nel settore dei servizi di vendita e customer satisfaction, o nel settore della ristorazione o delle pulizie e che la quantità di lavoratori sottopagati nel settore privato è quasi tripla rispetto a quella del settore pubblico. Il che consente di apprezzare una delle conseguenze finora poco osservata della discussa rivoluzione che ha interessato il lavoro inglese.
Infine, possiamo osservare che la qualificazione gioca un ruolo determinante. Le cosiddette “occupazioni elementari”, quindi low skill, sono quelle dove si concentra questa situazione. A Londra oltre il 70% di chi ha un lavoro del genere ha un salario sotto il livello di sussistenza.
Quindi nella patria di Smith, Ricardo e Malthus, una porzione sempre più ampia di lavoratori non guadagna abbastanza per vivere. Però, dicono tutti, l’economia britannica va bene.
Dimenticano di ricordare per chi.
Le sofferenze europee che paralizzano il credito
Pur ammettendo che una ripresa del credito bancario è funzionale alla ripresa tout court, rimane il fatto che le banche europee risultano ancora pesantemente condizionate dall’ammontare dei loro Non performing loans, ossia le varie forme di sofferenze o crediti deteriorati.
Questione sistemica, a quanto pare, visto che è finita all’attenzione del Fmi, che ne ha trattato nel suo ultimo Global financial stability report, sottolineando quello che viene convenzionalente sempre ripetuto: “Un ripresa della crescita del credito sarà necessaria per assicurare un crescita in Europa”.
Tralascio di osservare come tale opinione, perché di questo si tratta, si opponga a numerose altre che dicono il contrario. Più interessante invece dedurre le conseguenze di tale affermazione giovandosi dell’analisi dello stato degli NPLs che il Fmi conduce sulla base di alcuni dati.
Nel report leggo che “nonostante i requisiti di capitale di base delle banche siano migliorati, la capacità di prestare rimane impedita e le aspettative di profitto rimangono basse”. Il che non è una buona notizia per le banche, che hanno già visto declinare significativamente i profitti a causa della crisi. Alla fine del 2014, infatti, i NPLs “bloccavano” circa 52 miliardi di capitale di vigilanza, pari al 3% del totale, delle banche europee. Quindi “ridurre gli NPLs libererebbe capitale incoraggiando i prestiti”.
Un’elaborazione svolta dal Fmi illustra il sollievo di cui le banche potrebbero giovarsi se i policy makers lavorassero sui tempi di foreclosure, ossia di liquidazione, assumendo l’ipotesi di una perdita addizionale del 5% sul valore di realizzo degli asset. Viene fuori che, malgrado le perdite, le banche potrebbero liberare parte del capitale bloccato e quindi, implicitamente, metterlo a base di nuovi prestiti. L’analisi prende a spunto il caso spagnolo, dove la creazione di un asset management company ha riattivato il mercato dei non performing loan.
Rimangono tuttavia problemi di natura tecnica, il primo dei quali è il pricing gap, ossia la differenza fra il valore contabile dell’asset in sofferenza e il suo prezzo di realizzo. A tal proposito il Fmi osserva che “ridurre il tempo richiesto per la liquidazione consentirebbe di massimizzare il valore del collaterale del prestito, il che beneficerebbe sia il debitore che il creditore”. Ciò presuppone, ovviamente, l’esistenza di un sistema giudiziario efficiente abbastanza da non vanificare la procedure, quindi capace di accorciare notevolmente i tempi di liquidazione.
“Se gli NPLs venissero venduti agli investitori a fronte di un ritorno previsto del 10%, si potrebbe ottenere una capacità di prestito di 602 miliardi di euro, pari al 3,7% dei prestiti bancari di tutti i residenti dell’eurozona, di cui 373 potrebbero rendersi disponibili per i paesi non core dell’area sempre che questi ultimi adeguino i tempi di liquidazione degli NPLs alle best-practice degli paesi core, ossia a livello di un anno”, mentre adesso si aggirano intorno ai due anni e mezzo.
Il sottotitolo dell’analisi è che i paesi non core devono riformare gran parte del loro sistema che regola la composizione delle sofferenze bancarie. La creazione eventuale di una compagnia di asset management, in tal senso, avrebbe senso a valle di questo processo.
Gira e rigira il Fmi torna sempre al punto di partenza: le riforme.
L’alba di Skynet sui mercati finanziari: l’uomo (economico) dietro (e dentro) il computer
Giunti a questo punto mi faccio una semplice domanda: chi manovra le macchine che ormai giocano un ruolo così importante nel definire la salute dei nostri mercati finanziari?
La risposta più ovvia è: le persone.
Già, ma che persone? E soprattutto, come lavorano queste persone? Quali sono i principi che mettono alla base del loro operare?
La domanda, come vedete, ne nasconde tante altre le cui risposte finiscono col delineare una fisionomia che, essendo praticamente dominante sui mercati, può dirci molto sull’esito di questa inusitata rivoluzione nella quale la matematica ha di fatto surclassato la teoria economica. Chi pensa che i trader si basino sulla macro o micro economia per le loro scelte è legato a una visione tradizionale ormai in via di superamento.
Decido perciò di conoscere meglio queste persone, usando il metodo che ormai usiamo tutti quando vogliamo conoscere meglio qualcosa (e questo già dovrebbe farci pensare): la rete.
Girovago un po’ a caso e mi imbatto in una testimonianza che inizia a darmi alcuni indizi. Si tratta di una giovane con cinque anni di esperienza alla Getco, una delle tante compagnie di HFT che adesso ha cambiato nome, sulla quale non mi dilungo perché somiglia ai vari Terminator che abbiamo già conosciuto.
Più interessante leggere cosa scrive la nostra testimone. Racconta di essere stata reclutata dal MIT e di essersi trovata immersa in un ambiente di poche persone, ma enormemente soddisfacente, dove le difficoltà intellettuali erano compensate dalla soddisfazione nel risolverle. Dove c’era “molta matematica, teoria dei giochi, economia, tecnologia, scienza del computer e ingegneria”. La tecnologia usata è “cutting edge”, che potremmo tradurre come estrema o di avanguardia. L’HFT viene considerato come il driver di molti progressi tecnologici, fonte e utilizzatore di grandi quantità di dati”.
Il lavoro, spiega, somiglia a quello che fa Google Search: “Trovare segnali utili a prevedere ciò che altri users (non persone, ndr) stanno cercando è simile a cercare segnali per prevedere dove vadano i mercati”. Quindi il trader analizza segnali, non quantità economiche strictu sensu, un po’ come facevano gli uomini radar negli anni ’50, ai tempi della guerra fredda. Ed è fortemente influenzato dal comportamento altrui, cercando con l’analisi di prevederlo e quindi anticiparlo. Un comportamento tipico della teoria dei giochi, che, non a caso, è la seconda risorsa in ordine di importanza fra quelle citate dopo la matematica e prima dell’economia.
Sarebbe fuori luogo qui approfondire la teoria dei giochi. Ricordo solo che fu sviluppata sempre negli anni ’50, in piena guerra fredda, al fine di prevedere e anticipare il comportamento di un qualunque avversario, nella fattispecie erano i russi, basandosi su un semplice gioco mentale: ossia che i giocatori siano egualmente spietati e motivati nel raggiungere la vittoria e quindi disposti a qualunque calcolo e comportamento capace di soddisfare il presupposto della razionalità: la massimizzazione del profitto. Ossia la vittoria al gioco.
L’eco dell’uomo economico ottocentesco risuona forte, in questa teoria. E trova conferma in quel che racconta la nostra testimone: “E’ tutta una questione di risultati”. Non importa come ti comporti, né se segui il galateo aziendale. Nessuno ti dice ciò che devi fare purché rispondi all’obiettivo: make money trading. Se le tue idee funzionano fai soldi. Se non fai soldi non importa il tuo grado di seniority, né tutto il resto”. Con la sottolineatura che “l’HFT dà a tutti le stesse opportunità di diventare un top trader”. Sempre che tu sia un genio della matematica, della teoria dei giochi, eccetera.
Ed ecco un altro affastellato del nostro uomo economico contemporaneo: la capacità di far soldi diventa l’unico metro di misura della tua efficienza e quindi un derivato del tuo merito. Il mito della meritocrazia rivive nell’empireo del cloud, esattamente come l’uomo economico che lo sostiene.
Il trading, poi, “è una sfida costante” assai stimolante per le personalità che, come la nostra testimone, tendono ad “annoiarsi facilmente” e che amano essere “quantitativi e tecnici”. I quants, come li ha soprannominati un celebre libro di qualche tempo fa, amano anche distinguersi dagli altri traders, sentendosi come “una banda a parte” che fa parte di un’industria “cut-throat”, che mi piace tradurre con tagliagola, anche se risulta un po’ estremo, perché ha a che fare con “grandi quantità di denaro, la cultura del segreto e la competizione”. In pratica che amano partecipare alla grande guerra che si combatte per il conquistare il denaro.
La nostra testimone spiega che l’HFT ha una brutta reputazione sui media perché “le notizie sono finanziariamente incentivate a disinformare, generare controversie e provocare”. Ne deduco che, sicuramente a ragione, abbia una pessima opinione dell’informazione e fatico a darle torto. Ma pure che i trader algoritmici vivano con sofferenza l’essere considerati con nefandezza dall’opinione pubblica, che però perdonano in quanto vittima della loro ignoranza. Mi risultano alquanto aristocratici. Consapevoli però che “quando inizi a lavorare in finanza devi imparare a non curarti troppo di quello che pensa la gente”.
Ma la domanda migliore è questa: “Perché si dovrebbe persistere a costringere un uomo a fare ciò che gli esseri umani non sono i migliori a fare, cioè calcoli veloci e complessi, aggregare e analizzare terabyte di dati, presentare ed elaborare numerosi feed di dati contemporaneamente?”
Già, perché? L’incarnazione dell’uomo economico in una macchina che esalta la sua capacità di calcolo potenziandola infinitamente mi sembra l’esito ovvio di questa tecnologia.
Fra i vari commenti che leggo all’articolo ne trovo di entusiastici (“L’HFT è la cosa migliore che mi sia capitata”) che fra le varie ragioni di questo entusiasmo adducono la circostanza che sia “tutto scientifico” e che “le sfide in questo gioco siano immense” o che “il professional quant tranding è una stupefacente combinazione di matematica, psicologia, teoria dei giochi, teoria dell’informazione, delle probabilità, dell’entropia, vita, gioco d’azzardo, epistemologia e tecnologia”. Di economia non fa menzione nessuno. L’uomo economico contemporaneo, che vive dietro e dentro un computer, non sente di averne più bisogno e se la lascia alle spalle come fa un bimbo diventato grande, che misura la sua efficienza in termini di risposte al nanosecondo.
Una vita stressante, senza dubbio. Esplorando forum e commenti leggo di persone che lavorano fino a 18 ore al giorno, consapevoli di quanto sia dura. L’HFT “richiede ogni oncia della mia attenzione”, scrive un tale. Leggo anche di una compagnia che offre 136 mila dollari l’anno per un analista quantitivo, e poi, ormai immerso nella corrente delle chiacchiere, mi trovo quasi a invidiarli, questi super cervelloni che fanno soldi non per la passione dei soldi, ma della matematica che ci sta dietro, ossia del pensiero astratto. Alcuni dicono che lavorare per l’HFT “è gratificante dal punto di vista morale” e se molti non lo capiscono è solo perché “non trovano intuitivo il concetto di trasferimento del rischio”.
Altri, meno entusiasti, scrivono, dopo aver lavorato per anni nell’HFT di averlo odiato. “Praticamente ho fatto da baby sitter a un computer”, osservano. Ed è proprio questa immagine che mi lascia la seduzione più grande. Stiamo allevando computer, tenuti a bada da persone, uomini economici inconsapevoli, che si sforzano di diventare come loro, mentre maneggiano algoritmi scritti in logica di guerra.
Sta davvero sorgendo l’alba di Skynet sui mercati finanziari.
E non solo. Leggo un commento che mi apre un’altra finestra. Un tale consiglia ai trader HFT di abbandonare la finanza e usare i loro molti talenti per aprire una compagnia specializzata in diagnosi precoci. Gli algoritmi predittivi possono diventare una miniera d’oro in un mondo ossessionato dalla paura della morte. In fondo non c’è nessuna differenza ormai fra la durata di una vita e quella di un’obbligazione.
Almeno non ce n’è per l’uomo economico dietro al computer.
(4/fine)
L’alba di Skynet sui mercati finanziari: i nuovi Terminator
Dunque ormai è assodato che alcune entità, che lavorano col trading algoritmico ad alta velocità, si sono ritagliate un ruolo più che rilevante nel mercato dei titoli di stato americani. Questi soggetti sono capaci di determinare eventi potenzialmente traumatici, come dimostra l’accaduto dell’ottobre 2014, e ciò malgrado sono ancora poco conosciuti e ancor meno si sa delle loro strategie e delle tecnologie che utilizzano, sulle quali vige uno strettissimo riserbo.
Questi nuovi Terminator agiscono all’ombra di una regolazione che si è dimostrata finora incapace di contenerne gli esiti, mentre il grande pubblico ne ignora sostanzialmente la loro esistenza.
Eppure le loro tracce sono numerose, anche se finora confinate nell’informazione di settore. Qualche tempo fa il sito Risk.net ha pubblicato una lista confidenziale delle prime 10 top company che lavorano con questi metodi sul mercato dei titoli Usa, prendendo spunto dai dati raccolti su alcune piattaforme elettroniche fra maggio e giugno del 2015 e che si ritiene svolgano fra il 65 e il 70% del volume delle transazione sull’interdealer market.
Ne è venuto fuori che le prime tre società, Jump Trading, Citadel e Teza Technologies, abbiano generato volumi di transazioni per 2,4 trilioni di dollari nel periodo. Altresì che otto di queste entità non sono banche. JP Morgan, che pure sta nella lista di queste entità, è solo al quinto posto.
Fra queste non banche si segnalano KCG, Spire-X, XR Trading, DRW e Rigel Cove. Nel rapporto viene notato come questa attività di trading, oltre che rilevante, sia anche notevolmente concentrata.
Inevitabile chiedersi perciò chi siano, questi soggetti che, piaccia o no, stanno conformando i mercati finanziari.
Comincio la mia ricerca partendo da Jump Trading, che dai dati diffusi da Risk.net ha sviluppato il 28% delle transazioni del campione analizzato. On line trovo il sito, ma tutto ciò che esibisce è una pagina di un gradevole grigio perla, con indicate le sedi ove opera, un link per le posizioni aperte e un paio di mail per i contatti. Zero informazioni sulla compagnia, la proprietà, la storia. Scopro che fino a un anno fa queste informazioni erano pubblicate. Ma poi in un soprassalto di pudore i padroni di Jump devono aver deciso di farle sparire. Devo contentarmi perciò di esplorare ciò che le cronache riportano.
In alcune trovo conferma della sensazione che coltivo dall’inizio di questa storia: questi soggetti non amano la pubblicità. Ma trovo anche qualche informazione. La Jump è stata fondata a Chicago 15 anni fa e ormai conta 400 dipendenti. I fondatori sono due trader, Bill Di Somma e Paul Gurinas. I suoi ricavi annuali hanno superato i 500 milioni di dollari nel 2010, con un profitto netto di 268 milioni. Del resto si sa molto poco. Si sa che la compagnia ha assunto una pletora di scienziati, matematici e programmatori per costruire i propri algoritmi, e che si è anche dotata di una torre di trasmissione dati in Belgio, una volta usata dalla Nato, per spuntare qualche nanosecondo di vantaggio sui concorrenti, che in larga parte si limitano ad affittarle.
La Jump è un po’ il prototipo di queste compagnie, nate su iniziativa di alcuni trader, o direttamente di scienziati. Il CEO della Teza, la numero tre della nostra lista che per fortuna è un po’ più loquace della Jump, si chiama Misha Malyshev, dottore in Astrofisica nel 1998 a Princeton con specializzazioni in fisica teoretica dopo aver conseguito la laurea in matematica e fisica a Mosca. Quindi ha lavorato per la Bell, transitato per la McKinsey, con la quale ha imparato l’arte e l’amore per il business, e quindi si è messo in proprio, nel 2009. Prima però si è fatto le ossa col gruppo Citadel, il numero due della nostra lista, lavorando nel gruppo delle analisi quantitative. Da lì è divenuto rapidamente capo dell’unità che si occupa di High frequency trading, dove è rimasto fino al 2009. Come anche i fondatori della Jump, la Teza e il suo padrone sono molto attivi nella filantropia. Il che denota un chiaro animo gentile e una evidenza convenienza fiscale. Purtroppo il sito non riporta bilanci o altro.
Decido di concedermi l’ultima ricognizione e scelgo la Spire X, che ha un nome che fa molto Skynet. E che risulta altrettanto evanescente. Ne trovo tracce molto scarne nei recessi della rete, dalle quali deduco che è una compagnia giovanissima, che impiega pochissime persone. E tuttavia, nella nostra breve classifica per volume di trading generato sta appena sotto JP Morgan e sopra Barclays.
Cosa hanno in comune queste entità? La prima cosa che salta all’occhio è che sono tutte proprietary firm, ossia aziende create da persone fisiche e tuttora di loro proprietà. Poi che reclutano scienziati per far girare le loro macchine, che fanno trading basandoli su algoritmi quantitativi. Per queste compagnie, insomma, le vecchie categorie dell’economia non hanno sostanzialmente senso: quello che importa sono le quantità pure. Infine, queste compagnie sono nate e si sono sviluppate nell’ultimo decennio e ormai surclassano le vecchie banche, che in confronto sembrano dinosauri. E come il famoso meteorite ha fatto con i dinosauri, i trader automatici adesso minacciano di terminarle.
Il problema è che rischiano di non essere le sole.
(3/segue)
L’alba di Skynet sui mercati finanziari: caccia alla balena bianca
C’è molto da scoprire leggendo l’istruttivo rapporto del dipartimento del Tesoro americano rilasciato nel luglio scorso nel quale si analizzano gli eventi che nell’ottobre 2014 condussero all’esplosione di volatilità nel mercato dei titoli del Tesoro Usa.
Il fatto fu rilevante, oltre che per la sua entità, per la circostanza che fosse preso di mira l’asset più importante dei mercati, che sta alla base praticamente di tutto ciò che è finanza. Il Treasury, appunto. La percezione della minaccia, avvertita quel 15 ottobre, fu talmente evidente che per l’occasione si sono mobilitati, oltre al Dipartimento del Tesoro, la Sec, la Fed, la Fed di New York e Commodity futures trading commission (CFTC), che in questi mesi hanno lavorato al rapporto ufficiale.
Il motivo è spiegato nella premessa: “Il mercato dei Treasury è il più profondo e liquido mercato di obbligazioni governative al mondo. Gioca un ruolo critico e unico nell’economia globale, servendo come primario mezzo di finanziamento del governo federale, significativo strumento di finanziamento e veicolo di hedging per gli investitori globali, oltre che come benchmark free-risk per altri strumenti finanziari e mercato fondamentale per l’implementazione della politica monetaria della Fed”. Insomma: se i fondi pensione e gli altri veicoli collettivi di risparmio sono considerati la balene del sistema finanziario, verso le quali si avventano gli squali affamati degli speculatori, il mercato dei titoli di stato americani è come Moby Dick: la balena bianca. Arpionarla implica per l’Achab di turno enormi profitti istantanei, capaci però di terremotare la tenuta del sistema globale. Esattamente come è accaduto un anno fa.
Il 15 ottobre 2014 questo mercato sperimentò un livello inusuale di volatilità e un brusco andirivieni dei prezzi, con condizioni generali di liquidità che divennero insolitamente tese. Lo yeld sul benchmark dei titoli a dieci anni, che influenza significativamente i prezzi di altri asset, sperimentò un trading range di 37 punti base, per poi chiudere a 6 punti base dal suo prezzo di apertura. Fino ad allora un livello così elevato di oscillazione intraday si era registrato solo in tre occasione, a partire dal 1998. Ma a differenza di quanto accaduto il 15 ottobre, tale oscillazione trovava giustificazione in significanti annunci di politica economica.
Peraltro, tutto il movimento si concentrò fra le 9.33 e le 9.45 A.M. In dodici minuti lo yeld sul titolo a 10 anni perse 16 punti e quindi rimbalzò. Un fatto senza precedenti nella storia del mercato dei titoli Usa.
Il lavoro degli analisti, considerato ancora provvisorio, svela parecchie delle novità intervenute in questi anni sul funzionamento di questo mercato che rimane tuttora una terra incognita pure per coloro che dovrebbero conoscerlo meglio. L’analisi ha incluso anche il mercato secondario nonché le opzioni e i futures su queste obbligazioni.
La prima informazione che vale la pena riportare riguarda la fisionomia degli intermediari che agiscono su questo mercato. I regolatori hanno identificato cinque diversi tipi di aziende che partecipano al mercato. In comune però hanno tutte una caratteristica: “Ogni tipo di azienda utilizza un certo di livello di trading automatico, con varie sensitività alla velocità di mercato, e funzionano sia come fornitore di liquidità che come prenditori, con periodo di conservazione che varia a seconda della strategia adottata”. I bank-dealers, ad esempio, usano strategia di trading manuale in percentuali maggiori di altri in alcuni segmenti del mercato. I PTFs (principal trading firm), al contrario, sono caratterizzate dall’uso pressoché esclusivo di trading automatico e sono concentrati esclusivamente sul trading, a differenza dei bank-dealers che lavorano anche come custodi o agenti nelle transazioni.
L’analisi degli eventi parte dalle 8.30, quando furono rilasciate le informazioni sulle vendite al dettaglio, che risultarono leggermente più basse del previsto. Solitamente, nota il rapporto, i mercati reagiscono a queste notizie facendo ribassare il tasso di interesse sull’obbligazionario, “ma la risposta, questa volta, fu insolitamente brusca”. I tassi andarono giù di 11 punti base nei 25 minuti successivi, assai più di quanto fosse prevedibile. Ne seguì un altrettanto brusco cambiamento del trading. I volumi cominciarono a salire mentre contemporaneamente si prosciugava la liquidità.
I rendimenti continuarono a seguire il trend ribassista nell’ora successiva fino a che, alle 9.30, nonostante l’apparente mancanza di notizie, iniziarono a muoversi bruscamente. Nei sei minuti fra le 9.33 e le 9.39, lo yeld sul decennale diminutì di 16 punti. Fra le 9.39 e le 9.45 il trend cambiò direzione annullando quasi completamente il movimento precedente. L’evento che ha cambiato le nostre cronache finanziarie si consuma in questi dodici minuti. E il fatto che si sia così tanto contratto lo spazio di tempo che genera un evento dovrebbe farci riflettere. I movimenti dei mercati finanziari sono profondi, bruschi, violenti e rapidi, come quelli dei terremoti.
Detto in soldoni, il decennale crollò dal 2,02% delle 9.33 all’1,86 delle 9.39, per tornare all’1,99% delle 9.44.
Il problema è che tali movimenti, accettabili quando si tratti di asset poco liquidi o scarsamente rappresentativi, lo sono di meno quando di mezzo ci sono i titoli di stato Usa. Anche perché sono stati associati a volumi di trading che nella finestra-evento sono stati da sei a dieci volte più elevati di quelli medi del giorno. Il tutto mentre le tensioni sulla liquidità spingevano alcuni operatori a sganciare i meccanismi automatici di quotazione per limitare i rischi.
A ciò si aggiunga che gli effetti dell’esplosione di volatilità si contagiarono rapidamente anche ad altri mercati, compresi quelli valutari, delle commodity e quelli azionari, anche se in maniera più modesta. L’urlo della balena bianca, insomma, risuonò profondamente nei sotterranei dei mercati..
I dodici minuti di caos, inoltre, provocarono diversi danni a tutti coloro che erano lunghi sul decennale, ossia avevano puntato al rialzo. A cui, evidentemente, corrisposero altrettanti guadagni da parte di altri.
Per capire chi e cosa abbia provocato questo terremoto, la commissione ha analizzato le transazioni e gli ordini di negoziazione dei partecipati. L’analisi non ha condotto a una spiegazione univoca per l’andirivieni del prezzi, e tuttavia i dati hanno evidenziato un numero rilevante di sviluppi nel mercato prima e durante la finestra-evento.
I primi risultati hanno stabilito che i gruppi più attivi che operarono durante i 12 minuti sono stati i PFTs e i bank dealers, ma il movimento di picco sui prezzi si è verificato quando i PFTs hanno amplificato il loro volume di transazioni, mentre al contrario declinava il contributo dei bank dealer. In termini di messaggi di traffico, ossia nuovi ordini, cancellazioni e modifiche a ordini esistente, è emerso che le PTFs ne hanno generato circa l’80%. Ciò lascia ipotizzare che queste compagnie, che lavorano con poco capitale e molta tecnologia, scatenino i loro algoritmi in operazioni spesso contraddittorie che però al termine dell’ondata sono capaci di generare profitti. Alcuni hedge fund, ad esempio, si sono segnalati per le loro posizioni insieme corte e lunghe sul treasury, nei due diversi momenti della finestra evento.
Al tempo stesso si è osservato un notevole aumento del self trading, ossia di un’attività nella quale un’entità si posiziona sia come venditore che come compratore nel book di negoziazione. Anche su questa pratica le PTFs hanno dominato, forse perché, ipotizza la commissione “possono far partire diversi algoritmi di trading contemporaneamente”. Per la cronaca, i regolatori sottolineano che sovente il self-trading nasconda condotte illegali. Nei primi sei minuti della finestra evento il self trading arrivò al 14,9% nel cash market e all’11,5% in quello dei future, quando solitamente non supera la metà.
Fra le 9.33 e le 9.39, le PFTs hanno aumentato la loro quota di trading in un range compreso fra il 73,5% e il 68,4%, mentre i bank-dealers scendevano fra il 21,4 e il 14,1%. In pratica i computer hanno fissato il prezzo dei decennali a fronte di volumi crescenti. Nei sei minuti successivi, quando i prezzi ritracciarono, l’attività di trading del PTFs rallentò, fra il 62,3 e il 56,6%.
Un’altra informazione interessante è quella relativa al grado di concentrazione. In alcuni dei mercati correlati ai Treasury monitorati dalla commissione, come il cash-market, i 10 PTFs più attivi hanno condotto il 94% del trading di tutto il gruppo (sono 37 in tutto), mentre fra i bank dealer il dieci attori più attivi (su 44) hanno pesato il 79% delle transazioni.
Altre analisi condotte a livello algoritmico hanno indicato che il trading aggressivo iniziato nella fase iniziale dell’evento dei PFT ha sempre funzionato seguendo la direzione dei prezzi, pesando notevolmente sugli squilibri osservati.
Insomma: le PTFs sono state le grandi protagoniste dei dodici minuti di terremoto vissuti sul mercato dei titoli di stato. E certo non si sarebbe arrivati a questo risultato se già dal finire degli anni ’90 non ci fosse stato un sviluppo così rilevante del trading elettronico, che dai primi del 2000 ha pure coinvolto segmenti di mercato finora interdetti. Ciò ha provocato un cambiamento sostanziale. Fino al 1992 questi segmenti di negoziazione erano riservati solo ai brokers designati dalla Fed di NY. Ma poi fu garantito l’accesso a tutte le entità che erano componenti del Government Securities Clearing Corporation. Da quel momento l’accesso fu sempre più consentito a nuove entità, fra le quali, nella metà degli anni 2000, si segnalarono le PTFs, che adesso pesano per oltre la metà del trading sui future e nel mercato elettronico dell’interdealear cash market.
Qualcuno ha iniziato a temere che queste pratiche portino con sé rischi, visto che “il trading automatico si muove a velocità che possono eccedere la capacità di controlli manuali e interventi”. Anche perché le PTFs, agendo come operatori specializzati del mordi e fuggi, sono poco capitalizzate rispetto alle banche tradizionali e perciò assai più fragili.
Per concludere questa lunga e noiosa quanto istruttiva ricognizione, vale la pena osservare che l’ammontare del debito denominato in Treasury è aumentato drasticamente dal 2007. Nel giugno di quell’anno la montagna di Treasury sul mercato quotava 4,3 trilioni di dollari, al 30 aprile 2015 aveva raggiunto i 12,6, ossia quasi il triplo.
Ciò fa della balena bianca la preda ideale delle armate robotiche, che dal flash-event del 15 ottobre hanno imparato diverse cose. Hanno capito di essere sistemiche e soprattutto hanno capito che il mercato dei titoli Usa è il ventre molle e gigantesco della finanza globale. Se Skynet fosse cattiva come in Terminator, saprebbe benissimo come far partire l’attacco globale.
Per fortuna non è cattiva. Vuole solo far soldi.
Pure a costo di distruggerli.
(2/segue)
Leggi la prima puntata Terza puntata Quarta e ultima puntata
L’alba di Skynet sui mercati finanziari
Nei sotterranei della finanza, dove l’occhio non vede e quindi il cuore non duole, si sta consumando una rivoluzione silenziosa nella quale vecchi protagonisti, ormai divenuti riluttanti, cedono la supremazia a giovani rampanti, come sempre è successo in tutti i grandi cambiamenti.
Tale rivoluzione, purtroppo ancora poco osservata, viene condotta da un organismo chimerico, un ircocervo, nato dal matrimonio ormai antico eppure anch’esso poco osservato, fra la fisica e la finanza officiato dalla matematica tramite il suo strumento applicato, ossia l’informatica. La rivoluzione della finanza del sottosuolo, perciò, è innanzitutto una rivoluzione tecnologica e scientifica. Perciò sostanzialmente sociale. Gli esiti sono già visibili in alcuni episodi raccontati dalle cronache, ma non arrivano a conformare la società. Per ora.
Ciò che si vede, ma che poco si conosce, è la sua risultante: l’automazione del trading, ossia degli scambi finanziari guidati da algoritmi, che ha generato per partenogenesi una pletora di compagnie di HFT (High frequency trading) che piano piano stanno sostituendo le vecchie banche, che nei mercati svolgevano il ruolo di arbitri e garanti delle contrattazioni, con un modello di business che prevede poco capitale e molta tecnologia, in perfetta coerenza con l’esito immaginifico della nostra economia.
Qualcuno sorriderà, pensando che questa intemerata apocalittica sia un sollevar polvere per celare i dilemmi sostanziali della nostra economia, quelli che misuriamo con i deficit e i surplus, con l’accumularsi degli squilibri e il declinare dei prezzi. Cose reali, insomma. Ma il mio timore è che costoro pecchino di ottimismo. L’influenza del ciclo finanziario su quello economico, infatti, ormai è cosa fin troppo evidente per esser sottaciuta. E una volta che si osservi l’incredibile sviluppo dei sistemi automatici di trading e il loro effetto sui cicli finanziari, sarebbe poco saggio non fermarsi un attimo a riflettere e porsi una semplice domanda: ma questi sistemi di calcolo che ipotesi sussumono? O, detto in termini più chiari: come funzionano?
Prima di rispondere è opportuno mettere in rilevo gli effetti che tali diavolerie possono avere sulla stabilità finanziaria. E il fatto stesso che il Fmi abbia giudicato opportuno dedicarvi un box del suo ultimo rapporto sulla stabilità finanziaria (“Electronic Trading and Market Liquidity”) lascia dedurre che l’abbiano, e pure rilevante.
“Negli ultimi decenni – scrive il Fmi – le piattaforme di trading elettroniche sono state introdotte in un’ampica varietà di mercati”. Per osservare l’impatto che tali pratiche possono avere sulla stabilità, il Fmi ha preso ad esempio il mercato dei derivati OTC (over-the counter), ossia uno dei più ampi al mondo per valori nozionali, e ne ha tratto la conclusione che “l’introduzione delle piattaforme elettroniche ha generalmente condotto a benefici alla liquidità dei mercati”. E tuttavia, “recenti episodi che hanno interessato la liquidità hanno anche indicato le potenziali vulnerabilità che possono essere condotte dal trading elettronico, specialmente con l’high frequency trading”. Una considerazione accuratamente bipartisan dalla quale deduco che queste piattaforme aiutano quando tutto va bene e distruggono quando tutto va male, come l’energia nucleare. Sono, direbbero gli economisti, procicliche.
Quindi abbiamo da un lato lo sviluppo di piattaforme elettriche di trading, ormai disponibili anche per il mercato retail, come quella che usano i privati cittadini quando giocano al casinò della borsa. Abbiamo, vale a dire, un’infrastruttura telematica ormai evolutissima. E poi abbiamo delle pratiche, fra le quali l’HFT, che riguardano solo alcuni operatori specializzati. Per capire la differenza è sufficiente notare come una piattaforma di HFT abbia come unità di misura il nanosecondo, ossia il milionesimo di secondo, per valutare l’arco di tempo delle sue transazioni, che vengono condotte nell’ordine delle migliaia al secondo.
Ma allora in cosa sta il vantaggio? “Il trading elettronico può grandemente favorire l’incontro fra il venditore e il compratore”, pure se “d’altra parte le nuove strategie adottate da queste piattaforme possono causare distruzione della liquidità di mercato in risposta a shock”. Il motivo dovrebbe essere chiaro: un uomo pensa, prima di farsi prendere dal panico e vendere. Una macchina vende senza patire alcun sentimento. E’ più efficiente appunto. Il che com’è ovvio fa la gioia dei profeti dell’efficienza.
Gli studi sull’impatto del trading elettronico sono purtroppo ancora scarsi, nota il Fmi, ma in generale sono concordi sui benefici. L’elettrificazione dei mercati a reddito fisso, quindi quelli obbligazionari, ha facilitato l’incontro fra venditori e compratori, ossia la liquidità delle obbligazioni, comprese quello più sottili, come si chiamano in gergo le obbligazioni che non esprimono grandi volumi di trading e quindi sono per natura poco liquide.
Per le obbligazioni trattate in origine nei mercati OTC, quindi non regolamentati, la migrazione all’elettronico “può condurre a un boost nei volumi di trading e della liquidità di mercato”, nota il Fmi, ricordando come negli Usa la migrazione di alcuni derivati OTC su piattaforma elettronica è iniziata nell’ottobre 2013, con la decisione della Commodity Futures Trading Commission (CFTC) di autorizzare il primo Swap Execution Facility (SEF), ossia rendere disponibile su piattaforma telematica un sistema che consente agli operatori di contrattare Swap in maniera aperta e trasparente. Trasparenza, velocità, efficienza: come non convincersi che sia la strada giusta?
Infatti gli Usa si sono talmente convinti che da febbraio 2014 hanno deciso di obbligare gli operatori a utilizzare SEF per eseguire gli scambi su tutti i contratti “disponibili per lo scambio”. Insomma: il carico di lavoro per questi sistemi è aumentato significativamente. “La prima ondata si è focalizzata su alcune tipologie di contratti altamente standardizzati che coinvolgono le controparti centrali, come alcuni Interest rate swap o gli index-based credit default swap”.
Una volta che l’esperienza di queste pratiche si consoliderà, spiega il Fmi, “potranno essere tratte importanti lezioni dalla grande elettrificazione e standardizzazione dei mercati dei corporate bond”.
Al tempo stesso però, nota il Fondo, “le piattaforme elettroniche possono facilitare la crescita di aziende di HFT, con potenziali impatti negativi sulla liquidità”. Queste aziende, infatti, vengono sospettate di essere all’origine dell’episodio dell’ottobre 2014, quando ci un un rally nelle quotazioni dei Treasury americani. “Eventi come questi – nota il Fmi – come anche il flash crash del 2010, quando vennero giù le borse e il mercato dei futures, mostrano come la liquidità può evaporare molto rapidamente e come la mancanza di liquidità può amplificare gli shock”.
Quindi queste entità possono favorire episodi di volatilità sui mercati finanziari, proprio in virtù della potenza operativa di cui dispongono, aggravando trend negativi così come esasperano quelli positivi.
Non finisce qui. “La struttura del mercato dei Treasury Usa – sottolinea ancora – ha sperimentato significativi cambiamenti nell’ultimo decennio”. In particolare si è registrato il declino del ruolo delle banche e un aumento di importanza proprio delle compagnie di HFT. “Sono cambiati i canali di origine della liquidità”, spiega ancora. “Le banche probabilmente ora hanno meno spazio di bilancio dedicato alle strategie di market-making”. Quindi hanno lasciato spazio alle imprese HFT che “operano tipicamente con capitale molto basso”. Ne consegue che in tempi normali, la liquidità è ampia, ma quando si verifica uno shock, il mercato è più vulnerabile perché “il mercato tradizionale e i nuovi soggetti responsabili non sono in grado o non vogliono fornire liquidità”.
Insomma, c’è molta più efficienza, anche quando ci si fa male.
L’esempio dell’ottobre 2014 è assai eloquente.
Il 15 ottobre il mercato dei Treasury visse uno degli episodi di volatilità più ampi degli ultimi 25 anni. Un dato giudicato negativo delle vendite al dettaglio spinse gli hedge fund a riposizionarsi scommettendo su un ritardo nel rialzo dei tassi della Fed (capite bene perché se ne parli così tanto). Ciò condusse a una crescita graduale dei prezzi che spinse i market-maker tradizionali a ridurre la liquidità, semplicemente sfilandosi dal mercato.
Ne conseguì che fra le 8.50 e le 9.33 A.M. il book di negoziazione si assottigliò drammaticamente. Nello stesso arco di tempo si scatenarono le armate algoritmiche. Si registrò un’impennata delle attività di HFT. Nell’arco di 12 minuti la liquidità evaporò e pochissime negoziazioni, ma molto ampie, generarono un flash-event, ossia un picco. Il picco spinse le compagnie di HFT a un trading molto aggressivo per ridurre i rischi a cui si erano esposte, ma poiché la liquidità era evaporata i prezzi divennero estremamente volatili, conducendo ad ulteriore trade di copertura, veloci e microistantanei. Come infiniti robot gli algoritmi massimizzavano i profitti sconvolgendo il mercato dei titoli di stato americani, che per loro (ma non per noi) erano semplici numeri di codice.
Più tardi un rapporto congiunto delle autorità americane sottolineò la predominanza delle armate HFT su quelle umane. Mentre i vecchi broker-dealers si ritiravano dal campo, le armate automatiche avanzavano veloci e compatte.
Risultò che nel flash-event la quota di trading svolta dagli HFT abbia raggiunto l’80% del totale, a fronte di una media del 50%. E che gli HFT avessero comprato aggressivamente durante la salita dei prezzi e venduto furiosamente durante il crollo.
Non è un film dell’orrore.
E’ solo l’alba di Skynet sui mercati finanziari.
(1/segue)
All’origine del bad equilibrium: il mito della Produzione
Mentre sfoglio libri d’altri tempi e analisi di oggi, cercando di capire da dove sia iniziata la fine di questa storia, noto sorpreso che da qualunque lato lo si osservi, il nostro peregrinare ballerino conduce sempre nello stesso dove: la produzione. O, detto più comprensibilmente, la sua crescita. Nel nostro immaginario economico i due termini sono praticamente sinonimi, mentre gli statistici confezionano l’indice del prodotto interno lordo, e non a caso.
Crescere è il nostro imperativo categorico, che già denota un difetto nella costituzione dello spirito di questo tempo, giacché dovrebbe appartenere al normale svolgersi di una vita, la crescita, pur’anche di un organismo economico. E invece è un pensiero fisso, una malattia, che fatalmente ci ossessiona e chissà quanto ci impedisce di crescere sul serio. Intendo dire lungo una traiettoria più ampia, se non quantitativamente più alta, di quella espressa dagli indici del prodotto nazionale.
Al Prodotto, quindi, è stato assegnato per comune consenso un potere davvero demiurgico: quello di conformare la realtà. Muovendosi origina tutta la panoplia delle variabili che sono le maschere delle rappresentazioni confezionate dagli economisti nelle loro teorie. Se non ci fosse la produzione di qualcosa non ci sarebbero i salari per chi produce, i profitti per chi la intraprende, le rendite per chi affitta il capitale o gli strumenti. La produzione, perciò, generando i redditi delle comparse economiche, implica al suo interno la misteriosa alchimia dei prezzi, guidata dal gioco di domanda e offerta, che nella visione tradizionale degli economisti sono il giusto punto di equilibrio capace di soddisfare tutti: l’operaio, l’imprenditore e il rentier.
Da circa 80 anni lo Stato è diventato comprimario di questo teatro di marionette e anzi rivendicando ai privati il ruolo da protagonista, sedotto e mai abbandonato dalle provvidenziali “eresie” keynesiane pubblicate sempre circa 80 anni fa nell’intento disperato di uscire dal cono della depressione. Il risultato è che adesso i prezzi devono remunerare anche le imposte, ormai a un livello esorbitante, così come anche servire i debiti, anche essi a livelli inusitati. Ciò implica che il Prodotto debba crescere sempre di più per sostenere anche questa faticosa rappresentazione.
Su questo quadro sintetico s’innesta l’attualità. Oggi come ieri tutte le soluzioni proposte dai vari osservatori internazionali sono palesemente indirizzate a favorire la produzione, che già negli anni ’50 l’economista americano John K. Galbraith dipingeva come un mito in un celebre libro (La società opulenta) osservando con sapida arguzia il suo essere un cascame culturale del XIX secolo, quando i problemi della produzione erano al centro dell’attenzione degli economisti perché si ragionava su società autenticamente bisognose di tutto, a differenza di quella che lui osservava nel secondo dopoguerra, che già esibiva le distorsioni provocate dalla ricchezza. Galbraith ne deduceva – sintetizzo malamente – che una società opulenta dovrebbe spostare l’angolo visuale dalla produzione di beni materiali a quella di servizi pubblici. Per capirsi: è inutile, oltre che inflazionistico, continuare a produrre automobili se non ci sono strade sufficienti e sicure dove farle camminare.
Più di sessant’anni dopo ci troviamo esattamente allo stesso punto. L’oggetto del dibattere rimane la produzione. I disaccordi si generano all’interno di un recinto specialistico dove sedicenti esperti, quelli che Luigi Einaudi chiamava i periti, discettano se l’aumento della produzione debba derivare da politiche della domanda – meglio se pubblica e magari a deficit – o da politiche dell’offerta che vengono ammantate dietro la dizione generica di Riforme Strutturali, che è un modo educato e moderno di dire che dobbiamo essere sempre più bravi, istruiti, flessibili, competitivi cosicché i mercati possano provvedere a noi secondo il nostro merito. E poiché tutto il meccanismo economico si è conformato lungo le coordinate di questo dibattito favolistico non c’è più spazio per discorrere di altro.
E’ interessante, tuttavia, seguendo sempre Galbraith, tornare all’origine di questa idea per provare a penetrarne il presupposto celato. A ben vedere il desidero di una produzione crescente altro non è che la mercificazione del nostro bisogno di sicurezza economica. Poiché dalla produzione si fa seguire l’occupazione e da quest’ultima la nostra capacità di stare al mondo, è giocoforza puntare sulla produzione per tenere in equilibrio le nostre società. Questo non è un fatto incidentale, ma una precisa scelta politica che il mondo occidentale ha fatto nel secondo dopoguerra.
Sempre Einaudi, nell’introduzione a un libro del 1948 (“La Germania ritorna sul mercato mondiale”) dove Ludwig Erhard spiegava le ragioni del nuovo miracolo tedesco, osservava con tono che a me pare dolente il sorgere di questa nuova ossessione che dominava la politica e faceva strame di antiche consuetudini e pudori ancor più remoti. “Qui non si vuole muovere critica a un atteggiamento politico, che probabilmente è fatale”, scrisse, ricordando “i sottili problemi posti dalla premessa della piena occupazione” che si sarebbero realizzati una volta che si fosse definitivamente superata la premessa sulla quale si era basata sino ad allora l’economia. “La premessa antica era che la politica monetaria e finanziaria fosse subordinata al mantenimento di un rapporto fisso della unità monetaria nazionale con un determinato peso di oro fino. La premessa moderna è che la politica monetaria debba essere subordinata all’osservanza del comandamento della piena occupazione (…). Che cosa significava l’antica premessa? Che un impegno deve essere osservato (..) oggi invece stati e privati sanno di non assumere più lo stesso obbligo quando contraggono obbligazioni (…). La domanda angosciosa è: i principi delle assicurazioni sociali, della piena occupazione e della uguaglianza delle fortune e dei redditi fino a che punto hanno prodotto risultati vantaggiosi alla collettività? Non si è già oltrepassato il punto critico, dimenticando i valori antichi della responsabilità individuale, della osservanza degli impegni assunti, dell’incentivo a innalzarsi nella scala gerarchica? Non siamo tornati troppo indietro abbandonando il tipo di società regolata da contratto liberamente negoziato a favore di una società basata sui regolamenti delle leggi?”. Indietro, notate bene, non avanti.
La piena occupazione, quindi, o quantomeno un livello soddisfacente di occupazione capace di garantire la sicurezza economica e quindi l’ordine sociale rimane, ieri come oggi, al centro dell’agenda politica internazionale. Come esempio basti soltanto ricordare che la Fed aveva messo un certo tasso disoccupazione fra i suoi target della sua politica di quantitative easing.
Il fatto che sessant’anni di politiche basate sull’idea della piena occupazione, e quindi della produzione, ci abbiano portati a una situazione di instabilità permanente alimentata da debiti crescenti ormai palesemente inesigibili non sembra turbare nessuno. Gli specialisti – i periti – continuano a dividersi sui rimedi e pochi si stupiscono – anzi si dicono soddisfatti – che un solo stabilimento produca 100 mila automobili al giorno e dica di voler ancora aumentare la produttività sostanzialmente a scapito delle retribuzioni, che poi l’acquisto delle stesse auto dovrebbero garantire, mentre si assiste a una concentrazione della ricchezza di tipo ottocentesco.
L’esito di tutto ciò è che il desiderio di sicurezza, di cui la piena occupazione è la declinazione economicistica, ha costruito un mondo che invece alimenta l’insicurezza. Il mito della produzione genera il timore di una stagnazione secolare, che peraltro è una paura che risale sempre agli anni ’30, quando Alvin Hansen la teorizzò in un’opera del ’37.
Tale dilemma non potrà essere affrontato se non si cambierà il paradigma che sta alla base del nostro vivere sociale. I tre attori sociali che fanno l’economia reale, ossia i produttori, i consumatori e lo stato, devono elaborare uno schema di relazione che modifichi consuetudini ormai superate dalla storia, dando un significato diverso a parole antiche come lavoro, reddito, capitale, moneta.
Purtroppo questa riflessione non è neanche cominciata. I politici agitano ricette economiche che non comprendono, gli economisti s’impiccano e ci impiccano all’econometria, le persone alla paura del futuro, ossia ciò che origina il bisogno di sicurezza economica. E il girotondo ricomincia.
Ed è questa mancanza di riflessione la vera origine del nostro bad equilibrium.
(4/fine)
La liquidità internazionale diventa gassosa
Basterebbe una riga a chiudere questo post: la liquidità non è in declino, ma è pronta ad evaporare. Tutto qua. E poiché la sintesi proviene dal Fmi, che così ha intitolato un survey article dedicato a suo ultimo Global stability financial report, non trovo parole migliori per commentarle a mia volta che osservando quello ormai evidente: la liquidità, a furia di circolare vorticosamente, si è scaldata a tal punto da diventare gassosa. Basta un niente per farla evaporare. O esplodere, se preferite.
Nulla che non fosse già chiaro a molti. Del paradosso della liquidità, abbondante quanto instabile, i regolatori si occupano da tempo, reiterando allarmi come al solito destinati a rimanere inascoltati. Utili pro memoria, tutt’al più. Perché ormai è chiaro che la giostra funzionerà finché funzionerà. E solo dopo spunteranno come funghi gli esperti del giorno dopo a spiegarci il perché e il per come dello sconquasso.
Intanto contentiamoci di rispondere alla domanda, anch’essa paradossale che fa il Fmi: come può essere bassa la liquidità nonostante l’abbondante liquidità fornita dalle banche centrali? Ciò serve a delineare il quadro all’interno del quale la giostra gira.
Meglio cominciare dall’inizio. La liquidità, ossia l’abilità degli operatori di mercato a comprare o vendere grandi quantità di asset finanziari al minor costo di scambio e nel minor tempo possibile, mostra di declinare in alcune classi di asset. Tale tendenza tuttavia viene mascherata dai bassi tassi di interesse. Così almeno la racconta il Fmi che concentra l’attenzione – e non a caso – sul segmento dei corporate bond per motivi che sono tecnici ma anche squisitamente geopolitici. Lo dimostra il fatto che un altro capitolo del GFSR è dedicato al debito corporate dei paesi emergenti, che ormai suscita più d’una preoccupazione.
La logica che sta sotto al processo di trasformazione “gassosa” della liquidità è molto semplice. “Negli anni recenti – spiega il Fmi – gli investitori si sono abituati a assumere maggiori rischi in cambio di maggiori rendimenti e le politiche monetarie accomodative, basate sui tassi bassi e gli acquisti di bond, hanno sostenuto la liquidità di mercato”. Ciò tuttavia ha condotto a cambiamenti strutturali dei mercati. A tal punto che il Fmi raccomanda un ritorno morbido alla normalizzazione delle politiche monetarie proprio per fare in modo che non si realizzi quella distruzione dei mercati che la politica monetaria ha voluto evitare.
In questa esemplare dimostrazione dell’eterogenesi dei fini, a farla da padrona è la volatilità, i cui indici schizzano in alto in maniera randomica, essendo quest’ultima una misura del nervosismo dei mercati, da una parte, e della sostanziale instabilità della materia gassosa che ormai regge gli scambi internazionali al prezzo di una notevole sofferenza della crescita. “Quando la liquidità di mercato è bassa gli investitori possono decidere di posporre le decisioni di investimento e la crescita economica ne soffre”. Viene meno, quindi il presupposto sulla base del quale è stato costruito l’incantesimo monetario.
A complicare la questione, la circostanza che la la liquidità, come tutte le entità pressoché metafisiche che governano il nostro discorso economico, è difficile da capire. Nei processi che la circolazione del denaro alimenta agisce una pluralità di operatori, ognuno dei quali segue logiche che possono andare in conflitto con quello che poi è il proposito della giostra: fare girare appunto i soldi. “L’appetito del rischio dei market maker (gli intermediari che consentono di effettuare gli scambi, ndr) – sottolinea – influenza la loro inclinazione agli scambi”. Se cioé una di queste entità, solitamente una banca d’affari, per questioni di regolazione più stringente o per semplice avversione al rischio, cessa di svolgere in maniera efficiente la sua funzione di intermediario, ciò che ne risente è la capacità del mercato finanziario di alimentare gli investimenti tramite il canale del credito. La liquidità evapora, appunto.
Altri fattori hanno reso più complesso il funzionamento della giostra. L’introduzione delle piattaforme elettroniche, che secondo il Fmi ha reso più efficienti i costi e la velocità delle transazioni (ma non si considera che queste piattaforme hanno chiari comportamenti prociclici), così come i larghi acquisti di bond pubblici da parte delle banche centrali, hanno ridotto la disponibilità di questi asset, spingendo gli investitori altrove.
Comunque sia, ne è risultata “una crescente fragilità nei mercati della liquidità”, osserva Gaston Gelos, capo della divisione del Fmi che analizza la stabilità globale. Tale fragilità emerge anche nei mercati giudicati più stabili, come dimostrano gli episodi dell’ottobre 2014, che ha riguardato l’obbligazionario americano, e quello dell’aprile 2015, che ha riguardato l’Europa. Col risultato che “se le condizioni finanziarie peggiorano o gli investitori si stancano di particolari categorie di asset, la liquidità può rapidamente evaporare”.
Segni in tal senso si osservano adesso nei mercati dei bond dei paesi emergenti. E poiché il contagio si comunica con estrema facilità da un mercato all’altro, ciò è sufficiente per coprendere che la bolla di aria calda sulla quale gira la giostra potrebbe semplicemente scoppiare, da un momento all’altro e senza preavviso.
“E’ cruciale che si continui con le riforme delle infrastrutture di mercato per aumentarne la resilienza – conclude Gelos. Al tempo stesso le banche centrali e i supervisori finanziari devono prepararsi per episodi di breakdown della liquidità”.
Quindi non si discute più del se.
Ma del quando.
Il calo delle commodity affossa gli Emergenti
Poiché le brutte notizie camminano sempre in compagnia, non mi stupisco di leggere, sfogliando un capitolo dell’ultimo World economic outlook del Fmi, una preoccupata analisi sull’andamento dei mercati delle materie prime, che solleva una questione parecchio importante: l’effetto del calo delle quotazioni delle commodity sull’economia dei paesi esportatori.
Questi ultimi, essendo paesi emergenti, vedono quindi complicarsi una situazione già resa complessa dagli alti livello di indebitamento che hanno raggiunto le loro economie, in un contesto finanziario che inizia ad esser loro avverso. Un rallentamento delle commodity implica necessariamente un calo degli introiti, da un parte, e ha effetti sulla crescita, dall’altra, andando a impattare sul funzionamento profondo di questi paesi. Ne deriva che dovranno faticare ancor di più per ripagare i propri debiti e insieme garantire la sicurezza economica delle loro popolazioni.
Qualche cinico penserà che in fondo sono problemi loro. Anzi sarà pure contento, visto che il calo delle quotazioni finisce col provocare un sostanzioso trasferimento di ricchezza dai paesi esportatori a quelli importatori. Ossia da molti poveri a pochi ricchi. Ma costui dovrebbe ricordare che le interconnessioni del nostro meraviglioso mondo tendono a esportare i problemi ben lungi da dove sono originati, come sa chiunque abbia dimestichezza con l’analisi dei flussi bancari fra le economie avanzate e quelle emergenti.
Come ogni cosa, anche il rallentamento delle quotazioni delle commodity parte da lontano, ed è utile osservare l’andamento di questi mercati fin dal 1960, grazie a un grafico che il Fmi mette a disposizione del suo studio. Qui salta all’occhio l’impennata del prezzo delle commodity nei primi anni del 2000, e in particolare di quelle energetiche e dei metalli, anche se pressioni al rialzo si notano anche in quelle alimentari.
Il rallentamento iniziato ormai da un anno ha raffreddato il boom, ma come si può osservare in alcuni mercati, siamo ancora ben oltre il livello “storico”. E ciò è un motivo più che sufficiente per sollevare l’interrogativo se possa esserci una correzione ulteriore e, nel caso, quanto andrà ad impattare sulla crescita dei paesi coinvolti.
L’Fmi ha condotto una simulazione dalla quale emerge che il calo già subito potrebbe impattare per circa l’1% sul tasso di crescita dei paesi esportatori nel periodo 2015-17, rispetto alla crescita che si è registrata fra il 2012-14. Nei paesi esportatori di energia, tale calo sarà ancora più pronunciato: si stima si possa arrivare fino al 2,25% in media ogni anno.
Ciò viene aggravato dalla circostanza che l’effetto sull’economia potrebbe non essere semplicemente ciclico, ma strutturale: “Gli investimenti e quindi l’output potenziale tendono a crescere più lentamente durante una fase di ribasso dei prezzi delle commodity”, spiega uno degli analisti.
Il fattore strutturale, a sua volta, si avvita con quello congiunturale, il che peggiora le conseguenze dello slowdown. Dal che il Fmi deduce che “i policymaker dei paesi esportatori di commodity dovranno andare aldilà della politiche di supporto alla domanda, e adottare riforme strutturali per migliorare il capitale umano, aumentare gli investimenti e ottenere più elevati tassi di crescita della produttività”.
Gira e rigira, arrivano sempre le riforme strutturali. “Un cambio più flessibile e regole capaci di evitare gli effetti procicliche della politiche fiscali può alleggerire il peso dei ribassi sulle economie esportatrici”, nota il Fmi. E poi ci sono quelle riforme che fanno bene a tutti: creare un clima favorevole al business, migliorare l’istruzione, eccetera.
Ma lo studio del Fmi, stime a parte, è utile perché è stato condotto esaminando i dati di 40 paesi esportatori negli ultimi 50 anni. E non è tanto importante il fatto che molti di questi paesi dipendano pesantemente dagli incassi esteri per la loro politica fiscale, né che tali entrate siano procicliche, quindi aiutano quando tutto va bene e danneggiano quando i prezzi calano.
Il fatto sul quale il Fmi sorvola ma che giova rilevare è che queste economie raggruppano miliardi di persone. Che prima non stavano bene e adesso rischiano di stare peggio.
I rischi delle assicurazioni inglesi (e delle altre)
Appartiene all’esito paradossale del nostro tempo che le incertezze spuntino come funghi laddove invece avrebbe dovuto allignare la certezza. La fame di sicurezza economica, ossia il sottotitolo dell’ossessione per la crescita, spinge le autorità monetarie ad abbassare i rendimenti stimolando per converso l’appetito del rischio. E così facendo coloro che dovrebbero garantire la sicurezza diventano fonte del contrario.
Si pensi ai fondi pensione, le balene del sistema finanziario, verso le quali si avventano i predatori dei mercati cercando di infligger loro morsi mortali sotto forma di asset incerti. O magari alle assicurazioni che, a dispetto del loro nome, sono diventati uno degli attori economici sui quali si concentra la sempre più ossessiva attenzione dei regolatori, che ormai con sempre più frequenza sollevano allarmi sulla loro tenuta in un tempo di rendimenti finanziari pressoché a zero.
L’ultimo di una lunga serie che ho trovato l’ha redatto la Bank of England nel suo ultimo rapporto sulla stabilità finanziaria che ospita una preoccupata ricognizione del settore assicurativo inglese, che conta circa 600 compagnie, ormai cresciuto, quanto ad asset posseduti, alla grandezza di 1,9 trilioni di sterline, ossia equivalente al pil britannico e al 40% degli asset del sistema bancario. Vale la pena sottolineare che le prime tre grandi compagnie detengono il grosso di questi asset, un trilione su 1,9, mentre le prime tre banche 4 trilioni.
“Le compagnie di assicurazione – scrivono – giocano un ruolo importante nel supporto dell’attività economica, ma gli assicuratori sono esposti a numerosi rischi”. E soprattutto, possono trasmetterli a tutto il sistema finanziario. E non serve andare lontano per capirlo. Basta ricordare il disastro provocato dall’americana AIG fra il 2007 e il 2008 vendendo credit default swaps basati su carta inesigibile.
Ed è proprio questo il paradosso: le assicurazioni dovrebbero assicurare contro i rischi. Ma come possono farlo quando prezzare questi rischi, e fornirsi del collaterale adatto, diventa sempre più difficile? E soprattutto come possono riuscire a ricavare dai propri investimenti le risorse necessarie a coprire questi rischi, una volta che si materializzino le perdite, se gli investimenti diventano sempre meno remunerativi o, a loro volta, più rischiosi?
Il modello classico delle assicurazioni, che prevede la costante accumulazione di premi a fronte di esborsi più o meno lontani nel tempo, per quanto resiliente sta iniziando a mostrare la corda. E il perché è facile da capire: i bilanci delle compagnie assicurative sono esposti a rischi sia dal lato dell’attivo – i loro investimenti risentono dell’andamento del mercato – che da quello del passivo – i loro costi possono essere molto più elevati del previsto – aggravandosi queste fattispecie in un momento in cui i tassi sono a zero.
In Gran Bretagna le assicurazioni sono soggette alla vigilanza della Prudential Regulation Authority (PRA’s) coadiuvato dal Financial Policy Committe’s (FPC’s) che cerca di individuare i rischi sistemici che possono insidiare il lavoro degli assicuratori.
Queste entità hanno analizzato i canali di trasmissione del rischio che dagli assicuratori possono essere trasferiti all’economia reale, alla quale questi compagnie forniscono importanti strumenti di supporto, e all’economia finanziaria, di cui pure sono parte, attraverso una serie di procedure che vanno dalla riassicurazioni, il funding e le cartolarizzazioni.
Qualche esempio servirà a capire meglio. All’epoca dell’attacco terroristico dell’11 settembre le compagnie smisero di assicurare contro il rischio terrorismo. Senonché, le compagnie commerciali non possono volare senza un’assicurazione sulle terze parti. E poiché il trasporto aereo riveste un’importanza evidenza nell’economia di un paese, il governo britannico mise in piedi uno schema assicurativo chiamato Troika (che non è quella greca, pure se il senso è simile) che lavorò per un anno per garantire il funzionamento del traffico aereo. La socializzazione del rischio, oltre che delle perdite, è un’altra caratteristica del nostro mondo capitalistico.
Un altro esempio servirà a chiarire l’importanza sistemica delle assicurazioni rispetto al sistema finanziario. Ogni volta che una banca concede un mutuo è pratica comune che generi un contratto assicurativo a carico del proprietario. Perciò in molti mercati assicurativi una eccessiva concentrazione di questi contratti in pochi soggetti può far fibrillare il sistema qualora il mutuo vada in sofferenza.
Ed è proprio la concentrazione una delle principali fonte di rischi del settore assicurativo britannico.
Poi c’è la questione dei servizi che consentono di accumulare risparmio. Nel 2014 le assicurazioni avevano debiti verso i sottoscrittori del ramo vita per 1,506 trilioni, fra pensioni e piani di accumulo, a fronte dei quali detenevano asset corrispondenti investiti in diverse classi di asset, fra i quali, come si può osservare qui, primeggiano i corporate bond a fronte di un declino costante dei bond governativi, evidentemente meno remunerativi.
E’ evidente che se ogni volta che le assicurazioni reinvestono le cifre ricavate dagli asset scaduti devono tener conto dei debiti corrispondenti a queste obbligazioni e devono quindi fare in modo di investire su prodotti che garantiscano rendimenti sufficienti a coprire i flussi di cassa. Tutto ciò, pacifico in tempi di rendimenti normali, diventa complicato ai tempi nostri. Tanto è vero che sia il Fmi che la BoE hanno sollevato l’allarme sul crescente rischio di reinvestimento delle compagnie. Rischio diffuso, peraltro. Basta ricordare che la Bundesbank ha sottolineato come 12 compagnie tedesche su 85 non avranno più i requisiti di solvency con i mezzi propri se il return on asset, ossia il rendimento degli investimenti, rimarrà intorno al 2,5% fra il 2015 e il 2023. Altre 32 sono addirittura a rischio di default se i rendimenti dovessero tendere verso l’1,5% nello stesso periodo.
A complicare questa situazione, ormai sistemica, ci sono anche i rischi di disallineamento della liquidità, tipici del periodo di estrema volatilità che stiamo vivendo, che potrebbe rendere difficile trovare la provvista a breve che serve quotidianamente alle assicurazioni per far ruotare i propri asset, ma soprattutto la circostanza che, essendo dotate di asset a lunga scadenza, spesso le assicurazioni danno in affitto i loro asset come collaterali in cambio di un profitto.
Anche questa pratica, che prevede il richiamo o la riconsegna a vista degli asset, aggiunge altri rischi di liquidità. Anche qui l’esempio di AIG è istruttivo. Nel 2008 la compagnia americana fu incapace di trovare risorse sufficienti a far fronte al programma di lending security da 40 miliardi messo in piedi negli ani precedenti. Ciò provocò un drenaggio di fondi per oltre 17 miliardi dalle casse di AIG solo nella seconda metà del 2008.
Un’altra fonte di rischio viene individuata nell’opzione di flessibilità che gli assicuratori concedono in molti contratti, che implica la possibilità di ricontrattare le polizze al variare delle condizioni di mercato. Anche qui, un esempio sarà eloquente. Quando scoppiò la crisi asiatica nel ’97-’98 i tassi di interesse salirono dal 12 al 30% a fine 1997. Molti possessori di polizze indicizzate chiesero di cambiare le condizioni del loro contratto costringendo le assicurazioni a una vendita precipitosa di asset (cd fire-sale) per fare fronte alle proprie obbligazioni. Alcuni paper recenti hanno stimato che le assicurazioni tedesche sono sottoposte a rischi siffatti solo che i tassi salgano di appena il 2%.
Come se tutto ciò non bastasse, molte assicurazioni hanno aumentato la loro esposizione a prodotti di breve termine per il loro funding. Si calcola che le assicurazioni americane siano esposte per oltre 11 miliardi di euro e che il sistema assicurativo abbia 27 miliardi di repo attivi nei confronti di 17 istituzioni finanziairi, pronte a “bollire” in caso di rarefazione della liquidità.
Quest’ultima circostanza mette in rilevo il ruolo rilevante ormai incarnato dalle assicurazioni nei confronti di importanti controparti, a cominciare da quelle bancarie, col quale il settore è profondamente interconnesso, come anche dimostra l’interessamento recente dell’European Systemic Risk Board. Ma la tendenza è globale. E si manifesta anche nella crescente quota di obbligazioni finanziarie detenute dalle assicurazioni nei loro portafoglio.
Negli Usa, ad esempio, le compagnie assicurative hanno in pancia 195 miliardi di obbligazioni del settore corporate, la metà delle quali emesse da banche. In Uk il fenomeno è meno vistoso, ma esiste. Si calcola che le assicurazioni abbiano il 16% del loro portafoglio obbligazionario investito in bond bancari e il 10% del loro portafogli equity in azioni bancarie. Qualora le assicurazione cambiassero il loro portafogli di conseguenze, la banche non potrebbero che risentirne.
In sostanza, la configurazione attuale del settore assicurativo incoraggia quelli che gli economisti chiamano comportamenti pro-ciclici, ossia decisioni che seguono l’onda dei cicli finanziari, favorendo i rialzi quando ci sono e i ribassi altresì. Il che ne converrete non è molto sicuro. E poiché le assicurazioni hanno imparato a usare anche i derivati per proteggersi dai rischi – in UK il valore nozionale dei contratti supera i 400 miliardi, a fronte de 1,12 trilioni negli Usa – ecco che si spalanca un’altra porta attraverso la quale il rischio fa capolino. Per usare in maniera efficiente i derivati, infatti, bisogna avere un accesso costante a questi mercati che, come abbiamo visto, sono i primi a entrare in fibrillazione quando le cose vanno male.
E così torniamo al punto di partenza. Ciò che si vuole sicuro genera potenzialmente instabilità. Il desiderio di sicurezza, che le assicurazioni dovrebbero incarnare, genera insicurezza. Ma nessuno ci fa caso.
Finché non è troppo tardi.
