Etichettato: the walking debt

L’abbuffata di debiti che ha affamato gli inglesi

Ciò che il XX secolo ha lasciato in eredità ai cittadini britannici sono due record: quello del più grande sviluppo del loro indebitamento privato, da un lato, e quello del più profondo crollo dei loro consumi interni dal 1956, dall’altro. Questi fatti, che si conclamano fra il 2007 e il 2014 fanno già parte della memoria collettiva a tal punto che la Banca d’Inghilterra ha ritenuto opportuno ricordarcelo, ma non certo per puro spirito documentaristico.

Quel che interessa alla BoE, che al tema ha dedicato un paper (“Household debt and spending in the United Kingdom”) è osservare se fra i due fatti, che un grafico sommarizza egregiamente, esiste una qualche forma di correlazione. Ossia se alla fine riempire di debiti i cittadini per sostenere il prodotto non conduca al risultato che quando succede qualcosa di brutto tale montagna di debiti presenti un conto da pagare assai più salato.

Vi sembrerà una questione di lana caprina. E invece non dovremmo sottovalutarla. Il modello che si sta delineando, di una società dove il debito, a cominciare da quello delle banche centrali, è diventato il driver della crescita, porta con sé conseguenze che solo di recente si stanno iniziando ad osservare con sistematicità. Di conseguenza lo studi della Boe è interessante perché ci fornisce utili spunti di riflessione, oltre a diverse informazioni.

Cominciamo da queste ultime. Nel Regno Unito fra il 1992 e il 2007 si è assistito a una notevole crescita dell’indebitamento delle famiglie. Lo stock del debito è più che triplicato, passando dai 500 miliardi di sterline del 1992 a 1,5 trilioni nel 2007. L’impennata inizia dalla fine degli anni ’90, sospinta dai mutui immobiliari, che nel 2007 pesavano circa tre quarti dello stock totale. In relazione al reddito disponibile, il debito delle famiglie è passato, nello stesso periodo, dal 60% del reddito al 160% nel momento di picco.

Al tempo stesso durante la crisi finanziaria si è registrato un crollo senza precedenti recenti nella spesa per consumi delle famiglie che soltanto nel 2014 si sono riportati al livello storico medio. Nel grafico che la BoE ha elaborato si osserva infatti che dal 2007 i consumi delle famiglie diventano negativi per oltre il 4%, a fronte di una media annua di incremento intorno al +3% ottenuta calcolando le percentuali di consumo familiare sin dal 1956. “Capire come le famiglie indebitate rispondono agli shock – osserva la BoE – ha implicazioni importanti, sia dal punto di vista della stabilità finanziaria che da quello della politica monetaria”.

A un alto livello di indebitamento infatti, le famiglie possono reagire, a fronte di shock, contraendo la spesa a prescindere dal fatto che lo shock abbia realmente conseguenze sull’equilibrio dei loro bilanci. E questo può avere conseguenze macroeconomiche di cui la banca centrale non può non tenere conto quando decida le sue politiche. Ciò a fronte di una teoria convenzionale del consumo dove il debito non gioca alcune ruolo nelle decisioni di spesa. Teoria che, essendo incorporata nei modelli di decisione, finisce col sottovalutare le conseguenze che il buonsenso suggerisce essere tali.

Come accade sovente, la teoria economica prevalente si dimostra poco avveduta nei confronti della realtà. Il problema nasce dalla circostanza che è alquanto difficile calcolare come il debito impatti sui consumi utilizzando i dati aggregati, visto che queste informazioni non sono segmentate abbastanza per fotografare i vari dati di fatto. Servono analisi basate sui dati micro, quindi assai complesse, che tengano conto non solo degli aggregati ma della loro composizione.

Una di queste variabili osservate dalla BoE è l’anagrafe. Si nota ad esempio che il grosso dell’aumento del debito se lo sono caricato sulle spalle i più giovani fa il 21 e i 35 anni. Altri dati, estratti da una survey (Living costs and food) mostra che la maggior parte del crollo della spesa si è registrata fra le famiglie più indebitate. Sicché la correlazione più debito meno spesa sembra sensata.

La BoE ha ulteriormente approfondito, elaborando un modello econometrico dal quale deduce che le famiglie più indebitate hanno tagliato la spesa per consumi in proporzione superiore a quelle meno indebitate, e ciò anche in conseguenza del fatto che l’effetto su questi soggetti delle restrizioni creditizie, che sono seguite alla crisi finanziaria, è assai più elevato. A ciò si aggiungano gli effetti psicologici, determinati dalla paura e dall’incertezza.

Il risultato comunque è quello che i più fragili, dal punto di vista finanziario, sono quelli che più di tutti hanno diminuito i propri consumi, subendo praticamente più danni degli altri. Sono le stesse persone che hanno provocato la crescita più notevole dei consumi prima della crisi. Si spende di più prima dello shock, per spendere assai meno degli altri dopo.

L’abbuffata di debiti, insomma, conduce facilmente al digiuno.

L’economia ai tempi dello Zero Lower Bound: l’erosione delle banche

Fra i tanti esiti finora osservati dell’inusuale, per non dire straordinaria, politica monetaria seguita dalle banche centrali, ce n’è un altro che molto opportunamente la Bis ci ricorda in un suo recente working paper (“The influence of monetary policy on bank profitability”), ossia l’effetto che l’azione delle banche centrali ha sulla redditività delle banche.

Tema delicato, visto che le banche centrali fanno ciò che fanno col dichiarato intento di giovare all’economia rischiando in sostanza, proseguendo, di indebolire proprio quegli intermediari che all’economia forniscono il suo fluido vitale, ossia il credito.

In sostanza, si fa il QE per fare arrivare, tramite le banche, più credito all’economia, ma così facendo si erode la base del modello di business sul quale le banche hanno storicamente fondato la loro redditività. D’altronde è proprio nel mutamento di consuetudini antiche che la politica delle Zero lower bound sta svolgendo piano piano i suoi esiti, e non dovremmo stupirci delle conseguenze non intenzionali che ciò provoca.

L’analisi è stata condotta su dati riferiti a 109 banche internazionali con sede in 14 economie avanzate lungo il periodo 1995-2012 e ha accertato una relazione positiva fra i tassi a breve termine, quelli su cui agisce la banca centrale, e la struttura della curva dei tassi, da una parte e la redditività delle banche, misurata dal ROA (return on asset). Un effetto che non solo esiste, ma che oltremodo pronunciato quando il livello dei tassi è più basso . “Tutto ciò suggerisce che, nel tempo, inusuali tassi bassi e una curva dei tassi insolitamente piatta eroda la profittabilità delle banche”.

Un grafico mostra la situazione attuale di tassi e asset delle principali banche centrali e serve a visualizzare l’imponenza delle operazioni messe in piedi in questi sette anni, durante i quali le banche centrali hanno profondamente innovato anche le loro, di consuetudini.

Una altro grafico fotografa la correlazione fra l’andamento dei tassi a breve, che come è noto influenzano quelli a lungo, e l’inclinazione della curva bancaria dei rendimenti, che si può definire come la differenza fra il tasso a lungo e il tasso a breve, e sulla quale si basa la redditività della banca per ragioni opposte ma egualmente importanti.

Le banche, come è noto, basano la loro attività sulla trasformazione di debiti a breve in crediti a lungo, ossia si indebitano con i risparmiatori, di solito con depositi a vista, e prestano a famiglie e imprese con un orizzonte temporale medio lungo. In questa attività, di per sé assai rischiosa, espletano il loro talento, che in economia vuol dire la loro capacità di far denaro.

La curva dei rendimenti (yield curve), in tal senso, è correlata positivamente con la profittabilità, ed è facile capire perché. Quando l’inclinazione è positiva, ossia c’è una differenza ampia fra il costo dei debiti a breve e i ricavi dei prestiti a lungo (vedi grafico), i margini del net interest income, ossia il ricavo dai prestiti, si ampliano, visto che il banchiere guadagna assai più di quello che spende. Al momento lo yield è ai suoi massimi, intorno al 2%. Quindi lo zero lower bound sta facendo bene a questa parte della contabilità bancaria.

D’altro canto però, lo yield impatta sui bilanci bancari anche perché muta il costo degli accantonamenti che la banca deve fare per coprire i propri prestiti e poi perché deve sopportare il costo del servizio del proprio debito, visto che le banche emettono anche debito a lungo termine. Inoltre i tassi bassi deprimono la voce dei bilanci legata ai non interest income, “probabilmente perché hanno un impatto negativo sulla valutazione delle loro obbligazioni”, spiega la Bis. Nella simulazione risulta che un aumento dei tassi a breve dallo zero all’1% condurrebbe a un calo dello 0,7% del valore degli asset del non interest income.

Questi due effetti contraddittori vengono esaltati quando il livello dei tassi è particolarmente basso. Se infatti i tassi a breve fossero al 6% e salissero al 7%, la riduzione del valore degli asset sarebbe solo dello 0,25%.

Quindi nella situazione attuale, quando i tassi sono bassi, i danni potenziali per le banche sono più alti. E ciò conduce all’esito che abbiamo visto. Alla lunga le banche vedono prosciugarsi la redditività.

Ciò spiega le conclusioni: “Abbiamo rilevato che l’impatto della politica monetaria sulla profittabilità delle banche è stata positiva nei primi due anni dopo la crisi (2009-10), ma è diventata negativa nei successivi quattro anni. Nei primi due il RoA è stato migliorato per una stima cumulativa dello 0,3%, ma in contrasto nel periodo successivo l’andamento del tasso a breve e l’appiattimento della curva dei rendimenti ha tagliato il RoA di uno 0,6% comulativo. Con una media annuale di RoA di 0,64 nel perido considerato (1995-2012) ciò vuol dire che fra il 2011 e il 2014 la banca media del campione ha perso un anno di profitti, in conseguenza dei tassi bassi e della compressione degli yield.

Insomma, non è tutto oro quello che luccica. Nemmeno quello delle banche centrali.

Puntate precedenti: I, II, III, IV, V

 

Se le borse cadono è colpa della pioggia

Così siamo arrivati al punto che gli osservatori esperti delle traversie del nostro sistema economico guardano ai cambiamenti climatici come a uno dei nuovi e più potenti driver dell’instabilità finanziaria. E non so bene se ridere, notando come l’intrusione dell’economia reale nel ciclo finanziario avvenga oggi tramite il canale della pioggia, o prendere sul serio questa preoccupazione.

Non bastassero i rischi provocati dal diluvio di liquidità, ora ci si mette anche Giove pluvio a terremotare le borse?

Rimane il fatto che in questi giorni sono usciti due documenti che mi costringono a propendere per la serietà: il maltempo, oltre a tutto il resto, fa male anche alla finanza e per i più svariati motivi.

Il primo che illustra questi rischi è Mark Carney, governatore della Banca d’Inghilterra, che ha recitato un pregevole speech alla sede dei Lloyd’s di Londra il 29 settembre scorso (“Breaking the tragedy of the horizon – climate change and financial stability”). Che un banchiere centrale, incidentalmente anche chairman del financial stability board della BoE, parli dei rischi derivanti dal maltempo per le assicurazioni non è certo una coincidenza. Le assicurazioni infatti sono una delle architravi del sistema finanziario, e quelle inglesi in particolare, come lo stesso Carney ci ricorda in apertura del suo intervento.

Pensate che i Lloyd’s da soli pagano 300 mila stipendi e pesano 25 miliardi di Pil. E certo non è solo in questi due numeri che si può esaurire il peso e l’importanza di una compagnia di assicurazioni, che ha relazioni finanziarie con le famiglie, le imprese e gli investitori.

Ciò spiega bene, pure se per sommicapi, perché il cambiamento climatico sia finito nell’agenda dei regolatori finanziari. Costoro, che si guardano bene dal prendere posizione sulla diatriba scientifica fra chi ci crede e chi no, si limitano ad osservare alcuni fatti assai concreti “Dal 1980 – spiega Carney – il numero di eventi che hanno condotto a perdite legati al clima sono triplicati, e la perdite reale per le assicurazioni sono passate da una media annuale di 10 miliardi di dollari degli anni ’80 fino ai 50 miliardi dell’ultimo decennio”. Con l’aggravante che “le sfide di fronte alle quali ci troviamo oggi di fronte impallidiscono davanti a quelle che può riservarci il futuro”. Il cambiamento climatico, perciò “è una tragedia all’orizzonte”.

Il banchiere apocalittico, versione economicizzata del profeta di sventura, trae le proprie convinzioni innanzitutto dalla circostanza che l’arco di intervento dei policy maker che fanno girare l’economia è sostanzialmente più breve di quello geologico del clima. I signori del denaro ragionano su periodi di qualche anno, il clima cambia lungo i decenni. E già basta solo questo a sollevare il timore che quando il diluvio arriverà non saremo, semplicemente, pronti.

In questo spread temporale, chiamiamolo così, si addensano varie tipologie di rischio, che vanno da quelli provocati dal costo dei danneggiamenti, che le assicurazioni devono ripagare, ai debiti futuri che tali problemi possono causare, fino ad arrivare ai rischi causati dal cambiamento di tecnologie: “Un’azione politica orientata a promuovere un’economia con meno emissioni può condurre a una reassesment fondamentale”.

Il perché è presto detto: il 19% delle compagnie quotate nel FTSE lavorano nel settore energetico e un altro 11% lavorano in settori in qualche modo ad esso collegati (chimica, costruzioni, eccetera). Quindi la rivoluzione ecologica, che molti reputano necessaria per “riparare” il clima, impatta direttamente sul sistema finanziario. E quindi sugli investitori inglesi, comprese le compagnie assicurative, esposti a vari livelli verso queste compagnie.

Insomma, per dirla con le parole di Cairns, “il cambiamento climatico può minacciare la resilienza del sistema finanziario e la prosperità di lungo termine”

Tale visione si arricchisce leggendo un paper del NBER (“Modelling uncertainity in climate change, a multi-model comparaison”) grazie al quale scopro una nuova branca dell’economia che sfuggiva alla mia attenzione: l’economia dei cambiamenti climatici. Aldilà della ricognizione tecnica, che qui poco rileva, è il fatto stesso che si stia iniziando a modellizzare l’impatto dei cambiamenti climatici sul tessuto economico che trovo interessante. Niente sfugge all’abbraccio preoccupato dell’economia. Neanche il clima.

Ne abbiamo fatta di strada, dai tempi di “Piove, governo ladro”.

 

Il tramonto italiano del welfare familiare

Osservo con una certa malinconia il tramonto del welfare familiare italiano, quella somma di sussidi e sostegni che per così tanto tempo ci ha caratterizzato, ormai in gran parte sostituito dal fenomeno del credito al consumo, che tanto era personale e fonte di imbarazzi il primo, quanto freddo e anonimo il secondo. Vi leggo un altro esito inevitabile della nostra modernità e non so se compiacermi del fatto che una volta eravamo persone e oggi numeri di pratica, oppure semplicemente rassegnarmi. La famiglia italiana, come tutte le famiglie moderne, ormai è diventata sottile e potenzialmente illiquida come un’obbligazione. Difficile da collocare, e altrettanto debole sul mercato.

Inutile chiedersi se sia stata la grande crescita del credito al consumo a provocare questo tramonto, o se sia stato il declino tout court della famiglia a favorire lo sviluppo del credito al consumo: sarebbe come chiedersi se venga prima l’uovo o la gallina. Però una cosa non posso esimermi dal notarla: i prestiti fra parenti si può anche deciderli di condonarli e solitamente non generano interessi. Quelli con le banche sono esattamente all’opposto. Il trionfo dell’economia della testa su quella del cuore.

E tuttavia ancora oggi il fenomeno, per quanto sul viale del tramonto, ha un certo peso specifico nella nostra economia nazionale. Tanto è vero che Bankitalia vi ha dedicato un paper recente (“Il sostegno finanziario della rete familiare durante la crisi”) scritto da Laura Bartilloro e Cristiana Rampazzi, che ci consente di sapere alcune cose.

La prima, che è sempre opportuno ricordare, è che fra il 2008 e il 2014 il reddito disponibile delle famiglie italiane è diminuito del 9%, senza però che ciò abbia impedito ai consumi di crescere dell’1%. Che è poco, ma sempre meglio di niente. Ciò supporta quella che viene chiamata teoria del consumption smoothing, ossia la tendenza delle famiglie a non variare il livello dei consumi lungo un arco medio-lungo della propria vita, ricorrendo al credito o ai risparmi per stabilizzare i propri bilanci.

La crisi peraltro ha ridotto dell’1% la ricchezza finanziaria lorda, per lo più a causa della svalutazione delle attività, e ha condotto le banche a restringere l’offerta di credito. Ciò ha creato parecchie difficoltà ad alcuni, specie i capofamiglia di età inferiore ai 35 anni, che presumibilmente hanno chiesto aiuto alle famiglie per mantenere stabile il proprio livello di consumi.

La domanda che le autrici si son fatte è se e quanto i prestiti familiari o amicali abbiano pesato nel tentativo delle famiglie in crisi di rimanere a galla. Bene. I dati mostrano che fra il 2006-08 il 3,9% delle famiglie ha chiesto aiuti alla cosiddetta rete informale, per arrivare al 4,5% successivamente, ossia una volta che la crisi si è conclamata. “La sua rilevanza – scrivono – non è trascurabile in termini macroeconomici: l’importo totale degli aiuti è pari a un terzo del valore del credito al consumo e nel 2012 il valore mediano dell’aiuto ricevuto per chi vi aveva fatto ricorso era solo di poco inferiore a quello dei prestiti per scopi di consumo”. Quindi la rete informale pesa, in valore, un terzo del totale dei crediti al consumo in italia e l’importo dei prestiti era in linea con quello richiesto alle banche.

Altre risultanze sono degne di nota: “La probabilità di chiedere aiuto aumenta se si possiede un debito per scopi di consumo, a causa dell’insufficienza del credito ricevuto dagli intermediari rispetto alle esigenze di spesa o alle necessità legate al
pagamento della rata del prestito stesso”. In pratica chi chiede aiuto alla famiglia ha molto probabilmente un debito sulle spalle e non è riuscito ad avere di più dal sistema creditizio o non riesce a pagare le rate. In sostanza è un debitore subprime. “Gli arretrati nel pagamento delle rate di un prestito e delle bollette contribuiscono a determinare il ricorso alla rete di sostegno informale”.

Le prime vittime di questa situazione sono i più giovani, che in media sono sempre più poveri: “Solo il possesso di elevate attività finanziarie e l’età del capofamiglia (più di 45 anni) rendono meno probabile il ricorso alla rete di sostegno informale”. E poi un’altra circostanza: il sostegno non basta ad assicurare che alla fine, se il declino di reddito prosegue, i soggetti interessati debbano finire col ridurre i consumi. “A fronte di una riduzione del reddito – la probabilità di continuare a consumare normalmente è inferiore per chi ha fatto ricorso alla rete di sostegno familiare”. Quindi se si perde il lavoro e non si hanno ricchezze finanziarie o altre fonti di reddito c’è poco da fare: bisogna tagliare i consumi. A meno che non si riesca a ricorrere in maniera decisa al credito al consumo, che “contribuisce a mantenere stabili i consumi anche se in misura inferiore”. Ma è evidente che si tratta di un palliativo.

Le autrici concludono affermando che “a parità di altre condizioni, la rete di sostegno
informale non ha quindi contribuito direttamente al consumption smoothing osservato nel periodo della crisi; non si può escludere però un maggior calo dei consumi in assenza degli aiuti ricevuti da parenti o amici”. Insomma, la rete relazionale ha aiutato poco o niente. Forse perché ognuno doveva vedersela con le proprie difficoltà. E questo mi pare il segnale più esplicito del tramonto del welfare familiare.

Ne osservo anche un altro in un grafico, dove si vede che le famiglie italiane sono quelle che, nel confronto europeo, meno di tutte hanno ricevuto contributi a fondo perduto. Il che mi stupisce. Così come anche osservare la bassa percentuale di famiglie giovani che ricevono contributi dalla rete informale.

C’è un caveat però di cui bisogna tener conto. Lo studio si è focalizzato sui redditi senza considerare le eredità. Queste ultime non sono da sottovalutare. Il paper riporta che nell’area dell’euro si stima che i trasferimenti intergenerazionali formino in media il 60% della ricchezza netta, l’11% al netto degli immobili. E in un paese come il nostro, che è il più vecchio e fra i più ricchi dell’Europa, è facile capire quanto sia importante il peso relativo di questa voce.

Forse il vero welfare italiano non è rappresentato dai piccoli contributi o prestiti, più o meno a fondo perduto. Ma proprio dall’eredità. Il che, ne converrete, è alquanto triste.

 

Il circolo vizioso che soffoca l’eurozona

Ci sono ragioni circostanziali e sostanziali che motivano la ripresa al rallentatore dell’eurozona. O, per dirla con le parole della commissione Ue che ha pubblicato di recente il suo ultimo Quaterly report sull’EZ, “la corrente debolezza nella crescita ha insieme radici strutturali e cicliche”.

Ma comunque lo si dica, il passo lento dell’economia europea non promette nulla di entusiasmante. Tutt’al più si vivacchia. Ci sono ragioni di ottimismo, scrive ancora la Commissione, ma anche motivi di preoccupazione, visto che di fatto l’area è stretta in una sorta di circolo vizioso dove di combinano esigenze di deleveraging e debolezze degli investimenti, manifestandosi in un tasso di crescita assai inferiore a quello osservato in altri episodi di post-crisi.

Se la si volesse raccontare in altro modo, i fattori ciclici e strutturali che rallentano l’economia dell’EZ sono sia sul sul lato della domanda, che rimane debole, che su quello dell’offerta, dove ancora si scontano alcune rigidità che la Commissione individua innanzitutto nel mercato del lavoro e poi in quello del credito bancario. “L’aggiustamento del mercato del lavoro – scrive –  è stato lento in relazione all’osservato aumento della disoccupazione, conducendo a un sostanziale incremento della componente non ciclica della disoccupazione in molte economie avanzate”.

Tale situazione viene illustrata in un grafico che confronta la quota salari sul totale del prodotto nell’EZ del periodo recente con quella di altri momenti di crisi dal quale si osserva una certa stabilità della curva rispetto agli aggiustamenti che si sono registrati nel 1983 e nel 1993.

Ma è evidente che non si tratta solo di questo. L’eurozona ha reagito con lentezza, rispetto agli Usa, anche alla crisi bancaria, dovendo persino interagire con alcune politiche fiscali che hanno finito con avere un effetto pro ciclico, in sostanza aggravando la recessione.

A farne le spese è stato soprattutto l’andamento del credito, che i grafici confezionati dall’Ue mostrano ancora parecchio riluttante nel confronto con altri periodi post crisi, che si è associato a un rilevante aumento del debito pubblico, provocato dalla necessità di salvataggio del settore privato.

La cartina tornasole di questa situazione, che il report mette in evidenza, è il mercato immobiliare, anch’esso imprigionato in una ripresa incerta, per non dire inconcludente, dove si sommano la debolezza della domanda di abitazioni con quella dell’offerta di credito, entrambe in lieve ripresa ma sempre meno di quanto sarebbe necessario.

In questa situazione l’unica risorsa che è stata attivata con decisione, ossia la politica monetaria, somiglia a un semplice palliativo che peraltro ormai, essendo al livello dello zero lower bound non mostra più grandi margini di manovra. Sicché, sembra di capire, in mancanza di riforme strutturali decise – la Commissione cita i casi di Spagna e Irlanda – dovremo rassegnarsi a questo passo stracco. “Sono necessarie ulteriori riforme a livello di stato membro e di Unione per mettere su un cammino pià sostenuto di ripresa l’area – conclude – associando le prime a una risoluta riforma che completi l’architettura dell’Unione, con enfasi particolare all’unione finanziaria”.

Più riforme, meno salario, tanti debiti. Quello che ci attende, per farvela breve, è una diminuita sicurezza economica.

Solo che nessuno lo dice chiaramente.

Sei milioni di salari inglesi sono sotto la soglia di sussistenza

Mi fa un certo effetto che si parli di living wage nel Regno Unito, che traduco come salari di sussistenza, traviato come sono da studi giovanili maldigeriti di economia politica, che subito mi riportano ai padri di questa disciplina: Smith, Ricardo Malthus. Ripesco nella mia memoria e ricordo di come questi illustri pensatori discettavano, pur con le dovute differenze, sull’opportunità che i salari dei lavoratori di una società capitalistica, quindi perfettamente concorrenziale e perciò idilliaca,  è opportuno si tenessero a livello di sussistenza, ossia sufficienti a consentir loro di vivere, per le più svariate ragioni che non sto a riepilogarvi perché adesso ci interessano poco.

Quello che ci interessa è osservare come la contemporaneità ci abbia condotto a un esito che neanche i papà dell’economia avevano ponderato, pur nella loro immensa fantasia, ossia che il mito della produzione ormai generi corrispettivi per chi lavora nemmeno sufficienti a farli sopravvivere. Persino Malthus sarebbe inorridito.

In questa fase pre-classica, o post capitalista se preferite, il lavoro dell’istituto di statistica britannico è prezioso perché inonda di luce cristallina l’esito della nostra modernità. Ci informa, per cominciare, che volenterosi studiosi hanno elaborato una misura del salario di sussistenza, iniziativa promossa dalla Living Wage Foundation e dal sindaco di Londra. E ci ricordano che anzi tale misura verrà estesa costruendo un nuovo indicatore, il National living wage, che il governo inglese ha annunciato presentando il suo budget estivo, purtroppo ancora non disponibile.

Ma fa nulla. I dati diffusi dell’ONS sono abbastanza eloquenti per capire di cosa si tratti. La prima notizia meritevole di menzione è che la proporzione dei lavoratori che guadagna meno della paga di sussistenza è cambiata notevolmente negli ultimi anni. Chi conosce l’evoluzione del mercato del lavoro britannico certo non si stupirà. E tuttavia leggere che nel 2014 c’erano circa sei milioni di salari che stavano sotto il livello di sussistenza mi sembra rimarchevole. E’ utile ricordare che questo indicatore è stato costruito per calcolare il costo minimo della vita a Londra o fuori Londra.

Un grafico mostra che ormai la percentuali di coloro che hanno una paga inferiore alla sussistenza sfiora a Londra il 20% mentre svetta verso il 25% nel resto del Regno Unito, in decisa accelerazione dal 2010. Ciò vuol dire che un lavoratore su quattro, in media, sta sotto il living wage.

Interessante, poi, notare la divaricazione crescente fra l’andamento del salario di sussistenza, che in termini reali è cresciuto del 3% fra il 2008 e il 2014, e la mediana della paga oraria, che sempre fra il 2008 e il 2014, è diminuita del 10% sempre in termini reali. Una situazione che un grafico mostra in tutta la sua eloquente chiarezza. Significa che mentre aumenta il costo minimo della vita, diminuisce e assai di più la paga. Il che, ne converrete, è alquanto scoraggiante.

Se guardiamo alle popolazioni, scopriamo che nel 2014 in situazione di salario inferiore alla sussistenza si trovavano il 16% delle retribuzioni dei lavoratori maschi a Londra e il 18% fuori, mentre le percentuali per le lavoratrici salgono rispettivamente al 22% e al 29%. Inoltre che il 48% dei lavoratori fra i 18 e i 24 anni londinesi stavano in questa situazione e il 58% fuori Londra. I giovani sono sempre quelli più penalizzati, evidentemente. Ma neanche agli anziani va così bene: nella classe fra i 55 e i 64 si sfiora il 20% fuori Londra mentre per gli ultra sessantacinquenni si supera il 30%.

Se dal chi passiamo al dove, scopriamo che il 60% di questi lavoratori sotto la sussistenza sono impiegati nel settore dei servizi di vendita e customer satisfaction, o nel settore della ristorazione o delle pulizie e che la quantità di lavoratori sottopagati nel settore privato è quasi tripla rispetto a quella del settore pubblico. Il che consente di apprezzare una delle conseguenze finora poco osservata della discussa rivoluzione che ha interessato il lavoro inglese.

Infine, possiamo osservare che la qualificazione gioca un ruolo determinante. Le cosiddette “occupazioni elementari”, quindi low skill, sono quelle dove si concentra questa situazione. A Londra oltre il 70% di chi ha un lavoro del genere ha un salario sotto il livello di sussistenza.

Quindi nella patria di Smith, Ricardo e Malthus, una porzione sempre più ampia di lavoratori non guadagna abbastanza per vivere. Però, dicono tutti, l’economia britannica va bene.

Dimenticano di ricordare per chi.

Le sofferenze europee che paralizzano il credito

Pur ammettendo che una ripresa del credito bancario è funzionale alla ripresa tout court, rimane il fatto che le banche europee risultano ancora pesantemente condizionate dall’ammontare dei loro Non performing loans, ossia le varie forme di sofferenze o crediti deteriorati.

Questione sistemica, a quanto pare, visto che è finita all’attenzione del Fmi, che ne ha trattato nel suo ultimo Global financial stability report, sottolineando quello che viene convenzionalente sempre ripetuto: “Un ripresa della crescita del credito sarà necessaria per assicurare un crescita in Europa”.

Tralascio di osservare come tale opinione, perché di questo si tratta, si opponga a numerose altre che dicono il contrario. Più interessante invece dedurre le conseguenze di tale affermazione giovandosi dell’analisi dello stato degli NPLs che il Fmi conduce sulla base di alcuni dati.

Nel report leggo che “nonostante i requisiti di capitale di base delle banche siano migliorati, la capacità di prestare rimane impedita e le aspettative di profitto rimangono basse”. Il che non è una buona notizia per le banche, che hanno già visto declinare significativamente i profitti a causa della crisi. Alla fine del 2014, infatti, i NPLs “bloccavano” circa 52 miliardi di capitale di vigilanza, pari al 3% del totale, delle banche europee. Quindi “ridurre gli NPLs libererebbe capitale incoraggiando i prestiti”.

Un’elaborazione svolta dal Fmi illustra il sollievo di cui le banche potrebbero giovarsi se i policy makers lavorassero sui tempi di foreclosure, ossia di liquidazione, assumendo l’ipotesi di una perdita addizionale del 5% sul valore di realizzo degli asset. Viene fuori che, malgrado le perdite, le banche potrebbero liberare parte del capitale bloccato e quindi, implicitamente, metterlo a base di nuovi prestiti. L’analisi prende a spunto il caso spagnolo, dove la creazione di un asset management company ha riattivato il mercato dei non performing loan.

Rimangono tuttavia problemi di natura tecnica, il primo dei quali è il pricing gap, ossia la differenza fra il valore contabile dell’asset in sofferenza e il suo prezzo di realizzo. A tal proposito il Fmi osserva che “ridurre il tempo richiesto per la liquidazione consentirebbe di massimizzare il valore del collaterale del prestito, il che beneficerebbe sia il debitore che il creditore”. Ciò presuppone, ovviamente, l’esistenza di un sistema giudiziario efficiente abbastanza da non vanificare la procedure, quindi capace di accorciare notevolmente i tempi di liquidazione.

“Se gli NPLs venissero venduti agli investitori a fronte di un ritorno previsto del 10%, si potrebbe ottenere una capacità di prestito di 602 miliardi di euro, pari al 3,7% dei prestiti bancari di tutti i residenti dell’eurozona, di cui 373 potrebbero rendersi disponibili per i paesi non core dell’area sempre che questi ultimi adeguino i tempi di liquidazione degli NPLs alle best-practice degli paesi core, ossia a livello di un anno”, mentre adesso si aggirano intorno ai due anni e mezzo.

Il sottotitolo dell’analisi è che i paesi non core devono riformare gran parte del loro sistema che regola la composizione delle sofferenze bancarie. La creazione eventuale di una compagnia di asset management, in tal senso, avrebbe senso a valle di questo processo.

Gira e rigira il Fmi torna sempre al punto di partenza: le riforme.

L’alba di Skynet sui mercati finanziari: l’uomo (economico) dietro (e dentro) il computer

Giunti a questo punto mi faccio una semplice domanda: chi manovra le macchine che ormai giocano un ruolo così importante nel definire la salute dei nostri mercati finanziari?

La risposta più ovvia è: le persone.

Già, ma che persone? E soprattutto, come lavorano queste persone? Quali sono i principi che mettono alla base del loro operare?

La domanda, come vedete, ne nasconde tante altre le cui risposte finiscono col delineare una fisionomia che, essendo praticamente dominante sui mercati, può dirci molto sull’esito di questa inusitata rivoluzione nella quale la matematica ha di fatto surclassato la teoria economica. Chi pensa che i trader si basino sulla macro o micro economia per le loro scelte è legato a una visione tradizionale ormai in via di superamento.

Decido perciò di conoscere meglio queste persone, usando il metodo che ormai usiamo tutti quando vogliamo conoscere meglio qualcosa (e questo già dovrebbe farci pensare): la rete.

Girovago un po’ a caso e mi imbatto in una testimonianza che inizia a darmi alcuni indizi. Si tratta di una giovane con cinque anni di esperienza alla Getco, una delle tante compagnie di HFT che adesso ha cambiato nome, sulla quale non mi dilungo perché somiglia ai vari Terminator che abbiamo già conosciuto.

Più interessante leggere cosa scrive la nostra testimone. Racconta di essere stata reclutata dal MIT e di essersi trovata immersa in un ambiente di poche persone, ma enormemente soddisfacente, dove le difficoltà intellettuali erano compensate dalla soddisfazione nel risolverle. Dove c’era “molta matematica, teoria dei giochi, economia, tecnologia, scienza del computer e ingegneria”. La tecnologia usata è “cutting edge”, che potremmo tradurre come estrema o di avanguardia. L’HFT viene considerato come il driver di molti progressi tecnologici, fonte e utilizzatore di grandi quantità di dati”.

Il lavoro, spiega, somiglia a quello che fa Google Search: “Trovare segnali utili a prevedere ciò che altri users (non persone, ndr) stanno cercando è simile a cercare segnali per prevedere dove vadano i mercati”. Quindi il trader analizza segnali, non quantità economiche strictu sensu, un po’ come facevano gli uomini radar negli anni ’50, ai tempi della guerra fredda. Ed è fortemente influenzato dal comportamento altrui, cercando con l’analisi di prevederlo e quindi anticiparlo. Un comportamento tipico della teoria dei giochi, che, non a caso, è la seconda risorsa in ordine di importanza fra quelle citate dopo la matematica e prima dell’economia.

Sarebbe fuori luogo qui approfondire la teoria dei giochi. Ricordo solo che fu sviluppata sempre negli anni ’50, in piena guerra fredda, al fine di prevedere e anticipare il comportamento di un qualunque avversario, nella fattispecie erano i russi, basandosi su un semplice gioco mentale: ossia che i giocatori siano egualmente spietati e motivati nel raggiungere la vittoria e quindi disposti a qualunque calcolo e comportamento capace di soddisfare il presupposto della razionalità: la massimizzazione del profitto. Ossia la vittoria al gioco.

L’eco dell’uomo economico ottocentesco risuona forte, in questa teoria. E trova conferma in quel che racconta la nostra testimone: “E’ tutta una questione di risultati”. Non importa come ti comporti, né se segui il galateo aziendale. Nessuno ti dice ciò che devi fare purché rispondi all’obiettivo: make money trading. Se le tue idee funzionano fai soldi. Se non fai soldi non importa il tuo grado di seniority, né tutto il resto”. Con la sottolineatura che “l’HFT dà a tutti le stesse opportunità di diventare un top trader”. Sempre che tu sia un genio della matematica, della teoria dei giochi, eccetera.

Ed ecco un altro affastellato del nostro uomo economico contemporaneo: la capacità di far soldi diventa l’unico metro di misura della tua efficienza e quindi un derivato del tuo merito. Il mito della meritocrazia rivive nell’empireo del cloud, esattamente come l’uomo economico che lo sostiene.

Il trading, poi, “è una sfida costante” assai stimolante per le personalità che, come la nostra testimone, tendono ad “annoiarsi facilmente” e che amano essere “quantitativi e tecnici”. I quants, come li ha soprannominati un celebre libro di qualche tempo fa, amano anche distinguersi dagli altri traders, sentendosi come “una banda a parte” che fa parte di un’industria “cut-throat”, che mi piace tradurre con tagliagola, anche se risulta un po’ estremo, perché ha a che fare con “grandi quantità di denaro, la cultura del segreto e la competizione”. In pratica che amano partecipare alla grande guerra che si combatte per il conquistare il denaro.

La nostra testimone spiega che l’HFT ha una brutta reputazione sui media perché “le notizie sono finanziariamente incentivate a disinformare, generare controversie e provocare”. Ne deduco che, sicuramente a ragione, abbia una pessima opinione dell’informazione e fatico a darle torto. Ma pure che i trader algoritmici vivano con sofferenza l’essere considerati con nefandezza dall’opinione pubblica, che però perdonano in quanto vittima della loro ignoranza. Mi risultano alquanto aristocratici. Consapevoli però che “quando inizi a lavorare in finanza devi imparare a non curarti troppo di quello che pensa la gente”.

Ma la domanda migliore è questa: “Perché si dovrebbe persistere a costringere un uomo a fare ciò che gli esseri umani non sono i migliori a fare, cioè calcoli veloci e complessi, aggregare e analizzare terabyte di dati, presentare ed elaborare numerosi feed di dati contemporaneamente?”

Già, perché? L’incarnazione dell’uomo economico in una macchina che esalta la sua capacità di calcolo potenziandola infinitamente mi sembra l’esito ovvio di questa tecnologia.

Fra i vari commenti che leggo all’articolo ne trovo di entusiastici (“L’HFT è la cosa migliore che mi sia capitata”) che fra le varie ragioni di questo entusiasmo adducono la circostanza che sia “tutto scientifico” e che “le sfide in questo gioco siano immense” o che “il professional quant tranding è una stupefacente combinazione di matematica, psicologia, teoria dei giochi, teoria dell’informazione, delle probabilità, dell’entropia, vita, gioco d’azzardo, epistemologia e tecnologia”. Di economia non fa menzione nessuno. L’uomo economico contemporaneo, che vive dietro e dentro un computer, non sente di averne più bisogno e se la lascia alle spalle come fa un bimbo diventato grande, che misura la sua efficienza in termini di risposte al nanosecondo.

Una vita stressante, senza dubbio. Esplorando forum e commenti leggo di persone che lavorano fino a 18 ore al giorno, consapevoli di quanto sia dura. L’HFT “richiede ogni oncia della mia attenzione”, scrive un tale. Leggo anche di una compagnia che offre 136 mila dollari l’anno per un analista quantitivo, e poi, ormai immerso nella corrente delle chiacchiere, mi trovo quasi a invidiarli, questi super cervelloni che fanno soldi non per la passione dei soldi, ma della matematica che ci sta dietro, ossia del pensiero astratto. Alcuni dicono che lavorare per l’HFT “è gratificante dal punto di vista morale” e se molti non lo capiscono è solo perché “non trovano intuitivo il concetto di trasferimento del rischio”.

Altri, meno entusiasti, scrivono, dopo aver lavorato per anni nell’HFT di averlo odiato. “Praticamente ho fatto da baby sitter a un computer”, osservano. Ed è proprio questa immagine che mi lascia la seduzione più grande. Stiamo allevando computer, tenuti a bada da persone, uomini economici inconsapevoli, che si sforzano di diventare come loro, mentre maneggiano algoritmi scritti in logica di guerra.

Sta davvero sorgendo l’alba di Skynet sui mercati finanziari.

E non solo. Leggo un commento che mi apre un’altra finestra. Un tale consiglia ai trader HFT di abbandonare la finanza e usare i loro molti talenti per aprire una compagnia specializzata in diagnosi precoci. Gli algoritmi predittivi possono diventare una miniera d’oro in un mondo ossessionato dalla paura della morte. In fondo non c’è nessuna differenza ormai fra la durata di una vita e quella di un’obbligazione.

Almeno non ce n’è per l’uomo economico dietro al computer.

(4/fine)

Puntate precedenti: I, II, III

L’alba di Skynet sui mercati finanziari: i nuovi Terminator

Dunque ormai è assodato che alcune entità, che lavorano col trading algoritmico ad alta velocità, si sono ritagliate un ruolo più che rilevante nel mercato dei titoli di stato americani. Questi soggetti sono capaci di determinare eventi potenzialmente traumatici, come dimostra l’accaduto dell’ottobre 2014, e ciò malgrado sono ancora poco conosciuti e ancor meno si sa delle loro strategie e delle tecnologie che utilizzano, sulle quali vige uno strettissimo riserbo.

Questi nuovi Terminator agiscono all’ombra di una regolazione che si è dimostrata finora incapace di contenerne gli esiti, mentre il grande pubblico ne ignora sostanzialmente la loro esistenza.

Eppure le loro tracce sono numerose, anche se finora confinate nell’informazione di settore. Qualche tempo fa il sito Risk.net ha pubblicato una lista confidenziale delle prime 10 top company che lavorano con questi metodi sul mercato dei titoli Usa, prendendo spunto dai dati raccolti su alcune piattaforme elettroniche fra maggio e giugno del 2015 e che si ritiene svolgano fra il 65 e il 70% del volume delle transazione sull’interdealer market.

Ne è venuto fuori che le prime tre società, Jump Trading, Citadel e Teza Technologies, abbiano generato volumi di transazioni per 2,4 trilioni di dollari nel periodo. Altresì che otto di queste entità non sono banche. JP Morgan, che pure sta nella lista di queste entità, è solo al quinto posto.

Fra queste non banche si segnalano KCG, Spire-X, XR Trading, DRW e Rigel Cove. Nel rapporto viene notato come questa attività di trading, oltre che rilevante, sia anche notevolmente concentrata.

Inevitabile chiedersi perciò chi siano, questi soggetti che, piaccia o no, stanno conformando i mercati finanziari.

Comincio la mia ricerca partendo da Jump Trading, che dai dati diffusi da Risk.net ha sviluppato il 28% delle transazioni del campione analizzato. On line trovo il sito, ma tutto ciò che esibisce è una pagina di un gradevole grigio perla, con indicate le sedi ove opera, un link per le posizioni aperte e un paio di mail per i contatti. Zero informazioni sulla compagnia, la proprietà, la storia. Scopro che fino a un anno fa queste informazioni erano pubblicate. Ma poi in un soprassalto di pudore i padroni di Jump devono aver deciso di farle sparire. Devo contentarmi perciò di esplorare ciò che le cronache riportano.

In alcune trovo conferma della sensazione che coltivo dall’inizio di questa storia: questi soggetti non amano la pubblicità. Ma trovo anche qualche informazione. La Jump è stata fondata a Chicago 15 anni fa e ormai conta 400 dipendenti. I fondatori sono due trader, Bill Di Somma e Paul Gurinas. I suoi ricavi annuali hanno superato i 500 milioni di dollari nel 2010, con un profitto netto di 268 milioni. Del resto si sa molto poco.  Si sa che la compagnia ha assunto una pletora di scienziati, matematici e programmatori per costruire i propri algoritmi, e che si è anche dotata di una torre di trasmissione dati in Belgio, una volta usata dalla Nato, per spuntare qualche nanosecondo di vantaggio sui concorrenti, che in larga parte si limitano ad affittarle.

La Jump è un po’ il prototipo di queste compagnie, nate su iniziativa di alcuni trader, o direttamente di scienziati. Il CEO della Teza, la numero tre della nostra lista che per fortuna è un po’ più loquace della Jump, si chiama Misha Malyshev, dottore in Astrofisica nel 1998 a Princeton con specializzazioni in fisica teoretica dopo aver conseguito la laurea in matematica e fisica a Mosca. Quindi ha lavorato per la Bell, transitato per la McKinsey, con la quale ha imparato l’arte e l’amore per il business, e quindi si è messo in proprio, nel 2009. Prima però si è fatto le ossa col gruppo Citadel, il numero due della nostra lista, lavorando nel gruppo delle analisi quantitative. Da lì è divenuto rapidamente capo dell’unità che si occupa di High frequency trading, dove è rimasto fino al 2009. Come anche i fondatori della Jump, la Teza e il suo padrone sono molto attivi nella filantropia. Il che denota un chiaro animo gentile e una evidenza convenienza fiscale. Purtroppo il sito non riporta bilanci o altro.

Decido di concedermi l’ultima ricognizione e scelgo la Spire X, che ha un nome che fa molto Skynet. E che risulta altrettanto evanescente. Ne trovo tracce molto scarne nei recessi della rete, dalle quali deduco che è una compagnia giovanissima, che impiega pochissime persone. E tuttavia, nella nostra breve classifica per volume di trading generato sta appena sotto JP Morgan e sopra Barclays.

Cosa hanno in comune queste entità? La prima cosa che salta all’occhio è che sono tutte proprietary firm, ossia aziende create da persone fisiche e tuttora di loro proprietà. Poi che reclutano scienziati per far girare le loro macchine, che fanno trading basandoli su algoritmi quantitativi. Per queste compagnie, insomma, le vecchie categorie dell’economia non hanno sostanzialmente senso: quello che importa sono le quantità pure. Infine, queste compagnie sono nate e si sono sviluppate nell’ultimo decennio e ormai surclassano le vecchie banche, che in confronto sembrano dinosauri. E come il famoso meteorite ha fatto con i dinosauri, i trader automatici adesso minacciano di terminarle.

Il problema è che rischiano di non essere le sole.

(3/segue)

Le altre puntate: I, II, IV

 

 

L’alba di Skynet sui mercati finanziari: caccia alla balena bianca

C’è molto da scoprire leggendo l’istruttivo rapporto del dipartimento del Tesoro americano rilasciato nel luglio scorso nel quale si analizzano gli eventi che nell’ottobre 2014 condussero all’esplosione di volatilità nel mercato dei titoli del Tesoro Usa.

Il fatto fu rilevante, oltre che per la sua entità, per la circostanza che fosse preso di mira l’asset più importante dei mercati, che sta alla base praticamente di tutto ciò che è finanza. Il Treasury, appunto. La percezione della minaccia, avvertita quel 15 ottobre, fu talmente evidente che per l’occasione si sono mobilitati, oltre al Dipartimento del Tesoro, la Sec, la Fed, la Fed di New York e Commodity futures trading commission (CFTC), che in questi mesi hanno lavorato al rapporto ufficiale.

Il motivo è spiegato nella premessa: “Il mercato dei Treasury è il più profondo e liquido mercato di obbligazioni governative al mondo. Gioca un ruolo critico e unico nell’economia globale, servendo come primario mezzo di finanziamento del governo federale, significativo strumento di finanziamento e veicolo di hedging per gli investitori globali, oltre che come benchmark free-risk per altri strumenti finanziari e mercato fondamentale per l’implementazione della politica monetaria della Fed”. Insomma: se i fondi pensione e gli altri veicoli collettivi di risparmio sono considerati la balene del sistema finanziario, verso le quali si avventano gli squali affamati degli speculatori, il mercato dei titoli di stato americani è come Moby Dick: la balena bianca. Arpionarla implica per l’Achab di turno enormi profitti istantanei, capaci però di terremotare la tenuta del sistema globale. Esattamente come è accaduto un anno fa.

Il 15 ottobre 2014 questo mercato sperimentò un livello inusuale di volatilità e un brusco andirivieni dei prezzi, con condizioni generali di liquidità che divennero insolitamente tese. Lo yeld sul benchmark dei titoli a dieci anni, che influenza significativamente i prezzi di altri asset, sperimentò un trading range di 37 punti base, per poi chiudere a 6 punti base dal suo prezzo di apertura. Fino ad allora un livello così elevato di oscillazione intraday si era registrato solo in tre occasione, a partire dal 1998. Ma a differenza di quanto accaduto il 15 ottobre, tale oscillazione trovava giustificazione in significanti annunci di politica economica.

Peraltro, tutto il movimento si concentrò fra le 9.33 e le 9.45 A.M. In dodici minuti lo yeld sul titolo a 10 anni perse 16 punti e quindi rimbalzò. Un fatto senza precedenti nella storia del mercato dei titoli Usa.

Il lavoro degli analisti, considerato ancora provvisorio, svela parecchie delle novità intervenute in questi anni sul funzionamento di questo mercato che rimane tuttora una terra incognita pure per  coloro che dovrebbero conoscerlo meglio. L’analisi ha incluso anche il mercato secondario nonché le opzioni e i futures su queste obbligazioni.

La prima informazione che vale la pena riportare riguarda la fisionomia degli intermediari che agiscono su questo mercato. I regolatori hanno identificato cinque diversi tipi di aziende che partecipano al mercato. In comune però hanno tutte una caratteristica: “Ogni tipo di azienda utilizza un certo di livello di trading automatico, con varie sensitività alla velocità di mercato, e funzionano sia come fornitore di liquidità che come prenditori, con periodo di conservazione che varia a seconda della strategia adottata”. I bank-dealers, ad esempio, usano strategia di trading manuale in percentuali maggiori di altri in alcuni segmenti del mercato. I PTFs (principal trading firm), al contrario, sono caratterizzate dall’uso pressoché esclusivo di trading automatico e sono concentrati esclusivamente sul trading, a differenza dei bank-dealers che lavorano anche come custodi o agenti nelle transazioni.

L’analisi degli eventi parte dalle 8.30, quando furono rilasciate le informazioni sulle vendite al dettaglio, che risultarono leggermente più basse del previsto. Solitamente, nota il rapporto, i mercati reagiscono a queste notizie facendo ribassare il tasso di interesse sull’obbligazionario, “ma la risposta, questa volta, fu insolitamente brusca”. I tassi andarono giù di 11 punti base nei 25 minuti successivi, assai più di quanto fosse prevedibile. Ne seguì un altrettanto brusco cambiamento del trading. I volumi cominciarono a salire mentre contemporaneamente si prosciugava la liquidità.

I rendimenti continuarono a seguire il trend ribassista nell’ora successiva fino a che, alle 9.30, nonostante l’apparente mancanza di notizie, iniziarono a muoversi bruscamente. Nei sei minuti fra le 9.33 e le 9.39, lo yeld sul decennale diminutì di 16 punti. Fra le 9.39 e le 9.45 il trend cambiò direzione annullando quasi completamente il movimento precedente. L’evento che ha cambiato le nostre cronache finanziarie si consuma in questi dodici minuti. E il fatto che si sia così tanto contratto lo spazio di tempo che genera un evento dovrebbe farci riflettere. I movimenti dei mercati finanziari sono profondi, bruschi, violenti e rapidi, come quelli dei terremoti.

Detto in soldoni, il decennale crollò dal 2,02% delle 9.33 all’1,86 delle 9.39, per tornare all’1,99% delle 9.44.

Il problema è che tali movimenti, accettabili quando si tratti di asset poco liquidi o scarsamente rappresentativi, lo sono di meno quando di mezzo ci sono i titoli di stato Usa. Anche perché sono stati associati a volumi di trading che nella finestra-evento sono stati da sei a dieci volte più elevati di quelli medi del giorno. Il tutto mentre le tensioni sulla liquidità spingevano alcuni operatori a sganciare i meccanismi automatici di quotazione per limitare i rischi.

A ciò si aggiunga che gli effetti dell’esplosione di volatilità si contagiarono rapidamente anche ad altri mercati, compresi quelli valutari, delle commodity e quelli azionari, anche se in maniera più modesta. L’urlo della balena bianca, insomma, risuonò profondamente nei sotterranei dei mercati..

I dodici minuti di caos, inoltre, provocarono diversi danni a tutti coloro che erano lunghi sul decennale, ossia avevano puntato al rialzo. A cui, evidentemente, corrisposero altrettanti guadagni da parte di altri.

Per capire chi e cosa abbia provocato questo terremoto, la commissione ha analizzato le transazioni e gli ordini di negoziazione dei partecipati. L’analisi non ha condotto a una spiegazione univoca per l’andirivieni del prezzi, e tuttavia i dati hanno evidenziato un numero rilevante di sviluppi nel mercato prima e durante la finestra-evento.

I primi risultati hanno stabilito che  i gruppi più attivi che operarono durante i 12 minuti sono stati i PFTs e i bank dealers, ma il movimento di picco sui prezzi si è verificato quando i PFTs hanno amplificato il loro volume di transazioni, mentre al contrario declinava il contributo dei bank dealer. In termini di messaggi di traffico, ossia nuovi ordini, cancellazioni e modifiche a ordini esistente, è emerso che le PTFs ne hanno generato circa l’80%. Ciò lascia ipotizzare che queste compagnie, che lavorano con poco capitale e molta tecnologia, scatenino i loro algoritmi in operazioni spesso contraddittorie che però al termine dell’ondata sono capaci di generare profitti. Alcuni hedge fund, ad esempio, si sono segnalati per le loro posizioni insieme corte e lunghe sul treasury, nei due diversi momenti della finestra evento.

Al tempo stesso si è osservato un notevole aumento del self trading, ossia di un’attività nella quale un’entità si posiziona sia come venditore che come compratore nel book di negoziazione. Anche su questa pratica le PTFs hanno dominato, forse perché, ipotizza la commissione “possono far partire diversi algoritmi di trading contemporaneamente”. Per la cronaca, i regolatori sottolineano che sovente il self-trading nasconda condotte illegali. Nei primi sei minuti della finestra evento il self trading arrivò al 14,9% nel cash market e all’11,5% in quello dei future, quando solitamente non supera la metà.

Fra le 9.33 e le 9.39, le PFTs hanno aumentato la loro quota di trading in un range compreso fra il 73,5% e il 68,4%, mentre i bank-dealers scendevano fra il 21,4 e il 14,1%. In pratica i computer hanno fissato il prezzo dei decennali a fronte di volumi crescenti. Nei sei minuti successivi, quando i prezzi ritracciarono, l’attività di trading del PTFs rallentò, fra il 62,3 e il 56,6%.

Un’altra informazione interessante è quella relativa al grado di concentrazione. In alcuni dei mercati correlati ai Treasury monitorati dalla commissione, come il cash-market, i 10 PTFs più attivi hanno condotto il 94% del trading di tutto il gruppo (sono 37 in tutto), mentre fra i bank dealer il dieci attori più attivi (su 44) hanno pesato il 79% delle transazioni.

Altre analisi condotte a livello algoritmico hanno indicato che il trading aggressivo iniziato nella fase iniziale dell’evento dei PFT ha sempre funzionato seguendo la direzione dei prezzi, pesando notevolmente sugli squilibri osservati.

Insomma: le PTFs sono state le grandi protagoniste dei dodici minuti di terremoto vissuti sul mercato dei titoli di stato. E certo non si sarebbe arrivati a questo risultato se già dal finire degli anni ’90 non ci fosse stato un sviluppo così rilevante del trading elettronico, che dai primi del 2000 ha pure coinvolto segmenti di mercato finora interdetti. Ciò ha provocato un cambiamento sostanziale. Fino al 1992 questi segmenti di negoziazione erano riservati solo ai brokers designati dalla Fed di NY. Ma poi fu garantito l’accesso a tutte le entità che erano componenti del Government Securities Clearing Corporation. Da quel momento l’accesso fu sempre più consentito a nuove entità, fra le quali, nella metà degli anni 2000, si segnalarono le PTFs, che adesso pesano per oltre la metà del trading sui future e nel mercato elettronico dell’interdealear cash market.

Qualcuno ha iniziato a temere che queste pratiche portino con sé rischi, visto che “il trading automatico si muove a velocità che possono eccedere la capacità di controlli manuali e interventi”. Anche perché le PTFs, agendo come operatori specializzati del mordi e fuggi, sono poco capitalizzate rispetto alle banche tradizionali e perciò assai più fragili.

Per concludere questa lunga e noiosa quanto istruttiva ricognizione, vale la pena osservare che l’ammontare del debito denominato in Treasury è aumentato drasticamente dal 2007. Nel giugno di quell’anno la montagna di Treasury sul mercato quotava 4,3 trilioni di dollari, al 30 aprile 2015 aveva raggiunto i 12,6, ossia quasi il triplo.

Ciò fa della balena bianca la preda ideale delle armate robotiche, che dal flash-event del 15 ottobre hanno imparato diverse cose. Hanno capito di essere sistemiche e soprattutto hanno capito che il mercato dei titoli Usa è il ventre molle e gigantesco della finanza globale. Se Skynet fosse cattiva come in Terminator, saprebbe benissimo come far partire l’attacco globale.

Per fortuna non è  cattiva. Vuole solo far soldi.

Pure a costo di distruggerli.

(2/segue)

Leggi la prima puntata  Terza puntata Quarta e ultima puntata