Inseriamo in questo post la terza e ultima parte dell’intervanto di Giovanni Conti, ingegnere elettronico che si occupa di software per le segnalazioni di vigilanza, sulle misure di rischio delle banche. I precedenti interventi sono disponibili qui e qui.
Lo staff di “Math is in the Air” ringrazia Giovanni per questo suo contributo di grande interesse.
L’expected shortfall
Riassumendo i contributi precedenti possiamo affermare che il Var è uno strumento semplice, intuitivo, facile da sottoporre a verifiche di backtesting, ma non è una misura coerente di rischio e, forse anche più grave, non ci dice nulla di ciò che potrebbe accadere oltre le colonne d’ Ercole del Var stesso.
In altri termini se il Var di un portafoglio su un orizzonte temporale di 10 giorni è 150 euro con una confidenza del 99% siamo “sicuri” che 99 volte su 100 le perdite non superano i 150 euro; che ne è di quella volta su 100 che le perdite superano i 150 euro? Le perdite saranno, verosimilmente, 151 euro, 200 euro, un milione di euro?
Si parla di “tail effect” nei casi in cui le perdite oltre il Var, quelle che appunto possono concentrarsi nelle “code” della funzione di distribuzione di probabilità, sono significative. Graficamente questa mancanza di informazione del Var si traduce nei tre scenari rappresentati nelle figure sottostanti.
Figura 1: primo scenario: assenza di “tail effect”
Figura 2: secondo scenario: tail effect “moderato”
Quello che il Var non dice è cosa mi devo aspettare “mediamente” da quelle perdite che superano il Var: nei tre scenari raffigurati il Var con una certa confidenza magari è lo stesso, ma tali valori medi sono molto diversi!
Di conseguenza se limito la mia stima di perdita inattesa al solo Var considererei equivalenti i tre scenari sopra illustrati, quando, in realtà non lo sono affatto.
Nel primo caso la pedita oltre il Var è distribuita dolcemente e uniformemente su tutti i valori; nel secondo caso ho una concentrazione di probabilità intorno al valore 4, nel terzo intorno al valore 12.
Utilizzando il solo Var come stima delle perdite inattese e del capitale necessario, nel terzo
caso ignoro completamente una pericolosa concentrazione delle perdite oltre il Var intorno ad un valore elevato. Detto $$VaR_{\alpha}$$ il Var di un portafoglio su un orizzonte temporale fissato ( esempio 10 giorni ) con una confidenza, si definisce Expected Shortfall oppure Conditional Var ( CVAR ) con confidenza $$\alpha$$ la seguente quantità, dove X è la variabile aleatoria “perdita del portafoglio nell’ orizzonte temporale fissato” :
$$ES_\alpha = E \{ X|X > VaR_\alpha\}$$ (*)
cioè proprio la media delle perdite condizionata al superamento del Var.
L’ expected shortfall si rappresenta anche con un’ elegante formula analitica riconducibile intuitivamente al teorema della media; risulta infatti, come conseguenza diretta della precedente formula
$$ES_\alpha =\frac {1} {1-\alpha} \int_\alpha^{1}VaR_\beta\,d\beta$$
in altri termini L’ ES con cofindenza $$\alpha$$ è la media di tutti i var con confidenza $$\beta$$ maggiore di $$\alpha$$. Trovo questa formula molto elegante.
Come si ottiene dalla precedente? Lo mostro, molto intuitivamente, come unico punto del “post” in cui ci sono alcuni passaggi analitici, ma credo che sia interessante.
Per iniziare, la funzione densità di probabilità che ci serve è quella condizionata da b < z <= a : dalla statistica elementare (v. ad es [4] ):
$$f(z | b<z<=a) = \frac {f(z)} {F(a)-F(b) } $$
per $$a\to \infty$$
$$f(z | b<z) = \frac {f(z)} {1-F(b) }$$
Detta f(z) la funzione di densità di probabilità delle perdite , la (*) può quindi scriversi come:
$$ES_\alpha = \int_{VaR_\alpha}^{\infty}\frac{zf(z)}{1-\alpha}\,dz $$ (**)
facendo un semplice cambio di variabile $$z(\beta)=VaR_{\beta}$$ si ha $$dz =\frac { d (VaR_\beta) } {d\beta}d\beta$$ e la (**) diventa
$$ES_\alpha = \int_{ \alpha}^{1}\frac{VaR_\beta}{1-\alpha} f(VaR_\beta) \frac { d (VaR_\beta) } {d\beta} \,d\beta$$
detta F(.) la funzione cumulativa di probabilità di X la precedente diventa
$$ES_\alpha = \int_{ \alpha}^{1}\frac{VaR_\beta}{1-\alpha} \frac {d}{d\beta}[ F(VaR_\beta)]\,d\beta $$
ma osservando che $$F(VaR_\beta) = Prob{X<VaR_\beta} = \beta $$ per definizione la precedente diviene
$$\frac {1} {1-\alpha} \int_\alpha^{1}VaR_\beta\,d\beta$$
cioè esattamente la (*) (v. anche [7]).
E’ stato dimostrato che l’Expected Shortfall è una misura coerente di rischio; la sua “backtestability” è argomento molto dibattuto nella letteratura soprattutto in ordine alla proprietà dell’ “elicitability ” non soddisfatta dall’expected shortfall.
Mi limito qui a segnalare i contributi che mi sembrano più importanti ( vedasi [8] ).
Nell’ ottica di una revisione del portafoglio di negoziazione (trading book) il comitato di Basilea ha proposto l’ introduzione (v. [9]) dell ‘Expected Shortfall come sostituto del Var per i rischi di mercato, per tenere conto proprio del “tail effect” .
Conclusioni
Abbiamo parlato di capitale come presidio importantissimo per la vita delle banche , come vera e propria “barriera immunitaria” per la loro sopravvivenza.
Come accade per i leucociti del nostro sistema immunitario essi possono essere sacrificati in nome della sopravvivenza dell’ organismo nella sua interezza, purché siano in numero e qualità sufficiente ad assorbire i colpi delle infezioni.
Per capire quanto capitale una banca deve avere è essenziale che questa possa dotarsi di un sistema affidabile di misura delle possibili perdite inattese, grandezza, quest’ultima che è intrinsecamente aleatoria (ovviamente nell’ ipotesi di onesta, sana, prudente gestione della banca).
In questo quadro, tradizionalmente le normative di vigilanza hanno utilizzato ed utilizzano il modello Var per la sua semplicità e backtestability; tuttavia il modello Var ha limiti intrinseci che non lo rendono una misura di rischio coerente e non dà informazioni sulle perdite potenziali che superano il Var stesso.
Viene in soccorso a questi limiti l’Expected Shortfal o Cvar che , pur essendo una misura di rischio coerente e dando informazioni sulle perdite oltre il Var, presenta aspetti sicuramente più complessi in ordine alla sua backtestability. Il modello Cvar è stato proposto dal comitato di Basilea come sostituto del Var nella disciplina sui rischi di mercato.
Riferimenti bibliografici
[1] Resti, A. , Sironi A. Rischio e valore nelle banche, EGEA Editrice, Milano, 2008.
[2] Direttiva “BRRD” 2014/59/UE
[3] https://srb.europa.eu/ (single resolution board)
[4] Papoulis Athanasios Probability, random variables and stochastic processes third edition, McGraw-Hill, 1991
[5] Lisa Wimmerstedt, Backtesting Expected Shortfall: the design and implementation of different backtests www.math.kth.se
[6] Regolamento “CRR” 575/2013 dell’ Unione Europea
[7] Kisiala Jakob, Conditional Value-at-Risk: Theory and Applications www.maths.ed.ac.uk
[8] Carlo Acerbi, Balazs Szekely, Backtesting Expected Shortfall MSCI Inc. October 27, 2014 , https://www.msci.com
[9] www.bis.org/publ/bcbs265.pdf
This work is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.
Gentile/i,
pongo un quesito tecnico per chiarirmi alcuni dubbi sul VaR: è per caso possibile calcolare un’espansione Cornish-Fisher sui log-returns standardizzati mediante un GARCH(1,1)?
Per quanto ammetta che un filtro CF è criticabile sotto diversi profili per il rischio di outliers che potrebbero falsare CF^-1, comunque vorrei sapere se è ragionevole partire da un’assunzione di Normalità dei log-returns (che sappiamo essere debole) per fare su di essa una trasformazione che raccolga la non-Normalità…
In pratica, ho preso dei log-returns di un future-bond europeo, su di esso ho calcolato un GARCH(1,1) e mi esce una likelihood positiva e AIC negativo, ma il QQ plot contro la Normale(0,1) mi fa le code pesanti. Ora il problema è questo: vorrei usare il CF, ma ho forti perplessità… Usando skewness e kurtosis campionarie calcolate non sui log-returns ma sui log-returns standardizzati col GARCH(1,1), poi calcolando la formula CF su PHI^-1 al 1% percentile, mi viene fuori che la distribuzione effettiva dei log-returns standardizzati GARCH(1,1) somiglia in modo impressionante ad un CF partendo da N(0,1) corretto con skew e kurt osservate empiricamente.
Infine ho preso la costante CF^-1 al 1% percentile per moltiplicarla alla deviazione standard GARCH(1,1) storica del campione per ottenere una stima periodica del VaR…
Su 424 osservazioni mi viene fuori che solo 5 volte il VaR con espansione CF viene “rotto”, molto vicino all’1% teorico (1,17%).
Se fosse che nonostante tutto avessi fatto degli errori o peggio, mi potreste consigliare come rimediare?
Ringrazio cordialmente per la gentilezza e competenza.
Buonasera,
il quesito posto è molto interessante ed argomentato, ma purtroppo, allo stato attuale almeno, ho una conoscenza estremamente superficiale dell’ espansione di Cornish Fisher il che non mi consente di dare una risposta adeguata nel merito.
Sicuramente, però, il quesito tocca argomenti di sicuro interesse e ne prenderò certamente spunto per eventuali approfondimenti futuri.
Grazie mille per il contributo, un saluto
Giovanni Conti
Gentile Giovanni Conti,
ci ho “sbattuto” la testa per un po’ (vi dico che persino i miei docenti di statistica hanno alzato le mani), anche se a dir la verità non mi sento sicuro di porre i sigilli di una questione siffatta, quindi lungi da me dire che avrei trovato una risposta.
Per puro caso ho trovato su internet un brevissimo e piacevole Consultation Paper fatto per l’ESMA (European Securities and Market Authority) che suggerisce operativamente come calcolare un filtro Cornish-Fisher. Su google si trova:
ANNEX 1 – Proposal for Cornish-Fisher Methodology – Arfima Financial Solutions
In pratica: asimmetria e curtosi vanno riferite alla variabile di partenza (nel mio caso i log-returns)… L’errore che ho commesso (dovuto alla mia ignoranza di come fossero realmente formulati curtosi e asimmetria) è di averlo calcolato sugli standardizzati. Così facendo mi esce un’approssimazione decisamente meno entusiasmante, ed in caso di elevati asimmetria e curtosi in pratica mi fa rimpiangere un Normal GARCH.
Inoltre il paper consiglia di calcolare la deviazione standard (corretta) sui dati passati… Come a dire, una parodia di un Filtered Historical Simulation, niente metodo della max verosimiglianza.
In ogni caso il QQ plot coi dati filtrati CF mostra delle code “seghettate”.
Spero di aver dato un contributo apprezzato (anche se non mio ;-P).
PS: in alcuni working papers si dice che un Normal GARCH sia una stima sufficientemente accettabile per i mercati finanziari nei paesi sviluppati (e.g. Germania), anche se in generale è preferibile prendere modelli con leverage come EGARCH o GJR-GARCH. Altrimenti modelli GARCH con MLE calcolata sulla variabile t asimmetrica fittano ottimamente.
La formula dell’integrale sembra vada ad indagare sulla parte destra della distribuzione e non sulla sinistra (relativa alle perdite oltre il VAR). Potreste dettagliare meglio questa formula?
Buongiorno ,
grazie del commento innanzitutto.
Nel testo ho specificato ” [..] dove X è la variabile aleatoria “perdita del portafoglio nell’ orizzonte temporale fissato [..]”,
pertanto l’ asse delle x indica una misura di perdita; quanto più si va a destra nel grafico tanto più aumentano le perdite,
in altri termini..
Nulla avrebbe impedito di utilizzare una diversa convenzione, attribuendo a “x” il significato di “incremento di valore”,
e allora, come dici tu, si sarebbe dovuta indagare la parte sinistra del grafico, ma ho preferito utilizzare la prima convenzione in quanto la ritenevo più chiara.
Un saluto,
Giovanni Conti
Ottimo (mi ero perso il dettaglio delle perdite). Pertanto utilizzando la convenzione “incremento di valore” l’integrale andrebbe da -infinito a VaR alfa (Sarebbe possibile avere l’esplicitazione della formula in quest’altra connotazione)?
Da ultimo, è possibile avere un esempio numerico (nel caso del discreto ho trovato diversi esempi chiari).
Ringrazio vivamente
Buonasera,
trova implicitamente nel testo tutte le risposte; in ogni caso, proverò a guidarla in maniera esplicita, pur con la limitazione di non poter
scrivere le formule con la grafica opportuna . Porti pazienza per questo aspetto.
Per quanto riguarda il primo quesito, vale a dire l’ esplicitazione delle formule
in termini di incremento di valore e non di perdite,
detto x = incremento di valore, g(x) la sua funzione densità di probabilità e G(x) la relativa cumulativa, si ha facilmente (v. formule nel testo)
che g(x | meno infinito < x <= – Var(alfa))
= g(x) / G(- Var(alfa)) se mi passa ovviamente la licenza di menzionare "meno infinito" e non il relativo passaggio al limite.
La precedente si scrive facilmente g(x) / (1 – alfa) dal momento che G(- Var(alfa)) è la probabilità che gli incrementi di valore
siano minori di – Var(alfa) e cioè che le perdite siano maggiori di Var(alfa) il che, per definizione di Var è pari a 1- alfa.
A questo punto il valore medio di x = Expected shortfall = Integrale(da meno infinito a meno Var(alfa)) di x*g(x)dx /(1 – alfa).
Il che corrisponde a sostituire nelle formule del testo l' integrale da Var(alfa) a più infinito con l' integrale da meno infinito a MENO var(alfa).
Per quanto riguarda il secondo quesito, trova nella bibliografia ( [5] Wimmerstedt) esempi di calcolo in forma chiusa o "semi chiusa" dell' ES per distribuzioni normali e t-student, penso che possa utilizzare un normale foglio di calcolo per ottenere dei risultati numerici con le formule lì derivate.
Spero di essere stato esauriente e chiaro nella risposta,
un saluto
Giovanni Conti
Consiglierei per chi vuole accingersi a tale disciplina la lettura di un testo che in maniera molto rapida ma esaustiva fa un’analisi del value-at-risk e dell’expected shortfall:
Elements of Financial Risk, Second Edition, di Peter Christoffersen
Errata Corrige: Elements of Financial Risk Management
Grazie per la segnalazione
un saluto
Giovanni Conti