Pubblichiamo la seconda parte del contributo di Giovanni Conti, ingegnere elettronico che si occupa di software per le segnalazioni di vigilanza,  sulle misure di rischio delle banche. La prima parte è disponibile qui.


  Il var nel rischio di mercato

Un esempio di applicazione del Var si ha nel rischio di mercato: se abbiamo un portafoglio contenente azioni, titoli, quote di fondi comuni, osserviamo quotidianamente, ad esempio, on line l’andamento dei titoli del nostro portafoglio e a fine giornata misuriamo quanto abbiamo perso e quanto abbiamo guadagnato.

Potrebbe farci piacere riuscire a stimare a priori quanto rischiamo di perdere nei prossimi 10 giorni con un certo grado di accuratezza e allora possiamo pensare ad una stima di Var a 10 giorni per il nostro portafoglio con una confidenza del 99% come ad una stima abbastanza ragionevole delle perdite a cui potremmo andare incontro.

Se conoscessimo l’ effettiva funzione di distribuzione di probabilità delle perdite riusciremmo a produrre una stima esatta del Var: se la funzione di distribuzione non è nota o è soltanto ipotizzabile possiamo costruire un modello di stima del Var che deve essere sottoposto alla verifica sperimentale “galileiana” di cui parlavo sopra. Graficamente il Var, è rappresentabile con la figura sotto, in cui, per esigenze di visualizzazione ho riportato un Var a circa l’ 88 % per una gaussiana a media nulla e varianza unitaria a cui corrisponde all’ incirca un valore di 1,2: l’ area in blu in questo caso, per la definizione di Var, deve essere inferiore a 0,12.

fig1_varHypothesis testing

sherlock-holmes-931897_1920

Faccio un breve cenno con un esempio all’ hypothesis testing, un metodo di inferenza largamente usato nei campi più diversi di applicazione della statistica.

Supponiamo di avere un dado e che una faccia , invece di avere il “4” abbia il “6” , ci sono, cioè due facce con il “6” e nessuna con il “4” che, quindi, non esce mai. Supponiamo anche che i lanci avvengano in modo tale che non si riesca a smascherare visivamente il dado con due facce uguali, ma che possiamo solo conoscere il risultato.

Domanda: come facciamo con un numero limitato di lanci ( ad esempio 60) a capire che il dado non è un dado normale?

E’ un problema, molto banale, di hypotesis testing. Dopo alcuni lanci iniziamo ad avere dei sospetti, ma rimaniamo dell’idea che il dado sia un normalissimo dado.

Formuliamo la nostra ipotesi : l’affermazione da sottoporre a verifica “il dado è un normalissimo dado” si chiama “ipotesi zero” o “ipotesi nulla” , in simboli $$H_0$$.

Aver formulato l’ ipotesi nulla che il dado sia un normalissimo dado individua un modello di comportamento del dado ben definito ed un metodo razionale per predire le uscite di ciascuna faccia : ciascuna faccia ha probabilità 1/6 di uscire.
Nell’ ipotesi zero è “improbabile” che il 4 non esca proprio mai, quindi , essendo questo ciò che effettivamente e ovviamente si verifica, ne deduciamo ex post dopo aver lanciato il dado un certo numero di volte che è la stessa ipotesi zero ad essere poco probabile.
L’idea di hypothesis testing è questa: faccio un’ipotesi $$H_0$$ da cui deriva un modello statistico conseguente (ed una funzione densità di probabilità nota e dipendente dall’ ipotesi $$H_0$$ , $$f(H_0,x)$$, una bernouilliana dell’esempio del dado), faccio l’ esperienza e se non è congruente col modello statistico indotto dall’ ipotesi quest’ultima è probabilmente da scartare.

Naturalmente nulla mi vieta di assumere come ipotesi zero l’ ipotesi che il dado abbia il 6 al posto del 4, in questo caso l’esperienza di fatto confermerà l’ipotesi zero indicandola come “probabile”.
Si noti l’uso dell’avverbio “probabilmente” nelle considerazioni di cui sopra: l’ hypothesis testing non fornisce certezze, ma suggerisce, deduttivamente, che le ipotesi fatte in partenza sono poco probabili e che quindi è più saggio cercarne di alternative. Oppure che l’ ipotesi zero ha una coerenza con l’ esperienza e quindi va accolta.

Il backtesting del Var come caso di hypothesis testing

Supponiamo di avere un determinato portafoglio di titoli, obbligazioni, strumenti derivati, quote di fondi comuni, soggetto al rischio di mercato e l’orizzonte temporale di misura e verifica del Var sia di un giorno. Supponiamo anche di avere a disposizione un modello di Var , cioè un modello che ci permetta di affermare che il nostro portafoglio supererà una perdita P prefissata, nell’ arco di un giorno, con una probabilità del’ 1%. Vogliamo vedere se il nostro modello è affdabile, se dice il vero.

Muoviamoci, allora, in un ambito di hypothesis testing; in questo caso l’ ipotesi nulla è che il modello Var che abbiamo sia corretto, interpreti bene la realtà (si veda[1] e [5]). Facciamo allora un numero di osservazioni sul portafoglio in questione: immaginiamo di attivare il nostro modello di Var giornalmente. Quindi il giorno 1 avremo una predizione del var per il giorno seguente, il giorno 2 idem e così via.

Al giorno 2 avrò la prima osservazione da confrontare con la stima fatta al giorno 1, al giorno 3 la seconda osservazione da confrontare con la stima fatta la giorno 2 ecc e potrò, quindi, misurare se il modello ha predetto bene. Ora le nostre osservazioni al giorno 2 e al giorno 3 le supponiamo indipendenti proprio come se fossero i risultati di due lanci distinti dello stesso dado. Le autorità di vigilanza prevedono un insieme di 250 osservazioni; in ciascuna di esse possono verificarsi due eventi: le perdite sono state superiori al Var (eccedenza) oppure no.

La probabilità che ci siano k superamenti in n test ( n = 250) è data dalla distribuzione di Bernoulli

$$Prob(k,n) = \binom{n}{k}(1-\alpha)^k (\alpha)^{n-k}$$

posto n = 250 , facendo variare k tra 1 e 10, tenuto presente che α = 99% si ottiene la seguente tabella (ad esempio tramite la funzione DISTRIB.BINOM di Libre Office Calc)

tabella_art_contiOsserviamo che, per definizione, la probabilità di avere un numero di eccedenze compreso tra 0 e 4 è dell’ 89% assumendo vera l’ ipotesi zero, cioè che il modello Var di cui disponiamo sia corretto e di avere un numero di eccedenze comprese tra 4 e 10 dell’ 11 percento circa.

La probabilità di avere un numero di eccedenze superiore a 7 è bassissima, sotto l’un percento. Di conseguenza se nelle nostre osservazioni dovessimo ottenere un numero di eccedenze superiori a 7 (ad esempio) , ciò significherebbe che il nostro modello Var non funziona molto bene, sottostimando le perdite.

I regolamenti in termini di vigilanza bancaria, in situazioni come questa in cui il modello sottostima la realtà, impongono di detenere un cuscinetto di capitale aggiuntivo con tutto ciò che consegue per la banca che deve reperirlo sul mercato. (Per approondimenti normativi su quest’ultimo punto si vedano gli articoli 365 e 366 del regolamento 575/2013 CRR (v.[6]) che ha per oggetto i rischi bancari e i requisiti patrimoniali associati).

Bibliografia

[1] Resti, A. , Sironi A. Rischio e valore nelle banche, EGEA Editrice, Milano, 2008.
[2] Direttiva “BRRD” 2014/59/UE
[3] https://srb.europa.eu/ (single resolution board)
[4] Papoulis Athanasios Probability, random variables and stochastic processes third edition, McGraw-Hill, 1991
[5] Lisa Wimmerstedt, Backtesting Expected Shortfall: the design and implementation of different backtests www.math.kth.se
[6] Regolamento “CRR” 575/2013 dell’ Unione Europea
[7] Kisiala Jakob, Conditional Value-at-Risk: Theory and Applications www.maths.ed.ac.uk
[8] Carlo Acerbi, Balazs Szekely, Backtesting Expected Shortfall MSCI Inc. October 27, 2014 , https://www.msci.com
[9] www.bis.org/publ/bcbs265.pdf

CC BY-NC-SA 4.0
This work is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.