• Ingen resultater fundet

Statistiske metoder i finansiel risikostyring Anvendelse af ekstremværditeori og copulaer i estimation af Value-at-Risk

N/A
N/A
Info
Hent
Protected

Academic year: 2022

Del "Statistiske metoder i finansiel risikostyring Anvendelse af ekstremværditeori og copulaer i estimation af Value-at-Risk"

Copied!
105
0
0

Indlæser.... (se fuldtekst nu)

Hele teksten

(1)

Handelshøjskolen i København Institut for Finansiering

Erhvervsøkonomi/matematik studiet Kandidatafhandling

Statistiske metoder i finansiel risikostyring

Anvendelse af ekstremværditeori og copulaer i estimation af Value-at-Risk

Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3

2000 2001 2002 2003 2004

-0.06-0.04-0.020.000.020.040.060.080.10

VaR 99%

Historiske tab EVT

Varians-Kovarians

Udarbejdet af: Jonas Hal

Afleveret den 30. september 2004

Vejleder: David Lando

(2)

Abstract

Value at Risk (VaR) is one of the most used risk measures today. The validity of a VaR measure is closely connected with how well the statistical model underlying VaR captures the structure in the empirical data. In practical application, it is very common to base VaR on the assumption that all the risk factors changes in a given portfolio are Gaussian and that their joint distribution function is Gaussian too 1 . The Gaussian assumption makes the calculation easy and it is often possible to …nd an analytical solution which makes VaR calcu- lation straightforward. But empirical …ndings suggest that this is not a good approximation.

The reason for this is that …nancial data are characterized as being leptokurtic, skewed and heteroskedastic. And often one observes more extreme observations in …nancial data than can be explained by the Gaussian distribution and VaR estimates are thereby underesti- mated. That is the capital reserve based on VaR will be too small. Another point is that the Gaussian distribution is strictly symmetrical thus making it unsuitable for skewed empirical distribution.

Chapter one is an introduction to VaR and how it is calculated. In order to calculate VaR you need to have a joint probability function for the risk factors of your portfolio as well as a speci…cation of the loss operator. A loss operator is a function that maps changes in risk factors to loss of the portfolio. While the selection and estimation of the statistical model underlying VaR is the focus of chapter 3 and 4, chapter 2 looks at how to transform the joint probability distribution for the risk factors to a probability function for portfolio losses.

I show that in certain special cases it is possible to get an analytical expression for the loss distribution but most often – given the special characteristic of …nancial data – one has to use Monte Carlo simulation in order to get a VaR estimate. This chapter also discuss VaR as a relevant risk measure.

The statistical model underlying VaR will be based on a copula approach. A copula is a function which couples given marginal distributions to form a joint distribution function.

Chapter 4 illustrate the dependence structure of 3 di¤erent copula functions, namely the Gaussian, t and Gumbel copula. Besides introducing a whole new array of dependence struc- tures, the interesting aspect of a copula is that it makes it possible to separate the marginal distribution from the dependence structure, thus splitting the model speci…cation in two.

From a mathematical viewpoint the copula approach introduces nothing new. From a sta- tistical viewpoint, however the selecting and estimation process are eased, since we can pick

1

In essence this is what there is done in for example RiskMetrics

(3)

the marginal distribution function independently from each other and from the dependence structure. I show how the dependence structure can be estimated even without knowledge of the parametric form for the marginal distributions functions. Of course we still have to select a copula function and in practical application here lies the challenge. I also show - via a small monte carlo simulation study - that one could choose the copula with the lowest AIC from a list of copulas 2 .

The use of copula theory allows us to look at the marginal distributions individually. With respect to VaR calculation, we are mainly interested in the tail of the marginal distributions.

But since most observation lies in the centre (around the mean), the estimation is of course most accurate here. This inherent problem can be overcome by looking at extreme value theory. More speci…cly a theory known as Peaks over Threshold (POT) allows us to estimate the tail distribution solely. In chapter 3 I show that POT is based on classical extreme value theory and under some weak assumptions the theory tells us the tail approximate, a distribution known as Generalized Pareto Distribution (GPD). The approximation gets better the further out in the tail one is looking. Of course the futher out in the tail the number of observations will be scarce. One must address this dilemma in choosing the starting point for the tail distribution and this issue will also be dealt with in chapter 3. The main contribution from chapter 3 is that it is possible under some very general assumptions to use GPD as an approximation for the tail distribution.

The copula/POT approach is not just another assumption on the parametric form of the underlying model but a new more ‡exible framework which can incorporate the special char- acteristics of …nancial assets. To illustrate this approach, I use empirical data to estimate a daily VaR based on a copula approach. The marginal distribution is modelled by a mix distri- bution where the tail is modelled by a GPD and for the rest, I used a Gaussian distribution.

I compared VaR based on this model by VaR based on the traditional variance-covariance approach. The …ndings suggest that the copula/POT approach gives a more accurate VaR even though the variance-covariance method wasn’t that far o¤ in the back testing period.

Other …ndings suggest that the speci…cation of the copula is important especially for the accuracy of the model.

2

AIC being Akaikes information’s criterion

(4)

Indhold

1 Indledning 3

1.1 Problemformulering og metode . . . . 5

1.2 Afgrænsning . . . . 6

2 Value at risk 9 2.1 Finansielle data karakteristika . . . . 9

2.2 VaR mål . . . 11

2.2.1 Tabsoperator . . . 12

2.2.2 Transformation . . . 14

2.3 Kritik af VaR som risikomål . . . 18

2.4 Delkonklusion . . . 19

3 Ekstremværditeori 20 3.1 Klassisk ekstremværditeori . . . 20

3.2 Peaks Over Threshold . . . 25

3.2.1 Halefordelingestimator . . . 30

3.2.2 Bestemmelse af u . . . 31

3.2.3 Estimation i GPD . . . 33

3.3 Delkonklusion . . . 34

4 Copula 35 4.1 Korrelation . . . 35

4.1.1 Rank korrelation . . . 37

4.2 Copulaer . . . 38

4.2.1 Haleafhængighed . . . 43

4.3 Eksempler på copulaer . . . 44

4.3.1 Gaussisk copula . . . 45

4.3.2 T-copula . . . 48

4.3.3 Gumbel copula . . . 50

4.3.4 Empiriske copula . . . 54

4.4 Bestemmelse af copulaparametre . . . 54

4.4.1 Eksakt maksimum likelihood (EML) . . . 55

4.4.2 Inference Method for margins (IFM) . . . 56

4.4.3 Kanoniske maksimum likelihood metode (CML) . . . 57

(5)

4.5 Valg af copula . . . 59

4.6 Perspektivering . . . 63

4.7 Delkonklusion . . . 64

5 Empirisk analyse 66 5.1 Databeskrivelse . . . 66

5.2 GARCH …ltrering . . . 70

5.2.1 Data er ikke normalfordelt . . . 72

5.3 Statistisk model for de marginale fordelinger . . . 75

5.4 Copulaestimation . . . 79

5.5 VaR Model . . . 81

5.5.1 VaR mål . . . 83

5.6 Backtestning . . . 86

5.6.1 Binomialtest . . . 91

5.7 Delkonklusion . . . 94

6 Konklusion 95

(6)

1 Indledning

Styring af …nansielle risici er et vigtigt fokusområde, der idag er blevet en indarbejdet rutine i …nansielle virksomheder. Det stigende antal og forskelligartetheden af aktiver i …nan- sielle institutioners handelssportefølje gør det nødvendigt at sikre portefølje mod store tab som følge af markedsændringer. Udover at der er et lovkrav om opgørelse af risici og lovkrav til reserverne, så har virksomhederne en klar egen interesse i holde styr på deres …nansielle risici.

Ikke mindst set i lyset af at et enkelt ekstremt tab kan have vidtrækkende konsekvenser og kan betyde, at en virksomhed ryger under et fastsat reservekrav (solvenskrav). Det kan også få ind‡ydelse på virksomhedens rating eller i yderste konsekvens betyde, at virksomheden går konkurs. En af risikostyringens vigtigste opgaver er derfor at koncentrere sig om ekstreme hændelser, der sker med lille sandsynlighed, men som kan have katastrofale konsekvenser.

Fokus i dette projekt er på de statistiske metoder i …nansiel risikostyring.

Finansielle risici består af ‡ere former for risici, bla. markedsrisici, kreditrisici og opera- tionelle risici. Markedsrisici og kreditrisici er ofte de største poster i det samlede risikoregn- skab og dermed også dem, der er mest fokus på. I opgørelsen af markedsrisici er Value-at-Risk (VaR) idag blevet et meget vigtigt – måske endda det vigtigste – risikomål. Value-at-Risk måler det potentielle tab –for et givet sikkerhedsniveau og over en given tidshorisont –man maksimalt kan tabe. Man kan sagtens tabe mere, men hvis VaR modellen er korrekt speci…- ceret, sker det sjældnere end det angivne sikkerhedsniveau. Vigtigheden af VaR som risikomål understreges ikke mindst af, at VaR er blevet en integreret del af BIS reglerne 1 . Statistisk set er VaR de…neret som -kvartilen i en tabsfordeling og kan ses som et mål for den kapital (reserve), som er nødvendigt til dækning af tab.

Man skelner mellem et VaR mål, en VaR model og en VaR metric 2 . Et VaR mål er de underliggende beregninger - algoritmen - som anvendes til at beregne VaR. VaR målet er baseret på en VaR model, som derfor danner basis for VaR målet. Resultatet af VaR målet – det tal som fremkommer – fortolkes med udgangspunkt i en VaR metric. En VaR metric er således den skala, hvorpå resultatet af VaR målet fortolkes. VaR målets validitet hænger i høj grad sammen med overensstemmelsen mellem den underliggende statistiske model og de empiriske data, og dermed står modelspeci…kationen helt centralt i opstilling af VaR. Som basal byggesten i VaR modelspeci…kation vil risikofaktor blive anvendt. En risikofaktor er de

1

Se [30]. Alle henvisninger til litteratur listen vil være i …rkantede paranteser [], mens henvisning til formler vil være i runde paranteser ()

2

Se [17]. Holton anvender VaR model en del bredere, end jeg gør, og i hans de…nition inkluderer VaR i

princippet også andre risikomål.

(7)

underliggende risikokilder og kan f.eks. være aktivpriser, volatilitet, valutakurser eller noget så eksotisk som temperaturen et givent sted i verden. Pointen er imidlertid, at risikofaktorerne antages at være stokastiske variable, og dermed kan man anvende sandsynlighedsteoretiske begreber til at kvanti…cere risikoen i en portefølje. Mere speci…kt er fokus i dette projekt på udvælgelse og estimation af VaR modellen baseret på ekstremværdi- og copulateori.

Udfordringen i de parametriske tilgange til bestemmelse af VaR ligger i karakteriseringen af den underliggende fordelingsfunktion for et aktiv eller en portefølje. Karakteristisk for

…nansielle tidsserier er, at de ofte har ekstra kurtosis i forhold til normalfordelingen (fede haler), er heteroskedastiske, dvs. har en tidsvarierende volatilitet samt er skæve. Og ofte ses der ‡ere ekstreme hændelser, end normalfordelingen kan forklare. Dermed er normalfordelin- gen tit ikke en særlig god approksimation til …nansielle data, og anvendes den alligevel, kan det betyde, at VaR undervurderes. På baggrund af de …nansielle datas karakteristika virker antagelsen om, at den simultane fordelingsfunktion er ‡erdimensionalt normalfordelt (herun- der at også de marginale fordelinger er normalfordelt) som en klar begrænsning i modelvalget.

Porteføljesammensætningen bestemmer sammen med den statistiske model for de indgående risikofaktorer udseendet på tabsfordelingen for porteføljen.

En relativ ny metode i …nansieringssammenhænge er at anvende en copulafunktion i modelspeci…kationen. Introduktion af copulafunktioner giver øget ‡eksibilitet i valg af den statistiske model underliggende VaR målet. En copula er en funktion, som giver mulighed for at sammensætte givne marginale fordelinger med en afhængighedsstruktur 3 . Teorien giver en metode til at konstruere sandsynlighedsfordelinger for afhængige ‡erdimensionale data. Kort fortalt er en n-dimensional copula en (fordelings) funktion C : [0; 1] n ! [0; 1] de…neret på enhedskuben med bestemte egenskaber. Copulaegenskaberne gør, at vi kan skrive en fælles fordelingsfunktion for X 1 ; :::; X n som

F (X 1 ; :::; X n ) = P (X 1 x 1 ; :::; X n x n ) = C(F 1 (X 1 ); :::; F n (X n )) 4

hvor F 1 ; :::; F n er marginale fordelingsfunktioner for n risikofaktorer. I praksis anvendes ofte parametriserede copulaer, og parametrene indtager rollen med at beskrive graden af afhængighed. På samme måde som korrelation gør det under normalfordelingen 5 . Mere præ- cist beskriver en copulafunktion afhængighedsstrukturen mellem stokastiske variable. Dvs.

3

Afhængighedsstrukturen er copulafunktionen.

4

Sklars teorem se s. 40.

5

Og mere generelt under de elliptiske fordelinger.

(8)

en copula giver mulighed for at de…nere afhængighedsstrukturen mellem risikofaktorer ek- splicit samtidig med, at de marginale fordelinger kan de…neres individuelt og uafhængigt af afhængighedsstrukturen. Denne adskillelse mellem de marginale fordelinger og afhængighedsstruk- turen, videreføres også under estimation af parametrene. Copulafunktioner giver mulighed for mange forskellige former for afhængighedsstrukturer – også lineære. På denne måde er normalfordelingsmodellen indlejret i copulatilgangen. Ulempen ved copulatilgangen er, at man ikke længere kan regne med at kunne opnå et pænt analytisk udtryk for porteføljens fordelingsfunktion, og Monte Carlo simulation kan være den eneste farbare vej.

Som nævnt er fordelen ved copulafunktion, at man kan speci…cere de marginale fordelinger for risikofaktorerne uafhængigt af hinanden og uafhængigt af afhængighedsstrukturen. De marginale fordelinger kan med andre ord vælges frit. I risikostyringen er man specielt inter- esseret i halefordelingen for risikofaktorerne, og i forbindelse med VaR er kendskab til højre 6 halefordeling tilstrækkelig. Hvis vi tager udgangspunkt i en bestemt fordelingsantagelse for en risikofaktor, er halefordelingen en integreret del af denne fordeling. I forbindelse med VaR er problemet imidlertid, at estimationen – på basis af en valgt fordeling – i høj grad vil være baseret på de observationer som ligger centralt (omkring middelværdien). Risikofak- torens fordeling vil således være bedst bestemt centralt, mens de observationer, vi er mest interesserede i, har mindre vægt. En teori kendt under navnet "Peaks over threshold"(POT) foreslår, at at man …tter en generaliseret paretofordeling (GPD) til haleobservationerne alene.

Ved at …tte en GPD vil estimationen være baseret på de observationer, som vi reelt er in- teresserede i. Det er vigtigt at understrege, at metoden ikke "bare"er endnu en fordelingsan- tagelse, men en generel metode til at approksimere halefordelingen for alle normalt forek- ommende kontinuerte fordelinger. Således kan f.eks. både normalfordelingen og t-fordelingen, men også mange andre fordelinger, approksimere deres halefordeling med en GPD.

1.1 Problemformulering og metode

Value-at-risk er et risikomål blandt ‡ere, men i praksis nok det mest anvendte. På bag- grund af …nansielle datas karakteristika giver VaR baseret på copula/POT modellen en mere

‡eksibel modelramme og hypotesen er, at dette leder til et mere validt VaR estimat. Jeg ønsker at vise, at copulateori/POT kan anvendes som den statistiske referenceramme underliggende VaR, og hvordan udvælgelse og estimation foretages heri. Til illustration af metoderne vil jeg med udgangspunkt i en simpel portefølje bestående af to danske aktiesektorindeks –"Sund- hedspleje"og "Materialer"fra XCSE – opstille en VaR model baseret på en copula/POT

6

Jeg ser på tabsfordelingen, dvs. tab er positive og gevinst er negative (tab).

(9)

tilgang. De marginale fordelinger modelleres ved et mix af normalfordeling og en generalis- eret paretofordeling. Projektet har et praktisk sigte, nemlig anvendelse af metoderne, og med udgangspunkt i en simpel binomialtest for antallet af overskridelser vil jeg undersøge om VaR baseret på POT/copula giver et mere validt VaR end et VaR baseret på varians-kovarians modellen.

1.2 Afgrænsning

Anvendelse af copula og ekstremværditeori er interessant som modelleringsramme, fordi de ikke dikterer en bestemt fordeling, men kan anvendes som referenceramme for mange fordelingstyper. Mere generelt kan de specielle …nansielle karakteristika indarbejdes i denne referenceramme. Blandt dem som anvender en copulatilgang på praktiske data kan nævnes Claudio Romano 7 . Romano opstiller et VaR mål for ‡ere italienske aktier baseret på en cop- ulatilgang/POT tilgang, men ikke i et dynamisk perspektiv. Dynamisk VaR tager hensyn til, at der kan være et deterministisk tidselement i data. Også anvendelse af POT i estima- tionen af endimensionelle VaR er udbredt. Teorien er i …nansieringssammenhænge specielt blevet fremhævet af McNeil og Embrecht fra ETH Zurich. Et dynamisk VaR baseret på inddragelse af både ekstremværditeori og copulateori i modelspeci…kationen er endnu ikke specielt udbredt.

Udgangspunktet i dette projekt er, at de karakteristika, man ofte ser ved …nansielle data, ikke kan håndteres af de gængse metoder, som tager afsæt i normalfordelingen, bla. varians- kovarians metoden. Risikoen er at VaR således undervurderes. Man må derfor se sig om efter en anden referenceramme for VaR modellen. Selv om der eksisterer speci…kke fordelinger som kan håndtere alle de karakteristika, man ser ved …nansielle data, er det ikke hensigtmæssigt at ligge sig fast på en bestemt fordelingstype på forhånd. Copula/POT er ikke en bestemt fordeling, men en referenceramme, som jeg mener, giver mere ‡eksibilitet i både udvælgelse og estimation af VaR modellen. Jeg vil derfor tage afsæt i en copula/POT model og vise, dels at valg af formen på halefordelingen er fornuftig, dels mere generelt hvordan udvælgelse og estimation foregår i copula/POT modellen.

Selv om VaR modellen er meget vigtig, kan man ikke beregne VaR ud fra VaR modellen alene. Valg af VaR model har også betydning for, hvordan VaR beregnes og specielt dette aspekt vil jeg se på i kap. 2. Til sidst vil jeg ganske kort komme ind på problemerne omkring anvendelse af VaR som risikomål. I kapitel 3 vil jeg argumentere for, at halefordelingen for

7

Se [31] og [32].

(10)

alle normalt forekommende kontinuerte fordelingstyper kan approksimeres med en GPD.

Forudsætningen for dette er, at den ukendte fordelingsfunktions maksimumfordeling kan approksimeres med en generaliseret ekstremværdifordeling (GEV). POT er med andre ord baseret på klassisk ekstremværditeori, og kapitel 3 starter med en introduktion til denne teori. Dermed er valg af fordeling for de marginale fordelinger (for risikofaktorerne) på sin vis fastlagt, men man skal stadig estimere parametrene i denne GPD. I praksis vil de marginale fordelinger for risikofaktorerne sjældent være uafhængige, og ofte vil afhængighedsstrukturen mellem de marginale fordelinger have stor ind‡ydelse på VaR estimatet. Lineær korrelation giver et korrekt billede af afhængighedsstrukturen i normalfordelingen, men giver anledning til ‡ere fejlkilder, hvis den anvendes generelt for ikke-normalfordelte data. I kapitel 4 viser jeg, at copulaer kan give andre former for afhængighedsstrukturer end lineær korrelation, og mere speci…kt har jeg valgt tre copulafamilier ud, som jeg mener giver et godt repræsentativt billede. De tre copulafamilier er den gaussiske, t- og Gumbel copulaen. Valg af en given copula er ikke – som med de marginale fordelinger – dikteret af en teori, men kommer an på de speci…kke data. Udvælgelse af en given copulafunktion kan baseres på et komparativt mål, og jeg diskuterer forskellige metoder til at vælge den "bedste"copula fra en liste med copulafamilier.

Overordnet set vil projektet bestå af 3 dele: VaR som risikomål, dvs. beregning af VaR, VaR model og en empirisk VaR analyse baseret på den introducerede model. Jeg kan ikke forvente at opnå et analytisk udtryk for tabsfordelingen, og Monte Carlo simulation må an- vendes. I denne forbindelse er simulering fra copulafunktioner med givne marginale fordelinger et interessant emne, men det vil dog ikke blive behandlet i dette projekt 8 . Fokus er på VaR modellen, dvs. udvælgelse og estimation, og siden simulering hører under VaR beregning, vil jeg kun kort komme ind på Monte Carlo simulering generelt, og ikke mere speci…kt beskæftige mig med simuleringer fra copulafunktioner. Selvom projektet er teoretisk af natur, har det et praktisk sigte, nemlig anvendelse af metoderne. Jeg fokuserer derfor på intuitionen bag modellerne, og projektet kan derfor læses med et basalt kendskab til sandsynlighedsteori og statistik. Mere speci…kt kræves der ikke kendskab til målteori.

I kapitel 5 vil jeg illustrere metoderne introduceret i kap 2-4. Som eksempeldata har jeg valgt to aktiesektorindeks fra Københavns Fondsbørs, nemlig "Sundhedspleje"og "Materi- aler". De empiriske data er valgt, fordi de besidder ‡ere af de karakteristika som oftest ses ved …nansielle data, bla. er de heteroskedastiske, har fede haler og er skæve. Hypotesen er at anvendes normalfordelingsmodellerne alligevel, leder dette til en underestimering af VaR.

8

For generel simulering fra copulaer se f.eks. [3] afsnit 3.

(11)

Denne fejlspeci…kation af VaR modellen kan undgås ved at anvende anvende copula/POT, og hypotesen er, at man derved opnår et bedre …t i forhold til de empiriske data og dermed et mere validt VaR. De empiriske data anvendes til at teste denne påstand netop på grund af deres karakteristiske egenskaber. I princippet er det svært at konkludere noget generelt ud fra en analyse baseret på to indeks, men siden det ikke så meget er indeksene i sig selv, jeg er interesseret i, men mere de karakteristika de besidder, mener jeg alligevel godt, at man kan drage en generel konklusion. Det væsentlige i denne sammenhæng er, at data er repræsentive for …nansielle data.

Alle beregningerne i dette projekt er foretaget i det statistiske programmeringssprog S+.

Alt estimation vil blive foretaget med udgangspunkt i maksimum likelihood teorien 9 , som generelt har gode egenskaber. Det må her noteres, at t-copulaen ikke er implementeret i S+, og jeg har derfor valgt selv at implementere metoder til simulering og estimation. Kildekoderne til S+ samt aktiedata kan fås på forlangende 10 . Alle henvisninger til litteratur listen vil være i …rkantede parantes [], mens henvisning til formler vil være i runde parantes ().

9

Embrechts, Klüppelberg, Mikosch noterer, at, på baggrund af …nansielle datas karakteristika, er MLE en brugbar og pålidelig metode (se [7] s. 318).

10

Skriv en mail til jonas@halnet.dk

(12)

2 Value at risk

VaR er et tal som repræsenterer det maksimale tab som man kan tabe over en given tidshorisont og kon…densgrænse. Man kan som nævnt sagtens tabe mere. Udgangspunktet for et VaR mål er ofte en portefølje bestående af potentielt mange og forskellige aktiver.

For at beregne VaR skal porteføljesammensætningen være kendt. Dvs. de risikofaktorer 11 som indgår. I dette projekt ser jeg udelukkende på VaR baseret på en parametrisk statistisk model, og når den fælles simultane fordelingsfunktion for risikofaktorerne er bestemt kan VaR beregnes. Mens den egentlige teoretiske udvælgelse og estimation af den underliggende VaR model er fokus for kapitel 3 og 4, ser jeg i dette kapitel på VaR beregningen. Kun i speciele tilfælde er det muligt at opnå et analytisk udtryk for VaR. Valg af tidshorisont og kon…densniveau afhænger af anvendelse, men når fokus er på markedsrisiko vælges ofte en kort tidshorisont. I dette projekt vil jeg se på 1 dags VaR 12 . Jeg ser også på, hvilke konsekvenser det har ikke at inddrage …nansielle datas karakteristika i modelopstillingen. Kapitlet afsluttes med en kritik af VaR som risikomål. VaR kan sagtens opstilles for et enkelt aktiv, men fokus vil være på VaR for en portefølje, og i denne sammenhæng er tabsfordelingen for porteføljen central. Tabsfordelingen er et udtryk for de negative ændringer –eller tab –i portefølje set over en given tidshorisont.

2.1 Finansielle data karakteristika

I de parametriske tilgange er VaR’s validitet afhængig af, hvor godt den opstillede statis- tiske model beskriver de empiriske data. Set fra et statistisk synspunkt ligger udfordringen netop i udvælgelsen og estimationen af denne model. Det har vist sig, at traditionelle metoder i risikostyringen, bla. historisk simulation og metoder baseret på normalitetsantagelsen, har klaret sig dårligt, når man ser på de ekstreme VaR kvartiler. På et 5% niveau klarer de ‡este metoder sig tilfredsstillende, men vælges en lavere grænse, f.eks. 1%, begynder manglerne ved normalfordelingsantagelsen at vise sig, og ofte vil frekvensen af overskridelser være større end forventet, ligesom størrelsen - givet en overskridelse - vil være større (til tider meget større) end forventet under normalfordelingen.

Der er problemer ved at antage, at data initialt er uafhængige identiske fordelte (uid.) og normalfordelte. Dermed kan varians-kovarians metoden vise sig at være en dårlig model at basere VaR på. Som indledningsvis nævnt er det karakteristisk for …nansielle data, at de er

11

Risikofaktorer er en mere generel betegnelse for de risici, der indgår i porteføljen. Et enkelt aktiv kan godt være sammensat af ‡ere risikofaktorer eller risikokilder.

12

I forbindelse med kreditrisiko vil tidshorisonten ofte vælges længere f.eks. 1 år.

(13)

heteroskedastiske, skæve og har ekstra kurtosis i forhold til normalfordelingen 13 . Det vil sige, at de marginale fordelinger for risikofaktorerne har tykkere hale end normalfordelingen. Et andet karakteristika er skæve fordelinger. Finansielle data har således en tendens til at være skæve, og man ser ofte større tabsprocenter end gevinst. Dette taler også imod anvendelse af symmetriske fordelinger generelt – herunder normalfordelingen – for risikofaktorerne. En stokastisk variabel siges at have fede haler eller være leptokurtisk, hvis dens kurtosis 14 over- stiger 3. Konsekvensen af ikke at inddrage hver af disse karakteristika i VaR modelleringen er, at VaR underestimeres, og denne risiko er størst for de ekstreme ekstreme kvartiler.

En del af den ekstra kurtosis samt den tidsvariarende volatilitet kan forklares med, at tabsdata følger en GARCH proces. En attraktiv egenskab ved GARCH modellen er, at den ubetingede varians har fede haler selv under antagelse af den drivende fordeling er betinget normal. Det betyder, at hvis man ser på de rå tabsdata, kan en del af den ekstra kurtosis forklares med, at data er heteroskedastisk, dvs. de kvadrede afvigelser fra middelværdien ser ud til at indeholde et deterministisk element, hvilket modsiger uid antagelsen, men ikke nødvendigvis stationariteten. Hvis data er hetoroskedastiske eller mere generelt at data ikke initialt er uafhængige identiske fordelte (uid.) er der forskel på at man ønsker at beregne et sta- tisk VaR eller et dynamisk. Et statisk risikomål tager udgangspunkt i en generel/hypotetisk ændring af risikofaktorerne, og har ikke noget at gøre med de faktiske ændringer, mens et dy- namisk risikomål anvender alt tilgængelig information. Hvis de indgående stokastiske variable er uid. er der ingen forskel på et statisk og et dynamisk perspektiv, netop fordi de historiske data ikke indeholder information om fremtiden. Hvis de indgående stokastiske variable på den anden side ikke initialt er uid., giver det mening at betinge med den historiske information, da de historiske data indeholder information om de fremtidige værdier. Betingede fordelinger er således tæt forbundet med datas tidsmæssige egenskaber. Selvfølgelig vil de fremtidige værdier stadig betragtes som stokastiske variable, men indeholdende et deterministisk ele- ment som forhåbentlig kan modelleres. Håbet er, at man ved at anvende tidsrækkemodeller kan bringe data på uid form. I de modeller jeg betragter, er det en forudsætning, at input- data er uid. Siden vi be…nder os i et dynamisk perspektiv, repræsenterer I t historien op til

13

Klassiske tekster er Mandelbrot [22] og Fama [10]

14

Kurtosis, det 4. centrale moment er de…neret som (se [25] kap. 1)

k(x) = E (x E(x))

4

E [(x E(x))

2

]

2

; k(x) = ^ n

1

X

n

i=1

(x

i

x)

4

n

1

X

n

i=1

(x

i

x)

2

!

2

(14)

og med tidspunkt t for risikofaktorerne. Anvendelse af tidsrækkemodeller betyder således, at vi i modellering bliver nødt til at betinge med den information, der er til rådighed på opgørelsesdagen.

2.2 VaR mål

Proceduren for at beregne VaR for en portefølje tager udgangspunkt i den simultane fordelingsfunktion for de risikofaktorer, der indgår i porteføljen. I stedet for snævert at basere VaR på prisdata, vil de basale byggesten i VaR modellen være risikofaktorer. En risikofaktor er en stokastisk variabel, som kan repræsentere en pris, delta-pris, volatilitet, rente, varigheder, valutakurs osv. Baggrunden for at arbejde med det mere generelle begreb risikofaktorer istedet for aktivpriser er, at det ikke altid er muligt –eller hensigtsmæssigt –at fremska¤e historiske priser på alle aktiver. Hvis man har teori til rådighed, som giver aktivets værdi som funktion af nogle observerbare variable, kan man indirekte beregne psoeudohistoriske priser vha. disse observerbare variable. På denne måde kan man substituere et aktivs pris med én eller ‡ere risikofaktorer –som man har historiske data for –og herefter beregne prisen. Tænk f.eks. på en option, hvor risikoen kan opgøres ved "the greeks" 15 . Udvælgelsen af relevante risikofaktorer er et studie værd i sig selv, men vil ikke blive behandlet yderligere i dette projekt. I dette afsnit skal vi se på, hvordan VaR beregnes, når porteføljesammensætningen og den statistiske model for risikofaktorerne er speci…ceret.

For at bestemme VaR kræves der kendskab til tabsfordelingen for en portefølje. Tabs- fordelingen afhænger af porteføljesammensætningen samt den simultane fordeling for risiko- faktorerne. Vi skal lidt senere se, hvordan et udtryk for tabsfordelingen opnås, men først vil jeg vise, hvordan VaR beregnes givet, at tabsfordelingen er speci…ceret. Lad os tage udgangspunkt i en portefølje med værdi V t til tidspunkt t. Jeg forstiller mig, at vi står i tidspunkt t og ønsker at bestemme VaR 1 for tidspunkt t + 1. Porteføljens værdi V t er kendt på tidspunkt t, mens V t+1 er ukendt. Fordelingen (V t+1 V t ) kaldes Pro…t&Loss (P&L) fordelingen, og herudfra kan man de…nere tabsfordelingen som den negative P&L fordeling.

Dvs. L t = (V t+1 V t ). På den måde bliver tab positive tal, mens gevinst er negative tal.

Det betyder også, at interessen nu samler sig om den øvre hale af L.

Lad L t være en éndimensional stokastisk variabel med tabsfordelingen F . For 2 (0; 1) er

15

Hvis man tager udgangspunkt i Black-Scholes’verden kunne man selv konstruere optionens prisproces,

hvis man - foruden prisprocessen for underliggende aktiv - også har en tidsserie af volatilitet samt den korte

rente. I denne sammenhæng ville man anvende prisen på det underliggende aktiv, volatiliteten samt den korte

rente som risikofaktorer.

(15)

et udtryk for -kvartilen i fordelingsfunktionen F . F 1 er den såkaldte kvartilfunktion og er de…neret som den inverse til F . VaR de…neres netop med udgangspunkt i kvartilfunktionen og skrives som 16

V aR (L t ) = F 1 ( ) = inf f l t 2 R : F (l t ) g

VaR for en portefølje er – ligesom for VaR på et enkelt aktiv – de…neret som -kvartilen i porteføljetabsfordelingen. I praksis ses oftest valg af som 5%, 1% og 0.1% 17 . VaR er et frekvensmål, som angiver, at i % af tilfældene vil VaR 1 overskrides. Forudsætningen for dette udsagn er selvfølgelig, at VaR modellen er speci…ceret korrekt. Hvis modellen er korrekt speci…ceret, gælder der

P (L t V aR 1 ) = 8

Denne relation kan indirekte anvendes til at teste om antallet af overskridelser under en given VaR model holder sig inden for acceptable grænser.

2.2.1 Tabsoperator

I sidste afsnit har jeg vist, hvordan VaR beregnes givet tabsfordelingen for porteføljen.

I det her afsnit skal vi se på, hvordan man kan opnå et udtryk for tabsfordelingen ud fra risikofaktorernes simultane fordelingsfunktion samt porteføljesammensætningen. Porte- føljesammensætningen afbilder ændringerne i risikofaktorerne til tab i porteføljen, ud fra et datasæt bestående af d risikofaktorer, hver med n historiske observationer, dvs. f r g t i=t n+1 = f r i 1 ; r 2 i ; :::; r d i g t i=t n+1 . Ændringerne i risikofaktorerne vil blive betegnet med x i = r i r i 1 . Set fra tidspunkt t er risikofaktorernes værdi på tidspunkt t + 1 ukendt og modelleres ved stokastiske variable, som skrives med store bogstaver. På denne måde kan værdien af risikofak- torerne, til tidspunkt t +1, skrives som R t+1 , og ændringerne i risikofaktorerne kan tilsvarende skrives som X t+1 . Den funktionelle sammenhæng mellem risikofaktorerne og værdien af porte- føljen vil blive betegnet med f. Værdien af porteføljen V t+1 kan ses som en funktion af tid

16

Hvis fordelingen for X er kontinuert, kan de…nitionen simpli…ceres til V aR

1

= F

1

(1 )

Med andre ord er det muligt at bestemme 1 -kvartilen eksakt i det kontinuerte tilfælde.

17

Basel har forslået et 10 dages VaR mål med = 1% baseret på historisk observationsperiode på mindst

1 år (250 arbejdsdage) (Kilde: [2]). Det her fremkommende VaR mål ganges med en faktor på 3-4 afhængig

af antallet af overskridelser i backtestningen. Der kan ske mange ændringer i en porteføljesammensætning

over en 10 dags periode og derfor …nder jeg det mere relevant at opstille et VaR mål for én dag.

(16)

og d underliggende risikofaktorer. Værdien kan mere formelt skrives som 18

V t+1 = f (t + 1; R t+1 ) (1)

hvor R t+1 = (R t+1 1 ; R 2 t+1 ; :::; R d t+1 ) T er en vektor med d risikofaktorer.

Jeg er interesserede i risiko og derfor ikke direkte i fordelingen af V t+1 19 . Jeg er mere interesserede i tabsfordelingen. Lad L t+1 j I

t

betegne den betingede tabsfordeling for tidspunkt t + 1 givet information til rådighed på tidspunkt t. I det følgende er det denne betingede tabsfordeling jeg ser på, men for at lette notationen skrives den som L t+1 , selvom jeg stadig arbejder med et dynamisk VaR. Tabsfordelingen kan således skrives som negative ændringer i porteføljeværdien. Altså

L t+1 = (V t+1 V t )

= (f (t + 1; R t+1 ) f (t; R t ))

= (f (t; R t + X t+1 ) f (t; R t ))

R t er kendt på tidspunkt t 20 . Fordelingen for L t+1 er således bestemt af fordelingen af X t+1 . Givet realisationer r t af R t , kan vi skrive tabsoperatoren til tidspunkt t som den funktion, der afbilder ændringerne i risikofaktorerne til tabsstørrelse 21

l [t] (x) := (f (t + 1; r t + x) f(t; r t ))

Det vil sige, at når risikofaktorerne betragtes som stokastiske variable, kan tabsfordelingen bestemmes som

L t+1 = l [t] (X t+1 )

l [t] (X t+1 ) er den betingede tabsoperator for tab over den følgende dag givet udviklingen i de historiske risikofaktorer frem til og med tidspunkt t. Tabsoperatoren er isoleret set en ren mekanisk størrelse, som for givne ændringer af risikofaktorerne giver ændringer i porte-

18

Hvor det gælder

f : R

d

! R

19

Baggrunden for dette skift i fokus er, at V

t

sjældent initialt kan anses som stationær, mens P&L fordelin- gen kan, og dermed er det naturligt, at VaR modellen tager udgangspunkt i denne.

20

Mere formalt kan man sige at den er I

t

målelig. I denne sammenhæng betyder det at vi ikke har mulighed for at se ud i fremtiden.

21

Se [25] kap. 1

(17)

føljeværdien. Men når vi indsætter stokastiske variable, afbilder tabsoperatoren det fælles sandsynlighedsmål for risikofaktorerne over i et sandsynlighedsmål for tab på porteføljen.

Dvs. den simultane statiske model for risikofaktorerne speci…cerer et sandsynlighedsmål via tabsoperatoren, og det er på baggrund af dette transformerede sandsynlighedsmål, jeg vil beregne VaR.

2.2.2 Transformation

Hvis tabsoperatoren er simpel og f.eks. kan skrives som et lineært polynomie, og den si- multane fordelingsfunktion for risikofaktorerne samtidig kan antages at tilhøre klassen af elliptiske 22 fordelinger, er det mulig at opnå et analytisk udtryk via tabsoperatoren for tabsfordelingen. Elliptiske fordelinger er fuldstændig speci…cerede ved deres andet moment, hvilket også betyder, at linearkombinationen er fuldstændig speci…ceret ved dets andet mo- ment 23 . Netop denne egenskab udnyttes i varians-kovarians metoden til bestemmelse af VaR.

Generelt kan vi ikke være sikre på, at tabsoperatoren kan opstilles som et simpelt polynomie, ligesom den simultane fordeling ikke behøver at tilhøre klassen af elliptiske fordelinger. Hvis f.eks. ikke alle aktiver i porteføljen er i samme valuta, er det nødvendigt at inddrage valu- takursen som risikofaktor for at få denomineret alle aktiver i samme valuta. Dette betyder, at i stedet for at se på en sum af stokastiske variable er i hvertfald et af leddene et produkt af to stokastiske variable. Selv i det simple tilfælde hvor vi kun ser på ét aktiv og dets valutakurs og antager, at begge risikofaktorer er normalfordelt, er produktet 2 fordelt. Vi er således ikke længere nødvendigvis i samme klasse af fordelinger, og en analytisk løsning kan måske ikke opnås.

I praksis kan VaR bestemmes vha. tre grundlæggende metoder: Historisk simulation, analytiske metoder eller Monte Carlo simulation. Mens de analytiske metoder og Monte Carlo begge har udgangspunkt i en parametrisk statistisk model for risikofaktorerne, ligger der ingen sådanne antagelser til grund for historisk simulation. I det følgende vil jeg derfor se bort fra historisk simulation da metoden ikke er baseret på en parametrisk statistisk model.

22

Både normal og t-fordelingen tilhører klassen af elliptiske fordelinger. Egenskaber ved elliptiske fordelinger er: Tætheden for en elliptisk fordeling er konstant på en ellipsoide. Mange af egenskaberne ved den ‡erdi- mensionale normalfordeling er også tilstede ved elliptiske fordelinger. Specielt er alle linear kombinationer X

n

i=1

i

X

i

af samme type. Dvs. hvis X

i

’er er t-fordelte, er også linearkombinationen t-fordelt. Alle de marginale fordelinger er også af den samme type. Lineær (Pearsons) korrelationmatrix er en fuldstændig beskrivelse af afhængighedsstrukturen (Kilde: [18]).

23

Dette følger let af at, de marginale fordelinger er af samme type, og dermed også er fuldstændigt speci-

…cerede ved deres andet moment.

(18)

Lineær transformation At en risikofaktor indgår lineært betyder, at ændringerne i porte- føljeværdien er en lineær funktion af ændringerne i risikofaktorerne. Et eksempel kunne være en portefølje bestående af kun danske aktier. Hvis prisen på en given aktie ændrede sig med 1 krone, og vægten af denne i porteføljen er ; vil værdien af porteføljeværdien ændre sig med kroner. Hvis alle risikofaktorer indgår lineært kan værdien af porteføljen skrives som et lineært polynomie. Beregning af VaR for simple lineære porteføljer er relativt enkelt.

Den simpleste og måske mest anvendte tilgang til VaR for en portefølje er varians- kovariansmetoden indtroduceret af RiskMetric 24 . Varians-kovarians bygger på en antagelse om, at den simultane fordelingsfunktion for ændringen i risikofaktorerne er uid., og at deres si- multane fordelingsfunktion kan beskrives ved en ‡erdimensional normalfordeling. En yderligere antagelse er, at ændringerne i porteføljens værdi sker lineært i forhold til ændringerne i risikofaktorerne. Under disse (strenge) antagelser vil porteføljens tabsfordeling være normal- fordelt. Variansen for porteføljens tabsfordeling bestemmes ud fra varians-kovariansmatrisen for risikofaktorerne sammen med porteføljevægtene, dvs. de relative positioner i hvert aktiv.

Tabsoperatoren er således et lineært polynomie, og egenskaberne ved elliptiske fordelinger sikrer, at også den éndimensionale tabsfordeling er af samme type, dvs. normalfordelt. Ud fra et teoretisk synspunkt er der ikke noget til hinder for at skifte normalfordelingen ud med en anden elliptisk fordeling. Beregningen er i store træk de samme. I denne forbindelse er t-fordelingen et oplagt valg pga. dens fede haler. Graden af ekstra kurtosis kontrolleres af en ekstra parameter, og t-fordelingen er således unik bestemt ved korrelationsmatrisen samt en ekstra parameter . t-fordelingen lider imidlertidig af samme problem som normalfordelingen, nemlig at den også er strengt symmetrisk, og dermed kan være svær at anvende på skæve empiriske fordelinger.

Hvis f betegner ændringen i porteføljens værdi, og hvis f mindst én gang er di¤erentiabel således, at de første a‡edte eksisterer, kan L t+1 opstilles som et liniariseret tab 25 . Approksi-

24

Se [30]

25

Her er anvendt følgende approksimation, hvor jeg har set bort fra tidsleddet. Man vil ofte se bort fra dette specielt hvis 4 t er lille.

V

t+1

= V

t

+ f

z

X

t+1

+

L

t+1

= (V

t+1

V

t

) = f

z

X

t+1

Hvis tidshorisonten er kort, kan dette også være en acceptabel approksimation, selv hvis risikofaktorerne ikke

indgår linært.

(19)

mationen ser således ud 26

L 4 t+1 := f t (t; R t ) 4 t + X d

i=1

f z

i

(t; R t )X t+1 i

!

På opgørelsestidspunktet t er det eneste stokastiske led X t+1 i . Tilsvarende vil den lineæriserede tabsoperator se således ud

l [t] 4 := f t (t; R t ) 4 t + X d

i=1

f z

i

(t; R t )X t+1 i

!

(2) Lad os antage, at vi har en stokastisk variabel X som er ‡erdimensionalt normalfordelt med middelværdivektor = ( 1 ; :::; d ) T og kovariansmatrice = ( i;j ) i 1;j d . Da vil den stokastiske variabel Y t+1 = l [t] (X t+1 ) have middelværdi Y = V t T $ og 2 Y = V t 2 $ T $.

Dvs.

L 4 t+1 N ( Y ; 2 Y ) (3)

$ i angiver i denne sammenhæng den relative vægt af aktiv i i porteføljen til tidspunkt t, dvs. $ i =

i

R V

t;i

t

og summer naturligvis til 1, og er det absolutte antal af hvert aktiv. Denne fremgansmåde svarer til varians-kovarians metoden, og VaR bestemmes som

V aR = F 1 ( ); hvor F N ( Y ; 2 Y )

Hvis man vil hellere vil se på en procentskala, er dette ligetil og opnås ved at dividere igennem med V t .

For at ovenstående approksimation er god, kræver det, som nævnt, at den lineære ap- proksimation er god. Hvis der f.eks. indgår optioner i porteføljen, er (2) ikke længere hen- sigsmæssig approksimation siden også andet ordensled har ind‡ydelse, selv på kort sigt. Ved at tage udgangspunkt i Black-Scholes’verden kan prisen bestemmes ud fra BS-formel. f z er i dette tilfælde et udtryk for "the greeks"(delta, vega, theta, rho). I forbindelse med optioner er også gamma 27 et vigtigt risikomål, men det vil ikke indgå i det lineæriserede tab. Man kunne udvide modellen til også at inkludere andet ordensled, men meget hurtigt lander man i en

26

Se [25] s. 9

27

Hvis C er prisen på en option og S er prisen på det underliggende aktiv er gamme de…neret som

= @

2

C

@

2

S

(20)

model, hvor det eneste udvej er simulation. Det lægger derfor en klar begrænsning på porte- føljevalget, at alle risikofaktorer skal indgå linært, ligesom det kan være svært at opretholde kravet om, at den simultane fordelingsfunktion skal tilhøre klassen af elliptiske fordelinger.

Specielt hvis man ønsker at inddrage de særlige …nansielle karakteristika.

Monte Carlo simulation En måde at håndtere risikofaktorer på, uden at foretage en ap- proksimation som (2), er ved at beregne VaR via Monte Carlo simulation. I denne situation –ligesom i de analytiske tilgange –forudsættes det, at den simultane fordeling for risikofak- torerne er kendt, og at vi har mulighed for at simulere fra denne fordeling. Den simultane fordeling behøver ikke at tilhøre klassen af elliptiske fordelinger, og Monte Carlo simulering er dermed en meget generel metode. Ved at simulere realisationer fra den fælles fordelings- funktion mange gange og indsætte værdierne i tabsoperatoren efter hver simulation, får man opbygget en fordelingsfunktion for tabsfordelingen. Altså en form for pseoudoempirisk fordel- ing. Siden VaR er en kvartil, kan vi ud fra de simulerede realisationer af tabsfordelingen …nde VaR estimater.

Mere speci…kt indebærer Monte Carlo simulation, at man på baggrund af historiske data opstiller en statistisk model for ændringerne i risikofaktorerne, og herefter simuleres k nye datavektorer ~ x 1 t+1 ; ~ x 2 t+1 ; :::; x ~ k t+1 fra denne model 28 . Monte Carlo transformationen anvendes nu til at konstruere z ~ i = l [t] (~ x i t+1 ); i = 1; :::; k. z ~ i ses som er realisation af den stokastiske variabel Z; og tabsoperatoren l anvendes således til at simulere pseudoporteføljeværdier. Som tidligere nævnt kender vi ikke nødvendigvis den analytiske form for Z, men ved hjælp af simu- leringerne kan et estimat for VaR bestemmes. Dette gøres ved at sortere z ~ i i stigende orden og vælge det z ~ (i) ; for hvilket der gælder inf f z ~ : (i) k g . (i) er den nye ordning 29 . Fordelen ved at anvende Monte Carlo simulation er, at det er en meget generel metode. Hvis vi kan opstille en parametrisk model for risikofaktorerne, vil det i mange sammenhænge også lade sig gøre at simulere fra denne model. Hvis tabsoperatoren er kompleks, og/eller der indgår mange risikofaktorer i porteføljen, kan simulationen imidlertidigt være en langsommelig pro- ces. Tidskompleksiteten kan være stor, og yderligere er konvergensen langsom. Men på grund af de …nansielle datas karakteristika kan Monte Carlo simulation være den eneste farbare vej.

28

x ~

jt+1

= (~ x

1t+1

; x ~

2t+1

; :::; x ~

dt+1

)

T

29

Hvis vi f.eks. simulere 1000 realisationer vil VaR

0:95

svare til den observation som står på plads 950 i

vektoren i den ordnede række.

(21)

2.3 Kritik af VaR som risikomål

En klar fordel ved VaR er, at det opsummerer risiko i et enkelt tal, og som nævnt kan dette tal ses som et udtryk for den reserve, man skal have til rådighed for at kunne modstå tab i 1 % af tilfældene. Man må dog huske på, at VaR er et frekvensmål og dermed giver det kun en frekvens for tab, men siger ikke noget om størrelsen af tab i tilfælde af tab. Selv hvis den statistiske model underliggende VaR er korrekt kalibreret, kan de ekstreme tab være endog meget store og vil selvfølgelig afhænge af den underliggende model. Ekstreme tab de-

…neres i denne sammenhæng som tab over VaR. Et andet aspekt mht. VaR er, at det ikke er et sammenhængende risikomål i Artzners forstand. Artzner et al [1] giver en formel kritik af VaR ved at angive at VaR ikke er et sammenhængende 30 risikomål under generelle antagelser om risikofaktorernes fordeling. Mere speci…kt opfylder VaR ikke subadditivitetskravet. Dette behøves ikke at være et problem i praktiske anvendelser, men betyder at f.eks. to VaR mål beregnet uafhængigt af hinanden ikke nødvendigvis er mindre, hvis VaR var beregnet under et. Ud fra et anvendelsesorienteret synspunkt ville det være hensigtsmæssigt, hvis VaR kunne beregnes for forskellige entiteter og, ud fra disse individuelle VaR estimater, samtidig kunne holde styr på den samlede risiko for alle entiterne under et. Men det kan vi ikke være sikre på kan lade sig gøre med VaR. I det specielle tilfælde, hvor den fælles fordelingsfunktion for risikofaktorerne er ‡erdimensional normalfordelt, er VaR dog subadditivt og dermed sam- menhængende 31 . Dette gælder, hvis standardafvigelsen for summen af to stokastiske variable er mindre end eller lig de to individuelle standardafvigelser. Men denne egenskab gælder ikke generelt.

Et andet risikomål, som vinder mere og mere indpas, er expected shortfall (ES) intro- duceret af Artzner et. al i 1999. ES ser netop på størrelsen af overskridelserne givet en overskridelse (over VaR), og ES bestemmes som

e(u) = E(X u j X > u)

30

Et sammenhængende (eller "coherent") risikomål r skal opfylde følgende 4 aksiomer:

1. Subadditivitet: For to stokastiske X

1

og X

2

variable som repræsenterer tab, skal der gælde: r(X

1

+X

2

) r(X

1

) + r(X

2

)

2. Monotonicitet: Hvis X

1

X

2

næsten sikkert, så gælder der: r(X

1

) r(X

2

) 3. Homogenitet: For enhver konstant 0 og tab X : r( X ) = r(X )

4. Translation invariant: For enhver stokastisk variabel X og en konstant d, der gælder det: r(X + d) = r(X) d

31

For bevis kan man gå igennem de 4 aksiomer, og tjekke at de er opfyldt for normalfordelingen.

(22)

også kendt som mean excess funktionen, som vi kommer til at se mere til i kap. 3 (se s.

31). Netop ES er et sammenhængende risikåmål i Artzners forstand. Hvis vi har opstillet en statistisk model for VaR, kræver det ikke den store ekstra beregning at få et estimat for ES.

VaR sammen med ES giver et godt billede af risikoen. VaR angiver frekvensen af tab over , mens ES angiver det forventede tab givet en overskridelse. Det ses, at hvis den statistiske model er speci…ceret, kan både VaR og ES beregnes. På grund af VaRs store udbredelse vil fokus være på VaR.

2.4 Delkonklusion

VaR baseres på tabsfordelingen for en portefølje og beregnes ud fra en tabsoperator samt en statistisk model for risikofaktorerne. Tabsoperatoren sammen med den statistiske model de…nerer en transformation af et sandsynlighedsmål de…neret for risikofaktorerne og til et sandsynlighedsmål de…neret for tabsfordelingen. Tabsfordelingen er den éndimensionale fordelingsfunktion som VaR baseres på. Kun i specielle tilfælde kan man forvente et ana- lytisk udtryk for porteføljens tabsfordeling. Hvis den simultane fordelingsfunktion stammer fra en elliptisk fordeling, samt hvis ændringerne i risikofaktorerne påvirker porteføljeværdien lineært, er det muligt at opnå et analytisk udtryk, og dette danner basis for varians-kovarians metoden. Problemet med varians-kovarians metoden er imidlertid, at det er karakteristisk for

…nansielle data, at de er leptokurtiske og skæve. Dermed kan det være svært at opretholde an- tagelsen om, at den simultane fordelingsfunktion for risikofaktorerne er elliptisk. Bestemmes VaR alligevel via varians-kovarians metoden, kan VaR i værste fald undervurdere den reelle risiko ved at holde porteføljen, og dermed vil den kapitalreserve som VaR forskriver være for lille. Det er derfor vigtigt at basere VaR på en statistisk model som inkluderer de specielle karakteristika, herunder specielt et godt …t i halen. Anvendelse af mere komplicerede statis- tiske modeller og mere komplekse porteføljesammensætninger betyder at oftest må man ty til Monte Carlo simulation for at beregne VaR.

VaR er ikke et sammenhængende risikomål undtagen i den specielle situation, hvor den

fælles fordelingsfunktion for risikofaktorerne er ‡erdimensionalt normalfordelt. VaR kan have

svært ved at stå alene, da VaR er et frekvensmål. Dermed siger VaR kun noget om frekvensen

af overskridelser over V aR 1 ; og ikke noget om overskridelsernes størrelse. Et risikomål som

både er sammenhængende, og som supplerer VaR godt, er expected shortfall (ES). ES er et

udtryk for det gennemsnitlige tab, givet VaR er overskredet.

(23)

3 Ekstremværditeori

Valg af marginale fordelingsfunktioner for ændringer i risikofaktorerne er en klar udfor- dring, ikke mindst fordi man i VaR sammenhænge er specielt interesseret i halefordelingen.

Karakteristisk for …nansielle data er at man ofte observerer ‡ere ekstreme observationer. Og ikke nok med at der er ‡ere, de er som regel meget større end ventet under en normalfordeling.

Givet de karakteristisk fede haler i …nansielle data virker antagelsen om, at man kan mod- ellere VaR på baggrund af normalfordelingen –som har tynde haler –ikke optimal. Nogle af problemerne kunne afhjælpes ved at se på en t-fordeling i stedet. Udvælgelse af fordelings- funktion for de marginale fordelinger er et praktisk problem, siden den fordeling man vælger skal kunne håndtere de …nansielle karakteristika. Nogle fordelinger kan håndtere fede haler, men kan ikke håndtere skæve fordelinger, f.eks. t-fordelingen (som har fede haler, men er symmetrisk). Problemet er imidlertid generelt, at der falder ‡est observationer centralt i en fordeling, og fordelingen er dermed bedst bestemt omkring sin middelværdi, mens halerne er mindre sikkert bestemt. En teori kendt som "Peaks over Threshold"(POT) estimerer en gen- eraliseret paretofordeling for de ekstreme observationer alene, hvilket i teorien skulle give et bedre …t af halerne i den empiriske fordeling. POT er baseret på klassisk ekstremværditeori.

Fokus i dette kapitel er, at vise at den generaliserede paretofordeling (GPD) er et fornuftigt valg.

3.1 Klassisk ekstremværditeori

I klassisk ekstræmværditeori er ønsket at bestemme en fordeling for maksimum. Lad X 1 ; :::; X n være en uid. følge af stokastiske variable med fælles ukendt kontinuert fordelings- funktion F (x). Lad M n være en følge af maksimaer 32 over de n første observationer, dvs.

M n = max(X 1 ; :::; X n ); n 2; M 1 = X 1

Klassisk ekstremværditeori er interesseret i fordelingen af M n for n ! 1 . Fodtegnet vil ofte betegne tiden, og man vil således være interesseret i maksimum over tid. I praksis kan man med fordel tænke på M n som det største tab over en given periode. Figur 1 viser de data estimationen af årlig maksimumfordeling er baseret på. I teorien kan M n bestemmes direkte

32

Behandling af minimum kan ske ækvivalent med maksimum siden

min(X

1

; :::; X

n

) = max( X

1

; :::; X

n

)

(24)

Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Kvartal

X

Årlige maksimum

Figur 1: Kvartalsdata med årlige maksima. Ring indikerer maksimum for et givent år.

fra F , dvs.

P (M n x) = P (X 1 x; X 2 x; :::; X n x)

= P (X 1 x) P (X 2 x) ::: P (X n x); da X’erne er uid.

= F n (x), da X i F for i = 1,2,...,n

I praksis er F imidlertid ikke kendt. Antagelse om F ’s form kan derfor blive en nødvendig forudsætning, og man må anvende statistisk teori for at få et estimat for F . Når parametrene er estimeret, kan de indsættes, og F ^ n (x) kan anvendes som et estimat for maksimumfordelin- gen. Denne fremgangsmåde medfører imidlertid, at selv små afvigelser i estimatet F ^ , vil lede til store afvigelser i F ^ n i forhold til den sande maksimumfordeling F n33 . Med andre ord skal man være ret sikker på formen for F; før F ^ n anvendes som approksimation.

Et centralt resultat fra ekstremværditeorien (EVT) er Fisher-Tippetts teorem. Fisher- Tippets teorem er for EVT, hvad den centrale grænseværdisætning er for summer af stokastiske variable. Mere detaljeret siger Fisher-Tippetts teorem, hvis der eksisterer konstanter a n > 0, og b n 2 R sådan at

M n b n a n

! d H, for n ! 1

33

Se [4] s. 45-46.

(25)

så vil H tilhøre én af de tre såkaldte ekstremværdifordelinger 34 :

F rechet : (x) = 0; x 0

exp f x g ; x > 0 > 0 (4) W eibull : (x) = exp f ( x) g ; x 0

1; x > 0 > 0

Gumbel : (x) = exp f exp( x) g ; x 2 R

Fisher-Tippetts teorem er vigtigt, fordi det fortæller os, at grænsefordelingen for maksimum altid har den samme form (næsten) underordnet hvilken referencefordeling vi ønsker at op- stille en maksimumfordeling for. Vi behøver derfor ikke lave (subjektive) antagelser om F for at opnå et estimat for maksimumfordelingen.

Fisher-Tippetts teorem garenterer ikke, at M n konvergerer 35 og selv i tilfælde af konver- gens, fortæller teoremet heller ikke noget om, hvilken af de tre ekstremværdifordelinger, der er den rette. Vi får heller ikke umiddelbart noget hjælp til bestemmelse af konstanterne a n og b n . Hvad teoremet fortæller er, at grænsefordelingen vil være af en bestemt type, og at der kun …ndes tre forskellige typer. Hvilken af disse fordelinger, der er den rette, afhænger af egenskaber ved fordelingen F . Man siger, at en fordelingsfunktion er i "Maksimum Domain of Attraction" (MDA) af en ekstremværdifordeling, hvis fordelingen af maksimum konvergerer (konvergens i sandsynlighed) mod én af de tre ekstremværdifordelinger. Hvis vi f.eks. ved at F ’s maksimumfordeling er af Fréchet typen, skrives dette som F 2 M DA( ). Overordnet set vil enhver fordeling indenfor "Domain of Attraction"af en given fordeling have egenskaber, som ligger tæt på egenskaberne for den underliggende fordeling. Det vil sige, at beslutninger baserede på en ekstremværdifordeling i princippet ikke vil påvirkes af valget, hvis man i stedet havde kunnet opstille maksimumfordelingen F n via F direkte.

Et af de vigtigste argumenter for at …nde og anvende en approksimation til F var at undgå at skulle lave subjektive antagelser om F ’s form. Selv om Fisher-Tippetts teorem har fået reduceret antallet til 3 mulige ekstremværdifordelinger, skal der – som det ser ud nu – stadig laves antagelser om F ’s form. Fra et praktisk synspunkt viser det sig dog heldigvis, at det er muligt at lave en reparametrisering sådan at overstående tre ekstremværdifordelinger kan indeholdes i én fordeling. Dette gøres ved at introducere en ny parameter . De tre ekstremværdifordelinger samlet under et kaldes for den generaliserede ekstremværdifordeling

34

Se [7] teorem 3.2.3 s. 121

35

Det afhænger af konstanterne a

n

og b

n

:

(26)

(GEV for Generalized Extreme Value):

H (x) =

( exp n

[1 + x]

1

o

; 6 = 0 exp f exp( x) g ; = 0

de…neret for f x : 1 + x > 0 g og hvor 1 < < 1 , > 0 og 1 < < 1 . Også kendt som Jenkinson-von Mises repræsentation. Støtten for H svarer til

x > 1 ; for > 0 x < 1 ; for < 0

x 2 R ; for = 0

Fordelingen kaldes generaliseret, fordi de tre ekstremværdifordelinger er indeholdt i H. Hvis

1 > 0; sættes = 1 ; og man har Fréchet fordelingen. Hvis 1 < 0 er parametriseringen

= 1 ; hvilket svarer til Wiebull fordelingen. For > 0 svarer dette til en fordeling af typen Fréchet, og tilsvarende for < 0 har man en Weibull fordeling. Parametriseringen

= 0 skal forstås som ! 0, altså som et grænseargument, og man kunne have skrevet GEV som exp n

[1 + x]

1

o

. De tre ekstremværdifordelinger er efter en reparametrisering af samme type 36 som GEV, da hver af de tre ekstremværdifordelinger kan nås via følgende relationer

F rechet : H

1

( x 1

1 ) = (x); for > 0 W eibull : H

1

( x + 1

1 ) = (x); for > 0 Gumbel : H 0 (x) = (x)

Halen for referencefordelinger F for de underliggende data bestemmer formparametren for GEV fordelingen. Hvis F har fede haler, vil Frechet være den rette limitfordeling. De fordelinger, der har Frechetfordelingen som limitfordeling, har en hale som aftager som en potensfunktion 37 . Fordelinger som er M DA( ) er fordelinger med fede haler som bla. t-

36

To fordelingsfunktioner H

1

og H

2

er af samme type, hvis der …ndes konstanter a

1

2 R og a

2

> 0 sådan at H

2

(x) = H

1

(

x aa21

). Når man taler om positions- og skalaparameter for en fordeling, er det ofte med reference til et valg af en normeret fordeling af typen. Det vil sige H

1

og H

2

tilhører den samme positions- og skalaparameterfamilie (kilde: [34] s. 86).

37

Dvs.

1 F(x) = x

1

L(x)

(27)

fordelingen. Fordelinger hvis hale aftager eksponentielt vil have Gumbelfordelingen som lim- itfordeling og de F 2 M D( ) har tynde haler. Normal, log-normal og eksponentielt er f.eks. M DA( ). Fordelinger som har endelige haler vil vil være MDA(Weibull). Fordelinger i M DA( ) (Weibull) dvs. < 0; er fordelinger med endelige haler, og dermed endelig øvre støtte som f.eks. ligefordelingen. I …nansielle sammenhænge er det Fréchetfordelingen som umiddelbart er mest interessant, da …nansielle data netop er karakteriseret ved fede haler.

GEV fordelingen kan sagtens udvides til også at inkludere en positions- og skalaparameter.

Hvis f.eks. X er GEV fordelt med positionsparameter og skalaparameter ; betyder det, at fordelingsfunktionen for X kan skrives som

H ; ; (x) = exp (

1 + x

1

)

(5) med reference til den normerede GEV. Parametrene i H svarer til middelværdi og stan- dardafvigelse, mens den tredje paramter er formparametren også kendt som haleindekset (tailindex). Haleindekset er en indikator for, hvor tyk/fed halen er i referencefordelingen. Jo større haleindeks desto tykkere hale.

I den teoretiske udledning var man afhængig af eksplicit valg af konstanter a n og b n . a n og b n var imidlertidigt ukendte og afhænger af den underliggende fordeling F . Klassisk EVT giver os, at for stort nok n kan vi anvende approksimationen

P M n b n

a n x H(x)

Men ækvivalent kunne vi skrive

P (M n x) H( x b n a n

)

= H (x)

hvor H (x) er en anden fordeling, men af samme type. Det vil sige, at maksimumfordelingen for M n selv kan approksimeres med en GEV fordeling for stort n. a n og b n er jo konstanter, og H* og H er dermed af samme type. Siden parametrene alligevel i praksis skal estimeres,

hvor L(x) er en langsomt varierende funktion. En funktion L kaldes langsomt varierende, hvis lim

x!1L(tx)L(x)

=

1 for t > 0.

(28)

betyder det ikke noget, at parametrene for H er forskellige fra H 38 . Kun formen på maksi- mumfordelingen er vigtig. Derfor er et eksplicit valg af parametrene a n og b n ikke nødvendigt i praktisk estimation, hvis det er godtgjort at F 2 M DA(H ).

I …nansieringssammenhænge kunne maksimumsfordelingen anvendes til at besvare spørgsmål af typen: "hvad er sandsynligheden for at det maksimale tab over det næste halve år over- stiger det største tab vi til dato har været ude for?" Med andre ord: "hvad er sandsynligheden for at det maksimale tab over det næste halve år er en ny rekord?"Selvom spørgsmål af denne type er relevante i nogle sammenhænge i …nansiel risikostyring er man i VaR sammenhæng mere interesseret i halefordelinger. Kendskabet til halefordelingen for tabsfordelingen er i princippet nok til at beregne VaR.

3.2 Peaks Over Threshold

Klassisk EVT gør kun brug af maksimum i hver blok og undlader dermed at gøre brug af meget vigtig information. Nyere metoder - som tager afsæt i klassisk EVT - er "Peaks Over Threshold"(POT). Modsat klassisk EVT som opstiller en maksimumfordeling over tid opstiller POT teorien en fordeling for haleobservationerne. Teoriens omdrejningspunkt er, at halefordelingen kan approksimeres med en generaliseret paretorfordeling. I modsætning til klassisk EVT, hvor kun maksimum i hver blok blev anvendt til estimation gøres der i POT modellen brug af alle de observationer, som er større end en given øvre grænse u. Se …gur 2. Dette er en klar fordel i forbindelse med VaR, siden vi her er interesseret i de ekstreme kvartiler som netop be…nder sig i halen. Lidt mere formalistisk har man n uid. observationer X 1 ; :::; X n fra en fælles ukendt fordelingsfunktion F 2 M DA(H ). Halefordelingen kan ses som den betingede fordeling F u for de observationer x; som falder over en given grænse u.

Kun de observationer som er større end u medtages. McNeil 39 har vist, at der gælder følgende relation mellem F og F u 40

F u (x) = P (X u x j X u) = F (x + u) F (u)

1 F (u) ; 0 x x F u (6)

38

Se [4] s. 48-49.

39

Se [24].

40

Dvs.

F(x + u) = (1 F (u))F

u

(x) + F (u)

(29)

Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Kvartal

X

Overskridelse over u

Figur 2: Kvartalsdata med overskridelser over u.

hvor X er en stokastisk variabel med fordeling F , u er en given grænsen og x F 1 er det højre endepunkt af F . Halefordelingen kan med andre ord skrives som en funktion af F . Overstående relation kan, hvis vi har et udtryk for F u , bruges til at opnå et udtryk for den ukendte fordelingsfunktion F . I praksis vil jeg dog gå en lidt anden og mere intuitiv vej. Umiddelbart kender vi ikke formen på F u , men hvis F er i M DA(H ) så kan vi vha.

maksimumfordelingen for F opnå et udtryk for F ’s halefordeling. Figur 3 illustrerer metoden bag POT, nemlig at at man opstiller en selvstændig fordeling for haleobservationerne. Til højre ses udelukkende F u , mens …guren til venstre viser F u "koblet"på F .

Jeg vil i det følgende vise, at den generaliserede paratofordeling faktisk er limitfordelingen for halen. Den eneste antagelse er, at F 2 M DA(H ) for 2 R . I praksis er det selvfølgelig meget svært at vise, at denne antagelse er opfyldt, men siden resultatet gælder for en meget stor klasse af kontinuerte fordelinger, er antagelsen ikke specielt restriktiv. Resultatet er kendt som Balkema og De Haans sætning 41 . F 2 M DA(H ) giver mulighed for at opstille følgende

41

Balkema og De Haans sætning fra 1974 fortæller os, at givet F 2 M DA(H ) gælder der (se også [7].

theorem 3.4.13 (b) s. 165)

u

lim

"xF

sup

0<y<xF u

j F

u

(y) G

; u

(y) j = 0 (7)

(30)

0 1

y F

u

(y)

x

F

-u 0

1

x F(x)

F

u

u x

F

Figur 3: Fordelingsfunktion F og den betingede fordelingsfunktion F u

approksimation

F n (x) H (x) (8)

F er ukendt, men klassisk EVT giver formen for H , og vha. (8) kan man opnå et udtryk for F 42 . Det vil sigejeg kan approksimere maksimumfordelingen for F vha.

F n (x) exp (

1 + x

1

)

(9) for valgte parametre , > 0 og . Lighedstegnet opnås kun i grænsen. Vi er ikke umiddelbart interesserede i maksimumfordelingen, men kan vha. af approksimationen for F n (x) opnå et udtryk for den ukendte fordelingsfunktion F . Egenskaberne ved log-funktionen gør, at vi kan skrive (9) som

n ln F (x) 1 + x

1

(10) Ved hjælp af en taylorserieudvikling kan ln F (x) –for store værdier af x –approksimeres med

ln F (x) (1 F (x))

hvor er formparameteren (haleindeks), mens

u

er en skalaparameter som afhænger af u.

42

Se [4] kap 4

Referencer

RELATEREDE DOKUMENTER

Man kan dog forvente at denne reduktion i trængsel også medfører en modeffekt med nye ture, idet ture inden for ringen, samt ture der benytter radialvejene, men som ikke går helt

Hvis skandhaerne ikke eksisterer (i ultimativ forstand), så kan de heller ikke være opstået eller ophørt (i ultimativ forstand).. Når de er kendetegnet ved

Da pH-måling i vandig suspension med videre forhold mellem jord og vædske giver højere værdier, er pH (H 2 0) altså heller ikke noget kor- rekt udtryk for »markværdien«,

Hvis man efter disse værdier omregner den anvendte mængde staldgødning og ajle til salpeter eller svovlsur ammoniak, kan man på grundlag af forsøgsresultaterne og en

Hvis dine oplysninger ændres, eller du ikke længere skal bruge dit lokationsnummer, skal ændringerne omgående meddeles til NSI, da nogle ændringer kan medføre, at

- I alle de hidtil omtalte Segl fra denne Slægt bestaar Mursparren, bortset fra enkelte Tilfælde, hvor Stenenes Antal ikke har kunnet konstateres, af 7 Sten - eller den kan antages

Givet at brugen af videnskabelig evidens i praksis eller i politisk beslutningstagen ikke grundlæggende kan forstås som en øvelse i teknisk problemløsning, virker det rimeligt

Hvis slutbrugere ikke kan udskifte lyskilden, skal den tekniske dokumentation indeholde en teknisk funderet be- grundelse, der forklarer, hvorfor udskiftning ikke er hensigtsmæssigt