• Ingen resultater fundet

S TOKASTISKE V OLATILITETSMODELLER

N/A
N/A
Info
Hent
Protected

Academic year: 2022

Del "S TOKASTISKE V OLATILITETSMODELLER"

Copied!
102
0
0

Indlæser.... (se fuldtekst nu)

Hele teksten

(1)

S TOKASTISKE V OLATILITETSMODELLER

MCMC E

STIMATION OG

F

ORECASTING

Et kandidatspeciale udarbejdet af:

Nicholas Sobieski Hansen - Studienummer: 93592 Tayyab Ahmad - Studienummer: 92063

Vejleder:

Anders Rønn-Nielsen1

15. September 2020 Antal sider: 95

1En stor tak til vores vejleder for kvalificeret og kompetent vejledning

(2)

Abstract

The purpose of this thesis is to gain a profound knowledge and understanding for Stochastic Volatility (SV) Models and Markov Chain Monte Carlo (MCMC) methods in order to apply these methods to estimation and prediction with real world data. SV models are an alternative to the widely used ARCH and GARCH type models and differ in their assumption that the volatility itself follows a stochastic process. However, this reformulation of the volatility process makes the estimation more complicated since the likelihood function is untraceable. To overcome this, MCMC methods among others can be used for the estimation procedure. This paper utilizes MCMC methods to conduct inference by obtaining samples from the posterior distribution of parameters and latent variables from the SV models which can be used for predicting future volatilities. During the thesis, Metropolis Hastings and Gibbs sampling algorithms will be thoroughly described and supplemented with simulation studies having the intention of giving a better and broader understanding of the methods.

For the practical applications in the analysis data from the S&P 500 index was chosen. The R pa- ckage "Stochvol"was utilized for the estimation and prediction section as it showed excellent results in simulation studies. From the results in the analysis we choose only to exploit the SV model as it was a better fit than the SVt model. Hence, the SV model showed to work as intended in the out of sample forecasting as the prediction intervals continuously adapted as high and low volatility was captured.

Finally, we can conclude that it is possible to estimate and predict in the SV model with MCMC methods.

(3)

Indholdfortegnelse

1 Indledning 5

1.1 Problemformulering . . . 6

1.2 Motivation . . . 6

1.3 Afgrænsning . . . 7

1.4 Afhandlingens Struktur . . . 7

2 Grundlæggende Teori 9 2.1 Stokastiske Processer . . . 9

2.2 Markovkæder . . . 9

2.2.1 Kontinuert Tilstandsrum . . . 10

2.2.2 Den Stationære Fordeling . . . 11

2.2.3 Egenskaber og konvergens af Markovkæder . . . 13

2.3 Monte Carlo . . . 16

2.4 Bayesiansk Statistik . . . 16

2.4.1 Bayes’ Sætning . . . 17

2.4.2 A Priori og a Posteriori Fordelinger . . . 18

2.4.3 Valg af a priori fordeling . . . 19

2.4.4 Central grænseværdisætning for a posteriori . . . 19

2.4.5 Posteriori Intervaller . . . 20

2.5 Kort opsummering . . . 21

3 Tidsrækkeanalyse 21 3.1 Stationaritet . . . 21

3.1.1 Hvid Støj . . . 22

3.2 Autokorrelation . . . 23

3.3 Kort om, AR, MA og ARMA-processer . . . 24

3.4 Heteroskedasticitet . . . 25

3.4.1 Auto-Regressive Conditional Heteroskedasticity (ARCH) . . . 26 3.4.2 Generalized Auto-Regressive Conditional Heteroskedasticity (GARCH) . 28

(4)

3.5 Estimation af (G)ARCH-modellen . . . 29

3.5.1 Simulation og Estimation af GARCH(1,1) . . . 30

3.6 Stokastiske Volatilitets Modeller . . . 31

3.6.1 Standard SV modellen . . . 31

3.6.2 SVt Modellen . . . 34

3.6.3 Den Asymmetriske SV Model . . . 35

3.7 ARCH og GARCH vs. SV Modeller . . . 35

3.8 Normalitet . . . 36

3.9 Kort opsummering . . . 37

4 Markov Chain Monte Carlo 38 4.1 Metropolis-Hastings . . . 39

4.1.1 Den generelle Metropolis-Hastings algoritme . . . 39

4.1.2 Konvergens betingelserne . . . 41

4.1.3 Den uafhængige Metropolis-Hastings Algoritme . . . 43

4.1.4 Random Walk Metropolis-Hastings Algoritme . . . 44

4.1.5 Eksempel på MH algoritmen (Symmetrisk) . . . 45

4.1.6 Eksempel på MH algoritmen (Asymmetrisk targettæthed) . . . 49

4.2 Gibbs Sampling . . . 51

4.2.1 Den generelle Gibbs Sampling algoritme . . . 51

4.2.2 Konvergens betingelserne . . . 53

4.2.3 Reversibel Gibbs Sampling algoritmer . . . 54

4.2.4 Eksempel på Gibbs Sampling algoritmen . . . 55

4.3 Kort opsummering . . . 60

5 MCMC Estimation i SV modellen 61 5.1 Bayes’ sætning og MCMC algoritmen . . . 61

5.2 MH og Gibbs algoritmen i Standard SV modellen . . . 62

5.3 ’Stochvol’ pakken . . . 66

5.3.1 Algoritmen fra "Stochvol"pakken (AWOL) . . . 68

5.3.2 Kort om anvendelsen af ’Stochvol’ pakken . . . 72

(5)

5.4 Forecasting med SV-processer . . . 74

5.5 Simulation og Estimation SV proces . . . 74

5.6 Kort opsummering . . . 80

6 Empirisk Analyse 81 6.1 Data . . . 81

6.2 Fordelingsantagelser . . . 82

6.3 Test for stationaritet . . . 84

6.4 Autokorrelation . . . 85

6.5 Modelestimation . . . 86

6.6 Kort opsummering . . . 92

7 Forecasting 93 7.1 Kort opsummering . . . 96

8 Konklusion 97

9 Videre undersøgelse 99

10 Litteraturliste 100

(6)

1 Indledning

Det er et velkendt og almindelig accepteret faktum, at volatiliteten i finansielle tidsserier va- rierer over tid. At kunne modellere og forudsige fremtidig volatilitet er afgørende indenfor felter såsom, risikostyring, porteføljevalg samt prissætning af aktiver [1]. En måde at model- lere dette på, er at lade den betingede varians være en funktion af de tidligere kvadredere værdier og tidligere varians, hvilket fører til den velkendte auto-regressive betingede hete- roscedasticitet (ARCH) model, udviklet af Engle (1982), samt udvidelsen, den generaliserede auto-regressive betingede heteroskedasticitet (GARCH) udviklet af Bollerslev (1986). Et alter- nativ til disse modeltyper er de stokastiske volatilitets (SV) modeller, introduceret af Taylor (1982), hvor volatiliteten i stedet følger sin egen latente stokastiske proces. Tidlige forslag til SV modellen kom fra ideen om, at information er tilfældig og ikke observerbar, hvilket moti- verer brugen af en latent stokastisk proces for volatiliteten [2]. Den primære udfordring med SV modeller er, at likelihood funktionen ikke kan løses analytisk, hvilket gør, at maksimum likelihood estimation ikke kan bruges og andre estimationsmetoder må tages i brug. Forskel- lige metoder er blevet foreslået igennem tiden, såsom quasi maksimum likelihood estima- tion, moment metoden og markov chain monte carlo (MCMC). Sidstenævnte har de seneste år oplevet en stigende interesse, blandt andet på grund af den øgede computer kapacitet og ikke mindst dens evne til at estimere parametre i komplekse fordelinger [3].

Formålet med dette projekt er at opnå en dybere forståelse for SV modeller samt esti- mationsmetoden MCMC. Her vil den bagvedliggende teori først og fremmest gennemgås, og undervejs suppleres med simulationsstudier, der har til formål at give indsigt i teorien i praksis. Selvom SV modeller primært er i fokus, vil der kort inddrages (G)ARCH modeller som teoretisk sammenligningsgrundlag for SV modellerne. Teorien om MCMC bygger på algorit- merne Metropolis-Hastings (MH) og Gibbs sampling, samt udvidelser dertil. Til anvendelse af den fremlagte teori i praksis, vil afkastet for S&P500 indekset bruges som datagrundlag for den empiriske analyse. Dertil anvendes den fremlagte MCMC teori til at estimere parame- trene i SV modellen, for derefter at teste modellens evne til at forudsige fremtidig volatilitet.

Ovenstående vil undersøges ved hjælp af følgende problemformulering.

(7)

1.1 Problemformulering

Hvilke forudsætninger skal der gælde for at MCMC metoderne kan anvendes og hvordan bru- ges MCMC til at estimere og prædiktere i SV modeller?

For bedst muligt at kunne svare på problemformuleringen opstilles følgende underspørgs- mål:

• Hvad er SV modeller, og hvad er forskellen mellem dem og de klassiske volatilitetsmo- deller?

• Hvad er MCMC metoder, og hvilke betingelser skal der gælde for at disse kan anven- des?

• Hvordan virker Metropolis-Hastings samt Gibbs-Sampling algoritmerne, og hvordan adskiller de sig fra hinanden?

• Hvordan implementeres MCMC-metoder til estimation i SV modeller?

• Hvorvidt er det muligt at prædiktere fremtidig volatilitet i SV modeller?

1.2 Motivation

Motivationen for denne kandidatafhandling bunder i en stor interesse for finansielle mar- keder. Herunder specielt hvordan statistiske metoder kan anvendes og implementeres med finansielle data. Den primære motivationsfaktor er dog at estimere og prædiktere i SV mo- deller, ved anvendelse af metoderne MCMC. Til forskel fra maksimum likelihood estimation (MLE) som normalvis anvendes til at estimere parametrene i f.eks. (G)ARCH modeller, kunne det være interessant, at kigge på en helt nye estimationsteknikker, i form af MCMC metoder der netop anvendes i SV modeller. MCMC metoder som estimationsprocedure, adskiller sig netop fra den klassiske MLE ved at bruge simulation for at opnå et resultat, som ellers ikke er muligt at opnå.

(8)

1.3 Afgrænsning

I denne afhandling afgrænser vi os til SV modeller, samt estimationsmetoden MCMC. Selv- om SV modeller er det primære fokus, beskrives også udvidelser til denne. Yderligere vil (G)ARCH modellen kort benævnes til sammenligning. Vi afgrænser os yderligere til MCMC metoderne, Metropolis-Hastings og Gibbs sampling, samt udvidelser dertil. I forlængelse af det vil der kun blive inddraget bayesiansk statistik og dermed undlade frekventistiske stati- stiske tænkemåde. I analysen vil vi afgrænse os til data fra S&P 500 indekset, hvor de daglige lukkekurser inddrages i analysen. Ydermere afgrænser vi os til out of sample forecast, til at teste modellens evne til at prædiktere fremtidig volatilitet.

1.4 Afhandlingens Struktur

Afsnit 2 har til formål at give en beskrivelse af den grundlæggende teori indenfor MCMC metoder, der senere introduceres i afhandlingens afsnit 4. Der vil i afsnittet kort gøres rede for stokastiske processer, hvorefter markovkæder i diskret tid på et kontinuert tilstandsrum, efterfulgt af den bayesianske statistiske tilgang, og til sidst introduceres Monte Carlo simula- tion.

Afsnit 3giver først og fremmest en beskrivelse af vigtige begreber der eksisterer i tidsrække- analyse. Dette indbefatter blandt andet stationaritet, autokorrelation og heteroskedasticitet.

Efterfølgende introduceres forskellige modelklasser, der kan opfange nogle af de dynamikker der eksisterer i aktiekurser. Her er SV modellen i fokus, og sammenlignes med de klassiske (G)ARCH modeller.

Afsnit 4introducere MCMC metoderne, Metropolis-Hastings, Gibbs Sampling samt dertil- hørende udvidelser. Ydermere kigges der nærmere på hvorfor disse algoritmer virker, foru- den deres fordele og ulemper. Undervejs laves der simulationsstudie for at få en bedre for- ståelse for algoritmernes teoretiske aspekter.

Afsnit 5 beskriver to mulige måder at estimere i SV modeller ved brug af MCMC meto-

(9)

der. Første metode anvender både Gibbs sampling algoritmen samt en specialudgave af Metropolis-Hastings. Den anden metode der introduceres, er den indbygget pakke i R "Sto- chvol", som bygger på en lidt anderledes fremgangsmåde end den første. Undervejs testes Stochvol pakkens evner til at estimere kendte parameterværdier i et simulationsstudie.

Afsnit 6er den empiriske analyse. Indledningsvis præsenteres datasættet for denne afhand- ling, S&P 500 indekset. Hertil kigges på blandt andet på datasættets fordeling, stationaritet samt autokorrelation, inden modellens parametrene estimeres i både en SV samt SVt model.

Afsnit 8tester SV modellen evne til at forecaste i et out of sample forecast. Der kigges på hvordan modellen reagerer når høj og lav volatilitet opfanges. Slutteligt laves et rolling dag til dag out-of-sample forecast for en længere periode.

(10)

2 Grundlæggende Teori

I dette afsnit gives en introduktion til markovkæder, Monte Carlo simulation samt den bay- esianske tænkemåde. Teori, der danner grundlag for MCMC metoder, der senere vil blive gennemgået i afhandlingens afsnit 4.

2.1 Stokastiske Processer

Helt generelt er en stokastisk proces en tilfældig proces, der udvikler sig over tid. Mere præ- cist kan man sige en følge af tilfældige variableXt indekseret af tid hvorXt angiver den til- stand, som den stokastiske proces er i til tident. Overordnet skelnes der mellem diskret eller kontinuert tidsprocesser. Hvis t ={0, 1, 2..} vil den stokastiske proces være en diskret tids proces, hvilket betyder at den stokastiske variabel kun kan ændre værdi på bestemt fastsat- te tidspunkter. Derimod hvis T ∈[0,∞] vil den stokastiske proces være en kontinuert tids proces og værdien af den stokastiske variabel kan ændre sig hele tiden. En stokastisk proces kan tage værdier i et tilstandsrum der kan betegnes medS, som også enten er diskret eller kontinuert [4].

2.2 Markovkæder

En Markovkæde er en stokastisk proces der beskriver et følge af tilfældige tilstande hvor sandsynligheden for hver tilstand udelukkende afhænger af den foregående tilstand. Pro- cessen besidder således markovegenskaben, hvilket vil sige at processens fremtidige opførsel kan bestemmes ud fra nuværende tilstand uden kendskab til tidligere tilstande. En Marko- vkæde er altså et system af stokastiske variable Xt, der både i diskret og kontinuert tid kan antage værdier fra et tilstandsrum der også kan både være diskret eller kontinuert [4]. Føl- gende afsnit beskriver markovkæder i diskret tid på et kontinuert tilstandsrum og bygger på Markov Chain Monte Carlo kursusnoter[5].

Definition 2.1 Lad X være et måleligt generelt tilstandsrum og en funktion P på|X|defineres som en Markov-overgangskerne, hvis den opfylder følgende

• for enhver fast xX , gælder at P(x, .)er et sandsynlighedsmål,

(11)

En stokastisk proces er altså en sekvens af stokastiske variableX0,X1,X2... på et generelt til- standrumS.

Definition 2.2 Denne proces kaldes en tidshomogen markovkæde med overgangskerne P(., .), hvis den opfylder markovegenskaben,

P(Xn+1B|Xn,Xn−1, ...,X0)=P(Xn+1B|Xn) (2.1) med,

P(Xn+1B|Xn=x)=P(x,B), ∀n∈N,xX og BX. (2.2) I det diskrete tilstandsrumS, vil kernenPvære givet ved en overgangsmatricen med følgende sandsynlighedselementer,

pi j=P(Xn+1=j |Xn=i), i,jS, (2.3) hvor pi j angiver overgangssandsynligheden fra at gå fra tilstandi til tilstand j. Med andre ord den betingede sandsynlighed fra at gå fra en tilstand til en anden tilstand.

2.2.1 Kontinuert Tilstandsrum

For at beskrive finansielle data, er det markovkæder i diskret tid på et kontinuert tilstands- rum, der er af interesse. Når nu tilstandsrummet er kontinuert er det ikke længere relevant at tale om overgangsmatricen pi j, men i stedet definere overgangskernenP(x,B) som en familie af sandsynlighedsfordelinger med tæthed defineret ved

P(x,B)= Z

B

p(x,y)d y. (2.4)

hvor∀xSer ovenstående defineret som en ikke-negativ funktion. Man er normalt interes- seret i at se hvordan kæden opfører sig, når denne går mod uendelig. Derfor kan den betin- gede fordeling afXngivetX0=xdefineres somn-trins overgangskernen,

Pn(x,B) :=P(XnB|X0=x), (2.5)

(12)

hvor det kan noteres at følgende er gældende

P(x,S)= Z

S

p(x,y)d y=1, og Pn(x,S)= Z

S

p(x,y)d y=1, ∀n≥1 (2.6)

Hvis markovkædens konvergerer nårngår mod uendelig, eksisterer en stationær fordeling, som er essentiel i forhold til at kunne sige noget om kædens fordeling.

2.2.2 Den Stationære Fordeling

Som nævnt overfor er det vigtigt at for at kunne sige noget om markovkædens fordeling, når denne konvergerer mod en stationær fordeling. Hvis i stedet markovkæden divergerede ville kæden ofte opføre sig eksplosivt, og man kan i disse tilfælde ikke sige noget om kædens fordeling. Dertil defineres stationaritet

Definition 2.3 En Markovkæde Xner stationær, hvis

(Xi1,Xi2, ...,Xin)∼(Xi1+t,Xi2+t, ...,Xin+t), (2.7)

i1,i2, ...,in,t∈N, og reversibel, hvis:

(Xi1,Xi2, ...,Xin)∼(Xt−i1,Xt−i2, ...,Xt−in). (2.8) At Markovkæden er stationær betyder, at alle stokastiske elementer i kæden følger den sam- me fordeling uafhængigt af tid, mens at den er reversibel blot betyder, at kæden bevæger sig på samme måde fremad og bagud i tid.

Definition 2.4 En tæthedsfordelingπkaldes den stationære fordeling med overgangstæthed p (eller overgangskernen P), hvis

π(y)= Z

p(x,y)π(x)d x, (2.9)

yS eller tilsvarende for P,

π(B)= Z

P(x,B)π(x)d x, (2.10)

for alle mængder Bx, hvor der også kan også skrivesπP=πfor stationæritet.

(13)

Tæthedsfordelingenπer den stationære fordeling af markovkæden Xn tilhørendeP, siden X0πmedførerXnπfor alle n. For at konstruere markovkæder der både opfylder statio- næritet og reversibilitet, introduceres følgende betingelse

Definition 2.5 En markovkæde med overgangstæthed p, opfylder "Den detaljerede balance betingelse"(DBC), hvis der findes en funktion f på S, så

p(y,x)f(y)=p(x,y)f(x) ∀x,yS (2.11)

som også kan udtrykkes i form af overgangskernen Z

A

P(y,B)f(y)d y= Z

B

P(x,A)f(x)d x ∀målelige A,B (2.12)

Heraf følger nedenstående sætning

Sætning 2.1 Lad p være en overgangstæthed, der opfylder den detaljerede balance betingelse p(y,x)π(y)=p(x,y)π(x), hvorπer en tæthedsfunktion, så

1. er tæthedenπen stationær fordeling af kæden tilhørende overgangstæthed p eller kerne P

2. er kæden reversibel

Bevis for 1. (diskret tilstandsrum): For at bevise atπer en stationær fordeling for markov- kæden, hvis den opfylder DBC skal der gældeπp=π, som for tilstande xog y kan skrives som.

π(y)=X

x

p(x,y)π(x) (2.13)

=X

x

π(y)p(y,x) (2.14)

=π(y) X

x

p(y,x) (2.15)

=π(y) (2.16)

(14)

I 2.14 bruges DBCp(y,x)π(y)=p(x,y)π(x), og i 2.15 bruges atπ(y) er en konstant og ræk- kerne summerer til 1 i overgangsmatricen p, da det er en stokastisk matrix. Dermed er det vist at DBC medfører stationaritet for tæthedenπ.

Bevis for 2. (diskret tilstandsrum): Antag atX1π, så er

P(X1=x, X2=y)=π(x)p(x,y) (2.17)

=π(y)p(y,x) (2.18)

=P(X1=y, X2=x) (2.19)

=P(X2=x, X1=y). (2.20)

Det er hermed vist, at hvisπopfylder DBC er kæden reversibel.

2.2.3 Egenskaber og konvergens af Markovkæder

Markov Chain Monte Carlo metoder simulerer en markovkæde,Xn, der for storenapproksi- mativt følger en ønsket stationær fordeling. Hvis den konstruerede markovkæde ikke er irre- ducibel, er kæden muligvis ikke en stationær fordeling. Det er derfor væsentligt, at kæden er irreducibel for at den har en unik stationær fordeling. I diskret tilstandsrum vil alle tilstande i en irreducibel markovkæde kommunikere. Med andre ord besøges alle tilstande på et givent tidspunkt med en positiv sandsynlighed. For et kontinuert tilstandsrum, vil kæden nå alle

"tilpas store"mængder i endelig tid.

Dertil kan begrebet "hitting time"introduceres Definition 2.6 En "hitting time"er defineret som,

τB:=inf{n:XnB}, (2.21)

og er første gang hvor kæden når den målelige mængde B. Det er en stokastisk variabel, som kan ses som en funktion af udfaldsstien for Xn. Hvis udfaldsstien for Xnderimod aldrig når B, vil "the hitting time"være uendelig.

(15)

Dertil kan man også kigge på antallet af gange kæden besøger mængden B, som ηB=

X n=1

1B(Xn) (2.22)

Definition 2.7 En markovkæde erψ-irreducibel, hvis

ψ(B)>0⇒PxB< ∞)>0, ∀xS (2.23)

hvorψer er et mål på tilstandsrummet (S, B, (S)). Kæden er stærkt irreducibel, hvis

ψ(B)>0⇒P(x,B)>0, ∀xS (2.24)

Når markovkæden er irreducibel, findes der en unik stationær fordeling. Dog kan det mulig- vis ikke lade sig gøre i det lange løb at se bort fra den initiale tilstand, da en irreducibel kæde kan opføre sig periodisk, hvilket medfører, at kæden ikke konvergerer.

Dertil defineres den aperiodiske kæde

Definition 2.8 En irreducibel markovkæde(Xn)har en længde på d , hvis der eksisterer dis- junkte mængder B0, ...,Bd1B(S), således at

P(x,Bi+1)=1, ∀xBi, i=0, ...,d−1, Bd:=B0 (2.25)

En kæde er aperiodisk, hvis den ikke har en cyklus af længde d≥2

Følgeligt kigges der på en sætning, der opsummerer ovenstående egenskaber og yderligere fortæller, hvorfor enπ-irreducibel og aperiodisk markovkæde, der uanset hvilken startværdi der vælges næsten altid vil konvergere.

Sætning 2.2 (Markovkæde konvergens sætningen)

Lad(Xn)være en markovkæde på tilstandsrummet S med stationær fordelingπ. Hvis kæden erπ-irredicibel og aperiodisk, så

P(XnA|X0=X)−−−−→

n→ ∞ π(A) (2.26)

(16)

Altså kæden vil konvergere mod den stationære fordeling for næsten alle xS og målelige mængder A.

Definition 2.9 En markovkæde(Xn)er Harris-rekurrent hvis der eksisterer et målψså(Xn) erψ-irreducibel og der for alle B medψ(B)>0, så

PxB= ∞)=1, ∀x∈B (2.27)

At kæden er Harris rekurrent betyder, at den på et tidspunkt bliver uafhængig af initialtil- standen. Med andre ord vil en Harris rekkurent markovkæde konvergere i fordeling mod den stationære fordeling ligegyldigt, hvor kæden starter henne. Udover ovenstående er det og- så vigtigt til sidst at definere ergodicitet, hvilket i sin enkelthed går ud på at markovkæden med tiden glemmer sin startværdi. Inden ergodicitet defineres kan det være relevant at kigge på begrebettotal variation norm (TV), som ofte bruges til at udtrykke ligheden mellem to fordelinger

||µ1µ2||T V=supA∈B|µ1(A)−µ2(A)|=1 2 Z

S|µ1(d x)−µ2(d x)|. (2.28) MCMC algoritmer kan kun fungere hvis markovkæden er ergodisk.

Ergodicitet defineres som

Definition 2.10 En markovkæde(Xn)på S med overgangskerne P og stationær fordelingπer ergodisk, hvis

||Pn(x,B)−π(B)||T V−−−−→

n→ ∞ 0, ∀x∈S (2.29)

Følgende sætning er en tilstrækkelig betingelse for ergodicitet

Sætning 2.3 Hvis en markovkæde(Xn)er aperiodisk og Harris rekurrent, så er den også ergo- disk ifølge definition 2.10.

Som tidligere nævnt er det markovkæder i diskret tid på et kontinuert tilstandsrum, der er af interesse. Årsagen til dette er, at finansielle data observeres i diskret tid, hvor værdierne er heltallige, t = 1,2,..,n. Det kan f.eks være en valuta, indeks eller en aktie’s lukkekurser over en

(17)

periode. Kursudviklingen derimod, vil opføre sig stokastisk og kan antage alle slags værdier i et given interval. F.eks. vil kursudviklingen på et aktiv kun kunne antage alle positive værdier, hvorimod daglige lukkekurser både kan antage positive og negative værdier.

2.3 Monte Carlo

Monte Carlo integration kan bruges, hvis det ikke er muligt at udregne et integral analytisk, da det enten er umuligt eller for kompliceret. Monte Carlo benytter i stedet simulationer til approksimativt at løse et resultat numerisk. Antag at følgende er et kompliceret integral,

Z b a

h(x)d(x) (2.30)

, hvor h(x) kan splittes op i et produkt af to funktioner. En der ønskes middelværdien af, betegnet medg(x) og en tæthedsfunktion, betegnet med f(x), over intervallet (a,b)

E[g(X)]= Z b

a

h(x)d(x)= Z b

a

g(x)f(x)d(x). (2.31)

Ovenstående er et udtryk for middelværdien for variablen g(X) når X har tætheden f(x).

Hvis der trækkes et stort antal uafhængige stokastiske variableX1, ..,Xnud fra tæthedenf(x), kan man approksimere ovenstående komplekse integral ved

E[g(X)]≈ 1 n

n

X

i=1

g(Xi) (2.32)

Dette kaldes Monte Carlo integration, og kan bruges til at approksimere posteriori forde- linger, der kræves for Bayesiansk analyse [6]. En mere sofistikeret tilgang, som introduce- res senere og danner grundlag for denne afhandling er MCMC, der i stedet frembringer en markovkædeX1,X2, ..,Xnmed stationær tæthed f(x).

2.4 Bayesiansk Statistik

Bayesiansk statistik adskiller sig fra den "traditionelle"frekventistiske statistik ved at betragte alle ukendte parametre som stokastiske variable. Den overordnede ide inden for Bayesiansk

(18)

statistik er, at man bruger fordelinger til at udtrykke den initiale information omkring en ukendt parameter i form af en tæthedsfordeling. Fremgangsmåden for den bayesianske sta- tistik starter med at specificere en model samt en a priori fordeling, der repræsenterer den subjektive information der kunne være omkring de ukendte parametreθ, inden man kender til data. Endvidere er likelihoodfunktionen den betingede fordeling af data givet de ukendte parametreθ. Efter data er observeret kan man anvende Bayes’ sætning til at kombinere den forhenværende viden om parametreneθmed informationen fra data. Med andre ord bruges Bayes’ sætning til at opdatere sin viden omkring den ukendte parameterθ. Den opdaterede fordeling kaldes a posteriori fordelingen og er således den betingede fordeling afθgivet det observerede data. I mange tilfælde vil det være umuligt at udtrykke a posteriori fordelingen analytisk, og numeriske metoder må tages i brug. En metode til at lave numerisk analyse af bayesianske modeller er MCMC metoderne, der simulerer markovkæder, så den stationære fordeling af kæden er lig a posteriori fordelingen af parametrene. Som udgangspunkt baseres denne afsnit påStatistics and Data Analysis for Financial Engineering[7].

2.4.1 Bayes’ Sætning

Bayes’ sætning er en simpel matematisk formel, der bruges til at beregning af betinget sand- synlighed. Denne gælder for både diskrete og kontinuert fordelte stokastiske variable, og er i sin standard udgave givet ved.

Sætning 2.4 Antag B1, ...,BK udgør den del af udfaldsrummet S. Med "del"menes at, BiBj= Ø, hvis i6=j og B1B2∪...∪BK =S for hvilket som helst sæt A haves,

A=(A∩B1)∩...∩(A∩BK), (2.33) og derfor, siden B1, ...,BK er disjunkte,

P(A)=P(A∩B1)+...+P(A∩BK). (2.34) Det følger fra ovenstående samt definitionen af betinget sandsynlighed, at Bayes’ formel for diskrete stokastiske variable X og Y, er givet ved følgende hvor,A={X =x} ogB={Y =y}

(19)

P(X =x|Y =y)=P(Y =y|X =x)P(X =x)

P(Y =y) . (2.35)

Den kontinuerte udgave, hvor X og Y er stokastiske variable for kontinuert udfaldsrum er Bayes’ formel givet ved

fX|Y=y(x)= fY|X=x(y)fX(x)

fY(y) . (2.36)

Bayes’ formel er i særdeleshed vigtig fordi den siger præcist hvordan man skal opdatere sin viden når ny information bliver tilgængelig.

2.4.2 A Priori og a Posteriori Fordelinger

Som tidligere nævnt defineres fordelingen af parametrene før data observeres soma priori fordelingen oga posteriorifordelingen er tæthedsfordelingen givet det observere data. I det følgende antages det, atθer en kontinuert fordelt parametervektor. A priori fordelingenπ(θ) udtrykker tidligere viden, før data observeres, og er dermed tæthedsfordelingen for denne.

Tæthedsfunktionen kan nu opstilles og er den betingede tæthed af dataygivetθog skrives som f(y|θ). Den simultane tæthed afθogyer givet ved

f(y,θ)=π(θ)f(y|θ). (2.37) Den marginale tæthed afyfindes ved at integrere overθ, i simultan tæthed

f(y)= Z

π(θ)f(y|θ)dθ, (2.38)

og den betingede tæthed afθgivetyer givet ved

π(θ|y)=π(θ)f(y|θ)

f(y) = π(θ)f(y|θ)

Rπ(θ)f(y|θ)dθ. (2.39) Ovenstående er Bayes’ sætning skrevet på en anden form. Tætheden på venstresiden af lig- ningenπ(θ|Y) er den førnævnte posteriori tæthed og dermed tæthedsfordelingen afθefter datayer observeret. For at opsummere er følgende er dermed defineret

(20)

π(θ): A priori tætheden

π(θ|Y): A posteriori tætheden

f(y): Den marginale tæthed af data

f(y|θ): Likelihoodfunktionen

Baysiansk estimation samt vurdering af usikkerheden på estimaterne er baseret på brugen af a posteriori fordelingen. Typisk er den betingede middelværdi af parametrene givet data af interesse som parameterestimat og kan findes ved følgende

E(θ|y)= Z

θπ(θ|y)dθ=

Rθπ(θ)f(y|θ)dθ

Rπ(θ)f(y|θ)dθ (2.40)

Ovenstående er også kendt som a posteriori forventningen, som kan involvere komplekse udtryk, der kan være svære at regne analytisk.

2.4.3 Valg af a priori fordeling

A priori fordelingen er et udtryk for den subjektive grad af tro omkring parameteren θ af en model inden man observerer data. Denne er normalt repræsenteret med en passende valgt fordeling man selv vælger, hvilket gør at a priori informationen varierer alt efter hvem brugeren er. Således kan a priori information være resultat af alt fra intuition til tidligere publicerede studier. Standardvalg såsom konjugerede fordelinger kan være smarte i praksis, da a priori og posteriori fordelingen derved er i samme familie og beregningen af posteriori bliver markant nemmere, da man blot skal opdatere parametrene og ikke typen af fordeling.

2.4.4 Central grænseværdisætning for a posteriori

Ved store stikprøvestørrelser kan a posteriori fordelingen groft sagt formuleres ved følgende resultat:

Resultat 2.1 Under passende antagelser og for store stikprøver, vil a posteriori fordelingen af θvære approksimativt normalfordelt med middelværdi lig den sande værdi afθog varians lig den inverse Fisher informations matrix.

(21)

Ovenstående resultat svarer også til Bernstein–von Mises sætning, som er et vigtigt resultat af flere grunde. Først og fremmest fordi Bayes’ estimator og maximum likelihood estimation har samme fordeling ved store stikprøvestørrelser, og yderligere bliver effekten af a priori for- delingen ubetydelig, da den asymptotiske fordeling ikke længere afhænger af den. Yderligere er der i denne sammenhæng en vis forbindelse mellem konfidensintervaller og a posteriori intervaller, som vil blive beskrevet i næste afsnit. Man antager, at a priori forbliver fast når stikprøvestørrelsen forøges, så al information efterhånden kommer fra data. Jo mere infor- mation fra a priori, jo større stikprøvestørrelser skal bruges for at a posteriori fordelingen nærmer sig sin asymptotiske fordeling.

2.4.5 Posteriori Intervaller

I Baysiansk statistik er posteriori intervaller et vigtigt redskab, da formålet er at beskrive usik- kerheden på ens parametre. Fortolkningen er dog anderledes end klassiske konfidensinter- valler man normalt ser i frekventistisk statistik, hvor parametrene er faste og intervallet vil- kårligt, fordi det er baseret på en vilkårlig stikprøve. Dermed har man fokus på sandsynlig- hedsfordelingen af konfidensintervallet og ikke parametrene. F.eks. hvis man bruger et 95%

konfidensinterval vil man sige kunne sige:"Der er 95% sandsynlighed for at parameteren vil ligge indenfor konfidensintervallet, hvis eksperimentet foretages igen med samme type af da- ta". Med andre ord, kan man sige, at enten indeholder konfidensintervallet den sande værdi af parameteren, eller også gør det ikke.

I modsætning til frekventistisk statistik betragter man i bayesiansk statistik her i stedet sandsynlighedsfordelingen, som er a posteriori fordelingen af parameteren. Derfor er a po- steriori intervallet blot det interval der indeholder en bestemt procentdel af sandsynlige vær- dier. F.eks. ved et 95% posteriori interval vil man i stedet kunne sige:"Givet det observerede data, er der95%sandsynlighed for at posteriori intervallet indeholder den sande parameter".

På trods af disse tydelige forskelle mellem konfidensintervaller og posteriori intervaller, ses det typisk, at deres værdier ligger tæt på hinanden. Specielt i tilfælde hvor informationen fra a priori er forholdsvis lav sammenlignet med data.

(22)

2.5 Kort opsummering

Vi har nu gennemgået markovkæder, Monte Carlo simulation samt den bayesianske tanke- gang. Alle tre vigtige elementer for forståelsen at teorien bag MCMC metoder samt hvorfor markovkæden i MCMC opnår den ønskelige stationære fordeling ved store approksimatio- ner. Det gør den hvis markovkæden er irreducibel og aperiodisk for at konvergens. Yderligere skal kæden være Harris-rekkurent for at blive uafhængig af sin initial tilstand og ergodisk for at med tiden glemme sin startværdi. Det vigtigste element at tage med sig fra den bay- esianske tilgang, er bayes’ sætning, der siger, hvordan vi skal opdatere sin viden, når ny in- formation bliver tilgængelig. I næste afsnit gives en teoretisk gennemgang af begreber og modelklasser, som gør sig gældende inden for analyse af tidsrækker.

3 Tidsrækkeanalyse

I det følgende afsnit introduceres nogle af de essentielle begreber for tidsafhængige data samt modelklasser, som kan opfange nogle af de dynamikker, der eksisterer i finansielle data.

Som udgangspunkt baseres afsnit 3.1 - 3.5 påStatistics and Data Analysis for Financial En- gineering [7], hvorefter afsnit 3.6 - 3.7 baseres påDiscrete-Time Stochastic Volatility Models and MCMC-Based Statistical Inference[1].

3.1 Stationaritet

Helt generelt betyder stationaritet, at de statistiske egenskaber en tidsrække har, ikke ændrer sig over tid. Med andre ord må tidsrækken i sig selv godt ændre sig over tid, men ikke dens måde at opføre sig på. En tidsrække med en konstant fordeling over tid siges at være strengt stationær hvis fordelingen af (X1, ...,Xn) og (X1+m, ...,Xn+m) er ens for ethvertmogn. Streng stationæritet er en stærk antagelse, da det kræver at alle stokastiske elementer er konstante over tid. Derfor vil det ofte være tilstrækkeligt at antage svag stationæritet. En proces siges at være svagt stationær, hvis processens middelværdi, varians og kovarians er uændret ved tidsskift. Mere præcist kan det siges atX1,X2... er en svagt stationær proces, hvis

E(Xt)=µ(en konstant) for allet

(23)

• Var(Xt)=σ2(en positiv konstant) for allet

• Cov(Xt,Xs)=γ(|ts|) for alletogs, som funktion afγ(h)

Funktionenγ(h) er autokovariansfunktionen, der udtrykker kovariansen af den laggede tids- periode mellemt ogs.

Når man arbejder med finansielle data, ses det ofte, at kursen ikke er stationær. Dog kan sta- tionæritet opnås ved forholdsvis simple tranformationer af data. Man kan teste om en tids- række er stationær ved at bruge en Augmented Dicky-Fuller test (ADF-test). En betingelse for at en tidsserie er stationær i en ARMA(p,q)-model er at alle rødderne til polynomiet,

1−φ1x−...−φpxp, (3.1)

har en absolut værdi større end en. Det tester ADF testen, med nulhypotesen om, at der findes en rod hvis absolutte værdi er lig en.

3.1.1 Hvid Støj

Hvid støj er den simpleste form for stationær proces, og er et følge af uafhængige og identisk normalfordelte stokastiske variable. SekvensenX1,X2, ... er en svag hvidstøjsproces hvis der gælder, at

E(Xt)=µ(en konstant) for allet

• Var(Xt)=σ2(en positiv konstant) for allet

• Cov(Xt,Xs)=0 for allet6=s.

Hvis middelværdienµikke er specificeret, antages det, atµ=0. En proces af svag hvid støj er svag stationær, med

γ(0)=σ2,

γ(h)=0 hvish6=0 hvilket medføre, at

(24)

ρ(0)=1

ρ(h)=0 hvish6=0.

Ovenstående er hhv. autokovariansfunktionen og autokorrelationsfunktionen der introdu- ceres i afsnit 3.2. Figur 3.1 illustrerer en simuleret hvidstøjsproces med 200 uafhængige, iden- tiske fordelte stokastiske variable X1, ...,X200. Simulationen tydeliggør, hvorfor det er umu- ligt, at forudsige næste observation ud fra tidligere værdier, da de stokastiske variable er uaf- hængige for forskellige tidspunkter.

Figur 3.1: Simuleret Hvidstøjsproces

3.2 Autokorrelation

Autokorrelation ses ofte i tidsrækker, og er et udtryk for en afhængighed mellem tidsrækkens variable til forskellige tidspunkter. Helt generelt kan autokorrelation bruges til at se, hvor stor en effekt tidligere tids værdier har på fremtidige værdier. Man kan undersøge, om en tidsrække har autokorrelation ved hjælp af autokovariansfunktionen eller autokorrelations- funktionen (ACF). Autokovariansen er givet ved

γ(h)=Cov(Xt,Xt+h) (3.2)

hvorγ(h) måler autokovariansen mellem tidsrækken værdi fra tidspunktttil tidspunktt+h.

Den samlede autokovarians kan bestemmes ved at tage gennemsnittet af kovariansen mel-

(25)

lem observationtog dens laggede værdit+hhele vejen igennem tidsrækken

γ(h)ˆ =n−1

n−hX

t=1

(Xt+hX)(XtX). (3.3)

Efterfølgende kan autokorrelationenρ(h) bestemmes ved at normere autokovariansen med variansen

ρ(h)=Corr(Xt,Xt+h)=γ(h)

γ(0). (3.4)

Man bestemmer om der er autokorrelation i en tidsrække ved at teste hypotesen, at autokor- relationskoefficenten er 0. Dette kan gøres ved at kigge på et såkaldt autokorrelationsplot (ACF-plot), hvor det kan vurderes, hvorvidt tidsrækken har autokorrelation for forskellige lags. I stedet for at teste om hver enkelt autokorrelationskoefficent er lig 0 kan man teste en gruppe af autokorrelationskoefficenter vha. Ljung-Box testen, der tester for om en gruppe af kautokorrelationskoefficenter alle er 0, dvs. nulhypotesen erH0:ρ(1)=ρ(2)=...=ρ(k)=0.

Hvis nulhypotesen afvises, kan det konkluderes, at der er en eller flere afρ(1),ρ(2), ...,ρ(k) der er forskellig fra nul og dermed er der autokorrelation.

3.3 Kort om, AR, MA og ARMA-processer

En autoregressiv proces refererer til en regression af en variabel på dens tidligere værdier. I sin simpleste form, er en autoregressesiv proces, AR(1), givet ved

Ytµ=φ(Yt−1µ)+εt (3.5)

I denne af tidsrækkemodel er den stokastiske variabelYt modelleret ud fra den tidligere ob- serverede værdiYt−1inklusiv noget støj,εt, som antages at følge en hvidstøjsproces,W N(0,σ2).

µer middelværdien for processen og leddetφ(Yt1) repræsenterer "hukommelsen"i fra tidli- gere værdier imensφer en koefficient, der angiver vægten fra tidligere tids værdier. Modellen kan udvides til enAR(p) model, medpparametre

Ytµ=φ1(Yt−1µ)+φ2(Yt−2µ)+...+φp(Yt−pµ)+εt (3.6)

(26)

Autoregression er i bund og grund en regression, hvor der bruges beregnede vægte af forrige værdier, af en given variabel, til at beregne værdien af variablen til tident. Et stokastisk stød kan have en uendelig lang effekt på processen via støjleddet, hvor størrelsen på parametrene φt, bringer støddet med videre.

Et alternativ til en autoregressiv model, er moving-average modellen. En MA(p) model er givet ved

Ytµ=εt+θ1+...+θqεtqεt−1. (3.7) Yy modelleres altså som et vægtet glidende gennemsnit af de tidligere værdier fra hvidstøjs- processenεt.

Kombinationen ARMA(p,q) kombinerer både autoregressive led AR(p) og moving average led MA(q). En ARMA(p,q) model er givet ved

Ytµ=φ1(Yt−1µ)+...+φp(Yt−pµ)+εt+θ1εt−1+...+θqεt−q, (3.8)

med

εtW N(0,σ2). (3.9)

Yt afhænger altså her både tidligere værdier af sig selv og tidligere værdier af hvidstøjspro- cessen.

3.4 Heteroskedasticitet

I ARMA(p,q)-modellen, er den betingede varians konstant, hvilket ofte ikke er en holdbar betingelse i finansielle data. Finansielle data viser ofte klyngedannelse af volatilitet, der in- dikerer autokorrelation i støj processen. Figur 3.2 af S&P500 indekset illustrerer netop dette, hvor der specielt ses en stor variation omkring den seneste finanskrise i 2008, samt corona krisen her i 2020.

(27)

Figur 3.2: S&P 500 Indekset - Illustration af heteroskedasticitet

Heteroskedasticitet, som påvist på figur 3.2 forekommer hyppigt i finansielle data. I dette afsnit introduceres to modelklasser der tager højde for tidsvarierende volatilitet. Den før- ste modelklasse er ARCH samt udvidelsen GARCH der bruges som sammenligningsmodel for den anden modelklasse, SV modeller. Modellerne er interessante indenfor modellering og forudsigelse af tidsvarierende volatilitet i finansielle markeder og besidder flere brugbare egenskaber til at håndtere de problemer som ofte viser sig i finansielt data.

3.4.1 Auto-Regressive Conditional Heteroskedasticity (ARCH)

En ARCH(p) proces med p parametre, hvor fejlleddetεt antages at være en hvidstøjsproces med middelværdi 0 og varians 1 er givet ved processen

yt=htεt, εtN(0, 1) (3.10)

hvor,

ht = v u u tω+

p

X

i=1

αiyt2i, (3.11)

ovenstående er den betingede standardafvigelse afyt givet tidligere tids kvarderede værdier for afkastetyt1,yt2, ..,ytiaf processen.ωangiver det langsigtede gennemsnit for den ube- tingede varians, mensαiangiver i hvor høj grad volatiliteten i en periode påvirker den næste.

(28)

Yderligere sikrer parametreneω>0 ogαi ≥0 for et ikke-negativt udtryk, ogαi <1, atht er stationær. Som nævnt er fejlleddetεt en hvidstøjsproces. Det antages ofte i praksis, atεt føl- ger en standardnormalfordeling, eller mere hensigtsmæssigt en standardiseret t-fordeling, da finansielt data typisk har tungere haler og mere sandsynlighedsmasse centreret omkring midten end en standardnormalfordeling. For nu antages det blot atεt er normalfordelt.

Till bedre forståelse af ARCH-processen tages der udgangspunkt en ARCH(1) proces, som er givet ved

yt=²t

qω+αyt21. (3.12)

Ligesom ARCH(p)-processen gælder det atω>0,α≥0 ogα<1 for at sikre et ikke-negativ udtryk for varians samt stationæritet. En ARCH(1)-proces er som ARCH(p) ukorreleret, da processen er hvid støj og har en konstant middelværdi, både betinget og ubetinget. Yderlige- re har processen en konstant ubetinget varians, dog er dens betingede varians Var(αtt−1) ikke konstant, da den tydeligvis afhænger af tidligere varians. For en ARCH(1)-proces kan det vises, at den ubetingede varians af processenyt er [8]

Var(yt)=E[yt2]−(E[yt])2

=E[yt2]

=E[h2tε2t]

=E[h2t]

=ω+αE[yt21]

=ω+αVar[yt1].

(3.13)

Eftersomyt er en stationær proces, er Var(yt)=Var(yt−1), så er

Var(yt)= ω

1−α. (3.14)

Ovenstående udtryk for variansen skal være positivt og entydigt, hvilket er gældende, hvis betingelsenω>0 ogα<1 er overholdt. Yderligere kan det ses fra udtrykket, atα<1 skal

(29)

være gældende for at processen er stationær. Selvom ARCH-modeller forholdsvis enkle og anvendelige, er de ofte utilstrækkelig, når der er vedvarende volatilitet, også kendt som vo- latilitetsklynger, som sædvanligvis findes i finansielt data. Det kan i disse tilfælde være nød- vendigt at ty til GARCH-modeller, der muliggør mere vedvarende volatilitet.

3.4.2 Generalized Auto-Regressive Conditional Heteroskedasticity (GARCH)

En udvidelse af ARCH-processer er GARCH-processer, der, ved tilføjelse af parameterenβ, kan håndtere mere vedvarende volatilitet.

GARCH(p,q)-modellen er givet ved

yt=htεt, εtN(0, 1) (3.15)

hvor

ht = v u u tω+

p

X

i=1

αiyt2−i+

q

X

i=1

βjh2t−j. (3.16)

Grunden til at denne model kan håndtere mere vedvarende volatilitet, er tilføjelsen af para- meterenβ≥0, der viderefører tidligere værdier af ht processen, og prøver at beskrive den nutidige værdi af processen.

For igen at få en bedre forståelse, her af GARCH-processen, tages der udgangspunkt i en GARCH(1,1)-model, der er givet ved

yt=²t

qω+αy2t1+βh2t1. (3.17) Parameterenαsiger noget om hvordan volatiliteten i en periode påvirker den efterfølgende periode. Jo større en værdi jo større et volatilitetschok. Parameterenβsiger som nævnt tidli- gere noget om hvor vedvarende dette chok er. Jo større værdi jo mere vedvarende volatilitet.

Der gælder i øvrigt, atω>0,α>0,β>0, ogα+β<1 for en ikke-negativ standardafvigelse samt for at processen er stationær.

For en GARCH(1,1)-proces kan det vises, at den ubetingede varians af processenyter [8]

(30)

Var(yt)=E[yt2]−(E[yt])2

=E[yt2]

=E[ht2ε2t]

=E[ht2]

=ω+α1E[yt21]+βσ2t1

=ω+(α+β)E[y2t1].

(3.18)

Efter somyt er en stationær proces, er udtrykket for variansen givet ved

Var(yt)= ω

1−αβ. (3.19)

Der gælder, at summen afα+β<1, for at GARCH(1,1) processen er stationær.

3.5 Estimation af (G)ARCH-modellen

Til estimation af parametrene i (G)ARCH-modellerne er det mest almindeligt at benytte maxi- mum likelihood estimation, der er den mest udbredte og anerkendte metode til estimation.

Til kort at illustrere denne metode, tages der udgangspunkt i en GARCH(1,1)-model. Likeli- hoodfunktionen kan opstilles, som er alle de betingede fordelinger for variablene der tilsam- men udgør den simultane fordeling skrevet som følgende

L(θ|yt)=

T

Y

t=2

1 p2πht

exp µ

yt2 2ht

, (3.20)

hvor log-likelihood funktionen kan findes ved blot at tage logaritmen til likelihood funktio- nen

Log(L)=

T

X

t=2

1 2 µ

l og2πl og(ht)−y2t ht

. (3.21)

Dernæst kanht =

qω+αy2t−1+βh2t−1substitueres ind i ovenstående log-likelihood funktion og efterfølgende maksimeres, da den nu kun er en funktion af afkastet yt og parametrene.

(31)

Bemærk, at der egentlig er tale om en betinget likelihoodfunktion, idet den betinges mod værdien afyt.

3.5.1 Simulation og Estimation af GARCH(1,1)

Til at vise hvordan processerne samt estimationen af disse ser ud, benyttes R til at simulere et datasæt med udgangspunkt i følgende GARCH(1,1)-proces

yt =²t

q

0.2+0.08y2t1+0.9h2t1 (3.22) Ovenstående proces overholder betingelserne gældende for en GARCH-proces, og er simu- leret med henholdsvis 500 og 5000 observationer, som ses på figur 3.3.

Figur 3.3:Simulerede GARCH(1,1)-processer for hhv. 500 observationer og 5000 observationer Den høje værdi afβ=0.9 giver vedvarende volatilitetsklynger, som også ses fra den simu- lerede proces. Nedenfor er de estimerede parametre fra processen illustreret i tabel 3.1.

n = 500 Estimat Std. afv ωˆ 0.30994 0.17979 αˆ 0.09848 0.02956 βˆ 0.86886 0.04048

n = 5000 Estimat Std. afv ωˆ 0.236315 0.048023 αˆ 0.089616 0.009155 βˆ 0.886627 0.011738 Tabel 3.1:Overblik over estimater for GARCH(1,1)

Ud fra disse kan det ses, at jo højere et antal simulerede observationer, der benyttes til at estimere parametrene jo tættere nærmer parameterestimaterne sig den sande estimater.

(32)

3.6 Stokastiske Volatilitets Modeller

Stokastiske volatilitets modeller (SV) er et alternativ til de klassiske (G)ARCH modeller, og kan, som dem, anvendes til forudsigelse af tidsvarierende volatilitet. SV modeller betragter volatiliteten og den observerede proces som adskilte processer, der er drevet med separate støjled. Standard SV modellen, antager at begge disse støjled er normalfordelte hvidstøjs- processer. Siden Taylor introducerede modellen i 1982, er flere udvidelser af modellen blevet udarbejdet, blandt andetSVt modellen, der bedre kan håndtere tungere haler, da den obser- verede proces er t-fordelt i stedet. Yderligere tagerden asymmetriske SV modelhøjde for at en negativ nyhed har en større effekt på volatiliteten end en positiv nyhed, også kendt som den såkaldte "leverage-effekt".

3.6.1 Standard SV modellen

Den Standardiserede SV model er givet ved

yt =e(ht2)εt, εtN(0, 1) (3.23) ht =µ+φ(ht1µ)+σηηt, ηtN(0, 1). (3.24)

hvor yt er det observerbare log-afkast til tiden t,t=1, ...,T , mensht repræsenterer den la- tente proces for log-volatiliteten med antagelse om at følge en stationær AR(1)-proces, med betingelsen om at parameteren |φ| <1. De ukendte parametre kan samles i parametervekto- renθ=(µ,φ,ση), hvorµer interceptet,φer autocorrelationskoefficienten til log-volatiliteten ogσηer standard afvigelsen for log-volatiliteten. Støjleddeneεt ogηt er separate hvidstøjs- processer, der antages at være uafhængige og normalfordelte. Den ubetingede fordeling af ht er

htN Ã

µ, σ2η 1−φ2

!

(3.25) hvorµhogσ2her henholdsvis den ubetingede middelværdi og varians.

Varians og kurtosis for yt processen kan udledes ved at bruge egenskaberne fra en log-

(33)

normalfordeling [3].

Log(X)∼N(µ,σ2)⇒X ∼LogN(µ,σ2) (3.26) E(Xr)=exp

µ

+r2σ2 2

(3.27)

Var(X)=e2µ+σ2(eσ2−1). (3.28)

Dermed

ht=log(σ2t)∼N(µ,σ2h)⇒σrtN µr

2µ,r2 8 σ2h

. (3.29)

Hvisht er stationær vil alle momenter eksistere og der vil for alle positive talr, gælde

E[|yt|r]=E[(σtt|)r]=Ert]E[|ε|r], (3.30)

hvor

E[σtt]=exp µr

2µ+r2 8σ2h

(3.31) E[|εt|r]=2r/2

pπΓ µr+1

2

. (3.32)

Her erΓ(·) gamma funktionen, og så længer er positiv

Γ(r)=(r−1)!. (3.33)

Ud fra ovenstående kan varians og kurtosis foryt processen udledes

Var(yt)=E2tε2t]=E2t]E2t]=E2t]=e

µ µ+

σ2 h 2

(3.34) Kur(yt)= E[y4t]

E[σ2t]2=3e2µ+2σ2h e2µ+σ2h =3e

µ σ2

η 1−φ2

. (3.35)

Det ses, at Kur(yt) > 3, så længe σ2η > 0, hvilket betyder at SV processens kurtosis forøges som funktion afσ2ηog|φ|, så længe betingelsen|φ|< 1 er overholdt. Det betyder også, at SV processens har tungere haler end en normalfordeling, der har en kurtosis på 3. Den næste

Referencer

RELATEREDE DOKUMENTER

september havde Ferskvandsfiskeriforeningen for Danmark også sendt rådgivere ud til Egtved Put&amp;Take og til Himmerlands Fiskepark, og som i Kærshovedgård benyttede mange sig

W ir Gcistlichen sind frei.. Uden Fataliteter ankom vi til Kjobenhavn... S le sv ig v ar efter den herskende Forestillingskreds ganske gaaet op i Holsteen. G ram

Børn med ADHD kan have en øget tendens til opfarenhed og hyppige vredesudbrud. De- res impulsivitet og hyperaktivitet gør det svæ- rere for dem at nå at hæmme eller omforme

Plejeforældre jonglerer med flere forskellige ansvar og roller i deres liv, og undervisningen, inden de bliver plejefamilie, kan hjælpe dem til at lære om, hvilke krav det

H am m erich en anden klassifikation, hvorefter første klasses biveje v ar forbeholdt veje, der havde betydning for et større distrikt, og veje, som v ar gennem

For at skifte mellem de forskellige tekstniveauer, brug &#34;Forøg list niveau&#34;- knappen i

Du skal udarbejde en problemformulering samt en synopsis, hvor den valgte katastrofe og dens årsager eller konsekvenser belyses, og du skal udarbejde og vurdere konsekvenserne

Han vækkede hende ved at hælde koldt vand i sengen. Ved at fortæller, hvordan noget bliver gjort. Det ligner det engelske by ....-ing. Jeg havde taget et startkabel med, det skulle