Post on 04-Oct-2015
description
Un test dhtroscdasticitconditionnelle inspir
de la modlisation en termes de rseaux neuronaux artificiels
Renaud CAULET, Anne PEGUIN-FEISSOLLE *
RSUM. Ce papier considre un test d'htroscdasticit condition-nelle bas sur la mthode des rseaux neuronaux artificiels et en compa-re les performances avec des tests standards, l'aide de simulations deMonte-Carlo. L'hypothse alternative d'htroscdasticit conditionnelleest reprsente par une variance conditionnelle de forme neuronale ; letest du Multiplicateur de Lagrange qui en dcoule permet de dtecter unegrande varit de formes d'htroscdasticit conditionnelle. Les rsultatsdes simulations, prsents sous forme graphique, montrent que ce test estrelativement performant.
A Test for Conditional Heteroscedasticity Based on Artificial Neuronal Networks
ABSTRACT. This paper considers a test for conditional heterosce-dasticity based on artificial neural networks and compares its performancewith some standard tests using a Monte Carlo study. The conditionallyheteroscedastic alternative hypothesis is represented by a conditionalvariance with a neural specification; the Lagrange Multiplier test can detecta large class of conditional heteroscedasticity. The results of the simulationexperiments, that are entirely presented in graphical form, show that itsrelative performance is encouraging.
* R. CAULET : GREQAM ; A. PEGUIN-FEISSOLLE : GREQAM-CNRSNous remercions F. APRAHAMIAN, M. KAMSTRA, J. MACKINNON, T. TERSVIRTA et un rappor-teur anonyme pour les remarques qu'ils nous ont apportes sur des versionsantrieures de ce papier. Bien entendu, les erreurs ou imperfections qui pourraientsubsister sont de notre seule responsabilit.
ANNALES DCONOMIE ET DE STATISTIQUE. N 59 2000
1 Introduction
La modlisation conomtrique en termes d'htroscdasticit condition-nelle s'est largement rpandue dans la littrature depuis l'article d'ENGLE en1982 introduisant les modles ARCH (AutoRegressive ConditionallyHeteroscedastic). De nombreuses variantes en ont t proposes et appli-ques, particulirement dans le domaine financier (cf. BOLLERSLEV, CHOU etKRONER [1992], BERA et HIGGINS [1993] et BOLLERSLEV, ENGLE et NELSON[1994]). Se sont dvelopps paralllement des tests d'htroscdasticit condi-tionnelle, par exemple le test du Multiplicateur de Lagrange propos parENGLE [1982], ou des variantes des tests de Box-Pierce ou de Ljung-Box(cf. MCLEOD et LI [1989]).
Nous nous intressons ici un test d'htroscdasticit conditionnelle,inspir des techniques de modlisation en termes de rseaux neuronaux artifi-ciels, ces dernires ayant la proprit d'approcher relativement bien une largeclasse de fonctions. Sur cette base, l'hypothse alternative d'htroscdasticitconditionnelle est reprsente par une variance conditionnelle de formeneuronale ; le test du Multiplicateur de Lagrange qui est construit sur cemodle permet de dtecter relativement bien une grande varit de formesd'htroscdasticit conditionnelle. Rcemment, LEE, WHITE et GRANGER[1993] ont propos un test de linarit bas sur ces techniques.
Nous comparons, par simulation et sur un large vantail de spcificationspossibles de la variance conditionnelle, les performances de ce test aveccelles de trois autres tests d'htroscdasticit conditionnelle, dont l'un est untest neuronal labor par KAMSTRA [1993], mais utilisant une statistique diff-rente.
Le plan de l'article est le suivant. Nous prsentons, dabord, le test d'ht-roscdasticit conditionnelle, ensuite, les rsultats des simulations et, enfin,une conclusion fait l'objet de la dernire partie.
2 Prsentation du test neuronal
Le modle de rgression avec erreurs conditionnellement htroscdas-tiques s'crit :
(1) yt D x 0tfi C t t D 1;:::; Tavec
(2) tflflxt ;Jt1 I I N .0;ht /:
Jt reprsente l'ensemble d'information en t, comprenant les variables endo-gnes retardes et les variables exognes ; yt est la variable endogne et xt est
178
un vecteur k 1 d'lments de Jt ; fi est un vecteur k 1 de paramtresinconnus. La variance conditionnelle s'exprime gnralement comme
(3) ht D h.Jt1;/o est un vecteur de paramtres inconnus ; par exemple, nous avons unmodle ARC H.q/ si ht D 0 C 12t1 C ::: C q2tq ou un modleG ARC H.p;q/ si
ht D 0 CqX
jD1j2t j C
pXjD1
!j ht j
( est alors le vecteur constitu des paramtres 0, 1, ..., q, !1, ..., !p).L'hypothse nulle laquelle nous nous intressons est l'hypothse d'homos-
cdasticit, savoir celle caractrise par la constance de la varianceconditionnelle ht. Nous allons considrer un test particulier d'htroscdasti-cit conditionnelle dans lequel l'hypothse alternative est caractrise par unevariance conditionnelle ht de forme neuronale.
2.1 Bref aperu des rseaux neuronaux artificiels
Les modles de neurones artificiels ont t introduits par les cogniticiensafin de reprsenter la faon dont l'information est traite dans le cerveau (cf.,par exemple, STERN [1996]). L'architecture du rseau que nous choisissons deprsenter et d'utiliser ensuite pour la construction du test est celle d'un rseautrs simple, avec une seule couche cache ; elle est dcrite dans la figure 1.Ce rseau se compose de trois couches : la couche d'inputs, la couche cacheet la couche d'outputs. Les n units d'input envoient des signaux nots x1, ...,xn, amplifis ou attnus par des facteurs de pondration i j, q units ounoeuds cachs ; les units caches somment les signaux et gnrent une fonc-tion d'activation . Les signaux des units caches, pondrs par des poids fljpour j D 1, ..., q, sont envoys ensuite dans la couche d'output ; ici, un seul
UN TEST DHTROSCDASTICIT CONDITIONNELLE 179
FIGURE 1Rseau de neurones n inputs, une seule couche cache et un seul output
output est considr. En faisant intervenir chaque couche la constante 1, cetoutput unique s'exprime de la faon suivante, en posant fl D .fl0, fl1, ...,flq/0 :
(4) f .wt ;fl;1;::;q/ D fl0 CqX
jD1flj.w0tj /
o wt D .1;x1;:::;xn/0 est le vecteur d'inputs, j D .j0;j1;:::;jn/0 est levecteur des poids de la couche d'inputs, pour j D 1;:::;q, et est une fonc-tion non linaire donne de R vers R ; trs souvent, est la fonctionlogistique de la forme : ./ D .1 C e/1, 2 R. D'autres fonctionspourraient tre utilises, comme la fonction tangente hyperbolique.
D'autres rseaux plus complexes ont t tudis, par exemple, avecplusieurs couches caches, des liens directs entre les deux couches extrmesou des rcurrences entre diverses couches.
La littrature sur les rseaux neuronaux artificiels a montr que des fonc-tions de la forme (4) fournissent des approximations relativement bonnes defonctions arbitraires de wt, pour q suffisamment grand et un choix convenabledes vecteurs fl et j, j D 1;:::;q (voir, par exemple, HORNIK, STINCHCOMBE etWHITE [1989 et 1990], STINCHCOMBE et WHITE [1989], CYBENKO [1989],CAROLL et DICKINSON [1989], parmi d'autres). C'est en raison de cette flexibi-lit que les techniques des rseaux neuronaux artificiels ont attir l'attentionde certains auteurs (voir, KUAN et WHITE [1994]). Cette qualit particulire detels rseaux, qui ont d'ailleurs t appels approximateurs universels, va treexploite dans ce qui suit pour construire un test permettant de dtecter desformes diverses d'htroscdasticit conditionnelle.
2.2 Construction du test neuronal
Nous allons considrer le modle de rgression (1) et (2) dans lequel lavariance conditionnelle ht est une fonction neuronale de la forme suivante :
(5) ht D 0 CqX
jD1j .w0tj /;
o wt D .1;t1;:::;tn/0 est le vecteur des inputs ; les poids des diffrentescouches sont reprsents comme ci-dessus par j0, j1, ... et jn pourj D 1;:::;q , ainsi que par fl0, fl1, ..., et flq ; les j se dfinissent parj D
j0;j1;:::;jn
0pour tout j et est la fonction logistique. Les retards
du terme d'erreur jouent le rle des variables d'input du rseau. Ainsi, lavariance conditionnelle ht s'crit
(6) ht D fl0 CqX
jD1
flj1 C e.j0Cj1t1C:::Cjntn/
:
Il est intressant de noter, ici, que cette formulation permet aux chocsd'avoir des effets asymtriques : les effets des chocs positifs et ngatifs neseront pas les mmes, contrairement certaines formulations traditionnelles
180
de modles htroscdasticit conditionnelle telles que les formulationsARCH et GARCH ; divers modles (comme les modles EGARCH etTARCH, par exemple) ont d'ailleurs t proposs dans la littrature afin decapter ce type d'effets. Nous reviendrons sur ceci lorsque nous commenteronscertains exemples de simulation.
Certains auteurs comme DONALDSON et KAMSTRA [1997] ont estim desmodles ARCH utilisant des fonctions neuronales dans lesquels la varianceconditionnelle a une forme se rapprochant de (6) ; notre objectif est diffrentpuisque nous introduisons une variance conditionnelle de forme neuronaleafin de construire un test qui permette de dtecter des classes assez largesd'htroscdasticit, comme nous le verrons dans les expriences de simula-tion.
Le test d'htroscdasticit conditionnelle que nous exposons ici s'intresse l'hypothse nulle suivante :
(7) H0 : flj D 0 j D 1;:::; q
dans le modle donn par (1), (2) et (6), pour un choix particulier des vecteurs1,..., q et pour un nombre q d'units caches. Suivant LEE, WHITE etGRANGER [1993], les poids j i de la couche d'inputs sont choisis a priori,indpendamment des erreurs passes, pour q 2 N ; ce choix permet dersoudre le problme de la non-identification des j i sous l'hypothse nulle.
En supposant l'indpendance et la normalit conditionnelle des erreurs, lavraisemblance logarithmique s'crit
(8) ln L./ DTX
tD1lt .yt j/
avec
(9) lt .yt j/ D 12ln 2 12
ln ht 12ht .yt mt /2
o 0 D .fi0;fl 0/ D .fi0;fl0;fl0/ avec fl D .fl1;:::;flq/0 et fl 0 D .fl0;fl0/ ; parailleurs, mt D x 0tfi et ht est donn par (6). Il faut noter, ici, que la vraisem-blance logarithmique dfinie en (8) et (9) est galement conditionnelle certaines valeurs initiales des variables xt et yt et qu'en outre, elle dpendgalement des xt, pour t D 1;:::; T. Nous supposerons, galement, satisfaitesles conditions assurant les proprits asymptotiques du maximum de vraisem-blance.
Nous utilisons la procdure de test du Multiplicateur de Lagrange : cetteprocdure ncessite seulement l'estimation du modle sous l'hypothse nulle.
Rappelons que les j i sont supposs connus a priori. La statistique LM quisert tester
(10) H0 : D 0 contre H1 : D= 0;
UN TEST DHTROSCDASTICIT CONDITIONNELLE 181
est donne par (voir Annexe) :
(11) NNLM D 12
Xt
b2tb 2 1
@ht@0
0X
t
@ht@fl
@ht@fl0
1T
Xt
@ht@fl
!Xt
@ht@fl0
!!1X
t
b2tb 2 1!
@ht@fl0
!I
cette expression est value en bR, l'estimateur restreint de , calcul sousH0 ; bt , t D 1;:::; T, est le rsidu estim du modle (1) sous H0 :
bt D yt x 0tbfi t D 1;:::; Tet b 2 D X
tb2t =T. La statistique NNLM est asymptotiquement distribue
comme une 2q sous H0.Considrons la rgression auxiliaire suivante :
(12) b2tb 2 1 D 0 C @ht@0 C t t D 1;:::; T ;o
@ht@fl est le vecteur q 1
(13) @ht@flj
D 11 C e.j0Cj1bt1C:::Cjnbtn/ j D 1;:::;q
qui est donc valu en bfi , l'estimateur de fi obtenu sous H0.Posons D
b21b 2 1;:::;b2Tb 2 1
!0et D .1;:::;T /0, deux vecteurs
T 1, et W D .i;X/, une matrice T .q C 1/, o i est le vecteur T 1tel que i D .1;:::;1/0 et X est la matrice T q dfinie par
X D
@ht@fl0j
!tD1;:::;TjD1;:::;q
.
La rgression (12) s'exprime encore
(14) D W C :
182
Les diffrents lments de (11) peuvent s'crire
Xt
b2tb 2 1!
@ht@fl0 D X
0
et
Xt
@ht@fl
@ht@fl0
1T
Xt
@ht@fl
!Xt
@ht@fl0
!D X0Mi X
o Mi D I 1T ii0. En utilisant les proprits des matrices partitionnes et le
fait que i 0 DX b2tb 2 T D 0; il est facile de montrer que
NNLM D 120X
(X0Mi X
1 X0D 1
20W
(W 0W
1 W 0:Ainsi, nous pouvons crire NNLM comme la moiti de la somme explique
des carrs de la rgression auxiliaire reprsente par (12) ou (14), c'est--dire :
(15) NNLM D 12b0b
o b est le vecteur T 1 des variables endognes estimes dans la rgres-sion auxiliaire (12).
3 Les expriences de Monte-Carlo
Des sries univaries seront engendres partir de diffrents modleschoisis pour reprsenter un ventail assez large de formes d'htroscdasticitconditionnelle. Les mthodes de Monte-Carlo sont utilises pour comparer letest neuronal donn par (15) avec d'autres tests.
3.1 Tests alternatifs
Pour tudier les proprits de taille et de puissance du test neuronal en petitchantillon, nous les comparons avec celles de trois autres tests :
UN TEST DHTROSCDASTICIT CONDITIONNELLE 183
La statistique de test LM contre des erreurs ARCH.n/ est donne par (voirformule (35) dans ENGLE [1982]) :
(16) ALM D 120Z.Z 0Z/1 Z 0
o Db21b 2 1;:::;b
2Tb 2 1
!0, Z 0 D .z1;:::;zT /, et z0t D .1;b2t1;:::;b2tn/:
Une statistique asymptotiquement quivalente (provenant du fait queplim 0=T D 2 sous l'hypothse de normalit) est la suivante (voirformule (36) dans ENGLE [1982]):
(17) AR2 D T 0Z.Z 0Z/1 Z 0
0D TR2
o R2 est le carr du coefficient de corrlation multiple entre et Z. Le test de Kamstra (KAMSTRA [1993]) est un test neuronal d'htro-
scdasticit conditionnelle o la variance conditionnelle prend la forme :
ht D fl0 CqX
jD1
flj
1 C ej0Cj12t1C:::Cjn2tn
Ila statistique qui est utilise est la suivante :
(18) NNR2 D TR2
o R2 est le carr du coefficient de corrlation multiple de la rgression auxi-
liaire de b2t sur une constante et le vecteur @ht@fl valu sous H0 (KAMSTRA[1993] recommande de prendre les plus grandes composantes principales dela matrice des rgresseurs dans cette rgression auxiliaire).
Les trois statistiques de test donnes par (16), (17) et (18) suivent asympto-tiquement une distribution du 2 avec, respectivement, n (pour (16), (17)) etq (pour (18)) degrs de libert sous l'hypothse nulle.
Les notations des diffrentes statistiques de test (NNLM, ALM, AR2 andN N R2) illustrent bien l'ide qu'il existe deux alternatives (A reprsentant l'al-ternative ARCH et NN reprsentant l'alternative neuronale) et deux formes detest (la forme LM et la forme T R2).
3.2 Mise en place des simulations
Les expriences de simulation nous permettent de comparer les perfor-mances de ces diffrents tests. Nous prsentons les rsultats concernant lataille et la puissance en utilisant la prsentation graphique de DAVIDSON etMACKINNON [1993 et 1994]. Elle conduit des graphes qui sont beaucoup
184
plus faciles interprter que les tableaux habituellement utiliss pourprsenter ce type de rsultats. Ces graphes sont construits partir de la fonc-tion de distribution empirique des p-values 1 de ralisations simules j,j D 1;:::; N, d'une statistique de test . Appelons pj la p-value associe j ;il s'agit de la probabilit d'observer une valeur de plus grande que j relati-vement une distribution F. /. La fonction de distribution empirique des pjest dfinie par
(19) bF.xi / D 1NNX
jD1I .pj 6 xi /
o I est la fonction indicatrice suivante :
(20) I .pj 6 xi / D 1 si pj 6 xi0 sinon
et xi est un point de l'intervalle [0;1]. Puisque N est gnralement trs grand,DAVIDSON et MACKINNON [1994, p. 2] conseillent d'valuer bF.xi / , donn par(19), en m points xi, i D 1;:::; m, qui devront fournir une reprsentationraisonnable de l'intervalle [0;1] ; tant donn qu'il est difficile d'tablir defaon catgorique la valeur de m et le choix des xi, ces auteurs recommandentde prendre
(21) xi D 0:002; 0:004;:::; 0:01; 0:02;:::; 0:99; 0:992;:::; 0:998 .m D 107/qui, d'aprs de nombreuses expriences, s'avre tre un ensemble tout faitparcimonieux.
En ce qui concerne la taille des diffrents tests, nous savons que si la distri-bution de est correcte, chacun des pj doit tre distribu uniformment surl'intervalle [0;1] ; par consquent, le graphe des bF.xi / contre xi doit treproche de la droite 45, ou encore le graphe des bF.xi / xi contre xi doittre proche de l'axe horizontal.
En ce qui concerne la puissance des diffrents tests, cest--dire lorsque lesdonnes sont engendres sous l'hypothse alternative, nous donnerons lescourbes taille-puissance ; elles reprsentent le graphe de la puissance contre lavraie taille de chaque test : l'axe horizontal reprsente bF , la fonction de distri-bution empirique lorsque les donnes sont engendres sous l'hypothse nulle,et l'axe vertical reprsente bF, la fonction de distribution empirique lorsqueles donnes sont engendres sous l'hypothse alternative, cest--dire selon unmodle conditionnellement htroscdastique. Ainsi, les courbes taille-puis-sance sont engendres selon une taille correcte (DAVIDSON et MACKINNON[1994, p. 11]).
En outre, pour ce qui concerne le test neuronal, les poids j i des unitscaches sont engendrs alatoirement, pour chaque itration, selon une distri-bution uniforme sur [2;2] et les variables yt et xt sont normes sur [0;1],
UN TEST DHTROSCDASTICIT CONDITIONNELLE 185
1. Nous prfrons utiliser, ici, le terme anglais de p-value plutt que sa traduction franaise.
186
FIGURE 2 FIGURE 3
FIGURE 4 FIGURE 5
suivant LEE, WHITE et GRANGER [1993]. Par ailleurs, les statistiques NNLM etNNR2 sont calcules en utilisant les q D 4 plus grandes composantes princi-pales au lieu des variables originelles dans les rgressions auxiliairesrespectives, ce qui permet d'viter les problmes poss parfois par leurnombre trop important ou leur trop forte corrlation ; le nombre choisid'units caches est q D 10.
3.3 Rsultats des simulations sous l'hypothse nulle
Les donnes sont engendres partir du modle normal homoscdastiquesuivant :
(22) yt D 0:25 C 0:5xt C t t D 1;:::; To t I I N .0;1/ et xt D 0:7xt1 C t avec t I I N .0;1/. Le nombred'itrations, N, est gal 2 500 ; le nombre d'inputs est n D 3 (plus laconstante).
Nous ne donnons pas les graphes de la fonction de distribution empiriquebF.xi / contre xi car ils sont tous pratiquement confondus avec la droite 45.La figure 2 montre les graphes de bF.xi / xi contre xi pour T D 200. Bienque ces carts bF.xi / xi soient faibles, il apparat, nanmoins, que tous lestests sur-rejettent systmatiquement l'hypothse nulle pour des tailles trsfaibles, qui sont celles qui nous intressent gnralement.
3.4 Rsultats des simulations sous l'hypothse alternative
Afin de comparer la puissance des tests d'htroscdasticit conditionnelle,nous traons les courbes de taille-puissance, c'est--dire le lieu des points.bF.xi /;bF.xi // o les valeurs des xi sont donnes par (21), bF.xi / tant lafonction de distribution empirique engendre par le modle linaire (22) etbF.xi / tant celle engendre par un processus appartenant l'hypothsealternative. Suivant DAVIDSON et MACKINNON [1994], nous rduisons leserreurs exprimentales en utilisant le mme ensemble de nombres alatoiresdans toutes les expriences. Par ailleurs, les chantillons artificiels sontconstruits avec plus d'observations qu'il n'est ncessaire, la dernire partieseulement tant effectivement utilise.
3.4.1 Comparaison des diffrents tests dans divers cas d'htroscdasticit conditionnelle
L'hypothse alternative est ainsi reprsente par diffrents modles, choisispour reprsenter un certain ventail de situations conditionnellement htros-cdastiques. Le nombre d'itrations est N D 2500 et le nombre d'observations
UN TEST DHTROSCDASTICIT CONDITIONNELLE 187
188
FIGURE 6 FIGURE 7
FIGURE 8 FIGURE 9
UN TEST DHTROSCDASTICIT CONDITIONNELLE 189
est T D 100. Le modle de rgression est donn par (22) avec diffrentesspcifications de ht. Les erreurs t sont gnres sous la forme t D t
pht
avec t I I N .0;1/, t D 1;:::; T.Les diffrentes courbes taille-puissance correspondent : cas 1 (n D 3) : Figure 3
(23) ht D 0:2 C 0:72t1
cas 2 (n D 3) : Figure 4(24) ht D 0:2 C 0:32t1 C 0:32t2 C 0:32t3
cas 3 (n D 3) : Figure 5(25) ht D 0:2 C 0:22t1 C 0:7ht1
cas 4 (n D 1) : Figure 6
(26) ht D
0:2 C 0:32t1
0:5 C 0:2 2t20:5 C 0:3 2t30:51
0:5
cas 5 (n D 3) : Figure 7
(27) ht D
0:2 C 0:52t3
2 C 0:5 ht3212
cas 6 (n D 2) : Figure 8
(28) ht D 10 C 701 C e0:2C0:4t1C0:9t2 C90
1 C e0:9C0:1t1C0:5t2
cas 7 (n D 3) : Figure 9
(29) ht D0:01 C 5 t3 si t1 > 01
.1 C 2:52t3
si t1 < 0
cas 8 (n D 3) : Figure 10
(30) ht D 10:01 C 2:52t5 cas 9 (n D 2) : Figure 11
(31) ht D e0:1C0:5t2
cas 10 (n D 3) : Figure 12
190
FIGURE 10 FIGURE 11
FIGURE 12 FIGURE 13
(32) ht D 1 C 2t5h1 e102t5
i cas 11 (n D 3) :
(33) ht D 10 si t1 > 00:1 si t1 < 0
cas 12 (n D 3) :
(34) ht D 2 C 5
t3 si t1 > 00:001 si t1 < 0
Les figures 3 14 illustrent ainsi le comportement des tests dans des casdiffrents. Certains correspondent des formes fonctionnelles proposes dansla littrature : ARCH dans les cas 1 et 2, le cas 3 est un GARCH(1,1), le cas 4est un ARCH non linaire, le cas 5 un GARCH non linaire. Les autres cascorrespondent des formes non standard d'htroscdasticit ; par exemple,les cas 7, 11 et 12 sont des formes seuil et le cas 6 a une forme de rseauneuronal artificiel.
Par ailleurs, chaque exprience de simulation est mene avec q D 4, cest--dire les statistiques NNLM et NNR2 sont calcules avec 4 composantesprincipales dans la rgression auxiliaire (plus la constante) sur la base deq D 10 units sur la couche cache. Pour chaque test, le nombre de retardsdes erreurs dans les rgressions auxiliaires est n D 3 (hormis dans les cas 4 et6). Ainsi, certains cas permettent de voir l'influence d'une mauvaise spcifica-tion de la forme fonctionnelle de l'htroscdasticit conditionnelle sur lesperformances des diffrents tests.
En effet, que n soit suprieur au nombre de retards de "t qui a servi gnrer le modle sous l'hypothse alternative (comme dans les cas 1, 3 et11), ou qu'il en soit infrieur (cas 4, 8 ou 10 par exemple), ceci ne nuit en rienaux performances compares du test neuronal par rapport aux autres tests,puisque la statistique NNLM reste dans la plupart des cas au-dessus des autresstatistiques ; ceci est important noter puisque, dans les applications desdonnes relles, on ne connatra pas gnralement le vrai modle ayantgnr les donnes.
Les figures montrent dans leur ensemble que le test neuronal (reprsentpar la statistique NNLM) se comporte tout fait bien ; il domine souvent lesautres procdures de test, surtout lorsqu'il s'agit de formes d'htroscdasticitautres que les formes ARCH ou GARCH standard. En effet, NNLM n'est pas lameilleure statistique dans les figures 3, 4, 5 et 7 ; en revanche, pour tous lesautres cas, la courbe correspondant la statistique NNLM est nettement au-dessus des autres courbes.
Les figures 10, 12 et 13 montrent des cas particuliers o les tests, hormis letest neuronal et le test d'Engle donn par ALM, prsentent de srieuxproblmes. En effet, les deux tests correspondant aux statistiques AR2 etN N R2 se comportent assez mal : leurs courbes taille-puissance sont trsproches de la premire bissectrice, ou bien leur taille est suprieure leurpuissance ; ils sont, ainsi, parfois biaiss, selon la faon dont les donnes sontengendres.
UN TEST DHTROSCDASTICIT CONDITIONNELLE 191
192
FIGURE 15
FIGURE 16
FIGURE 14
FIGURE 17
Enfin, nous avions not dans le paragraphe 2.2 que la variance condition-nelle ht, donne par la formule (6) et ayant servi construire la statistiqueNNLM, permettrait de tenir compte d'effets asymtriques possibles des "tselon leurs signes ; ceci se vrifie dans les cas 6, 7, 9, 11 et 12 qui incorporentde tels effets et pour lesquels la statistique NNLM se dtache, en effet nette-ment des autres statistiques.
3.4.2 Influence du nombre d'observations et du nombre de composantes principales sur le test neuronal
Les deux figures suivantes (15 et 16) exposent les courbes taille-puissancepour le test neuronal en fonction du nombre d'observations T et du nombre decomposantes principales q. Pour ces deux figures, le modle alternatif estdonn par (22) et
(35) ht D
0:2 C 0:32t1
1:5 C 0:2 2t21:5 C 0:3 2t31:51
1:5 :
La figure 15, o n D 3 et q D 3, montre que, lorsque T augmente, lesperformances du test neuronal s'amliorent tout fait. La figure 16, gnreavec n D 3 et T D 50, montre que, dans cet exemple en tout cas, quatrecomposantes principales semblent donner les meilleures performances au testneuronal, mais ce nombre est dpendant des cas choisis. Dans les cas expossci-dessus, nous avons pris q D 4 ; LEE, WHITE et GRANGER [1993] utilisentdeux ou trois composantes principales pour le test de linarit qu'ils construi-sent.
3.4.3 Robustesse des diffrents tests l'introduction d'une dynamique dans l'quation de rgression
D'autres expriences de simulation ont t menes en introduisant lavariable endogne retarde dans le modle de rgression ; nous avons ainsitudi un modle normal homoscdastique de la forme :
(36) yt D 0:25 C 0:5yt1 C t t D 1;:::; T
o t I I N .0;ht / . Le nombre d'itrations, N, est toujours gal 2 500.Diffrentes simulations menes avec diverses spcifications pour ht ontdonn des rsultats semblables ceux exposs ci-dessus, en termes de hirar-chie des diffrents tests. La figure 17 en montre un exemple o ht correspondau cas 10 (quation (32).
UN TEST DHTROSCDASTICIT CONDITIONNELLE 193
4 Conclusion
Nous venons d'exposer un test d'htroscdasticit conditionnelle inspir dela modlisation reposant sur les rseaux neuronaux artificiels. Il est bienconnu que les rsultats des simulations de Monte-Carlo dpendent denombreux facteurs. Nanmoins, le test neuronal (reprsent par la statistiqueNNLM) montre dans ces simulations des performances suprieures celles dela forme LM du test d'Engle, surtout lorsqu'on est en prsence d'une formed'htroscdasticit autre qu'un ARCH ou un GARCH standard ; il sembleainsi efficace dans un large ventail de cas possibles d'htroscdasticitconditionnelle, comme on peut le voir dans les diffrents graphes. On peut,donc, esprer qu'il permette de la dtecter dans des applications conomiques.
194
Rfrences bibliographiques
BERA A.K., HIGGINS M.L. [1993]. ARCH Models: Properties, Estimation and Testing ,Journal of Economic Surveys, 7, 4, pp. 305-366.
BOLLERSLEV T., CHOU R.Y., KRONER K.F. [1992]. ARCH Modeling in Finance: aReview of the Theory and Empirical Evidence , Journal of Econometrics, 52, 1/2,pp. 5-60.
BOLLERSLEV T., ENGLE R.F., NELSON, D.B. [1994]. Arch Models , The Handbook ofEconometrics, vol. 4, North-Holland.
CAROLL S.M., DICKINSON B.W. [1989]. Construction of Neural Nets using the RadonTransform , in Proceedings of the international joint conference on neural networks,Washington, D.C., IEEE Press, I: pp. 607-611.
CYBENKO G. [1989]. Approximation by Superpositions of a Sigmoid Function ,Mathematics of Control, Signals and Systems, 2, pp. 303-314.
DAVIDSON R., MACKINNON J.G. [1993]. Estimation and Inference in Econometrics,Oxford University Press.
DAVIDSON R., MACKINNON J.G. [1994]. Graphical Methods for Investigating the Sizeand Power of Hypothesis Tests , GREQAM Working Paper No 94A23, Marseille,France.
DONALDSON R.G., KAMSTRA M. [1997]. An Artificial Neural Network-GARCH Modelfor International Stock Return Volatility , Journal of Empirical Finance, 4, pp. 17-46.
ENGLE R.F. [1982]. Autoregressive Conditional Heteroskedasticity with Estimates ofthe Variance of United-Kingdom Inflation , Econometrica, 50, 4, pp. 987-1007.
HORNIK K., STINCHCOMBE M., WHITE H. [1989]. Multi-layer Feedforward Networks areUniversal Approximators , Neural Networks, 2, pp. 359-366.
HORNIK K., STINCHCOMBE M., WHITE H. [1990]. Universal Approximation of anUnknown Mapping and its Derivatives Using Multi-layer Feedforward Networks ,NEURAL NETWORKS, 3, pp. 551-560.
HSIEH D.A. [1989]. Modeling Heteroscedasticity in Daily Foreign-Exchange Rates ,Journal of Business & Economic Statistics, 7, 3, pp. 307-317.
KAMSTRA M. [1993]. A Neural Network Test for Heteroskedasticity , Working Paper,Simon Fraser University, Burnaby, Canada.
KUAN C.M., WHITE H. [1994]. Artificial Neural Networks: an EconometricPerspective , Econometric Reviews, 13, 1, pp. 1-91.
LEE T.H., WHITE H., GRANGER C.W.J. [1993]. Testing for Neglected Nonlinearity inTime Series Models A Comparison of Neural Network Methods and AlternativeTests , Journal of Econometrics, 56, pp. 269-290.
MCLEOD A.I., LI W.K. [1989]. Diagnostic Checking ARMA Time Series Models usingSquared-Residual Autocorrelations , Journal of Time Series Analysis, 4, 4, pp. 269-273.
STERN H.S. [1996]. Neural Networks in Applied Statistics , Technometrics, 38, 3,pp. 205-214.
STINCHCOMBE M., WHITE H. [1989]. Universal Approximation using FeedforwardNetworks with Non-sigmoid Hidden Layer Activation Functions , in Proceedings of theinternational joint conference on neural networks, Washington, D.C., IEEE Press,I: pp. 613-618.
UN TEST DHTROSCDASTICIT CONDITIONNELLE 195
ANNEXE
Sous l'hypothse d'indpendance et de normalit conditionnelle des erreurs,la vraisemblance logarithmique conditionnelle ln L./ est donne par (8) et(9) et ht est donne par (6). La statistique LM pour tester l'hypothse nullereprsente par (10) s'crit
NNLM D 1T
@ln L./
@
DbR
0 (I .bR/1 @ln L./
@
DbR
o bR D .bfi;bfl0;0/ est l'estimateur de valu sous H0. I ./ est la matriced'information dfinie par
I ./ D E"
@2lt .yt j/@@ 0
#
et peut s'crire
I ./ D E"
12h2t
@ht@
@ht@ 0 C
1ht
@mt
@
@mt
@ 0
#
ou
I ./ D
I 11./ I 12./I 21./ I 22./
avec
I 11./ D
26664E
1ht
@mt
@fi
@mt
@fi0
0
0 E"
12h2t
@ht@fl0
@ht@fl 00
#37775 ;
I 12./ D I 21./0 D
264 0E
"1
2h2t
@ht@fl0
@ht@fl0
#375et
I 22./ D E"
12h2t
@ht@fl
@ht@fl0
#:
196
On peut montrer que
NNLM D 1T
@ln L./
@0
0 I 22./ I 21./ (I 11./1 I 12./1
@ln L./@0
;
les diffrentes composantes tant values en bR ; les esprances dans lesmatrices I i j seront remplaces par les moments empiriques pour obtenir lastatistique suivante, que nous appelons galement NNLM afin de ne pasalourdir les notations :
NNLM D 12
Xt
b2tb 2 1
@ht@0
0X
t
@ht@
@ht@0
1T
Xt
@ht@
Xt
@ht@0
1X
t
b2tb 2 1!
@ht@fl0
!:
UN TEST DHTROSCDASTICIT CONDITIONNELLE 197