vol59-09

22
 Un test d’hétéroscédasticité conditionnelle inspiré de la modélisation en termes de réseaux neuronaux artificiels Renau d CA ULET, Anne PEGUIN-FEISSOLLE * RÉSUMÉ. – Ce papier considère un test d'hétéroscédasticité condition- nelle basé sur la méthode des réseaux neuronaux artificiels et en compa- re les performances avec des tests standards, à l'aide de simulations de Monte-Carlo. L'hy pothèse alternativ e d'hétéroscédas ticité conditionn elle est repré sentée pa r une varia nce condi tionnel le de forme neuronale ; le test du Multiplicateur de Lagrange qui en découle permet de détecter une grande v ariété de formes d'hétéroscédasticité conditionnelle. Les résultats des simulations, présentés sous forme graphique, montrent que ce test est relativement performant. A T est for Conditional Heterosceda sticity Based on Artificial Neuronal Networks ABSTRACT. – This paper consider s a test for co nditional het erosce- dasticity based on artificial neural networks and compares its performance with some standard tests using a Monte Carlo study . The conditionally heteroscedastic alternative hypothesis is represented by a conditional variance with a neural s pecification; the Lagrange Multiplier test can detect a large class of conditional heteroscedasticity . The results of the simulation experiments, that are entirely presented in graphical form, show that its relative performance is encouraging . *R.CAULET : GREQAM; A.PEGUIN-FEISSOLLE : GREQAM -CNRS Nous remercions F.APRAHAMIAN, M. KAMSTRA, J. MACKINNON, T. TERÄSVIRTA et un rappor- teur anonyme pour les remarques qu'ils nous ont apportées sur des versions antérieures de ce papier . Bien entendu, les erreurs ou imperfections qui pourraient subsister sont de notre seule responsabilité. ANNALES D’ÉCONOMIE ET DE ST A TISTIQUE. – N° 59 – 2000

description

vol59

Transcript of vol59-09

  • Un test dhtroscdasticitconditionnelle inspir

    de la modlisation en termes de rseaux neuronaux artificiels

    Renaud CAULET, Anne PEGUIN-FEISSOLLE *

    RSUM. Ce papier considre un test d'htroscdasticit condition-nelle bas sur la mthode des rseaux neuronaux artificiels et en compa-re les performances avec des tests standards, l'aide de simulations deMonte-Carlo. L'hypothse alternative d'htroscdasticit conditionnelleest reprsente par une variance conditionnelle de forme neuronale ; letest du Multiplicateur de Lagrange qui en dcoule permet de dtecter unegrande varit de formes d'htroscdasticit conditionnelle. Les rsultatsdes simulations, prsents sous forme graphique, montrent que ce test estrelativement performant.

    A Test for Conditional Heteroscedasticity Based on Artificial Neuronal Networks

    ABSTRACT. This paper considers a test for conditional heterosce-dasticity based on artificial neural networks and compares its performancewith some standard tests using a Monte Carlo study. The conditionallyheteroscedastic alternative hypothesis is represented by a conditionalvariance with a neural specification; the Lagrange Multiplier test can detecta large class of conditional heteroscedasticity. The results of the simulationexperiments, that are entirely presented in graphical form, show that itsrelative performance is encouraging.

    * R. CAULET : GREQAM ; A. PEGUIN-FEISSOLLE : GREQAM-CNRSNous remercions F. APRAHAMIAN, M. KAMSTRA, J. MACKINNON, T. TERSVIRTA et un rappor-teur anonyme pour les remarques qu'ils nous ont apportes sur des versionsantrieures de ce papier. Bien entendu, les erreurs ou imperfections qui pourraientsubsister sont de notre seule responsabilit.

    ANNALES DCONOMIE ET DE STATISTIQUE. N 59 2000

  • 1 Introduction

    La modlisation conomtrique en termes d'htroscdasticit condition-nelle s'est largement rpandue dans la littrature depuis l'article d'ENGLE en1982 introduisant les modles ARCH (AutoRegressive ConditionallyHeteroscedastic). De nombreuses variantes en ont t proposes et appli-ques, particulirement dans le domaine financier (cf. BOLLERSLEV, CHOU etKRONER [1992], BERA et HIGGINS [1993] et BOLLERSLEV, ENGLE et NELSON[1994]). Se sont dvelopps paralllement des tests d'htroscdasticit condi-tionnelle, par exemple le test du Multiplicateur de Lagrange propos parENGLE [1982], ou des variantes des tests de Box-Pierce ou de Ljung-Box(cf. MCLEOD et LI [1989]).

    Nous nous intressons ici un test d'htroscdasticit conditionnelle,inspir des techniques de modlisation en termes de rseaux neuronaux artifi-ciels, ces dernires ayant la proprit d'approcher relativement bien une largeclasse de fonctions. Sur cette base, l'hypothse alternative d'htroscdasticitconditionnelle est reprsente par une variance conditionnelle de formeneuronale ; le test du Multiplicateur de Lagrange qui est construit sur cemodle permet de dtecter relativement bien une grande varit de formesd'htroscdasticit conditionnelle. Rcemment, LEE, WHITE et GRANGER[1993] ont propos un test de linarit bas sur ces techniques.

    Nous comparons, par simulation et sur un large vantail de spcificationspossibles de la variance conditionnelle, les performances de ce test aveccelles de trois autres tests d'htroscdasticit conditionnelle, dont l'un est untest neuronal labor par KAMSTRA [1993], mais utilisant une statistique diff-rente.

    Le plan de l'article est le suivant. Nous prsentons, dabord, le test d'ht-roscdasticit conditionnelle, ensuite, les rsultats des simulations et, enfin,une conclusion fait l'objet de la dernire partie.

    2 Prsentation du test neuronal

    Le modle de rgression avec erreurs conditionnellement htroscdas-tiques s'crit :

    (1) yt D x 0tfi C t t D 1;:::; Tavec

    (2) tflflxt ;Jt1 I I N .0;ht /:

    Jt reprsente l'ensemble d'information en t, comprenant les variables endo-gnes retardes et les variables exognes ; yt est la variable endogne et xt est

    178

  • un vecteur k 1 d'lments de Jt ; fi est un vecteur k 1 de paramtresinconnus. La variance conditionnelle s'exprime gnralement comme

    (3) ht D h.Jt1;/o est un vecteur de paramtres inconnus ; par exemple, nous avons unmodle ARC H.q/ si ht D 0 C 12t1 C ::: C q2tq ou un modleG ARC H.p;q/ si

    ht D 0 CqX

    jD1j2t j C

    pXjD1

    !j ht j

    ( est alors le vecteur constitu des paramtres 0, 1, ..., q, !1, ..., !p).L'hypothse nulle laquelle nous nous intressons est l'hypothse d'homos-

    cdasticit, savoir celle caractrise par la constance de la varianceconditionnelle ht. Nous allons considrer un test particulier d'htroscdasti-cit conditionnelle dans lequel l'hypothse alternative est caractrise par unevariance conditionnelle ht de forme neuronale.

    2.1 Bref aperu des rseaux neuronaux artificiels

    Les modles de neurones artificiels ont t introduits par les cogniticiensafin de reprsenter la faon dont l'information est traite dans le cerveau (cf.,par exemple, STERN [1996]). L'architecture du rseau que nous choisissons deprsenter et d'utiliser ensuite pour la construction du test est celle d'un rseautrs simple, avec une seule couche cache ; elle est dcrite dans la figure 1.Ce rseau se compose de trois couches : la couche d'inputs, la couche cacheet la couche d'outputs. Les n units d'input envoient des signaux nots x1, ...,xn, amplifis ou attnus par des facteurs de pondration i j, q units ounoeuds cachs ; les units caches somment les signaux et gnrent une fonc-tion d'activation . Les signaux des units caches, pondrs par des poids fljpour j D 1, ..., q, sont envoys ensuite dans la couche d'output ; ici, un seul

    UN TEST DHTROSCDASTICIT CONDITIONNELLE 179

    FIGURE 1Rseau de neurones n inputs, une seule couche cache et un seul output

  • output est considr. En faisant intervenir chaque couche la constante 1, cetoutput unique s'exprime de la faon suivante, en posant fl D .fl0, fl1, ...,flq/0 :

    (4) f .wt ;fl;1;::;q/ D fl0 CqX

    jD1flj.w0tj /

    o wt D .1;x1;:::;xn/0 est le vecteur d'inputs, j D .j0;j1;:::;jn/0 est levecteur des poids de la couche d'inputs, pour j D 1;:::;q, et est une fonc-tion non linaire donne de R vers R ; trs souvent, est la fonctionlogistique de la forme : ./ D .1 C e/1, 2 R. D'autres fonctionspourraient tre utilises, comme la fonction tangente hyperbolique.

    D'autres rseaux plus complexes ont t tudis, par exemple, avecplusieurs couches caches, des liens directs entre les deux couches extrmesou des rcurrences entre diverses couches.

    La littrature sur les rseaux neuronaux artificiels a montr que des fonc-tions de la forme (4) fournissent des approximations relativement bonnes defonctions arbitraires de wt, pour q suffisamment grand et un choix convenabledes vecteurs fl et j, j D 1;:::;q (voir, par exemple, HORNIK, STINCHCOMBE etWHITE [1989 et 1990], STINCHCOMBE et WHITE [1989], CYBENKO [1989],CAROLL et DICKINSON [1989], parmi d'autres). C'est en raison de cette flexibi-lit que les techniques des rseaux neuronaux artificiels ont attir l'attentionde certains auteurs (voir, KUAN et WHITE [1994]). Cette qualit particulire detels rseaux, qui ont d'ailleurs t appels approximateurs universels, va treexploite dans ce qui suit pour construire un test permettant de dtecter desformes diverses d'htroscdasticit conditionnelle.

    2.2 Construction du test neuronal

    Nous allons considrer le modle de rgression (1) et (2) dans lequel lavariance conditionnelle ht est une fonction neuronale de la forme suivante :

    (5) ht D 0 CqX

    jD1j .w0tj /;

    o wt D .1;t1;:::;tn/0 est le vecteur des inputs ; les poids des diffrentescouches sont reprsents comme ci-dessus par j0, j1, ... et jn pourj D 1;:::;q , ainsi que par fl0, fl1, ..., et flq ; les j se dfinissent parj D

    j0;j1;:::;jn

    0pour tout j et est la fonction logistique. Les retards

    du terme d'erreur jouent le rle des variables d'input du rseau. Ainsi, lavariance conditionnelle ht s'crit

    (6) ht D fl0 CqX

    jD1

    flj1 C e.j0Cj1t1C:::Cjntn/

    :

    Il est intressant de noter, ici, que cette formulation permet aux chocsd'avoir des effets asymtriques : les effets des chocs positifs et ngatifs neseront pas les mmes, contrairement certaines formulations traditionnelles

    180

  • de modles htroscdasticit conditionnelle telles que les formulationsARCH et GARCH ; divers modles (comme les modles EGARCH etTARCH, par exemple) ont d'ailleurs t proposs dans la littrature afin decapter ce type d'effets. Nous reviendrons sur ceci lorsque nous commenteronscertains exemples de simulation.

    Certains auteurs comme DONALDSON et KAMSTRA [1997] ont estim desmodles ARCH utilisant des fonctions neuronales dans lesquels la varianceconditionnelle a une forme se rapprochant de (6) ; notre objectif est diffrentpuisque nous introduisons une variance conditionnelle de forme neuronaleafin de construire un test qui permette de dtecter des classes assez largesd'htroscdasticit, comme nous le verrons dans les expriences de simula-tion.

    Le test d'htroscdasticit conditionnelle que nous exposons ici s'intresse l'hypothse nulle suivante :

    (7) H0 : flj D 0 j D 1;:::; q

    dans le modle donn par (1), (2) et (6), pour un choix particulier des vecteurs1,..., q et pour un nombre q d'units caches. Suivant LEE, WHITE etGRANGER [1993], les poids j i de la couche d'inputs sont choisis a priori,indpendamment des erreurs passes, pour q 2 N ; ce choix permet dersoudre le problme de la non-identification des j i sous l'hypothse nulle.

    En supposant l'indpendance et la normalit conditionnelle des erreurs, lavraisemblance logarithmique s'crit

    (8) ln L./ DTX

    tD1lt .yt j/

    avec

    (9) lt .yt j/ D 12ln 2 12

    ln ht 12ht .yt mt /2

    o 0 D .fi0;fl 0/ D .fi0;fl0;fl0/ avec fl D .fl1;:::;flq/0 et fl 0 D .fl0;fl0/ ; parailleurs, mt D x 0tfi et ht est donn par (6). Il faut noter, ici, que la vraisem-blance logarithmique dfinie en (8) et (9) est galement conditionnelle certaines valeurs initiales des variables xt et yt et qu'en outre, elle dpendgalement des xt, pour t D 1;:::; T. Nous supposerons, galement, satisfaitesles conditions assurant les proprits asymptotiques du maximum de vraisem-blance.

    Nous utilisons la procdure de test du Multiplicateur de Lagrange : cetteprocdure ncessite seulement l'estimation du modle sous l'hypothse nulle.

    Rappelons que les j i sont supposs connus a priori. La statistique LM quisert tester

    (10) H0 : D 0 contre H1 : D= 0;

    UN TEST DHTROSCDASTICIT CONDITIONNELLE 181

  • est donne par (voir Annexe) :

    (11) NNLM D 12

    Xt

    b2tb 2 1

    @ht@0

    0X

    t

    @ht@fl

    @ht@fl0

    1T

    Xt

    @ht@fl

    !Xt

    @ht@fl0

    !!1X

    t

    b2tb 2 1!

    @ht@fl0

    !I

    cette expression est value en bR, l'estimateur restreint de , calcul sousH0 ; bt , t D 1;:::; T, est le rsidu estim du modle (1) sous H0 :

    bt D yt x 0tbfi t D 1;:::; Tet b 2 D X

    tb2t =T. La statistique NNLM est asymptotiquement distribue

    comme une 2q sous H0.Considrons la rgression auxiliaire suivante :

    (12) b2tb 2 1 D 0 C @ht@0 C t t D 1;:::; T ;o

    @ht@fl est le vecteur q 1

    (13) @ht@flj

    D 11 C e.j0Cj1bt1C:::Cjnbtn/ j D 1;:::;q

    qui est donc valu en bfi , l'estimateur de fi obtenu sous H0.Posons D

    b21b 2 1;:::;b2Tb 2 1

    !0et D .1;:::;T /0, deux vecteurs

    T 1, et W D .i;X/, une matrice T .q C 1/, o i est le vecteur T 1tel que i D .1;:::;1/0 et X est la matrice T q dfinie par

    X D

    @ht@fl0j

    !tD1;:::;TjD1;:::;q

    .

    La rgression (12) s'exprime encore

    (14) D W C :

    182

  • Les diffrents lments de (11) peuvent s'crire

    Xt

    b2tb 2 1!

    @ht@fl0 D X

    0

    et

    Xt

    @ht@fl

    @ht@fl0

    1T

    Xt

    @ht@fl

    !Xt

    @ht@fl0

    !D X0Mi X

    o Mi D I 1T ii0. En utilisant les proprits des matrices partitionnes et le

    fait que i 0 DX b2tb 2 T D 0; il est facile de montrer que

    NNLM D 120X

    (X0Mi X

    1 X0D 1

    20W

    (W 0W

    1 W 0:Ainsi, nous pouvons crire NNLM comme la moiti de la somme explique

    des carrs de la rgression auxiliaire reprsente par (12) ou (14), c'est--dire :

    (15) NNLM D 12b0b

    o b est le vecteur T 1 des variables endognes estimes dans la rgres-sion auxiliaire (12).

    3 Les expriences de Monte-Carlo

    Des sries univaries seront engendres partir de diffrents modleschoisis pour reprsenter un ventail assez large de formes d'htroscdasticitconditionnelle. Les mthodes de Monte-Carlo sont utilises pour comparer letest neuronal donn par (15) avec d'autres tests.

    3.1 Tests alternatifs

    Pour tudier les proprits de taille et de puissance du test neuronal en petitchantillon, nous les comparons avec celles de trois autres tests :

    UN TEST DHTROSCDASTICIT CONDITIONNELLE 183

  • La statistique de test LM contre des erreurs ARCH.n/ est donne par (voirformule (35) dans ENGLE [1982]) :

    (16) ALM D 120Z.Z 0Z/1 Z 0

    o Db21b 2 1;:::;b

    2Tb 2 1

    !0, Z 0 D .z1;:::;zT /, et z0t D .1;b2t1;:::;b2tn/:

    Une statistique asymptotiquement quivalente (provenant du fait queplim 0=T D 2 sous l'hypothse de normalit) est la suivante (voirformule (36) dans ENGLE [1982]):

    (17) AR2 D T 0Z.Z 0Z/1 Z 0

    0D TR2

    o R2 est le carr du coefficient de corrlation multiple entre et Z. Le test de Kamstra (KAMSTRA [1993]) est un test neuronal d'htro-

    scdasticit conditionnelle o la variance conditionnelle prend la forme :

    ht D fl0 CqX

    jD1

    flj

    1 C ej0Cj12t1C:::Cjn2tn

    Ila statistique qui est utilise est la suivante :

    (18) NNR2 D TR2

    o R2 est le carr du coefficient de corrlation multiple de la rgression auxi-

    liaire de b2t sur une constante et le vecteur @ht@fl valu sous H0 (KAMSTRA[1993] recommande de prendre les plus grandes composantes principales dela matrice des rgresseurs dans cette rgression auxiliaire).

    Les trois statistiques de test donnes par (16), (17) et (18) suivent asympto-tiquement une distribution du 2 avec, respectivement, n (pour (16), (17)) etq (pour (18)) degrs de libert sous l'hypothse nulle.

    Les notations des diffrentes statistiques de test (NNLM, ALM, AR2 andN N R2) illustrent bien l'ide qu'il existe deux alternatives (A reprsentant l'al-ternative ARCH et NN reprsentant l'alternative neuronale) et deux formes detest (la forme LM et la forme T R2).

    3.2 Mise en place des simulations

    Les expriences de simulation nous permettent de comparer les perfor-mances de ces diffrents tests. Nous prsentons les rsultats concernant lataille et la puissance en utilisant la prsentation graphique de DAVIDSON etMACKINNON [1993 et 1994]. Elle conduit des graphes qui sont beaucoup

    184

  • plus faciles interprter que les tableaux habituellement utiliss pourprsenter ce type de rsultats. Ces graphes sont construits partir de la fonc-tion de distribution empirique des p-values 1 de ralisations simules j,j D 1;:::; N, d'une statistique de test . Appelons pj la p-value associe j ;il s'agit de la probabilit d'observer une valeur de plus grande que j relati-vement une distribution F. /. La fonction de distribution empirique des pjest dfinie par

    (19) bF.xi / D 1NNX

    jD1I .pj 6 xi /

    o I est la fonction indicatrice suivante :

    (20) I .pj 6 xi / D 1 si pj 6 xi0 sinon

    et xi est un point de l'intervalle [0;1]. Puisque N est gnralement trs grand,DAVIDSON et MACKINNON [1994, p. 2] conseillent d'valuer bF.xi / , donn par(19), en m points xi, i D 1;:::; m, qui devront fournir une reprsentationraisonnable de l'intervalle [0;1] ; tant donn qu'il est difficile d'tablir defaon catgorique la valeur de m et le choix des xi, ces auteurs recommandentde prendre

    (21) xi D 0:002; 0:004;:::; 0:01; 0:02;:::; 0:99; 0:992;:::; 0:998 .m D 107/qui, d'aprs de nombreuses expriences, s'avre tre un ensemble tout faitparcimonieux.

    En ce qui concerne la taille des diffrents tests, nous savons que si la distri-bution de est correcte, chacun des pj doit tre distribu uniformment surl'intervalle [0;1] ; par consquent, le graphe des bF.xi / contre xi doit treproche de la droite 45, ou encore le graphe des bF.xi / xi contre xi doittre proche de l'axe horizontal.

    En ce qui concerne la puissance des diffrents tests, cest--dire lorsque lesdonnes sont engendres sous l'hypothse alternative, nous donnerons lescourbes taille-puissance ; elles reprsentent le graphe de la puissance contre lavraie taille de chaque test : l'axe horizontal reprsente bF , la fonction de distri-bution empirique lorsque les donnes sont engendres sous l'hypothse nulle,et l'axe vertical reprsente bF, la fonction de distribution empirique lorsqueles donnes sont engendres sous l'hypothse alternative, cest--dire selon unmodle conditionnellement htroscdastique. Ainsi, les courbes taille-puis-sance sont engendres selon une taille correcte (DAVIDSON et MACKINNON[1994, p. 11]).

    En outre, pour ce qui concerne le test neuronal, les poids j i des unitscaches sont engendrs alatoirement, pour chaque itration, selon une distri-bution uniforme sur [2;2] et les variables yt et xt sont normes sur [0;1],

    UN TEST DHTROSCDASTICIT CONDITIONNELLE 185

    1. Nous prfrons utiliser, ici, le terme anglais de p-value plutt que sa traduction franaise.

  • 186

    FIGURE 2 FIGURE 3

    FIGURE 4 FIGURE 5

  • suivant LEE, WHITE et GRANGER [1993]. Par ailleurs, les statistiques NNLM etNNR2 sont calcules en utilisant les q D 4 plus grandes composantes princi-pales au lieu des variables originelles dans les rgressions auxiliairesrespectives, ce qui permet d'viter les problmes poss parfois par leurnombre trop important ou leur trop forte corrlation ; le nombre choisid'units caches est q D 10.

    3.3 Rsultats des simulations sous l'hypothse nulle

    Les donnes sont engendres partir du modle normal homoscdastiquesuivant :

    (22) yt D 0:25 C 0:5xt C t t D 1;:::; To t I I N .0;1/ et xt D 0:7xt1 C t avec t I I N .0;1/. Le nombred'itrations, N, est gal 2 500 ; le nombre d'inputs est n D 3 (plus laconstante).

    Nous ne donnons pas les graphes de la fonction de distribution empiriquebF.xi / contre xi car ils sont tous pratiquement confondus avec la droite 45.La figure 2 montre les graphes de bF.xi / xi contre xi pour T D 200. Bienque ces carts bF.xi / xi soient faibles, il apparat, nanmoins, que tous lestests sur-rejettent systmatiquement l'hypothse nulle pour des tailles trsfaibles, qui sont celles qui nous intressent gnralement.

    3.4 Rsultats des simulations sous l'hypothse alternative

    Afin de comparer la puissance des tests d'htroscdasticit conditionnelle,nous traons les courbes de taille-puissance, c'est--dire le lieu des points.bF.xi /;bF.xi // o les valeurs des xi sont donnes par (21), bF.xi / tant lafonction de distribution empirique engendre par le modle linaire (22) etbF.xi / tant celle engendre par un processus appartenant l'hypothsealternative. Suivant DAVIDSON et MACKINNON [1994], nous rduisons leserreurs exprimentales en utilisant le mme ensemble de nombres alatoiresdans toutes les expriences. Par ailleurs, les chantillons artificiels sontconstruits avec plus d'observations qu'il n'est ncessaire, la dernire partieseulement tant effectivement utilise.

    3.4.1 Comparaison des diffrents tests dans divers cas d'htroscdasticit conditionnelle

    L'hypothse alternative est ainsi reprsente par diffrents modles, choisispour reprsenter un certain ventail de situations conditionnellement htros-cdastiques. Le nombre d'itrations est N D 2500 et le nombre d'observations

    UN TEST DHTROSCDASTICIT CONDITIONNELLE 187

  • 188

    FIGURE 6 FIGURE 7

    FIGURE 8 FIGURE 9

  • UN TEST DHTROSCDASTICIT CONDITIONNELLE 189

    est T D 100. Le modle de rgression est donn par (22) avec diffrentesspcifications de ht. Les erreurs t sont gnres sous la forme t D t

    pht

    avec t I I N .0;1/, t D 1;:::; T.Les diffrentes courbes taille-puissance correspondent : cas 1 (n D 3) : Figure 3

    (23) ht D 0:2 C 0:72t1

    cas 2 (n D 3) : Figure 4(24) ht D 0:2 C 0:32t1 C 0:32t2 C 0:32t3

    cas 3 (n D 3) : Figure 5(25) ht D 0:2 C 0:22t1 C 0:7ht1

    cas 4 (n D 1) : Figure 6

    (26) ht D

    0:2 C 0:32t1

    0:5 C 0:2 2t20:5 C 0:3 2t30:51

    0:5

    cas 5 (n D 3) : Figure 7

    (27) ht D

    0:2 C 0:52t3

    2 C 0:5 ht3212

    cas 6 (n D 2) : Figure 8

    (28) ht D 10 C 701 C e0:2C0:4t1C0:9t2 C90

    1 C e0:9C0:1t1C0:5t2

    cas 7 (n D 3) : Figure 9

    (29) ht D0:01 C 5 t3 si t1 > 01

    .1 C 2:52t3

    si t1 < 0

    cas 8 (n D 3) : Figure 10

    (30) ht D 10:01 C 2:52t5 cas 9 (n D 2) : Figure 11

    (31) ht D e0:1C0:5t2

    cas 10 (n D 3) : Figure 12

  • 190

    FIGURE 10 FIGURE 11

    FIGURE 12 FIGURE 13

  • (32) ht D 1 C 2t5h1 e102t5

    i cas 11 (n D 3) :

    (33) ht D 10 si t1 > 00:1 si t1 < 0

    cas 12 (n D 3) :

    (34) ht D 2 C 5

    t3 si t1 > 00:001 si t1 < 0

    Les figures 3 14 illustrent ainsi le comportement des tests dans des casdiffrents. Certains correspondent des formes fonctionnelles proposes dansla littrature : ARCH dans les cas 1 et 2, le cas 3 est un GARCH(1,1), le cas 4est un ARCH non linaire, le cas 5 un GARCH non linaire. Les autres cascorrespondent des formes non standard d'htroscdasticit ; par exemple,les cas 7, 11 et 12 sont des formes seuil et le cas 6 a une forme de rseauneuronal artificiel.

    Par ailleurs, chaque exprience de simulation est mene avec q D 4, cest--dire les statistiques NNLM et NNR2 sont calcules avec 4 composantesprincipales dans la rgression auxiliaire (plus la constante) sur la base deq D 10 units sur la couche cache. Pour chaque test, le nombre de retardsdes erreurs dans les rgressions auxiliaires est n D 3 (hormis dans les cas 4 et6). Ainsi, certains cas permettent de voir l'influence d'une mauvaise spcifica-tion de la forme fonctionnelle de l'htroscdasticit conditionnelle sur lesperformances des diffrents tests.

    En effet, que n soit suprieur au nombre de retards de "t qui a servi gnrer le modle sous l'hypothse alternative (comme dans les cas 1, 3 et11), ou qu'il en soit infrieur (cas 4, 8 ou 10 par exemple), ceci ne nuit en rienaux performances compares du test neuronal par rapport aux autres tests,puisque la statistique NNLM reste dans la plupart des cas au-dessus des autresstatistiques ; ceci est important noter puisque, dans les applications desdonnes relles, on ne connatra pas gnralement le vrai modle ayantgnr les donnes.

    Les figures montrent dans leur ensemble que le test neuronal (reprsentpar la statistique NNLM) se comporte tout fait bien ; il domine souvent lesautres procdures de test, surtout lorsqu'il s'agit de formes d'htroscdasticitautres que les formes ARCH ou GARCH standard. En effet, NNLM n'est pas lameilleure statistique dans les figures 3, 4, 5 et 7 ; en revanche, pour tous lesautres cas, la courbe correspondant la statistique NNLM est nettement au-dessus des autres courbes.

    Les figures 10, 12 et 13 montrent des cas particuliers o les tests, hormis letest neuronal et le test d'Engle donn par ALM, prsentent de srieuxproblmes. En effet, les deux tests correspondant aux statistiques AR2 etN N R2 se comportent assez mal : leurs courbes taille-puissance sont trsproches de la premire bissectrice, ou bien leur taille est suprieure leurpuissance ; ils sont, ainsi, parfois biaiss, selon la faon dont les donnes sontengendres.

    UN TEST DHTROSCDASTICIT CONDITIONNELLE 191

  • 192

    FIGURE 15

    FIGURE 16

    FIGURE 14

    FIGURE 17

  • Enfin, nous avions not dans le paragraphe 2.2 que la variance condition-nelle ht, donne par la formule (6) et ayant servi construire la statistiqueNNLM, permettrait de tenir compte d'effets asymtriques possibles des "tselon leurs signes ; ceci se vrifie dans les cas 6, 7, 9, 11 et 12 qui incorporentde tels effets et pour lesquels la statistique NNLM se dtache, en effet nette-ment des autres statistiques.

    3.4.2 Influence du nombre d'observations et du nombre de composantes principales sur le test neuronal

    Les deux figures suivantes (15 et 16) exposent les courbes taille-puissancepour le test neuronal en fonction du nombre d'observations T et du nombre decomposantes principales q. Pour ces deux figures, le modle alternatif estdonn par (22) et

    (35) ht D

    0:2 C 0:32t1

    1:5 C 0:2 2t21:5 C 0:3 2t31:51

    1:5 :

    La figure 15, o n D 3 et q D 3, montre que, lorsque T augmente, lesperformances du test neuronal s'amliorent tout fait. La figure 16, gnreavec n D 3 et T D 50, montre que, dans cet exemple en tout cas, quatrecomposantes principales semblent donner les meilleures performances au testneuronal, mais ce nombre est dpendant des cas choisis. Dans les cas expossci-dessus, nous avons pris q D 4 ; LEE, WHITE et GRANGER [1993] utilisentdeux ou trois composantes principales pour le test de linarit qu'ils construi-sent.

    3.4.3 Robustesse des diffrents tests l'introduction d'une dynamique dans l'quation de rgression

    D'autres expriences de simulation ont t menes en introduisant lavariable endogne retarde dans le modle de rgression ; nous avons ainsitudi un modle normal homoscdastique de la forme :

    (36) yt D 0:25 C 0:5yt1 C t t D 1;:::; T

    o t I I N .0;ht / . Le nombre d'itrations, N, est toujours gal 2 500.Diffrentes simulations menes avec diverses spcifications pour ht ontdonn des rsultats semblables ceux exposs ci-dessus, en termes de hirar-chie des diffrents tests. La figure 17 en montre un exemple o ht correspondau cas 10 (quation (32).

    UN TEST DHTROSCDASTICIT CONDITIONNELLE 193

  • 4 Conclusion

    Nous venons d'exposer un test d'htroscdasticit conditionnelle inspir dela modlisation reposant sur les rseaux neuronaux artificiels. Il est bienconnu que les rsultats des simulations de Monte-Carlo dpendent denombreux facteurs. Nanmoins, le test neuronal (reprsent par la statistiqueNNLM) montre dans ces simulations des performances suprieures celles dela forme LM du test d'Engle, surtout lorsqu'on est en prsence d'une formed'htroscdasticit autre qu'un ARCH ou un GARCH standard ; il sembleainsi efficace dans un large ventail de cas possibles d'htroscdasticitconditionnelle, comme on peut le voir dans les diffrents graphes. On peut,donc, esprer qu'il permette de la dtecter dans des applications conomiques.

    194

  • Rfrences bibliographiques

    BERA A.K., HIGGINS M.L. [1993]. ARCH Models: Properties, Estimation and Testing ,Journal of Economic Surveys, 7, 4, pp. 305-366.

    BOLLERSLEV T., CHOU R.Y., KRONER K.F. [1992]. ARCH Modeling in Finance: aReview of the Theory and Empirical Evidence , Journal of Econometrics, 52, 1/2,pp. 5-60.

    BOLLERSLEV T., ENGLE R.F., NELSON, D.B. [1994]. Arch Models , The Handbook ofEconometrics, vol. 4, North-Holland.

    CAROLL S.M., DICKINSON B.W. [1989]. Construction of Neural Nets using the RadonTransform , in Proceedings of the international joint conference on neural networks,Washington, D.C., IEEE Press, I: pp. 607-611.

    CYBENKO G. [1989]. Approximation by Superpositions of a Sigmoid Function ,Mathematics of Control, Signals and Systems, 2, pp. 303-314.

    DAVIDSON R., MACKINNON J.G. [1993]. Estimation and Inference in Econometrics,Oxford University Press.

    DAVIDSON R., MACKINNON J.G. [1994]. Graphical Methods for Investigating the Sizeand Power of Hypothesis Tests , GREQAM Working Paper No 94A23, Marseille,France.

    DONALDSON R.G., KAMSTRA M. [1997]. An Artificial Neural Network-GARCH Modelfor International Stock Return Volatility , Journal of Empirical Finance, 4, pp. 17-46.

    ENGLE R.F. [1982]. Autoregressive Conditional Heteroskedasticity with Estimates ofthe Variance of United-Kingdom Inflation , Econometrica, 50, 4, pp. 987-1007.

    HORNIK K., STINCHCOMBE M., WHITE H. [1989]. Multi-layer Feedforward Networks areUniversal Approximators , Neural Networks, 2, pp. 359-366.

    HORNIK K., STINCHCOMBE M., WHITE H. [1990]. Universal Approximation of anUnknown Mapping and its Derivatives Using Multi-layer Feedforward Networks ,NEURAL NETWORKS, 3, pp. 551-560.

    HSIEH D.A. [1989]. Modeling Heteroscedasticity in Daily Foreign-Exchange Rates ,Journal of Business & Economic Statistics, 7, 3, pp. 307-317.

    KAMSTRA M. [1993]. A Neural Network Test for Heteroskedasticity , Working Paper,Simon Fraser University, Burnaby, Canada.

    KUAN C.M., WHITE H. [1994]. Artificial Neural Networks: an EconometricPerspective , Econometric Reviews, 13, 1, pp. 1-91.

    LEE T.H., WHITE H., GRANGER C.W.J. [1993]. Testing for Neglected Nonlinearity inTime Series Models A Comparison of Neural Network Methods and AlternativeTests , Journal of Econometrics, 56, pp. 269-290.

    MCLEOD A.I., LI W.K. [1989]. Diagnostic Checking ARMA Time Series Models usingSquared-Residual Autocorrelations , Journal of Time Series Analysis, 4, 4, pp. 269-273.

    STERN H.S. [1996]. Neural Networks in Applied Statistics , Technometrics, 38, 3,pp. 205-214.

    STINCHCOMBE M., WHITE H. [1989]. Universal Approximation using FeedforwardNetworks with Non-sigmoid Hidden Layer Activation Functions , in Proceedings of theinternational joint conference on neural networks, Washington, D.C., IEEE Press,I: pp. 613-618.

    UN TEST DHTROSCDASTICIT CONDITIONNELLE 195

  • ANNEXE

    Sous l'hypothse d'indpendance et de normalit conditionnelle des erreurs,la vraisemblance logarithmique conditionnelle ln L./ est donne par (8) et(9) et ht est donne par (6). La statistique LM pour tester l'hypothse nullereprsente par (10) s'crit

    NNLM D 1T

    @ln L./

    @

    DbR

    0 (I .bR/1 @ln L./

    @

    DbR

    o bR D .bfi;bfl0;0/ est l'estimateur de valu sous H0. I ./ est la matriced'information dfinie par

    I ./ D E"

    @2lt .yt j/@@ 0

    #

    et peut s'crire

    I ./ D E"

    12h2t

    @ht@

    @ht@ 0 C

    1ht

    @mt

    @

    @mt

    @ 0

    #

    ou

    I ./ D

    I 11./ I 12./I 21./ I 22./

    avec

    I 11./ D

    26664E

    1ht

    @mt

    @fi

    @mt

    @fi0

    0

    0 E"

    12h2t

    @ht@fl0

    @ht@fl 00

    #37775 ;

    I 12./ D I 21./0 D

    264 0E

    "1

    2h2t

    @ht@fl0

    @ht@fl0

    #375et

    I 22./ D E"

    12h2t

    @ht@fl

    @ht@fl0

    #:

    196

  • On peut montrer que

    NNLM D 1T

    @ln L./

    @0

    0 I 22./ I 21./ (I 11./1 I 12./1

    @ln L./@0

    ;

    les diffrentes composantes tant values en bR ; les esprances dans lesmatrices I i j seront remplaces par les moments empiriques pour obtenir lastatistique suivante, que nous appelons galement NNLM afin de ne pasalourdir les notations :

    NNLM D 12

    Xt

    b2tb 2 1

    @ht@0

    0X

    t

    @ht@

    @ht@0

    1T

    Xt

    @ht@

    Xt

    @ht@0

    1X

    t

    b2tb 2 1!

    @ht@fl0

    !:

    UN TEST DHTROSCDASTICIT CONDITIONNELLE 197