PROJET D’ECONOMETRIE - The Financial Engineer Première partie de projet 1. INTRODUCTION 2....

44
2010 M1 IEF PROJET D’ECONOMETRIE LE MODELE DE RENTABILITE A TROIS FACTEURS DE FAMA ET FRENCH(1993) KUNAL TAYLAN

Transcript of PROJET D’ECONOMETRIE - The Financial Engineer Première partie de projet 1. INTRODUCTION 2....

2010

M1 IEF

PROJET D’ECONOMETRIE

LE MODELE DE RENTABILITE

A TROIS FACTEURS

DE

FAMA ET FRENCH(1993)

KUNAL TAYLAN

RESUME

De récents travaux ont montré le rôle de variables "fondamentales" (taille, ratio valeur

comptable/valeur de marché ) dans l'explication de la rentabilité des titres.

Fama et French (1993) proposent un modèle à trois facteurs (bêta, HML, SMB) pour expliquer

ces observations.

Dans ce test du modèle de Fama et French (1993) sur le marché américain, l'explication de la

rentabilité des titres dépend négativement du facteur lié à la taille et positivement du ratio

VC/VM. Toutefois, le facteur de marché reste la variable explicative la plus significative.

Sommaire

Première partie de projet

1. INTRODUCTION

2. EXPLICATION DE LA RENTABILITE DES TITRES AVEC UN MODELE MULTIFACTORIEL

2.1. Ratio valeur comptable/valeur de marché et rentabilité des titres, capitalisation boursière

2.1.1. L’effet taille et la rentabilité des titres

2.1.2. L’effet ratio VC/VM et la rentabilité des titres

2.2. Le modèle Fama et French

3. PRESENTATION DES DONNEES ET CONSTRUCTION DES VARIABLES

3.1. Le méthode de calcul des données financières

3.2. Le méthode de calcul des données comptables

3.3. Les variables explicatives: Rm-Rf, SMB et HML

3.4. Les variables expliquées: Six portefeuilles de titres classés par taille et ratioVC/VM

3.5. Le choix de la variable expliquée pour la Partie 1 du projet

4. LE MODELE DE RENTABILITE A TROIS FACTEURS DE FAMA ET FRENCH

5. CONCLUSION

Introduction

Les premiers tests empiriques du Modèle d’Evaluation Des Actifs Financiers (Médaf), au début des

années 70, ont pu laisser croire que le Médaf et l'efficience des marchés financiers au sens de Fama

(1970) fournissaient un cadre théorique capable d'expliquer la rentabilité des titres.

Le Médaf nécessite de construire un portefeuille prenant en compte tous les investissements

possibles sur la planète (actions, obligations, objets d'art, immobilier…).

Les tests du Médaf constituent donc des tests conjoints de l'efficience ex ante du portefeuille retenu

comme portefeuille de marché et du Modèle d'Evaluation Des Actifs Financiers.

L'observation empirique d'anomalies dans les rentabilités des titres contredisant le Médaf représente

une deuxième remise en cause essentielle du modèle qui postule notamment que le coefficient bêta

suffit à décrire les rentabilités espérées en coupe transversale. Ainsi, certaines données fondamentales

liées aux titres présentent un pouvoir explicatif des rentabilités complétant le bêta, en contradiction

avec la théorie du Médaf.

L'objet de cette étude est de tester la capacité explicative du modèle à trois facteurs de Fama et

French (1993) sur le marché américain des actions.

2. EXPLICATION DE LA RENTABILITE DES TITRES AVEC UN MODELE MULTIFACTORIEL

2 .1 Ratio valeur comptable/valeur de marché et rentabilité des titres, capitalisation boursière

2.1.1 L’effet taille et la rentabilité des titres

En 1981, Selon BANZ, la taille de l’entreprise, mesurée par sa capitalisation boursière renforce le Beta

pour expliquer les rentabilités des titres. En effet, par rapport à l’estimation de leur Beta, les rentabilités

moyennes des petites capitalisations sont trop élevées par rapport aux celles des grandes capitalisations qui

sont trop faibles.

Chan et Chen (1988) montrent une très forte corrélation entre la taille moyenne des titres de chaque

portefeuille et les estimations des coefficients de Beta de ces mêmes portefeuilles.

En France, Hamon (1986) observe une rentabilité des titres de faible capitalisation plus importante. Cette

anomalie serait liée à un effet liquidité du marché.

En 1992 Girerd Potin confire une plus forte rentabilité de pf de petites firmes.

La mesure de la taille par la capitalisation boursière repose sur le cours. L’évaluation du cours d’un titre reposant

sur l’actualisation de ces flux futurs et le taux d’actualisation étant lié au risque, il est logique d'observer une plus

grande rentabilité des titres sous-évalués. Berk met en évidence l'une des difficultés des recherches empiriques sur la

rentabilité des titres. La rentabilité des titres dépend directement de leur prix et de son évolution sur une période de

référence : Ri(t-1:t) =

, avec Ri(t-1; t) , rentabilité arithmétique du titre i sur la périodes (t-1,t) et

P it, cours du titre i à l’instant t.

2.1.2 L’effet ratio valeur comptable/valeur de marché et la rentabilité des titres

Fama et French (1991), sur le marché américain identifient le ratio VC/VM comme facteur explicatif

important des rentabilités: Les entreprises avec un ratio VC/VM élevée sont associées des rentabilités

espérées élevées. Ils démontrent que le ratio VC/VM est une variable explicative plus significative que la

variable taille.

Pour Daniel et Titman (1997), la rentabilité attendue d'un titre est déterminée par les caractéristiques de la

firme et non par des primes de risque.

On calcule le ratio VC/VM de la façon suivante:

VM=∑

[ ] Il existe une relation inverse entre rentabilité attendue et valeur de marché.

VM/VC = ∑

[ ] Relation négative entre la rentabilité et le ratio VM/VC.Inversement

une relation positive doit être observée entre le ratio VC/VM, et la rentabilité espérée des titres.

2.2 Le modèle à trois facteurs de Fama et French

Fama et French (1992, 1993), propose un modèle à trois facteurs qui corrige les défaillances du modèle

d’évaluation des actifs financiers Medaf. Le modèle à trois facteurs inclut le risque du marché (le bêta

utilisé dans le MÉDAF), et utilise également le risque relié à la taille et celui attribué au ratio VC / VM

pour mieux expliquer la variabilité des rendements des actions cotée sur le NYSE, l’AMEX et le

NASDAQ.

Selon ces auteurs, on aurait tendance à observer un risque plus élevé dans le cas des petites entreprises et

des entreprises de valeur (ratio VC / VM élevé) comparativement aux grandes entreprises et aux

entreprises de croissance (ratio VC / VM faible), ce qui amènerait les marchés financiers à requérir un

plus fort rendement en compensation.

L’équation du modèle à trois facteurs de Fama et French est la suivante :

( )

: Rendement excédentaire du portefeuille d’entreprise observées par rapport

au rendement sans risque Rft : Un mois de Bon du Trésor des Etats-Unis.

: Rentabilité du portefeuille de marché.

: Rentabilité du portefeuille basé sur la différence entre la rentabilité des titres de petite

capitalisation boursière et la rentabilité des titres de capitalisation boursière importante (SMB,

small minus big).

: Rentabilité du portefeuille basé sur la différence entre la rentabilité des titres avec un

ratio valeur comptable sur valeur de marché élevé et la rentabilité des titres avec un ratio valeur

comptable sur valeur de marché faible (HML, high minus low).

, , : Coefficients des primes de risque , et .

3. Présentation des données et construction des variables

La méthodologie de cette étude est adaptée de Fama et French (1993). Elle repose sur la construction de

portefeuilles de titres tant pour les variables expliquées que pour les variables explicatives fondamentales

(SMB, HML) et de marché (RM - Rf).

3.1 Les données financières

6 portefeuilles formés de taille et Book to market ratio:VC/VM

Rendements mensuels: Juillet 1980-Juin 2010 ( 360 obs)

Les données sont prises sur le site d’internet de Kenneth R. French. Les portefeuilles construits sont

l’intersection de 2 portefeuilles classée par leurs tailles (Small Capi, Big Capi) et 3 portefeuilles classés

par leur ratio de valeur comptable / valeur de marché (High,Neutral,Low).

Les portefeuilles construits de juillet de l’année t à Juin de l’année t+1 inclue tous les titres de NYSE,

d’AMEX et de NASDAQ.

Le placement à taux sans risque utilisé dans le modèle à trois facteurs, Rf, est le placement sur le marché

monétaire à 1 mois. Le taux sans risque retenu dans l'équation est donc le taux moyen mensuel de Bon du

Trésor.

3.2 Les données comptables

La taille de l'entreprise est représentée par sa capitalisation boursière (nombre de titres multiplié par le

cours de bourse). Le classement suivant la taille repose sur la capitalisation boursière des titres en juin t.

La capitalisation boursière de l'entreprise fin décembre t-1 est utilisée pour calculer le ratio valeur

comptable/valeur de marché (VC/VM). Le ratio VC/VM est égal à la valeur comptable des titres en

décembre t-1, divisé par la dernière cotation de décembre t-1. La capitalisation boursière correspond ici,

au nombre de titres multiplié par le dernier cours de décembre t-1.

3.3 Les variables SMB et HML

A la fin du mois de juin de l'année t, les titres de l’échantillon sont répartis en deux groupes (S

pour small et B pour big) suivant que leur valeur de marché en juin t est inférieure ou supérieure

à la valeur de marché médiane de l’échantillon. Indépendamment, les titres sont classés suivant

leur ratio VC/VM en décembre t-1, et répartis en trois groupes correspondant respectivement aux

trois premiers déciles (L pour low,), aux quatre déciles médians (M pour medium) et aux trois

derniers déciles (H pour high). Six portefeuilles (S/L, S/M, S/H, B/L, B/M, B/H) sont constitués

à l'intersection des deux répartitions précédentes. Les rentabilités sont calculées chaque mois de

juillet t à juin t+1.

a) Le portefeuille SMB construit pour reproduire le facteur de risque associé à la taille

correspond à la différence, calculée mensuellement, entre la rentabilité moyenne des trois

portefeuilles de valeur de marché faible (S/L, S/M, S/H) et la rentabilité moyenne des

trois portefeuilles de valeur de marché élevée (B/L, B/M, B/H).

SMB =1/3 (Small Value + Small Neutral + Small Growth) - 1/3 (Big Value + Big Neutral

+ Big Growth).

b) HML correspond à la différence, calculée mensuellement, entre la rentabilité moyenne

des deux portefeuilles de ratio VC/VM élevé (S/H, B/H) et la rentabilité moyenne des

deux portefeuilles de ratio VC/VM faible (S/L, B/L).

HML =1/2 (Small Value + Big Value) - 1/2 (Small Growth + Big Growth).

3.4 Les variables expliquées: Six portefeuilles de titres classés par taille et ratio VC/VM

Six portefeuille sont construits à l’intersection de deux répartitions ( taille et ratio VC/VM )

Nous avons six portefeuilles à expliquer, ce sont : SmallHigh,SmallMedium,SmallLow

BigHigh,BigMedium,BigLow

4. LE MODELE DE RENTABILITE A TROIS FACTEURS DE FAMA ET FRENCH

( )

Nous allons utiliser le modèle de régression multiple pour tester le modèle de rentabilité de Fama

et French (1993).

4.1 Données statistiques des variables explicatives

Tableau 1 :

Données statistiques des rentabilités mensuelles des variables Rm-Rf, SMB et HML de

07/1926 à 01/2009, 991 mois

Commentaire :

Le portefeuille de marché enregistre une rentabilité moyenne annuelle de 59% qui est supérieure

à celle des autres variables explicatives. Le portefeuille SMB a une rentabilité moyenne de 19% ,

qui est inférieure à celle de HML 48%: De plus cette rentabilité moyenne élevé est associée à un

écart type des rentabilités plus élevé.

Rm-Rf SMB HML

Moyenne 0.582 0.182 0.475

Ecart-type 5.45 3.34 3.575

4.2 Donnée statistiques des variables expliquées

Les portefeuilles de titres de petite capitalisation présentent une rentabilité plus élevée donc cela nous

confirme l’existance d’un effet taille.

Les portefeuilles de titres avec une ratio de VC/VM élevé ont une rentabilité également plus élevé.

Tableau 3:

Données statistiques de portefeuilles classés par taille et ratio VC/VM

Commentaire :

Les écarts-types les plus élevés montrent la plus forte volatilité.

Nous allons examiner les effets de ratio VC/VM et de la taille des entreprises sur les écarts-type

des six portefeuilles.

Elevé Med Faible

Taille Ecart-type

Grande 7.294189 5.8258258 5.412988

Petite 8.355718 7.1238315 7.845203

Elevé Med Faible

Taille Moyenne

Grande 0.856125 0.6256004 0.560091

Petite 1.144329 0.9458628 0.642805

Graphique 1:

Projection des portefeuilles dans l’espace espérence de rentabilité mensuelle en excès

(Rm-Rf) /écart type des rentabilité en excès ( Rp-Rf )

Commentaire:

Le portefeuille SMB associe une rentabilité moyenne avec une variabilité faible. Les deux

portefeuilles (SH et SN ) de petits capitalisations ont des rentabilités plus important que les

entreprises avec la grande capitalisation. La ligne bleu signifie “ la Droite de Marché ”, au

dessus de cette droite nous avons des portefeuilles avec fortes rentabilités moyennes et au

dessous il se trouve des portefeuilles avec faible rentabilité moyennes.

Nous pouvons constater un effet lié au ratio VC/VM , les portefeuilles avec un ratio VC/VM

élevé ont également une rentabilités plus élevés et plus ils ont des ratios élevés plus ils sont

risqués.

4.5 Choix de la variable à expliquée pour la partie 1 du projet :

Durant cette partie 1 du projet, Nous allons travailler sur le portefeuille classé des titres de

grande capitalisation et une ratio VC/VM faible pour les raisons suivantes :

Le portefeuille LB se trouve sur la Droite de Marché, les portefeuilles qui sont en dessus

de cette droite ont des rentabilités moyennes plus élevés que les portefeuilles qui se

trouve au dessous de cette droite.

Le portefeuille (LB) a un écart-type moins élevé que les autres, cela signifie qu’il est le

moins volatile.

Le coefficient de détermination du portefeuille LB représente 97,7% . Le modèle de

régression de Fama et French explique 97 ,7% de la rentabilité du portefeuille classé

LB. C’est le portefeuille mieux expliqué entre ces 6 portefeuilles. (Selon la régression

que j’ai faite pour le projet d’économétrie 2009.)

Nous allons travailler pour la suite de projet avec la série désaisonnalisé « LBSA »

4.6 Description de l’allure graphique de la série « LBSA »

4.6.1 Evaluation graphique de la Stationnarité

Commentaire :

Au vue du graphique, on peut conclure qu’il s’agit d’un processus stationnaire, la moyenne et la variance

sont constants au cours du temps.

Le processus ne semble ni un processus DS ni TS , mais un bruit blanc. Dans cette étape on n’a pas

pouvoir de dire qu’il est un bruit blanc car un processus stationnaire n’est pas forcement un bruit blanc.

4.6.2 Analyse des fonctions d’auto-corrélation simple et partielle

Commentaire :

Le premier graphique représente les auto-corrélations d’ordre h=1,….20 et le deuxième les auto-

corrélations partielles d’ordre h=1,…20. Ici la fonction d’auto-corrélation simple permet de mesurer le

coefficient d’auto-corrélation de rendement mensuel de portefeuille classé LB avec le rendement de

portefeuille de mois précédent.

Ici, les coefficients d’auto-corrélation simple ne sont pas significativement différent de zéro.

( Prob < = 0.05) .

Le corrélogram a une forme d’un bruit blanc car rien qui dépasse. Ceci est aussi caractéristique d’une

série stationnaire. Nous vérifions par la suite cette affirmation par l’application de test de stationnarité.

4.6.3 Etude de Statistiques descriptive

Commentaire :

Ce schéma représente l’histogramme de la série LBSA .

Sur la période considérée, entre le juillet 1980 et Juin 2010, la moyenne de la rentabilité mensuelle en

excès du portefeuille classé Grande capitalisation avec un ratio VC/VM faible est 0,52 avec une volatilité

de 4.53 ce qui est moins élevé par rapport aux portefeuilles avec des petites capitalisations.

Le Skewness, le coefficient d’asymétrie est nul pour un loi normale, c’est l’indicateur de dispersion des

distributions par rapport à la moyenne. Le Kurtosis est un indicateur d’aplatissement qui est égal à 3 pour

un loi normale. Ici la valeur de Skewness est proche de 0, mais la valeur de Kurtosis est un peu éloignée

de celle de loi normale.

Ces observations sont confirmées par la valeur de la statistique de Jacque Bera qui est ici nous permet

de rejeter au seuil de 5% l’hypothèse de normalité de la série (p-value inférieur à 5%).

5. Test de Stationnarité

Nous avons mis en évidence la stationnarité de la série par l’étude du corrélogramme. Nous allons utiliser

les tests de DF ( ou DFA) qui nous permet de détecter la non-stationnarité de processus et d’identifier la

nature de cette non stationnarité ( TS, DS ou AR(1) ).

La différence entre DF et DFA reste dans le nombre de retards p retenus. Si le Lag Length est égale à

zéro, alors nous allons faire le test de Dickey Fuller simple. Si p > 0 nous appliquons le test Dickey Fuller

augmenté.

5.1 Le choix du nombre de retards

Pourquoi de choisir un nombre de retard optimal est important ? : Inclusion d’un nombre insuffisant

de retards peut affecter le niveau du test tandis que l’introduction d’un nombre trop-élevé de retards réduit

le nombre de degrés de liberté et donc la puissance du test, c'est-à-dire qu’il y a un Racine unitaires alors

que notre processus est stationnaire.

Nous allons déterminer le nombre de retard p optimal par EViews qui calcule directement le p optimal :

En faisant les tests de racine unitaire par les critères d’Akaike (AIC) et de Schwartz (SIC), Eviews nous

indique p=0.

Nous allons faire le test de Dickey Fuller simple par la suite comme le nombre de retards optimal est zéro.

La procédure de test : On part du modèle le plus général (le modèle 3) (Trend and intercept). On y teste

la racine unitaire puis on vérifie par un test approprié que le modèle retenu est le bon, si on n’est pas dans

le bon modèle, on recommence dans un modèle plus contraint (le modèle 2), puis avec le model 1.

5.2 Test de Racine unitaire :

Etude du Modèle 3 :

On teste les hypothèses suivantes :

| |

Unit Root test sur Eviews :

Commentaire :

Calcul de DF test statistique manuellement :

t-Statistic = -17,552 < VC3 ≈ -3

Règle de décision ;

On rejette l’hypothèse nulle de racine unitaire, il n’existe pas de Racine unitaire donc le série est

stationnaire.

A fin de voir si le modèle 3 est un bon modèle, nous allons faire le test de student sur le paramètre

b du modèle pour voir s’il y a tendance.

Test de Student : Y a-t-il une tendance ?

| | | |

On ne rejette pas l’hypothèse H0 la nullité de b, donc le série n’a pas de tendance. On n’est pas dans le

bon modèle , nous allons continuer de faire le test DF avec le modèle plus contraint (modèle 2)

Etude du Modèle 2 sans tandance :

On teste les hypothèses suivantes :

| |

Unit Root test sur Eviews :

Commentaire :

t-Statistic = -17,5438 < VC2

Règle de décision ;

On rejette l’hypothèse nulle de racine unitaire, il n’existe pas de Racine unitaire donc la série est

stationnaire.

A fin de voir si le modèle 2 est un bon modèle, nous allons faire le test de student sur le paramètre

c du modèle pour voir s’il y a une constante dans mon modèle. ( toujours à droite du stratégie du

test)

Test de Student : Y a-t-il une constante ?

| | | |

On ne rejette pas l’hypothèse H0 la nullité de c, donc mon modèle 2 n’a pas de constante. On

n’est pas dans le bon modèle, nous allons continuer à faire le test DF avec le modèle plus

contraint (modèle 1).

Etude du Modèle 1 ni tendance ni constante :

On teste les hypothèses suivantes :

| |

Unit Root test sur Eviews :

Commentaire :

t-Statistic = -17,37 < VC1

Règle de décision ;

On rejette l’hypothèse nulle de racine unitaire, il n’existe pas de Racine unitaire donc le modèle 1

est stationnaire.

Il s’agit d’un processus stationnaire sans constante.

Nous allons vérifier la stationnarité de la série avec la procédure de test de Phillips-Perron.

5.4 Le test de Phillips Perron

Le test de Phillips et Perron est basé sur une modification non paramétrique des statistiques de

Dickey-Fuller pour prendre en compte l’auto-corrélation des résidus.

Nous allons utiliser les modèles 1 ,2 et 3 avec les mêmes hypothèses sauf les valeurs empiriques du t

Student sont corrigées.

La valeur de l définit le nombre de retards calculé par la règle de Newey West, est environ égale à :

[ (

)

]

Modèle 1, Modèle 2, Modèle 3

Conclusion :

La statistique de Phillips et Perron pour trois modèles est supérieure aux valeurs critiques.

On rejette l’hypothèse nulle de racine unitaire. Il s’agit bien d’un processus stationnaire.

6. Identification du modèle et Estimation des paramètres

Methodologie ( Box et Jenkins 1976)

On choisit le modèle ARMA dont les caractéristiques théoriques se rapprochent le plus des

caractéristiques des caractéristiques de la série observée (LBSA).

Nous allons étudier les corrélogrammes simple et partiel de la série.

Nous allons retenir le modèle qui satisfait ces trois conditions suivantes :

Les coefficients des paramètres sont tous significativement différents de zéro

Les polynômes d’opérateur de la partie AR ne possèdent pas de racine commune et son

module est inferieur à 1.

La probabilité critique de la statistique de Ljung-Box est supérieure à 0,05

6.1. L’Identification du Processus

Le corrélogramme de notre série LBSA est le suivant :

Les probabilités critiques sont tous supérieurs à 5% . On suppose que c’est un processus bruit

blanc non centré. La forme du corrélogramme nous indique également que le processus semble

d’être un bruit blanc comme rien qui dépasse.

Nous allons commencer à effectuer une régression sur ARMA(1,1)

Dependent Variable: LBSA

Method: Least Squares

Date: 11/22/10 Time: 23:39

Sample (adjusted): 1980M08 2010M06

Included observations: 359 after adjustments

Convergence achieved after 11 iterations

Backcast: 1980M07

Variable Coefficient Std. Error t-Statistic Prob.

C 0.477310 0.271150 1.760321 0.0792

AR(1) 0.535793 0.316766 1.691444 0.0916

MA(1) -0.477328 0.331768 -1.438742 0.1511

R-squared 0.007840 Mean dependent var 0.505775

Adjusted R-squared 0.002266 S.D. dependent var 4.537175

S.E. of regression 4.532031 Akaike info criterion 5.868539

Sum squared resid 7311.994 Schwarz criterion 5.900990

Log likelihood -1050.403 F-statistic 1.406511

Durbin-Watson stat 1.970968 Prob(F-statistic) 0.246355

Inverted AR Roots .54

Inverted MA Roots .48

Les coefficients ne sont pas significativement différents de zéro. On ne retient pas ce modèle.

On est amené à enlever la variable MA(1) qui est la moins significative (p-value plus éloigné de 5%) pour

améliorer la significativité globale du modèle.

On estime ce modèle sans constante comme c n’est pas significative :

Variable Coefficient Std. Error t-Statistic Prob.

AR(1) 0.645458 0.242489 2.661809 0.0081

MA(1) -0.577963 0.261246 -2.212335 0.0276

Sans C le modèle ARMA(1,1) est bien significatif.

Dependent Variable: LBSA

Method: Least Squares

Date: 11/22/10 Time: 23:40

Sample (adjusted): 1980M08 2010M06

Included observations: 359 after adjustments

Convergence achieved after 3 iterations

Variable Coefficient Std. Error t-Statistic Prob.

C 0.503072 0.259423 1.939197 0.0533

AR(1) 0.078500 0.052526 1.494505 0.1359

R-squared 0.006218 Mean dependent var 0.505775

Adjusted R-squared 0.003434 S.D. dependent var 4.537175

S.E. of regression 4.529378 Akaike info criterion 5.864602

Sum squared resid 7323.949 Schwarz criterion 5.886236

Log likelihood -1050.696 F-statistic 2.233546

Durbin-Watson stat 2.001318 Prob(F-statistic) 0.135927

Inverted AR Roots .08

Les coefficients ne sont toujours pas significativement différents de zéros. Comme le coefficient

de « C » n’est pas significative, on l’enlève.

Variable Coefficient Std. Error t-Statistic Prob.

AR(1) 0.090364 0.052360 1.725826 0.0852

R-squared -0.004107 Mean dependent var 0.505775

Adjusted R-squared -0.004107 S.D. dependent var 4.537175

S.E. of regression 4.546482 Akaike info criterion 5.869366

Sum squared resid 7400.040 Schwarz criterion 5.880183

Log likelihood -1052.551 Durbin-Watson stat 2.004123

Inverted AR Roots .09

Le fait d’enlever la constate pas significative, nous permet de retenir le modèle AR(1) comme le

coefficient est significativement différent de zéro à 10%. (p-value < 10%).

Un nouvel examen de corrélogramme des résidus est nécessaire :

Les probabilités critiques sont supérieurs à 5%. Ces deux processus a une tête de bruit blanc. Au

vu de corrélogramme comme rien qui dépasse , cela me confirme qu’il s’agit bien d’un bruit

blanc.

On reconnait ici un processus AR(1) significative à 10% et ARMA(1,1) significative à 5%

6.2.Estimation du processus AR(1) et ARMA(1,1) en enlevant les 3 dernières observations.

Nous allons estimer deux processus AR(1) et ARMA(1,1) sans c car il s’agit des modèles concurrents puis

je vais faire les prévisions avec ses deux modèle pour voir le quel prévoit mieux. ( Pendant le cour on a

dit que si c’est toujours un bruit blanc après les tests on utilise un AR(1) donc nous allons voir quel

modèle est plus fiable pour les prévisions d’une série qui a la tete d’un bruit blanc).

Sample (adjusted): 1980M08 2010M03

Included observations: 356 after adjustments

Convergence achieved after 10 iterations

Backcast: 1980M07

Variable Coefficient Std. Error t-Statistic Prob.

AR(1) 0.689276 0.225214 3.060534 0.0024

MA(1) -0.623102 0.244873 -2.544597 0.0114

R-squared -0.002228 Mean dependent var 0.550556

Adjusted R-squared -0.005059 S.D. dependent var 4.517746

S.E. of regression 4.529160 Akaike info criterion 5.864552

Sum squared resid 7261.704 Schwarz criterion 5.886321

Log likelihood -1041.890 Durbin-Watson stat 1.980545

Inverted AR Roots .69

Inverted MA Roots .62 Lorsqu’on enlève 3 dernières observations, les p-value de modèle ARMA(1,1) sont améliorés en revanche p-value du processus AR(1) a dépassé le seuil de 10%.(0,1015) On va supposer que le modèle AR(1) est significative à 10% en enlevant les 3 dérnières observations.

Dependent Variable: LBSA

Method: Least Squares

Date: 12/04/10 Time: 19:47

Sample: 1980M08 2010M03

Included observations: 356

Convergence achieved after 2 iterations

Variable Coefficient Std. Error t-Statistic Prob.

AR(1) 0.086350 0.052596 1.641738 0.1015

R-squared -0.007246 Mean dependent var 0.550556

Adjusted R-squared -0.007246 S.D. dependent var 4.517746

S.E. of regression 4.534083 Akaike info criterion 5.863928

Sum squared resid 7298.059 Schwarz criterion 5.874813

Log likelihood -1042.779 Durbin-Watson stat 2.004790

Inverted AR Roots .09

6.3. Validation du processus pour un processus AR(1)

6.3.1. L’analyse de Racine AR(1)

Nous allons vérifier la stationnarité de processus AR pour la stabilité du modèle, le module de

racine doit être inférieur à 1.

Un processus étant toujours inversible, il est stationnaire lorsque les racines sont à

l’extérieur du cercle unité du plan.

Inverted AR Roots .09 < 1

La condition sur la racine est bien vérifiée.

6.4. Tests sur les résidus

Nous allons effectuer plusieurs test pour vérifier la pertinence du modèle estimé AR(1).

Test de Ljung Box ou Test de non auto-corrélation des résidus

Analyse du corrélogrammes des résidus, comme on a précédemment fait, la probabilité critique

de la statistique de Ljung-Box est supérieurs à 5%. On ne rejette pas l’hypothèse nul de non

corrélation des résidus. Les termes de auto-corrélation et partial corrélation sont dans l’intervalle

de confiance.

La séries peut être considérée comme un bruit blanc.

Test de Breush-Godfrey

Ce test nous sert à détecter une auto-corrélation d’ordre supérieurs et égale à 1 des

résidus.

Eviews nous donne deux Stats ; obs*R-squared ce qui est la bonne statistique et F-stats.

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 0.427538 Probability 0.652447

Obs*R-squared 0.000000 Probability 1.000000

Test Equation:

Dependent Variable: RESID

Method: Least Squares

Date: 12/04/10 Time: 01:41

Presample missing value lagged residuals set to zero.

Variable Coefficient Std. Error t-Statistic Prob.

AR(1) 0.410592 0.495843 0.828067 0.4082

RESID(-1) -0.413532 0.498782 -0.829083 0.4076

RESID(-2) -0.058842 0.069606 -0.845357 0.3985

R-squared -0.007824 Mean dependent var 0.457204

Adjusted R-squared -0.013486 S.D. dependent var 4.523371

S.E. of regression 4.553770 Akaike info criterion 5.878109

Sum squared resid 7382.308 Schwarz criterion 5.910561

Log likelihood -1052.121 Durbin-Watson stat 2.000981

Comme p-value de la statistique Obs*R-squared= 1 est supérieur à 5%, On ne rejette pas

l’hypothèse nul de non auto-corrélation des résidus à l’ordre supérieur à 1.

Test d’homoscédasticité

Nous avons déjà conclu que la série est un bruit blanc. Une série de bruit blanc est

homoscédastique.

Test ARCH de Engle (1982)

Résultat du test pour p=1

Résultat du test pour p=2

Résultat du test pour p=3

Le test Arche pour p=1 ;2 ;3 nous permet de conclure à une homoscédasticité comme les p-value des tests

sont tous supérieurs à 5%, On ne rejette pas l’hypothèse nul de homoscédasticité. C’est normale comme

la série est un bruit blanc.

ARCH Test:

F-statistic 0.457623 Probability 0.499176

Obs*R-squared 0.459603 Probability 0.497810

ARCH Test:

F-statistic 0.731336 Probability 0.481991

Obs*R-squared 1.468998 Probability 0.479746

ARCH Test:

F-statistic 0.691185 Probability 0.557924 Obs*R-squared 2.084836 Probability 0.554987

Test de normalité des résidus

Le test de normalité consiste à déterminer si le bruit blanc suit une loi normale. On utilise la

statistique de Jarque-Bara pour conclure sur la normalité des résidus. Le skewness d’une loi

normale est égale à 0. Le kurtosis d’une loi normale vaut 3.

Le

Kurtosis n’est pas proche de 3 ( 5.53) et le Skewness n’est pas très proche de 0 (-0,55) ;

La statistique de JB donnée par Eviews est 114 ce qui est très élevé et la probabilité critique

étant 0 au dessous de 5%, On rejette l’hypothèse nul de Normalité.

Donc le bruit blanc ne suit pas une loi normale et aussi on peut conclure que tous les tests

qu’on a fait précédemment ne sont pas rigoureux comme ces tests sont construits sous

l’hypothèse de Normalité.

6.3.2. L’Analyse de Racine ARMA(1 ,1)

Il est nécessaire de vérifier qu’il n’y ait pas de racines redondantes entre AR et MA. Si tel

était le cas, cela soulèverait des problèmes d’estimation et il faudrait alors éliminer dans la

partie AR ou MA la racine la moins significative. Ici, les racines sont toutes différentes entre

elles.

Un processus AR est toujours inversible. Il est stationnaire losrque les racines sont

à l’extérieur du cercle unité du plan complexe.

Un processus MA est toujours stationnaire. Il est inversible si les racines sont à

l’extérieur du cercle unité du plan complexe.

Les conditions sur les racines sont vérifiées.

Variable Coefficient Std. Error t-Statistic Prob.

AR(1) 0.689276 0.225214 3.060534 0.0024

MA(1) -0.623102 0.244873 -2.544597 0.0114

R-squared -0.002228 Mean dependent var 0.550556

Adjusted R-squared -0.005059 S.D. dependent var 4.517746

S.E. of regression 4.529160 Akaike info criterion 5.864552

Sum squared resid 7261.704 Schwarz criterion 5.886321

Log likelihood -1041.890 Durbin-Watson stat 1.980545

Inverted AR Roots .69

Inverted MA Roots .62

Inverted AR Roots .69 < 1

Inverted MA Roots .62 < 1

6.3.3. Test sur les paramètres de processus ARMA(1,1)

Test de variable omise : nous allons tester un AR de plus

La variable AR(2 ) n’est pas significative à 5%.

La variable MA(2) n’est pas significative à 5%.

Variable Coefficient Std. Error t-Statistic Prob.

AR(1) 0.780442 0.390214 2.000038 0.0463

AR(2) -0.016800 0.075217 -0.223349 0.8234

MA(1) -0.705284 0.386115 -1.826619 0.0686

Variable Coefficient Std. Error t-Statistic Prob.

AR(1) 0.692797 0.269818 2.567641 0.0107

MA(1) -0.615683 0.275302 -2.236389 0.0260

MA(2) -0.015238 0.062157 -0.245146 0.8065

6.4 Test sur les résidus estimés pour ARMA(1,1)

Test de Ljung Box

La probabilité critique de la statistique de Ljung-Box est supérieurs à 5%. On ne rejette pas

l’hypothèse nul de non corrélation des résidus. Les termes de auto-corrélation et partial

corrélation sont dans l’intervalle de confiance.

La séries peut être considérée comme un bruit blanc.

Test de Breush-Godfrey

Ce test nous sert à détecter une auto-corrélation d’ordre supérieurs et égale à 1 des

résidus.

Comme p-value de la statistique Obs*R-squared= 1 est supérieur à 5%, On ne rejette

pas l’hypothèse nul de non auto-corrélation des résidus à l’ordre supérieur à 1.

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 1.250563 Probability 0.287613

Obs*R-squared 0.000000 Probability 1.000000

Test d’homoscédasticité

Nous avons déjà conclu que la série est un bruit blanc. Une série de bruit blanc est

homoscédastique.

Test ARCH de Engle (1982)

ARCH Test:

F-statistic 1.033793 Probability 0.309966

Obs*R-squared 1.036614 Probability 0.308610

Le test ARCH pour p=1 ;2 nous permet de conclure à une homoscédasticité comme les p-value des tests

sont tous supérieurs à 5%, On ne rejette pas l’hypothèse nul de homoscédasticité.

Les résidus sont bien des bruits blanc.

ARCH Test:

F-statistic 1.341238 Probability 0.262859

Obs*R-squared 2.684885 Probability 0.261207

Test de normalité des résidus

Kurtosis n’est pas proche de 3 ( 5.77) et le Skewness n’est pas très proche de 0 (-0,56) ;

La statistique de JB donnée par Eviews est 132 ce qui est très élevé et la probabilité critique

étant 0 au dessous de 5%, On rejette l’hypothèse nul de Normalité.

Donc le bruit blanc ne suit pas une loi normale et aussi on peut conclure que tous les tests

qu’on a fait précédemment ne sont pas rigoureux comme ces tests sont construits sous

l’hypothèse de Normalité.

6.5 Les modèles concurrents et leurs critères de comparaison

Entre ces deux modèles concurrents, on retient le modèle qui minimise les critères de Akaike et

Schwarz.

AR(1) cosidéré significatif à 10% ≈ 0.1015

Critère de Akaike : 5,8639

Critère de Schwarz : 5,8748

ARMA (1,1) sans « c » singificatif à 5%

Critère de Akaike : 5,8645

Critère de Schwarz : 5,8863

Conclusion

Le meilleur modèle selon les critères Akaike et Schwarz, c’est bien le modèle AR(1).

Nous venons de conclure que la série est un bruit blanc donc de continuer à faire des

prévisions avec un processus AR(1) est plus juste.

7. Prévision du processus AR(1) et ARMA(1,1)

Le modèle précédemment retenue est un AR(1) donc la valeur en t dépend de la valeur de la série

au période t-1.

Etapes pour obtenir les prévisions de la série LBSA :

Nous allons faire une prévision de 3 mois de 2010M03 à 2010M06 :

D’abord on fait une estimation du modèle AR(1) en enlevant trois mois d’observation.

Sample Initiale : 1980M08-2010M06 : appelé EstimAR sous Eviews

Sample modifié : 1980M08-2010M03 : appelé EstimfAR sous Eviews

Sur estimfAR nous allons faire les prévisions sur la période enlevé précédemment :

2010M03-2010M06

Proc/Forcast

Forcast Graphique

Lbsafar

Eviews nous calcule des valeurs prévues ; lbsafar pour le modèle AR

lbsafarma pour ARMA

Enfin On regroupe lbsa et lbsafar afin de tracer un graphique de ligne.

Ensuite nous allons comparer les prévisions selon ces deux modèle AR et ARMA pour voir le quel nous

donne la meilleure prévision ;

7.1.1. Comparaison des graphiques de prévision des modèle AR(1) er ARMA(1,1)

Plus les valeurs des measures RMSE, MAPE sont petites, plus le modèle retenu est précis.

Pour une meilleure prévision Root Mean Squared Error doit etre plus petit possible.

RMSE lbsafar : 5,29 vs lbsafarma :5,43

Mean Abs ; Percent Error signifie le risque de ce tromper pour les prévisions.

Lbsafar : 96% vs Lbsafarma : 100%

Nous pouvons conclure que le modèle retenu AR(1) est le bon modèle pour faire nos

prévisions sur 3 mois.

Voici les valeurs de prévisions calculées par Eviews de AR(1) :

LBSA LBSAFAR

Remarque :

On voit bien que les valeurs des prévisions à partir de 2010M03 se rapprochent

plus en plus de zéro.

Voici les valeurs de prévisions calculées par Eviews de ARMA(1,1) :

LBSAFARMA

2010M02 3.945023

2010M03 0.468326

2010M04 0.322806

2010M05 0.222503

2010M06 0.153366

Remarque :

Les prévisions diminuent jusqu’à 0.15 mais cela reste au dessuus des variables

prévues du processus AR(1).

7.1.2 Calcule des prévisions à la main

1. Le modèle final de AR(1) :

2009M06 3.597241 3.597241

2009M07 6.864114 6.864114

2009M08 2.210989 2.210989

2009M09 3.708073 3.708073

2009M10 0.170301 0.170301

2009M11 6.856468 6.856468

2009M12 2.182914 2.182914

2010M01 -0.434030 -0.434030

2010M02 3.945023 3.945023

2010M03 2.304884 0.340651

2010M04 -2.261354 0.029415

2010M05 -9.892835 0.002540

2010M06 -2.270621 0.000219

Calcul des prévisions pour les périodes t=03, 04, 05, 06:

X03= 0.086X02 + ε03

X03=0.086*3.94+E(ε03) E(ε03) =0

X03=0.34

X04=0.086*0.34+E(ε04)

X04=0.029

X05=0.086*0.029

X05=0.002540

X06=0.086*0.00254

X06=0.000219

On retrouve bien les estimations calculées par Eviews et données par le colonne LBSAFAR.

2. Le modèle final de ARMA(1,1) :

X03= 0.689*X02 + ε03-0623*ε02

X03=0.689*3.945+E(ε03) –0.623*E(ε02) E(ε03) =0

X03=2 ,68-0.623*3.61 = 0.469

7.1.3 Intervalle de confiance associé à chacun de ces prévisions de AR(1)

Les intervalles de prévisions , Ce sont les intervalles dans lesquels la valeur XT+h se situe avec

une probabilité 1-α% .

Sous l’hypothèse normalité des résidus

S.E(optional) : fse c’est le nom de l’objet dans lequel seront stockées les écart-type

estimé de l’erreur de prévision.

On met un nom d’objet fse et Eviews stocke dans cet objet l’écart-type estimé de l’erreur

de prévision.

Puis Quick/Show et on met l’équation suivante pour calculer les intervalles de confiance

à 95% pour chaque prévisions : (lbsafar- 2*fse , lbsafar+2*fse)

Voici les écart-type estimé de l’erreur :

Voici les intervalles de previsions:

Ces intervalles de confiance sont représenté par deux lignes rouges de Forcast graph.

8. Représentation de la série prévue et la série observée :

La Série Observée: LBSA

Les Séries Prévues : LBSAFAR et LBSAFARMA

2010M02 NA 2010M03 4.538829 2010M04 4.551026 2010M05 4.551082 2010M06 4.551082

2010M03 -8.737006

2010M04 -9.072637

2010M05 -9.099624

2010M06 -9.101945

9.418309

9.131467

9.104704

9.102384

Notre objectif est de montrer le quel de ces modèles prévoit mieux la série observé :

Conclusion :

La réponse de Pourquoi le modèle AR(1) préfèré si notre série est un bruit blanc ?

1. La série prévues du processus AR(1) étant le plus proche de la série observée. On

constate que même le modèle ARMA(1,1) est globalement plus significatif que AR(1) , il

ne représente pas le meilleur modèle pour cette raison si une série est toujours un bruit

blanc après les tests de validation, c’est mieux de choisir un modèle AR(1) .

2. Les prévisions d’abord sous-estime la série effective puis elle sur-estime. Le point

d’inflexion n’est pas estimé.