Post on 23-Jan-2020
1
Université Abderrahmane MIRA-Bejaia
Faculté des sciences économiques, Commerciales et des Sciences de gestion
Département des sciences de Gestion
Polycopié
Réalisée par: Dr BOUKRIF Nouara
Préparée par Dr BOUKRIF Nouara
Année : 2016
Cours :
Régression Linéaire simple et
multiple
2
Introduction générale du cours Régression linéaire simple et multiple
L’objectif de la régression linéaire simple et multiple est d’apprendre à l’étudiant comment
analyser un phénomène quelconque on utilisant des méthodes statistiques dites économétriques.
En effet, la régression linéaire est une relation stochastique entre une ou plusieurs
variables. Elle est appliquée dans plusieurs domaines, tels que la physique, la biologie, la chimie,
l’économie…etc.
Dans ce cours et dans un premier temps, nous allons introduire la régression linéaire où on
explique une variable endogène par une seule variable exogène. A titre d’exemples, on peut citer :
la relation entre la variable Prix et la variable Demande, la relation entre la variable Revenu et la
variable Consommation, la relation entre la variable Investissement et la variable Croissance
économique. Il s’agit de la régression linéaire régression simple. Dans un deuxième temps, nous
étudierons la régression linéaire multiple qui représente la relation linéaire entre une variable
endogène et plusieurs variables exogènes. Autrement dit, il s’agit de régresser linéairement une
grandeur économique (variable à expliquer) sur plusieurs variables explicatives (variables
exogènes). Par exemple, d’après la théorie économique, la demande d’un produit peut être
expliquée par les grandeurs Prix, Revenu et Publicité.
La régression linéaire simple et multiple est un outil d’analyse qui fait appel à trois
domaines scientifique, à savoir :
la théorie économique ;
l’analyse statistique ;
la modélisation mathématique.
Dans ce polycopié on présentera les différents modèles de régressions linéaires à savoir : le
modèle de régression linéaire simple et multiple.
3
Chapitre : Le modèle de régression linéaire simple
I-1 Définition du modèle de régression linéaire simple
Le modèle de régression linéaire simple est une variable endogène (dépendante) expliquée
par une seule variable exogène (indépendante) mise sous forme mathématique suivante :
ttt XY 10 , nt ........1
avec :
tY : la variable endogène (dépendante, à expliquer) à la date t ;
tX : la variable exogène (indépendante, explicative) à la date t ;
10 , : les paramètres inconnus du modèles ;
t : l’erreur aléatoire du modèle ;
n: nombre d’observations.
I-2 Hypothèses du modèle
Le modèle repose sur les hypothèses suivantes :
.paramètresaux rapport -par Xen linéaireest modéle le -6
; aléatoire pasest n' exogène variablea5
,0),cov(4
; éesautocorrél passont ne , si ,0cov -3
,)(2
centréeerreur l',0)(1
; exogène variablela avec corrélée pasest n'erreur l'
erreurs les
; ) ticitéhomoscédasd' hypothèse(l' constanteest erreur l' de variancela
,
22
l
x tt
tt
t
t
tt
I-3 Estimation des paramètres par la méthode des Moindres Carrés Ordinaires (MCO)
Soit le modèle suivant : ttt XY 10
L’estimation des paramètres 10 , est obtenue en minimisant la somme des carrés des erreurs :
4
n
t
n
t
tt
n
t
t SMinXYMinMin1
2
1
2
10
1
2
Pour que cette fonction ait un minimum, il faut que les dérivées par-rapport à 10 et soient
nuls.
).(ˆ
ˆ
. et puisque ˆ
bienou
ˆˆ
:) d (2),et (1) équations des solutions les ˆet ˆ notansEn
.....(2)..........0))((20
.....(1)..........0)1(20
11
2
1
11
0
110
11
10
10
1
2
1
1
0
1
10
11
1
10
11
10
0
:obtienton , (2)équation l' dans de valeur la remlaçant En
(1 après'obtient on
n
t
t
n
t
t
n
t
tt
n
t
t
n
t
t
n
t
t
n
t
t
n
t
t
n
t
t
n
t
tt
n
t
ttt
n
t
t
n
t
t
n
t
t
n
t
tt
XXXXYXY
Xn
X
Yn
Y
XnY
n
X
n
Y
XXXYXXYS
XnYXYS
D’où
22
1
1
1
22
1
1 1
2
1 11
ˆ
t
t
t
n
t
t
n
t
t
n
t
tt
n
t
n
t
tt
n
t
n
t
ttt
XX
XXYY
XnX
XYnYX
XXX
XYYX
5
Conclusion : les estimateurs des MCO du modèle de régression linéaire simple
ttt XY 10 Sont :
ˆ0 XnY Et
22
1
1
1
22
11
ˆ
t
t
t
n
t
t
n
t
t
n
t
tt
XX
XXYY
XnX
XYnYX
Différentes écritures du modèle de régression linéaire simple :
Le modèle théorique ( modèle non ajusté) :
ttt XY 10
Le modèle estimé ( modèle ajusté) :
ttt eXY 10ˆˆ
Avec :
tY = tX10ˆˆ
Et
ttttt XYYYe 10ˆˆˆ
te : est le résidu du modèle.
Exemple : nous disposons des données qui sont représentés dans le tableau suivant :
tX 100 200 300 400 500 600 700
tY 40 50 50 70 65 65 80
Où tY désigne les quantités consommées et
tX désigne le prix des quantités consommées.
On trace un graphique des couples de données liant le prix et les quantités Consommées. Nous
6
Obtenons le nuage de points suivant :
30
40
50
60
70
80
90
0 100 200 300 400 500 600 700 800
X
Y
Estimation des paramètres :
Nous savons que :
ˆ0 XnY
22
1
1
1
22
11
ˆ
t
t
t
n
t
t
n
t
t
n
t
tt
XX
XXYY
XnX
XYnYX
Application numérique :
0 42.36 et 1 = 0.0589
Ajustement du nuage par la droite d’équation
tt XY 0.058942.36ˆ : désigne la droite qui ajuste le nuage de point.
7
I-calcul des espérances mathématiques des estimateurs
calcul de l’espérance de 1ˆ :
Soit le modèle suivant : ttt eXY 10ˆˆ
D’après la méthode des MCO, on a :
22
1
11
ˆ
t
t
t
n
t
t
XX
XXYY
En posant
YYy
et
XXx
tt
tt
Nous obtenons
)1(..........ˆ
1
2
11
n
t
t
n
t
tt
x
yx
On remplace la valeur ty dans (1), on obtient :
)2 ....(..........ˆ
0
. ˆ
1
2
11
1
1
2
1
1
2
1
2
1
2
11
alors
Comme
n
t
t
t
n
t
t
n
t
t
n
t
t
n
t
t
n
t
t
t
n
t
t
t
t
t
n
t
t
x
Yx
x
x
x
Y
x
Yx
x
YYx
8
car 01 1
XnXnXXxn
t
n
t
tt .
On remplace maintenant ttt XY 10 dans l’équation (2) ,on aura :
.
ˆ
ˆ
car
1
2
1
1
2
1
1
1
2
1
2
1
1
2
1
1
2
1
1
1
1
2
1 1
1
1
2
1 1
1
1
0
1
2
10
11
XxX
x
x
x
xX
x
x
x
x
x
Xxx
x
xXx
x
xXxx
x
Xx
tt
n
t
t
n
t
tt
n
t
t
n
t
t
n
t
t
n
t
t
n
t
t
n
t
tt
n
t
t
n
t
tt
n
t
t
n
t
n
t
tttt
n
t
t
n
t
n
t
tttt
n
t
t
n
t
t
tt
n
t
t
Comme 01
n
t
tx (on l’a déjà démontré), il résulte alors :
9
n
t
t
n
t
tt
x
x
1
2
111
ˆ
En passant à l’espérance mathématique, on trouve:
n
t
t
n
t
tt
x
x
1
2
111 )()ˆ(
n
t
t
n
t
tt
x
Ex
1
2
11)(
Or, d’après l’hypothèse (1),
tE =0
Finalement :
ˆ 11 E 1 : est un estimateur sans biais
Calcul de l’espérance de 0
On a :
Xˆ-Yˆ10
0
n
t
t
n
t
tt
x
yx
XY
1
2
1
10
.ˆ
ˆ
1
2
10
1
2
10
n
t
t
n
t
tt
tn
t
t
n
t
t
x
Yx
XY
YY
x
x
XY
D’ou
)3.....(..........
1ˆ
1 20 t
n
tt
t
t
t Y
x
xX
n
car
n
Y
Y
n
t
t
1
.
Or que :
ttt XY 10
donc :
t
n
tt
t
t
tt
n
tt
t
t
tn
tt
t
t
t
x
xX
nX
x
xX
nx
xX
n
1 2
1
1 21 200
111ˆ
t
n
tt
t
t
t
t
t
n
t
tt
x
xX
nx
Xx
XX
1 2
2
1
2
11100
1ˆ
Comme XxX tt on déduit :
11
t
n
tt
t
t
t
t
t
n
t
t
t
t
t
t
t
n
tt
t
t
t
t
t
n
t
tt
x
xX
nx
x
X
x
x
XX
x
xX
nx
Xxx
XX
1 22
1
2
12
12
1
2
2
1
2
1100
1 22
1
2
11100
1ˆ
1ˆ
On obtient alors :
t
n
tt
t
t
t
x
xX
n
1 2
0
1ˆ.
En passant à l’espérance mathématique, on trouve :
t
n
tt
t
t
t
t
n
tt
t
t
t
E
x
xX
nEE
x
xX
nEEE
1 200
1 200
1ˆ
1ˆ
0E = 0E car tE =0
Finalement 00 ˆ E 0 est un estimateur sans biais.
Calcul de la variance de 1
Par définition, la variance de ( 1 ) est donnée par :
2111 )ˆ( ˆ )ˆ(var
Et 11)ˆ( Ε .
12
d’un autre coté, on sait que :
Ce qui implique :
n
t
t
n
t
tt
n
t
t
n
t
tt
x
x
x
x
1
2
111
1
2
111
ˆ
ˆ
Alors on déduit que:
EE 2
111ˆ )ˆ( var
2
12
1
2
2
1
2
1 1
n
i
ttn
t
t
n
t
t
n
t
tt
xE
xx
x
nnnnnn
n
t
t
xxxxxxxE
x
112121
222
2
2
2
2
1
2
12
1
2
..2.....2.... 1
D’après les hypothèses (1) ,(2) ,et (3) du modèle de régression simple, on obtient :
222
3
22
2
22
1
2
2
1
2
1 ...........................1ˆvar n
n
t
t
xxxx
x
D’où :
n
t
t
n
t
t
n
t
t
xx
x
1
2
2
2
1
2
1
22
1ˆ var
.
Calcul de la variance de 0 :
D’après les propriétés de l’estimateur 0 on a :
13
t
n
tt
t
t
tt
n
tt
t
t
t
x
xX
nx
xX
n
1 2
00
1 2
00 1ˆ
1ˆ
Par définition, la variance de 0 est donnée par :
ˆ )ˆ( ˆ )ˆ( var2
00
2
000 ΕΕ .
Puisque 00 )ˆ( Ε nous obtenons :
2ˆ )0
ˆ( var 00 Ε
Alors on déduit que :
1 )ˆ( var
2
1
1
20
t
n
tn
t
t
t
x
xX
nE
1
1
2 1
ˆ var n1
1
1
2
1
2
1
1
2
1
1
20
n
n
tn
t
n
n
n
t
n
nt
n
tn
t
t
t
x
xX
nx
xX
nE
x
xX
nE
1
ˆ var
2
1
1
20
t
n
tn
t
t
t
x
xX
nE
D’après les hypothèses (1) ,(2) ,et (3) du modèle de régression simple, on obtient:
14
0ˆ var
n
t
n
t
t
t
x
xX
n1
2
1
2
2
1
Il résulte alors :
n
tn
t
t
t
n
t
t
t
x
xX
xn
xX
n
12
1
2
22
1
22
2
0
21 ˆvar
Puisque 01
n
t
tx alors :
n
t
t
n
t
t
xn
Xnx
1
2
1
22
2
0ˆvar
Et comme XxX tt donc on déduit que :
n
t
t
n
t
t
n
t
t
n
t
t
XXn
X
xn
X
1
2
1
2
2
1
2
1
2
2
0ˆvar
Conclusion
Les variances des paramètres 0 , 1 du modèle ttt XY 10 sont :
n
1tt
n
1t
2
t
εn
1t
2
t
n
1t
2
t
ε0
2XXn
X2σ
xn
X2β ˆvar
15
et
n
t
tx1
2
2
1 var
Calcul de la covariance de ( 0 , 1 ):
Par définition, la covariance ente ( 0 , 1 ) se calcule comme suit :
110110010 ββ ββE βE (β βE (β E )β,βcov ( ˆˆˆˆˆˆˆˆ
Comme ( 0 , 1 ) sont sans biais,
Alors :
n
t
t
n
t
tt
t
n
tn
t
t
t
x
x
x
xX
nE
1
2
1
1
1
2
10 1
)ˆ,ˆ( cov
2
1
2
1 1
1
2
1 110 )ˆ,ˆ( cov
n
t
t
n
t
n
t
tttt
n
t
t
n
t
n
t
ttt
x
xxX
xn
x
E
2
1
2
2n
1t
1
2
1 110 )ˆ,ˆ( cov
n
t
t
tt
n
t
t
n
t
n
t
ttt
x
x
EX
xn
x
E
D’après les hypothèses (1), (2) et (3) du modèle de régression simple, il résulte que :
16
n
t
tx
X
1
2
2
10ˆ,ˆ cov
.
I-6 : Théorème de Gauss Markov
Soit le modèle suivant : ttt XY 10
Par définition un estimateur de moindre carrée est un estimateur de Gauss Markov (blue)
s’il est sans biais, linéaire et possède une variance minimale. Pour démonter ce théorème, on définit
un autre estimateur linéaire sans biais sous la forme suivante :
n
t
ttYCb1
Par la suite on compare la variance de b avec la variance de 1 et celui qui a une variance
minimale on dira qu’il est le meilleur estimateur.
Démontrons d’abord est ce que 1 est linéaire et sans biais.
1 est-il linéaire ?
D’après les propriétés du paramètre 1 on a :
n
t
t
n
t
t
n
t
t
n
t
tt
n
t
t
n
t
tt
1
n
t
t
n
t
tt
1
x
x
Y
x
Yx
β
x
YYx
β
x
yx
β
1
2
1
1
2
11
1
2
1
1
2
1
ˆ
ˆ
ˆ
17
Comme
n
t
tx1
=0, on obtient :
n
t
t
n
t
tt
x
Yx
1
2
11 .
En posant
n
t
t
tt
x
xW
1
2
Alors 1 s’écrit sous la forme suivante :
n
t
ttt
n
t
t YWYA11
.
Ce qui fait que 1 est linéaire.
1 est –il Sans biais ?
On a :
tt
n
t
t
t
n
t
t
n
t
tt
XW
YEW
YWEΕ
10
1
1
1
1
)ˆ(
D’où :
18
t
n
t
tt
n
t
t
n
t
t1
n
t
tt
WEXWEWE)β(Ε
YWEβΕ
11
1
1
0
1
1
ˆ
)ˆ(
Connaissant que :
0)(et 0 , 0 11
t
n
t
t
n
t
t ExW
Alors :
t
n
t
t XWEΕ1
11 )ˆ(
Sachant que :
n
t
t
tt
x
xW
1
2
Ce qui fait :
) 1 .......(.......... )ˆ(
1
2
1
n
t
t
n
t
tt
11
x
Xx
EββΕ
Et comme on connait que XxXXXx tttt
Nous remplaçons la valeur de tX dans (1), nous obtenons:
19
. ˆ(
. ˆ(
. ˆ
1
2
1
1
2
1
2
1
2
1
1
2
1
n
t
t
n
t
t
1n
t
t
n
t
t
1
n
t
t
n
t
tt
11
n
t
t
n
t
tt
11
x
xX
E β
x
x
E)βΕ
x
Xxx
Eβ)βΕ
x
Xx
Eβ)βΕ(
Du moment que :
n
t
tx1
0 ,
Finalement 11)ˆ( Ε est un paramètre sans biais.
De ces deux démonstrations (linéaire et sans biais) on retient que :
1et 011
t
n
t
t
n
t
t XWW
1 possède t-il une variance Minimale ?
On suppose qu’il existe un autre estimateur sans biais linéaire définit comme suit
ttt
t
n
t
t
dWC
bE
YCb
avec
1
1
On a ttt XY 10
En passant à l’espérance mathématique:
20
)2.(..........
11
1
t
n
1t
t1
n
1t
t0
tt10
n
t
tt
n
t
t
βbE
XCEβ CE βbE
εXββCEYCEbE
Car 01
n
t
ttCE .
Pour que l’équation (2) soit vérifiée c'est-à-dire 1bE il faut que :
)4..(....................0
et
...(3)1..........
1
1
n
t
t
t
n
t
t
C
XC
Quand :
Quand :
1
)5......(;.........0et 000
1111
1111
n
t
tt
n
t
tt
n
t
ttt
n
t
tt
n
t
t
n
t
t
n
t
tt
n
t
t
XdXWXdWXC
dWdWC
Maintenant, nous calculons la b var :
Sous les conditions (3) et (4)) et d’après la définition de la variance on a :
21
2 var bEbEbEb (Sous les conditions (3) et (4))
D’un autre coté on a :
t
n
t
tt
n
t
t
n
t
ttt
t
n
t
tt
n
t
t CXCCXCYCb
11
1
1
010
11
21
Sous l’hypothèse, que les conditions (3) et (4) soient vérifiées :
t
n
t
tt
n
t
t CbCb
1
1
1
1 (c’est à dire t
n
t
t XC1
=1 et
n
t
tC1
=0 )
Nous obtenons :
2
2... 2....
................. var
1 1
2
1
2
2
112121
222
2
2
2
2
1
2
1
2
2211
2
1
n
t
n
t
ttttt
n
t
t
nnnnnn
nnt
n
t
t
CCCE
CCCCCCCE
CCCECEb
D’après les hypothèses du modèle de régression simple :
0 et ttt εεEE22
On déduit alors :
t
n
t
t
n
t
t
n
t
t
n
t
tttt
n
t
t
dWdWb
dWdWCb
11
22
1
22
1
222
1
22
2 var
2 var
Sachant que :
00 alors 01111
n
t
t
n
t
t
n
t
t
n
t
t dWdW
Et
01 alors 111111
n
t
tt
n
t
tt
i
n
t
tt
n
t
tt XdXWXdXW
On déduit :
0
1
2
1
1
2
1
1
2
1
1
n
t
t
n
t
t
n
t
t
n
t
tt
n
t
t
n
t
ttn
t
tt
x
d
X
x
dX
x
dx
dW
22
Ce qui résulte :
bvar =
n
t
t
n
t
t dW1
22
1
22
car (
n
t
tt dW1
0 )
Nous remplaçons tW par
n
t
t
tt
x
xW
1
2
on trouve donc :
bvar =
n
t
t
n
tn
t
t
t d
x
x
1
22
12
1
2
22
n
t
tn
t
t
n
t
t
d
x
x
b1
22
2
1
2
1
2
2var
D’où :
n
t
tn
t
t
d
x
b1
22
1
2
2
var
Or que :
n
t
tx1
2
2
1ˆvar
Finalement:
bvar = 1ˆvar
n
t
td1
22
.
23
On remarque que 1ˆvarvar b puisque 0
1
22
n
t
td
On conclut que le paramètre ( 1 ) à une variance minimale, ce qui fait qu’il est le meilleur
estimateur (estimateur blue).
Remarque
Même procédure pour le paramètre ( 0 ) :
On suppose
n
t
ttYAa1
avec ttt TVA tel que tt WXn
V 1
I- Estimation de la variance des erreurs
Soit le modèle de régression simple : ttt XY 10
Sachant que le résidu est :
ttt YYe ˆ
tt XY 10 ˆˆˆ
Et XY 10
On a :
tttt XXe 1010 ˆˆ
:obtienton , valeur sapar ˆ remplaceon 0
β
tt
tt XXYXe 1110ˆˆ
On remplace aussi Y par sa valeur on obtient :
XXe tt 1111ˆˆ
= XX t11ˆ
tt xe 11ˆ
Car XXx tt
24
D’où
2
111
1
2
n
ttt
n
tt xe ˆ
t
n
tt
n
tt
n
tt
n
tt xxe
111
1
22
111
2
1
22 ˆ ˆ
On passant à l’espérance
n
t
teE1
2 on obtient :
2222
1
2 221
nneEn
t
t
On déduit :
2
2
1
2
2
1
2
2
n
e
n
eE
n
t
t
n
t
t
ˆ
: finalement
2ˆ est un estimateur sans biais.
II- Analyse de la variance et le coefficient de détermination
Pour calculer le coefficient de détermination, nous démontrons d’abord les deux relations :
01
n
t
te La somme des résidus est nulle (la droite de régression passe par le point
moyen (cela est valable uniquement pour les modèles contenant le terme constant),
n
t
t
n
t
t YY11
ˆ , égalité entre la moyenne de la série à expliquer et la moyenne de la série
ajustée.
On démontre d’abord que : 0ˆ
11
n
t
t
n
t
t YYe
25
On sait que :
n
t
t
n
t
t
n
t
t
ttttt
eXnY
eXeYY
11
10
1
10
ˆˆ
ˆˆˆ
XnnYnen
tt 10
1
ˆˆ
On remplace 0 par sa valeur on obtient alors :
nXXYnYnen
tt 11
1
ˆˆ
D’où :
XnXnYnYnen
t
t 11
1
ˆˆ
Donc : 01
n
t
te
Puisque 01
n
t
te on déduit alors :
0ˆ0ˆ
1111
n
t
t
n
t
t
n
t
t
n
t
t YYYYe
On conclue :
YYYY
n
t
t
n
t
tˆˆ
11
A partir de ces deux équations nous pourrons déduire la fonction fondamentale d’analyse de la
variance.
26
On a :
ttttt eYYeYY ˆˆ
D’où :
ttttt
ttt
eYYeYYYY
YeYYY
ˆ ˆ
ˆ
2222
Passant aux sommes on trouve :
t
n
t
t
n
t
t
n
t
t
n
t
t eYYeYYYY )ˆ(2)ˆ()(11
22
1
2
1
Comme :
01
n
t
te
n
t
t
n
t
t YY11
ˆ
On déduit alors :
0)ˆ(1
t
n
t
t eYY
Il résulte :
n
t
t
n
t
t
n
t
t eYYYY1
22
1
2
1
)ˆ()(
Qu’on peut écrire comme suit
.......(1)....................
)ˆ()( 1
22
1
2
1
SCRSCESCT
eYYYYn
tt
n
tt
n
tt
(1) : Appelée équation l’analyse de la variance
27
Avec :
n
t
t YYSCT1
2 : désigne la variabilité totale
ˆ
2
1t
n
t YYSCE : désigne la variabilité expliquée
ˆ 1
2
1
2
n
t
t
n
t
t YYeSCR : désigne la variabilité des résidus
III-1 : Coefficient de détermination
De l’équation (1) on peut déduire le coefficient de détermination
SCT
SCR
SCT
SCE
SCT
SCR
SCT
SCE
SCT
SCT
1
)1(
D’ou
SCT
SCR
SCT
SCRR 12
10 2 R , plus la valeur de 2R est proche de 1, plus le modèle est plus significatif .
III-2 : Test des coefficients et les intervalles de confiances
Test des coefficients
Soit le modèle suivant : ttt XY 10
Dans notre cas on sait que
2
ˆ 1
2
2
n
en
t
t
………………..(1) et 2,0
Ni
28
De (1) on a :
n
tten
1
22ˆ2
2
2
ˆ22
1
2
2
2
n
en
n
tt
D’un autre coté on a :
n
ttx
εσ,βN
1
2
2
11
,
et N0
n
t
t
n
t
t
XXn
X
1
2
1
2
0
2
,
D’où on obtient les variables centrées réduites 1
Z et2
Z :
10
1
2
2111 ,
ˆ
N
n
tt
x
εσ
Z
Et
10
1
2
1
2
2
200 ,
ˆ
N
n
t
Xt
Xn
n
tt
X
Z
D’après la définition de la loi de Student qui est : le rapport d’une loi centrée réduite et la
racine carrée d’une loi de khi deux divisée par le nombre de ses degrés de liberté
On appliquant cette définition on obtient alors :
29
On obtient finalement :
2
%,ˆ
ˆ
2
ˆ
11
1
nC TT ……………….(3)
Même procédure pour 0
, on obtient
2
%,ˆ
ˆ
2
ˆ
00
0
nC TT ……………………………….(4)
A partir des résultats (3) et (4) on peut effectuer les tests d’hypothèses suivants :
0
0
01
00
:
:
H
H et
0
0
11
10
:
:
H
H
Règle de décision et la construction du test des paramètres
test du paramètre 1
Le test du paramètre 0 consiste à tester l’hypothèse suivante :
0:
0:
11
10
H
H (Appelé test bilatéral)
Sous l’hypothèse 0: 10 H , on obtient la valeur critique ( cT ) tel que :
2
1
2
111
2
2
1
ˆ
ˆˆ
2
ˆ 2
n
n
tt
c
c
T
x
ZT
n
n
ZT
30
2%
1
,2ˆ
11
ˆ
ˆ
n
tc TT
Avec :
cT : désigne la valeur critique de la statistique (T ) (dite calculée).
1 : désigne la valeur estimée du paramètre 1 .
1
ˆˆ
: désigne la valeur de l’écart-type du paramètre 1 .
: Le seuil donné. (En général = 5%)
n-2 : degré de liberté
tT : désigne la valeur de la statistique Student (T ) lue à partir de la table statistique.
Règle de décision
Si 05,0
tc TT on accepte l’hypothèse H0 : la variable xi n’est pas contributive à
l’explication de Y.
Si05,0
tc TT on accepte l’hypothèse H1 : la variable xi est contributive à
l’explication de Y.
Test du paramètre 0
Tester paramètre 0 revient à réaliser l’hypothèse suivante :
0
0
01
00
:
:
H
H (Appelé test bilatéral)
Sous l’hypothèse 000 :H , on obtient la valeur critique ( cT ) tel que :
22
0
00%
,
ˆˆ
ˆ
ntc TT
31
Avec :
cT : désigne la valeur critique de la statistique (T ) (dite calculée.) .
0 : désigne la valeur estimée du paramètre 0 .
1
ˆˆ : désigne la valeur de l’écart-type du paramètre .
: Le seuil donné. (En général = 5%)
n-2 : degré de liberté
tT : désigne la valeur de la statistique Student (T ) lue à partir de la table statistique
Règle de décision :
Si 05,0
tc TT : alors on accepte l’hypothèse H0 : le modèle ne contient pas de
constante.
Si 05,0
tc TT : alors on accepte l’hypothèse H1 : le modèle contient la constante.
Remarques importantes
Lorsque on effectue les tests d’hypothèses bilatéraux des deux paramètres et suivants :
aH
aH
01
00
:
: et
bH
bH
11
10
:
:
On prend le seuil : 2
%
Par exemple sous l’hypothèse 010 :H , la valeur critique cT tel que :
1
1
ˆˆ
ˆcT est appelée le ratio de student .
Lorsque on effectue les tests unilatéraux des deux paramètres et c'est-à-dire les tests
d’hypothèses suivants :
32
. aaH
aH
001
00
,:
: et
bbH
bH
111
10
,:
:
On prend le seuil % .
Intervalles de confiances des paramètres 1 et 0
Les intervalles de confiances des paramètres et au seuil donné (au niveau de confiance
( 1 )) sont donnés par :
Intervalle de confiance 1 :
1
121
1211 ˆ
ˆˆˆ Pr ˆ
ˆ TT
Intervalle de confiance 0 :
1
02
002
0 ˆˆˆˆˆ Pr ˆ TT
Intervalle de confiance de 2
On a :
2
22
221
2
2 2
2
n
n
t
tSn
Sn
e
D’où
12
22
22
1
2 Pr
Sn
1
2
2
2
2
2
2
2
1
2
2
2 Pr
Sn
Sn
Sn
On obtient :
33
1
2
1
22
2
2
222 SnSn
Pr
III-3 : Analyse de la variance et test de Fisher
On a déjà définit S C RS C ES C T e t , , ses sommes peuvent être utilisées pour tester
l’hypothèse suivante :
0
0
1
0
i
i
H
H
:
:
Sous l’hypothèse :
00 iH :
On a :
2 1 nSCTE
21 SCEE
22 nSCRE
Avec, 1n , 1 et 2n des degrés de libertés de SCRSCESCT et , respectivement.
D’autre part, lorsque 0H est vérifiée on a :
2
11
nn
SCT ,
2
22
nn
SCR
et 211
SCE
34
Du moment que 2
SCE et 2
SCR sont indépendants, on peut déduire donc valeur critique
F(Fisher) qui se définit comme suit : C’est le rapport entre deux Chi deux ( ) indépendants et
leurs degrés de libertés ;
Alors on obtient :
% , ,
211
2
2
1
2
1
2
2
nTC F
SCR
nSCE
nSCR
SCE
n
SCR
SCE
F
Avec :
CF : désigne la valeur critique de Fisher calculée.
TF : désigne la valeur de Fisher lue à partir de la table statistique de Fisher aux degrés de
libertés.
(1, 2n ),se sont des degrés de libertés.
% : Le seuil donné.
Règle de décision
Si % , , 21 nTc FF on rejette l’hypothèse 0H , cela signifie que, 1H est
acceptée :
c'est-à-dire le modèle est globalement significatif.
Si % , , 21 nTc FF on rejette l’hypothèse 1H , cela signifie que, 0H est
acceptée :
c'est-à-dire le modèle n’est pas globalement significatif.
35
Tableau d’analyse de la variance
III- Prévision à l’aide d’un modèle de régression simple
Une fois les paramètres du modèle ; ttt XY 10 ; sont estimés ,le modèle est validé ,il
est possible d’effectuer les prévisions à l’horizon h .
Soit le modèle estimé sur la période nt ................1 alors
nn XY 10 ˆˆˆ
Si la valeur tX est connue en ( hn ) alors la prévision de la valeur estimée tY à la
l’horizon ( hn ) se calculera par l’équation suivante :
hnhn XY 10 ˆˆˆ
Comme on peut calculer l’intervalle de confiance de hnY .
Sachant bien sûr la valeur de la variance de l’erreur de prévision qui est :
Source de
variation
Sommes des
carrées
Degré de
liberté
Moyenne des
carrées
F calculé
Variabilité à
expliquer X ˆˆ
1
2
n
t
YYSCE 1k
regMCSCE 1
res
regc MC
MCF
Variabilité
résiduelle
1
2n
t
teSCR
n
t
YY1
2ˆ
2n
reSMC
nSCR
2
Variabilité totale
n
t
YYSCT1
2
1n
36
1
1ˆˆ
1
2
2
2
n
t
t
hnhnhnhn
x
XX
nYYVareVar
D’où l’intervalle de confiance de la variable hnY au seuil %1 est :
1
1ˆˆ
1
2
2
22 n
t
t
hnnhnhn
x
XX
nTYY
Avec :
22
nT : désigne la valeur de T Student lue à partir de la table statistique au seuil (2
) et
au degré de liberté ( 2n ).
: désigne l’écart-type de l’erreur en valeur connue.
hnX : désigne la valeur de la variable exogène à l’horizon ( hn ).
hnY ˆ : désigne la valeur de la variable endogène estimée à l’horizon ( hn ).
37
Séries d’exercices sur le Modèle de régression simple
Exercice 1
Soit le modèle de régression simple : Y t = α0 + α 1Xt + t
1- Que désigne le terme d’erreur dans ce modèle
2- Peut – on considérer ce modèle, un modèle de régression multiple ? justifier votre réponse.
3- Déterminer la distribution de y
4-Estimer les paramètres de ce modèle et calculer leurs variances
5-Montrer que σ2
=
est un estimateur sans biais de σ2
Exercice : 2
Une grandeur économique y est expliquée par une autre variable dont la relation est la suivante : yt
= axt + t
On vous propose les trois estimateurs suivants :
y
â1 = —
x
t =1,……………T
1- Parmi les trois estimateurs proposés, lequel correspond à l’estimateur de la relation donnée ?
2- Montrer que ces estimateurs sont sans biais
3- Quelle hypothèse du modèle de régression simple n’est pas vérifier dans ce modèle ?
4- Déterminer la variance de l’estimateur trouvé dans la première question.
Exercice :3
Sur un échantillon de 10 observations l’étude de la relation existante entre la quantité de biens
produite par le salarié et le nombre d’heures travaillées a donné le résultat suivant :
Ýt= 3,60 + 0,750 Xt
(2, 090) (0 ,255) ( ) : écart-type et SCR= 14 ,650 SCE= 1,353
Ou Yt : quantité de biens produites (par le salarié)
Et Xt : est le nombre d’heures travaillées (par salarié)
1- Interpréter cette régression
2- le coefficient affecté au nombre d’heures travaillées ( par salarié) est-il significativement
différent de zéro ? Commenter. Donner son intervalle de confiance à 95%.
3- calculer le coefficient de détermination et interpréter
T
xtyt
â2 = T=1
T
xt2
T=1
T
(xt - x)(y t -y)
â3 = T=1
T
(xt -x)2
T=1
38
Exercice 4
A l’aide de données sur 35 entreprises, on souhaite estimer le modèle suivant :
y t = β0 + β1x t+ t
Où y t est le montant des ventes (en millions de dollars) de l’entreprise i et xt le montant de
dépenses de publicité (en millions de dollars) faites par cette firme. On a obtenu les résultats
suivants :
y t = 120 + 1,2 x t + et
(40) + ( 0 ,4)
En dessous des coefficients estimés, figurent les écarts-type estimés des coefficients estimés,
en outre, des calculs intermédiaires conduisent aux résultats suivants
et 2
= 1320 (Yt -Y )
2 = 2400
1- Interpréter économiquement les estimations du modèle?
2- Calculer le R2. Dites comment il s’interprète ?
3- Peut –on accepter au seuil de 5% ,l’hypothèse que les dépenses publicitaires n’ont
pas d’impact sur les ventes ?. commenter
4- Tester au seuil de 5% la significativité globale du modèle. conclusion
5- Calculer l’intervalle de confiance à 95% du coefficient de la constante. Que pensez
vous ?.
6- Calculer une prévision des ventes de l’entreprise si le montant des dépenses de publicité
est de 10 millions de dollars.
7- Que pensez de la relation estimée ?.
Exercice 5
Nous intéressons à une éventuelle relation entre la note obtenue en économétrie et celle de
statistique de l’année précédente. Soit le modèle : y i = β0 + β1 x i+ i
yi = note obtenue en économétrie pour l’individu i ,
xi = note obtenue en statistique l’année précédente pour l’individu i,
β 0 et β1 = paramètre du modèle à estimer, i = terme d’erreur répondant aux hypothèses
classiques
Pour ce faire, nous prenons un échantillon de 97 étudiants et nous estimons deux modèles :
l’un pour 54 garçons et l’autre pour 43 filles.
Les résultats sont les suivants :
Modèle 1 : pour les garçons Modèle 1 : pour les filles.
y i = 3 ,3 + 0,81 x i + e i (2,12)
n = 54
R 2
= 0,84
y i = 1,5 + 1,5 x i + e i (3,20)
n = 43
R 2
= 0,87
(.) Ratio de student
1- existe-il une relation significative entre la note de statistique et celle d’économétrie ?
Commentaire.
2-Tester l’hypothèse H0 : β1 = 1 contre l-hypothèse H1 : β 1 ≠ 1 . Interpréter.
3-existe-t-elle une différence significatives entre la notation des garçons et des filles.
4- Que pensez-vous des deux modèles, justifiez votre réponse.
39
Chapitre II : Les modèles de régression multiple
II- 1 : Le modèle linéaire générale
1- Présentation
Le modèle générale est une généralisation du modèle simple dans lequel figurent plusieurs
variables explicatives :
ntxxxY tktkttt ............ ...,................................. 122110
Avec :
tY = variable à expliquer a la date t
tx1 = variable explicative 1 à la date t .
.
.
.
tkx = variable explicative k à la date t .
avec : k ......................,, 210 : paramètres du modèle.
t Erreur de spécification elle est inconnue et restera inconnue.
n = nombre d’observations
2- la forme matricielle :
Pour faciliter l’écriture de certains résultats, on a habituellement recours aux notations matricielles
en écrivant le modèle observation par observation, nous obtenons :
..................................... 1121211101 kk xxxY
........................................... 2222212102 kk xxxY .
….
….
..........................................22110 tktkttt xxxY .
40
......................................22110 nknknnn xxxY
Soit sous la forme matricielle :
11111 ,,,),,( nkknnBXY
Avec :
n
k
n
Y
Y
Y
Y
Y.
.,
2
1
1 ;
k
t
B
.
.
1
0
;
nknn
kttt
k
k
xxx
xxx
xxx
xxx
X
..
......
..
......
..
..
21
21
22212
12111
1
1
1
1
;
n
t
.
.
2
1
Avant d’estimer le modèle, on cite d’abord les hypothèses sur lesquelles il se repose.
3- Les hypothèses
Le modèle repose sur les hypothèses suivantes
H0 : les valeurs xi t sont observées sans erreurs.
H1 : E (εt ) = 0 espérance nulle
H2 : E ( εt2
) = σε2
(la variance de l’erreur est constante t .
H3 : E (εt ε’t ) = 0 si t ≠ t’ ( indépendance des erreurs )
H4 : Cov (xi t , εt ) = 0 (erreur indépendant des xi t )
H5 : absence de colinéarité entre les variables explicatives ( XX ) régulière et ( XX )-1
existe
.
H6 :
n
XX tend vers une matrice finie non singulière
H7 : n > k+1 : nombre d’observations est supérieur aux nombre des séries explicatives.
41
4- Estimation et propriétés des estimateurs :
Estimation des coefficients de régression :
Soit le modèle : ttt ΒXY ………………..(1)
Afin d’estimer le vecteur ( B ) composé des coefficients k ......................,, 210 nous
appliquons la méthode des moindres carrées ordinaire (MCO) qui consiste à minimiser la somme
des carrées des erreurs, soit :
)2.........(ˆˆ
1
2 MinSΒXYBXYMinMinMinn
t
t
Avec ε’ : est le transposé du vecteur ε
Pour minimiser cette fonction par rapport au vecteur ( B ) nous différencions S par rapport au même
vecteur et on obtient :
0ˆ22
BXXYX
B
S YXXXB
1ˆ
Avec XX matrice de dimension (k+1, k+1) est inversible.
Le modèle estimé s’écrit :
ttkktt exxxY
.......ˆˆˆ22110 Avec : ttt YYe ˆ
Ou te : résidu : est l’écart entre la valeur observée de la variable à expliquée et sa valeur
estimée, elle est connue.
42
Propriétés des estimateurs :
Estimateur sans biais :
Soit le modèle BXY
On peut s’écrire :
ΒXY
eΒXY
ˆˆ
ˆ YYe ˆ
Nous obtenons :
ΒXXXXYXXXΒ11ˆ
XXXΒXXXXΒ 11ˆ
XXXΒΒ 1ˆ
XXXΒΒ 1ˆ …………(3)
D’où
EXXXΒΒE 1ˆ avec : 0E
Finalement
ΒΒE ˆ l’estimateur est sans biais.
5- Estimateur de la variance de l’erreur et la matrice de variance covariance des
coefficients de régression :
On a :
)ˆ(v =
ˆˆE …………………………..(4)
En remplaçant (3) dans (4) on obtient :
)ˆ(v = 2
( 1 XX XX 1
XX ) =
2
( 1 XX
43
Avec
2
matrice diagonale =
2
2
2
2
0..00
0.....
......
..00.
0..00
0...0
Et puisque 2
est inconnu donc on l’estime.
Estimateur de la variance de l’erreur :
Soit le modèle : ii BXY
On a YYe ˆ
Y = X d’où )1(..........XYei
En remplaçant YXXXB 1ˆ
dans l’équation (1) on aura :
)1()()(
)(,o
)()(
212
2
t
1
11
alors
eidempotent Matrice posen
knIXXXXITrIeeE
MMMeee
XXXXIM
YXXXXIYXXXXYe
nn
T
On obtient alors :
1
ˆ 2
kn
ee
Avec: 12ˆ)ˆvar(
XX matrice variance -covariance
44
6- Equation d’analyse de la variance et qualité d’un ajustement :
D’après le chapitre précédent on a
1) YYYY ttˆˆ
2) 0te
De ces deux relations nous déduisons l’équation fondamentale de l’analyse de la variance
:
t t t
ttt eYYYY 22
2 ˆˆ
SCT = SCE + SCR
Avec : SCT : variabilité totale
SCE : variabilité expliquée
SCR : variabilité résiduelle.
Cette équation permet de juger la qualité d’ajustement d’un modèle, en effet plus SCE est proche
du SCT meilleur est l’ajustement globale du modèle. Cependant ces valeurs dépendent des unités
de mesure, c’est pourquoi on préfère utiliser le nombre sans dimensions :
t
t
t
t
YY
YY
R2
2
2
ˆ
= 1-
t
t
t
t
YY
e
2
2
2R Coefficient de détermination : mesure la proportion de la variance de Y expliquée par la
régression de Y sur X
Si kn alors on calcule le coefficient de détermination corrigé
221
1
11 R
kn
nR
On a 22 RR et si n est grand
22 RR
45
7- Les tests statistiques :
Le test de student : tester l’influence directe de la variable explicative sur la variable
endogène, revient à tester son coefficient de régression s’il est égale ou différent de 0, pour
un seuil choisi, en général = 0,05.
Le test d’hypothèse est le suivant : est appelé (test bilatéral)
0:
0:
1
0
i
i
H
H
La statistique de student est la suivante :
2
%,
1
ˆ
ˆ
kn
TTi
iicc
Règle de décision
Si 05,0
tc TT on accepte l’hypothèse H0 : la variable xi n’est pas contributive à
l’explication de Y.
Test unilatéral : ce test est utilisé lorsque 0,0:1 ii ouH ( voir le chapitre précédant)
%,1ˆ
ˆ
knTT
i
iicc
Test de Fisher (test de signification globale du modèle de regression ) :
Pour tester si l’ensemble des variables explicatives ont une influence sur la variable à expliquée, on
fait le test d’hypothèse suivant :
H0 : k ......................,, 21 = 0
46
H1 : il existe au moins i, ≠ 0 ni ...............:1
A partir de l’équation de l’analyse de la variance on
ˆ 1t
n
t
n
tt
n
t
t eYYYY1
22
1
2
)(..........
ˆ
ou d'
ˆ
2
11
1
1
1
2
2
1
2
1
2
kn
SCR
kn
e
k-n-
eEYY
n
t
t
n
t
t
n
t
t
Et d’après la définition d’un khideu on a :
2
12
2ˆ1
kn
kn
……….(2)
De (1) et (2) on obtient
2
1222
2
)1(
)1(ˆ1
kn
SCR
kn
SCRknkn
De même pour SCE et SCE
47
2
2
2
22
2
1
2
k
n
t
t
k
SCEk
k
k
SCE
kYY
ˆˆ
ˆˆE
Puisque 2
1kn et 2
k sont indépendants alors :
Sous H0 :
%),,(
ˆˆ
1
11
1
1
2
2
2
1
2
1
2
1
2
knkF
knR
kR
kn
k
kn
e
k
YY
F
t
kn
k
n
t
t
n
t
t
c
Règle de décision
Si Fc > Ft α%
on rejette H0, et on accepte H1, le modèle est globalement
significative.
La régression est jugée significative si la variabilité expliquée est significativement différente de 0.
48
Tableau d’analyse de la variance
Source de
Variation
Sommes des
carrées
Degré de
liberté
Moyenne des
carrées
F calculé
tktt xxx ,.......,, 21
2
2
ˆ
)ˆˆ(
YnYX
YYSCEt
k regMC
kSCE
res
regc MC
MCF
Variabilité
résiduelle
YXYY
eSCRt
t
2
1 kn
reSMC
knSCR
1
Variabilité
totale
YnYY
YYSCTt
t
2)(
1n
8-La prévision dans le modèle de la régression multiple :
Le problème consiste à déterminer quelle valeur doit être attribuée à la variable endogène
lorsque nous connaissons les valeurs des variables exogènes.
Le modèle général estimé est le suivant :
tkktt exxY 1110ˆ.........ˆˆˆ
La prévision pour la datte t+h est la suivante :
hthtkkhtht exxY ˆ.........ˆˆˆ110
L’erreur de prévision est donnée par :
),0(ˆ 2
htehththt NYYe
L’intervalle au seuil de probabilité )( 1 est donné par la formule suivante :
111
2
hthththt XXXXTYY kn )(ˆ ˆ ,
Considérant que les hypothèses du modèle linéaire général sont vérifiées, la prévision est sans
biais.
49
9- Cas de violation des hypothèses
Test de détection d’une multicoliéarité
Test de Klein
Le test de Klein est fondé sur la comparaison du coefficient de détermination 2R calculé sur le
modèle à k variables et les coefficients de corrélation simple 2
,xjxir entre les variables
explicatives pour i ≠ j.
Si
xjxirRy ,
22 : Il y a présomption de multi colinéarités
Test de Farrar et Glauber
La première étape consiste à calculer le déterminant de la matrice des coefficients de corrélation
entre les variables explicatives.
Lorsque la valeur du déterminant D tend vers zéro, le risque de multi colinéarité est important.
Exemple 1 : on dit que deux variables explicatives sont parfaitement corrélées quand :
La deuxième étape consiste à effectuer un test 2 selon les hypothèses suivantes :
) l ( 1:
) l ( 1:
sdépendantesont series es
esorthogonalsont series es
:1
0
DH
DH
50
la valeur empirique du 2 est calculée à partir de l’échantillon
LnDKn
52
6
112
n : La taille de l’échantillon
1 KK Nombre de variables explicatives (terme constant inclus)
Ln = logarithme népérien
Règle de décision :
Si 2 2 Lu dans la table à )1(2
1KK degrés de liberté et au seuil %, alors
L’hypothèse 0H est rejetée, il y a donc présomption de multi colinéarité.
Si 2 2 : Nous acceptons l’hypothèse d’orthogonalité.
Autocorrelation des erreurs : lorsque les erreurs sont corrélées cela veut dire que
Cov (εt , εt’) ≠ 0 les estimateurs obtenus par la méthode les moindres carrée ordinaire ne sont
plus de variance minimale, en effet :
)var( =
ˆˆE = 11
XXXEXXX
)var( = 11 XXXXXX >
2
(X’X)-1
Avec :
..
....cov
......
......
......
.....,cov
,cov...,cov
1,
12
1211
nn
n
v
v
51
Test de détection de l’autocorrelation des erreurs :
Test de Durbin et Watson (DW) :
Ce test permet de détecter une autocorrelation des erreurs d’ordre 1 de la forme suivante :
ttt v 1 Avec : 20 ,Nvt
Le test d’hypothèse est le suivant :
0H : 0
1H : 0
La statistique de DW est la suivante :
n
t
t
n
t
tt
e
ee
DW
1
2
2
2
1
Ou
te : est le résidu de l’estimation du modèle.
On a : 0 < DW < 4
Afin de tester l’hypothèse 0H , Durbin et Watson on a tabulé les valeurs critiques de DW au
seuil de 5 % en fonction de la taille de l’échantillon (n) et du nombre de variables explicatives (k)
.la lecture de la table permet de déterminer deux valeurs d1 et d2 comprises entre 0 et 2 qui
délimitent l’espace entre 0 et 4 selon le schéma suivant :
0 ________d1__________d2________2________4-d2_______4-d1______4
> 0 ? = 0 = 0 ? < 0
d2 < DW < 4- d2 = 0 : pas d’autcorrélation des erreurs.
0 < DW < d1 on rejette H0 : > 0 : l’existence d’autocorrelation
4- d1 < DW< 4 on rejette H0 : < 0 : l’existence d’autocorrelation
d1 < DW< 2 ou 4- d2 < DW< 4 - d1 zone de doute.
52
Correction de l’autocorrelation :
Dans le cas de l’auto corrélation des erreurs on utilise la méthode des moindres carrée généralisée
(MCG) ou estimateur de AITKEN donnée par :
YXXX 111ˆ
Et 11
ˆ
XXa
Remarque : l’auto corrélation est peut être causé par une mauvaise spécification du modèle
Hétéroscedasticité des erreurs :
Lorsque les variances de l’erreur ne sont plus de variances constantes sur la première diagonale
c. a .d :
2
2
2
2
1
0..00
0.....
.....
....0.
....0
0...0
,
2
n
i
E
On dit qu’il y a un problème d’hétéroscédasticité et les conséquences de ce problème est le
même que dans l’autocorrelation des erreurs et qui sont :
estimateur sans biais
l’estimateur de MCO ne possède plus de variance minimale
Correction de l’heteroscedasticité :
53
L’estimateur BLUE du modèle heteroscedastique est alors celui des MCG :
YXXXa 11
ˆ
11
ˆ
XXa
Test de détection de l’heteroscedasticité :
Il existe plusieurs tests de détection de l’héteroscedasticité parmi ces tests, le test de White
fondé sur une relation significative entre le carrée du résidu et une ou plusieurs variables
explicatives en niveau et au carré au sein d’une même équation et régression :
tktktkkttttt vaxbxaxbxaxbxae 0
22
2222
2
1111
2 .......
Si l’un de ces coefficients de régression est significativement différent de 0 alors on accepte
l’hypothèse d’heteroscedasticité.
Nous pouvons procéder à ce test à l’aide de test de Fisher de nullité des coefficients :
0H : 0.......2211 kk bababa
Si on refuse 0H alors il existe un risque d’héteroscedasticité.
Comment remédier à la multicolinéarité
Augmenter la taille de l’échantillon : Cette technique n’est pas efficace que si l’ajout
d’observations diffère significativement de celles figurant déjà dans le modèle.
La « Ridge Régression » : est une réponse purement numérique, il s’agit de transformer la
matrice XX en cIXX
Sélection du modèle optimal
Dans la pratique, l’économètre est souvent confronté aux choix de plusieurs variables
explicatives 1x , 2x …, kx choisies pour expliquer la variable endogène Y .
Plusieurs outils statistiques nous permet de déterminer quelles variables à retenir ou
quelles variables à exclure dans un modèle.
54
Cependant, cette démarche peut aboutir à un raisonnement non économique car elle
permet d’aboutir à des modèles économétriques qui sont souvent bons sur le plan statistique
mais en contradiction avec la réalité économique.
Ces techniques de sélection de variables explicatives sont donc à manier avec
prudence.
Par ailleurs, la question du choix d’un meilleur modèle est posé sachant qu’il existe
plusieurs en concurrence dont les variables sont toutes significatives mais qui ne sont pas les
mêmes.
Généralement, dans la pratique on choisit le modèle dont le R² (coefficient de
détermination) est le plus élevé.
Cependant, ce critère à un inconvénient qui est de ne pas arbitrer entre la perte de degrés
de liberté du modèle et l’ajustement qui en résulte.
C’est pourquoi on préfère utiliser les critères d’AKAIKE ou SCHWARZ afin de
comparer des modèles impliquant un nombre différents de variables explicatives.
10- Les étapes pour effectuer une régression :
Définir l’équation à estimer
La première étape consiste à déterminer ce que l’on cherche a modifié c’est à dire la variable
endogène Y et les éléments qui expliquent les variations de cette variable c a d les variables
explicatives Xi.
Cette première étape repose donc sur une étude économique du problème à traiter et sur la
recherche d’information statistique .le tracé des graphiques de l’évolution de chaque série
sélectionnée permet de comparer l’ampleur de leurs fluctuations ainsi que de mettre en évidence des
décalages dans leurs variations.
Choix de la méthode d’estimation
La méthode de régression la plus fréquemment utilisée est la méthode des moindres carrées
ordinaire puisqu’elle permet (si les hypothèses sont vérifiées) d’obtenir le meilleur estimateur
linéaire sans biais. On utilise d’autres méthodes d’estimations lorsque les hypothèses ne sont plus
vérifiées, ceci se produit généralement après avoir effectué une première régression avec les MCO.
55
Examen des résultats de la régression
Après avoir effectué une régression deux types de résultats sont à contrôler avant de les
exploiter :
résultats économiques
résultats statistiques
Le premier élément à contrôler est la pertinence des coefficients obtenus par la régression, il
est ainsi impossible de trouver une propension marginale supérieur à 1, il ne faut pas tomber dans
l’excès inverse : la régression n’est pas faite pour se conforter dans les résultats que l’on souhaite.
Les résultats statistiques sont exploités au moyen de tests, à chacun des problèmes décelés
correspondent une réponse spécifique.
Le souhait d’obtenir de bons résultats statistiques ne doit pas conduire à utiliser des variables
qui ne sont pas justifiées d’un point de vue économique ou à omettre des variables pertinentes.
56
Exercices sur le Modèle de régression multiple
Exercice1
On utilise le modèle de régression linéaire multiple : Y= β0 + β1X 1+ β2 X2 +
1-Compléter le tableau d’analyse de la variance suivant :
Source de
variation
Degrés de
liberté
Somme des
carrés
Moyennes des
carrés
Fc
régression 1504,4
résiduelle 19,6
totale 1680,8
2- tester l’hypothèse H0 β1 = β2 = 0
3- quel est le R2 du modèle.
4- donner une estimation de la variance de
Exercice 2
La relation entre la consommation des ménages, le revenu, et les impôts, respectivement est
exprimée par le modèle suivant : y t = β0 + β 1x t 1 + β2 x t 2+ t
Un sondage auprès de n ménages choisis au hasard a donné les résultats suivants :
(X t X) =
10..
020.
02030
, (X t Y) =
10
20
15
et (Y t Y) = 59, 5
1-Donner les valeurs manquantes et la valeur de n .
2 - Estimer les paramètres de ce modèle ? Interpréter les résultats économiquement.
3 - Tester au seuil de 5 % l’hypothèse suivante : β2 = - β 1. Cette hypothèse vous parait-elle
réaliste du point de vue économique ?
4 -Que devient le modèle si on la suppose justifiée ?
5- Tester au seuil de 5% la significativité globale du modèle. Conclusion
6 -Calculer le coefficient de détermination. Dites comment il s’interprète, que pensez-vous de ce
modèle
57
Exercice 3
Sur un échantillon de 44 observations ,la relation qui explique la demande de refinancement des
banques (RF) par l’indicateur de rentabilité des crédits donnés par les banques , les réserves exogènes
des banques (REX) et les réserves obligatoires ( RO) est la suivante :
teROREXRF 797,3)log(402,0)log(332,0054,0)log(
(0 ,032) (0,196) (0,044) (0,867)
En dessous des coefficients estimés, figurent les écarts-type estimés des coefficients estimés, en
outre, des calculs intermédiaires conduisent aux résultats suivants :
44
1
2 04,1T
te SCT = 11,954
1-Interprétez d’un point de vue économique les estimations du modèle ? Que pensez-vous ?
2- Calculez le R2. Dites comment il s’interprète ?
3- Peut –on accepter au seuil de 5%, et au seuil de 1% l’hypothèse que chacun des coefficients
a un impact sur le refinancement des banques ? Comparez les résultats et commentez.
4-Testez au seuil de 5% la significativité globale du modèle. Conclusion.
5-Dressez le tableau d’analyse de la variance
Exercice 4
Les estimations des MCO sont les suivantes : cons t = 30000+ 0,20 revenu t - 70 iprix t
T = 1,………………,40 R2
= 0, 8526
9000000 -0,11 0,002
De plus, on a calculé V(B) = ( Xt X)
-1 = 0,002 0,003
2500
1) Que pensez – vous de ce modèle et des estimations obtenues.
2) Testez, au seuil de 5% l’hypothèse que l’indice des prix des biens alimentaires a un impact
sur la consommation alimentaire.
3) Testez au seuil de 1% ?l’hypothèse que β2 est inférieur ou égal à 0,15.
4) Testez, au seuil de 5%, la signification globale de ce modèle.
a. Donnez la prévision pour la consommation y0, sachant que l’indice du prix de la
consommation alimentaire se fixera à 200 et que le revenu disponible réel des
ménages se fixera à 100000 dollars.
5) En admettant que = 250 et que X ( Xt X)
-1 X = 15, calculez l’intervalle de confiance
à 99% de la prévision de Y0.
58
Bibliographie
ARNAUD-R & NICOLAS-V, « Econométrie, théorie et application », NATHAN, Paris,
1998.
Bourbonnais Régis : Économétrie 2eme édition Dunod 1998.
Bourbonnais Regis : exercices pédagogiques d'économétrie Ed .Economica 2008
Bourbonnais. Régis, « économétrie, » 2e édition DUNOD, Paris 1993.
CADORET.I, BENJAMIN.C, MARTIN.F, HERRAD.N et TANGUY.S, « Econométrie
appliquée ; méthodes applications corrigés », Edition de bœck université, Paris, 2004.
CASIN.P, « Econométrie, méthode et application avec Eviews », Edition TECHNIP, Paris,
2009.
Damodar N. Gujarati : Économétrie Ed : De Boeck université 2004
DOR .E, économétrie, Synthèse de cours et exercices corrigés, collection synthex , Pearson
Education France, 2004 ;
Georges Bresson et Alain Pirotte « Econometrie des séries temporelles : Théorie et
applications », Ed presses universitaires de France, 1995
Greene, W, économétrie, 5e edition , New York university, Pearson Education France
,2005.
Guillaume Chevillon, « Econometrie » ,OFCE & Univ of Oxford, HEC 2005
Isabelle cadoret, Catherine Benjamin : Économétrie appliquée méthodes-applications Ed De
Boeck 2004.
Larousse C : Introduction à l’économétrie- Maîtrise D’économie, Edition Dunod – Paris
1972.
Laudia Aroujo et al , « Econométrie : Repères- Cours – Applications », Edition Bréal ,2004.
Stephen Bazen Mareva Sabatier: Econométrie des fondements à la modélisation Ed Vuibert
2007.