Loi de Poisson Cours

22
Mathématiques appliquées à l’économie leçon 12 Leçon 12 : la distribution de la loi de Laplace Jusqu’à présent, nous avons présenté deux distributions (lois de Poisson et Binomiales ) de variables dont les modalités sont des nombres entiers. On dit que ce sont des variables discrètes. Maintenant, nous allons attaquer des variables qui suivent des lois continues. La différence ? Il ne s’agit pas ici de rentrer dans des considérations mathématiques compliquées. Prenons deux exemples typiques : exemple 1 Denis vient d’acheter une poule « bonne pondeuse » : il espère ainsi ne plus avoir à acheter d’œufs pour sa consommation personnelle. Au cours d’une semaine, la poule donnera un nombre d’œufs X qui peut varier entre 0 et 7. exemple 2 Roger possède un élevage de 12000 poules pondeuses. Chaque jour, il obtient un nombre Y d’œufs qui varie entre 8000 et 12000 exemple 3 Denis vient de planter un arbre : on lui a assuré que la hauteur Z de cet arbre à maturité sera d’environ 5 mètres. Dans le premier exemple, il est important de savoir si la poule donnera 5 ou 2 œufs. Il n’est pas équivalent de dire que la probabilité d ’avoir 2 œufs est de 0.25 ou de 0.37. Dans le second exemple, il nous importe peu de savoir que la récolte du jour soit de 8543 ou 8544. Ce qui est intéressant, c’est plutôt de savoir si il y aura entre 8500 et 9000 œufs ou entre 10500 et 11000. Dans le troisième exemple, c’est encore plus compliqué : la taille de l’arbre à maturité peut prendre toute valeur entre, disons 3 et 7 mètres. Il est évident que la longueur exacte, ne nous intéresse pas, mais qu’on sera plus intéressé par la probabilité que la taille soit comprise entre 4 mètres et 4.5 mètres. Pour raisonner grossièrement, nous dirons qu’une variable aléatoire est discrète si on peut s’intéresser à la valeur précise d’une modalité, comme dans le premier exemple. Si on ne s’intéresse qu’à des intervalles de valeurs, comme dans les deux exemples suivants, on dira qu’elle est continue. Quel modèle probabiliste peut-on appliquer au modèle de l’exemple 1 ? Pour un Béotien comme moi, qui ne connais rien à l’élevage d’une poule, je peux - numéroter les jours de la semaine par un indice i variant de 1 à 7 - pour chaque jour i créer la variable aléatoire X i qui vaut 1 si la poule donne un œuf le jour i, 0 sinon - Supposer que la probabilité que X i soit égal à 1 vaut p (le même pour tous les jours de la semaine ) - Supposer enfin que les variables X i sont indépendantes. On obtiendrait alors que X est la somme des X i et suit une loi binomiale B(7, p) Quel modèle probabiliste peut-on appliquer au modèle de l’exemple 2 ? Pour un néophyte comme moi, qui ne connaît rien à l’agriculture, je peux numéroter les poules par un indice i variant de 1 à 12000 pour chaque poule i créer la variable aléatoire Y i qui vaut 1 si la poule i donne un œuf, 0 sinon Supposer que la probabilité que Y i soit égal à 1 vaut p (le même pour toutes les poules semaine ) Supposer enfin que les variables Y i sont indépendantes. On obtiendrait alors que Y est la somme des Y i et suit une loi binomiale B(12000, p) Gilbert Laffond page 1 Année 1999- 2000

Transcript of Loi de Poisson Cours

Page 1: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

Leçon 12 : la distribution de la loi de Laplace Jusqu’à présent, nous avons présenté deux distributions (lois de Poisson et Binomiales ) de variables dont les modalités sont des nombres entiers. On dit que ce sont des variables discrètes. Maintenant, nous allons attaquer des variables qui suivent des lois continues. La différence ? Il ne s’agit pas ici de rentrer dans des considérations mathématiques compliquées. Prenons deux exemples typiques : exemple 1 Denis vient d’acheter une poule « bonne pondeuse » : il espère ainsi ne plus avoir à acheter d’œufs pour sa consommation personnelle. Au cours d’une semaine, la poule donnera un nombre d’œufs X qui peut varier entre 0 et 7. exemple 2 Roger possède un élevage de 12000 poules pondeuses. Chaque jour, il obtient un nombre Y d’œufs qui varie entre 8000 et 12000 exemple 3 Denis vient de planter un arbre : on lui a assuré que la hauteur Z de cet arbre à maturité sera d’environ 5 mètres. Dans le premier exemple, il est important de savoir si la poule donnera 5 ou 2 œufs. Il n’est pas équivalent de dire que la probabilité d ’avoir 2 œufs est de 0.25 ou de 0.37. Dans le second exemple, il nous importe peu de savoir que la récolte du jour soit de 8543 ou 8544. Ce qui est intéressant, c’est plutôt de savoir si il y aura entre 8500 et 9000 œufs ou entre 10500 et 11000. Dans le troisième exemple, c’est encore plus compliqué : la taille de l’arbre à maturité peut prendre toute valeur entre, disons 3 et 7 mètres. Il est évident que la longueur exacte, ne nous intéresse pas, mais qu’on sera plus intéressé par la probabilité que la taille soit comprise entre 4 mètres et 4.5 mètres. Pour raisonner grossièrement, nous dirons qu’une variable aléatoire est discrète si on peut s’intéresser à la valeur précise d’une modalité, comme dans le premier exemple. Si on ne s’intéresse qu’à des intervalles de valeurs, comme dans les deux exemples suivants, on dira qu’elle est continue. Quel modèle probabiliste peut-on appliquer au modèle de l’exemple 1 ? Pour un Béotien comme moi, qui ne connais rien à l’élevage d’une poule, je peux - numéroter les jours de la semaine par un indice i variant de 1 à 7 - pour chaque jour i créer la variable aléatoire Xi qui vaut 1 si la poule donne un œuf le jour i, 0 sinon - Supposer que la probabilité que Xi soit égal à 1 vaut p (le même pour tous les jours de la semaine ) - Supposer enfin que les variables Xi sont indépendantes. On obtiendrait alors que X est la somme des Xi et suit une loi binomiale B(7, p) Quel modèle probabiliste peut-on appliquer au modèle de l’exemple 2 ? Pour un néophyte comme moi, qui ne connaît rien à l’agriculture, je peux numéroter les poules par un indice i variant de 1 à 12000 pour chaque poule i créer la variable aléatoire Yi qui vaut 1 si la poule i donne un œuf, 0 sinon Supposer que la probabilité que Yi soit égal à 1 vaut p (le même pour toutes les poules semaine ) Supposer enfin que les variables Yi sont indépendantes. On obtiendrait alors que Y est la somme des Yi et suit une loi binomiale B(12000, p)

Gilbert Laffond page 1 Année 1999- 2000

Page 2: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

Les exemples 1 et 2 semblent relever du même modèle, la loi Binomiale. Dans le premier cas, on se servira de la table de la loi binomiale pour calculer les probabilités des diverses modalités, parce que ce renseignement nous intéresse, dans le second cas, on appliquera à la loi binomiale le traitement d’une loi continue, parce que les modalités particulières ne nous intéressent pas, seules les probabilités de tomber dans un intervalle sont intéressantes. Quel modèle pour l’exemple 3 ? Dans ce cas, nous ne pouvons pas faire appel à l’une ou l’autre famille de lois que nous avons décrites dans les deux premiers chapitres. Il faut appliquer directement un modèle de variable aléatoire continue.

Gilbert Laffond page 2 Année 1999- 2000

Page 3: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

1 la distribution d’une variable continue : les surfaces comme probabilité. Reprenons les exemples 1 et 2 : comment calculer « simplement » la probabilité qu’une variable aléatoire tombe dans un intervalle. Le plus simple est de faire un dessin.

050

100150200250300350

-1 0 1 2 3 4 5 6 7 8

probabilité (*1000 )

x

Sur ce dessin, nous avons représenté la distribution de la loi binomiale B(7, 0.46). Les modalités de la variable sont représentées par l’axe des abscisses, on a représenté les probabilités de chaque modalité sur l’axe des ordonnées (en multipliant les probabilités par 1000 pour obtenir un plus beau dessin). La représentation adoptée est celle dite du diagramme en bâtons : à chaque modalité de la variable X on associe un bâton de longueur égale à la probabilité. Comment, sur ce dessin, calculer simplement la probabilité que X soit inférieur ou égal à 3 ? Il suffit simplement de sommer les longueurs des bâtons associés aux modalités 0, 1, 2 et 3. Une autre astuce consiste à passer par des surfaces :

050

100150200250300350

1 1.5 2 2.5 3 3.5 4 4.5

probabilité (*1000 )

x

Gilbert Laffond page 3 Année 1999- 2000

Page 4: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

sur ce dessin, nous ne nous sommes intéressés qu’à la modalité 3 de la variable X. Sa probabilité est représentée par la hauteur du bâton, mais elle est aussi représentée par la surface du rectangle en pointillé, en effet, l’épaisseur de ce rectangle est de 1.

0

50

100

150

200

250

300

350

-1 0 1 2 3 4 5 6 7 8

probabilité (*1000 )

X

0

50

100

150

200

250

300

350

-1 0 1 2 3 4 5 6 7 8

probabilité (*1000 )

X

On peut alors revenir au graphique de la distribution : sur le graphique de gauche, nous avons superposé à la fois les dessins en bâtons et en surface , pour ne conserver, dans le graphique de droite, que les surfaces. Combien vaut la probabilité que X soit inférieure ou égale à 3 ? Il suffit de calculer la surface hachurée dans le graphique ci dessous.

0

50

100

150

200

250

300

350

-1 0 1 2 3 4 5 6 7 8

probabilité (*1000 )

x

Ce dessin nous permet donc de calculer la probabilité que X soit inférieur ou égal à 3 en se servant d’un calcul de surface.

Gilbert Laffond page 4 Année 1999- 2000

Page 5: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

La question que tout le monde se pose : que dire du dessin ci-dessous ? Il n’a plus rien à voir avec la distribution de la variable X. La surface hachurée est un nombre compris entre 0 et 1. On peut décider qu’elle représente la probabilité qu’une variable aléatoire W soit inférieure à 2.2

0

50

100

150

200

250

300

350

-1 0 1 2 3 4 5 6 7 8

probabilité (*1000 )

x

Si on hachure non pas jusqu’à 2.2 mais jusqu’à x0, on trouvera de même la probabilité que W soit inférieure à x0.

0

50

100

150

200

250

300

350

-1 3 7

probabilité (*1000 )

xx0

Les relations entre W et X ? Il est clair que l’on a P( W ≤ 3.5 ) = P( X ≤ 3 ) La signification de W ? Aucune : on peut dans ce cas présent voir la variable aléatoire W simplement comme un artifice de calcul permettant de calculer « facilement » les probabilités de la loi binomiale

Gilbert Laffond page 5 Année 1999- 2000

Page 6: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

Plus généralement, on peut admettre la définition suivante : On dit que W est une variable aléatoire continue sur l’intervalle des nombres compris entre a et b si : W peut prendre comme modalités tout nombre compris entre a et b il existe une fonction f qui à tout nombre x compris entre a et b associe un nombre f(x) positif ou nul tel que la probabilité que W soit inférieur à x est égal à la surface hachurée :

f(x)

xx0a b

Probabilité que W soit inférieur à x0

Bien entendu, il faut que la surface hachurée de a à b soit égale à 1 :

f(x)

xx0a b

la probabilité que W soit inférieur à b vaut 1

Un peu de vocabulaire : Etant donnée une variable aléatoire W continue, la fonction f qui lui est associée selon le graphique précédent s’appelle fonction de densité de la variable aléatoire W. Que se passe-t-il lorsque l’on a affaire à une loi Binomiale telle celle de l’exemple 2, de paramètres B(2000, p) ? Le diagramme en bâtons est évidemment exclu: pour représenter sur une feuille plus de 2000 bâtons, ... une gageure. Quid du diagramme en surface ?

Gilbert Laffond page 6 Année 1999- 2000

Page 7: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

Dans le graphique ci-dessous, on a représenté la courbe qui lie les sommets des rectangles pour une loi binomiale X de paramètres B(100, 0.6). Pour une loi binomiale B(2000, 0.3), le tableur Excel , qui est pourtant capable de calculer des nombre de la forme 1065 ou 1/1065 c’est à dire avec 65 zéros, est incapable de calculer les probabilités correspondantes !

0

200

400

600

800

1000

0 10 20 30 40 50 60 70 80 90 100

probabilité (*10000)

x

Ce graphique ne doit pas faire illusion : la courbe ne permet de calculer les probabilités que pour les points de coordonnées entières. Remplaçons alors ce graphique par celui de la variable continue W qui admet comme densité la fonction tracée sur la figure précédente.

0

200

400

600

800

1000

0 25 50 75 100x0

densité ( * 10 000 )

x

Sur ce graphique, la probabilité que W soit inférieure à x0 est égale à la surface hachurée. Quand à la probabilité que X soit inférieure ou égale à, mettons 64, elle est égale à la surface correspondante du graphe de W en prenant x1 = 64.5 . Restent deux problèmes : (i) Que se passe-t-il dans le raisonnement précédent, si on remplace 64.5 par 64 ? et (ii) peut-on avoir une idée de la fonction qui donne la densité de W ? le problème (i), ce que l’on appelle la correction de continuité Regardons le graphique : En calculant la surface grisée pour une valeur de x’ = 64 au lieu d’une valeur de x = 64.5, on fait évidemment une erreur. Cette erreur est constituée d’une petite surface telle qu’elle apparaît

Gilbert Laffond page 7 Année 1999- 2000

Page 8: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

sur la figure suivante (remarquez que l’échelle des abscisses n’est pas la même que celle employée dans la figure précédente).

0

200

400

600

800

1000

50 52 54 56 58 60 62 64 66 68 70 72 74 76 78 80

densité ( * 10 000 )

x

A l’évidence, la différence est faible : dans ce cours, tout au moins, on la négligera : pour calculer la probabilité que X soit inférieur ou égal à 64, on calculera tout bêtement la probabilité que W soit inférieur à 64. Les « puristes » pourront, s’ils le veulent, calculer la probabilité que W soit inférieur à 64.5 , ils trouveront « à peu prés » le même résultat . Reste le problème (ii) , celui de la détermination de la loi de W. Il fait l’objet du chapitre suivant.

Gilbert Laffond page 8 Année 1999- 2000

Page 9: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

2. La loi de Laplace - Gauss : présentation théorique 2-1 la définition Dans ce chapitre, nous allons donner une présentation théorique de la loi de Laplace, de manière à ce que nous sachions « manipuler » des phénomènes aléatoires suivant des lois de Laplace. Dans le chapitre suivant, nous donnerons des résultats théoriques - le théorème de la limite centrale en particulier - qui montrent que le champ d’application de la loi de Laplace est relativement large. Enfin, dans un dernier chapitre, nous traiterons de quelques exercices typiques. Commençons par une définition :

Définition : On dit que la variable aléatoire X suit une loi de Laplace de paramètres m et σ et on note X ∼ N(m, σ ) si X est une variable continue de fonction de densité :

f x ex m

( )( )

=−

−12

2

2

σ πσ

Résultat : si X ∼ N(m, σ ), alors : E(X) = m et Var(X) = σ2 Il n’est pas dans l’esprit de ce cours de faire des calculs particuliers à partir de l’expression de la fonction de densité. Aussi, il ne faut pas s’effrayer de la forme particulière de cette fonction, on ne s’en servira pas.

Gilbert Laffond page 9 Année 1999- 2000

Page 10: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

2-2 La forme des distributions Donnons simplement la forme de la courbe : le dessin suivant est celui de la loi N(20, 15)

0

5

10

15

20

25

30

-20 -10 0 10 20 30 40 50 60

densité (* 1000)

x

Pour tout autre jeux de paramètres, on retrouverait le même type de courbe dite « courbe en cloche ». La courbe de densité admet un axe de symétrie, matérialisé en pointillés sur le graphique, qui passe par la valeur centrale (ici 20 ) qui est égal à la moyenne (l’espérance) de la variable X dont on a représenté la densité. Le paramètre σ représente l’écart-type de X. Pour calculer la probabilité que X soit inférieur à une valeur donnée, par exemple 15 , il suffit de calculer la surface en grisé sur le dessin de gauche ci-dessous. Pour calculer la probabilité que X soit compris entre deux valeurs, par exemple 10 et 35, il suffit de calculer la surface en grisé du graphique de droite ci-dessous. Nous reviendrons plus loin sur le calcul de ces surfaces au moyen de tables.

0

510

15

2025

30

-20 0 20 40 60

densité (* 1000)

x05

1015

202530

-20 0 20 40 60

densité (* 1000)

x

Comme on le voit sur le graphique ci dessous, plus σ est faible, plus la variable est « concentrée autour de la moyenne »

Gilbert Laffond page 10

2530354045 densité (* 1000) petit écart

type (10)gros écart type (15)

Année 1999- 2000

Page 11: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

en effet, rappelons nous que la surface « sous la courbe » vaut 1 pour chacune des courbes : prenons un intervalle centré autour de la moyenne, par exemple entre 15 et 25 : la comparaison des surfaces montre évidemment que la probabilité de cet intervalle est plus forte avec la loi N(20,10) (petit écart-type) qu’avec la loi N(20, 15) (gros écart-type)

05

1015202530354045

-20 -10 0 10 20 30 40 50 60

densité (* 1000)

x

petit écart type

grosécart type

Comme nous l’avons dit, nous reviendrons plus tard sur les calculs de surfaces associés aux lois de Laplace.

Gilbert Laffond page 11 Année 1999- 2000

Page 12: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

2-3 La famille des lois de Laplace Soit X une variable aléatoire suivant une loi N(m, σ) : X a pour moyenne E(X) = m, pour écart-type σ et pour variance σ2. Si a et b sont deux nombres, on peut créer la variable aléatoire Y donnée par Y = aX + b Nous savons que Y aura pour moyenne E(Y) = am + b, pour variance a2σ2 et pour écart-type aσ . ( il faut mettre une valeur absolue car a peut être négatif, alors que l’écart-type est forcément positif .) On peut montrer alors que Y suit une loi N( am + b, aσ ) Par exemple si X est une variable aléatoire qui suit une loi N(10, 4), alors Y = 8 X -50 est distribuée selon une loi N( 30, 32) Z = -4X +20 est distribuée selon une loi N( -20, 16 ) Deux questions (i) pourquoi ? et (ii) quel intérêt pratique ? Commençons par le coté pratique : Prenons un exemple et supposons que X ∼ N( 100, 8 ). Alors, nous savons si l’on prend deux nombres a positif et b de signe quelconque, et si on calcule Y = aX + b , alors Y ∼ N( 100a + b, 8a ) L’écart-type de Y vaut 8a et l’espérance de Y vaut 100a + b. Je peux alors choisir a et b pour que l’écart-type de Y vaille 1 il suffit de prendre a = 1/8 la moyenne de Y vaille 1 il suffit de prendre b = -100/8 On obtient alors :

si X ∼ N( 100, 8 ) et si Y = (X - 100)/8 alors Y ∼ N(0, 1)

Cherchons la probabilité que X soit inférieur à 110 : soit P( X < 110 ) Revenons aux tirages ω. On cherche la probabilité de l’ensemble des ω tels que X(ω) < 110. or il est équivalent de dire ω est tel que X(ω) < 110 ω est tel que X(ω) - 100 < 110 - 100 ω est tel que (X(ω) - 100)/8 < (110 -100 )/8 soit ω est tel que Y(ω ) < 1.250

Notre problème revient donc à rechercher la probabilité de l’ensemble des ω tels que Y(ω ) < 1.250 lorsque Y suit une loi N(0, 1)

Gilbert Laffond page 12 Année 1999- 2000

Page 13: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

On conçoit l’intérêt de l’astuce de cette transformation : Pour calculer la probabilité relative à une variable aléatoire X qui suit une loi de Laplace de moyenne 100 et d’écart-type 8, on se contente de calculer une probabilité relative à une variable aléatoire Y qui suit une loi N(0, 1). L’opération qui permet le passage d’une loi N(m, σ) à une loi N(0,1) a reçu le nom de code « centrer réduire » : explication Soit à calculer une probabilité relative à une variable aléatoire X qui suit une loi N(m, σ). On associe à X une autre variable aléatoire Y de la forme Y = a X + b . Pour trouver a et b, on veut que Y suive une loi N(0, 1). la variance de Y doit valoir 1 : a2σ2 = 1 il suffit de prendre a = 1/σ la moyenne de Y doit valoir 0 : m/σ + b = 0 il suffit de prendre b = -m/σ: C’est à dire que l’on doit prendre : Y = (X - m )/σ l’opération qui consiste

à retirer m de X, i.e. de remplacer X par (X - m) a reçu le nom de code

centrer à diviser par l’écart-type i.e. de remplacer (X - m) par (X - m)/σ a reçu le nom de code

réduire Passons à la pratique : exemple 1 soit X une v. a. (variable aléatoire) suivant une loi N(8, 12) calculez la probabilité P(X < 23) . solution : on centre et on réduit: Détaillons les calculs : Revenons aux tirages ω. On cherche la probabilité de l’ensemble des ω tels que X(ω) < 23. or il est équivalent de dire ω est tel que X(ω) < 23 ω est tel que X(ω) - 8 < 23 - 8 ω est tel que (X(ω) - 8)/12 < (23 -8 )/12 soit ω est tel que Y(ω ) < 1.250 On a donc : P(X < 23) = P( Y < 1.25 ) avec Y ∼ N(0.1) exemple 2 : soit X une v.a. qui suit une loi N(85, 15) . Calculer P( X < 122.5 ) solution : Allons droit au but, comme on doit le faire à l’examen : Je centre et je réduits :

Gilbert Laffond page 13 Année 1999- 2000

Page 14: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

P X P X

P X P YY N

( . ) ( . )

( . ) ( . )( . )

< =−

<−

< = <

122 5 8515

122 5 8515

122 5 2 501 suit une loi

exemple 3 Soit X une v.a. qui suit une loi N(-50, 3). Calculer la probabilité P( -57.5 < X < -44 ) solution : Allons droit au but, comme on doit le faire à l’examen : Je centre et je réduits :

P X P X

P X P YY N

( . ) ( . ( ) ( ) ( ) )

( . ) ( . )( . )

− < < − =− − −

<− −

<− − −

− < < − = − < <

57 5 44 57 5 503

503

44 503

57 5 44 2 5 201 suit une loi

Reste à savoir comment on calcule les probabilités associées à une loi N(0,1)

Gilbert Laffond page 14 Année 1999- 2000

Page 15: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

2-4 La lecture des tables On trouve en annexe de cette note une « table de la loi de Laplace ». Examinons comment on calcule la probabilité qu’une v.a. X suivant une loi N(0, 1) prenne des valeurs dans un intervalle. Tout d’abord réglons le point de savoir s’il faut calculer la probabilité que X soit inférieur strictement à une valeur x ou inférieur ou égal à x.

-3 0 3x

Probabilité que X < x0

x0

-3 0 3x

Probabilité que X < x0

x0

sur les deux graphiques ci dessus, on a représenté les surfaces qui permettent de calculer P( X < x ) (dessin de gauche) et P(X ≤ x ) (dessin de droite ). La différence ? Aucune, ces deux surfaces sont égales : elles ne différent que par le fait que dans la figure de gauche, le « coté vertical » associé à la valeur x ne doit pas être pris en compte, alors qu’il faut le prendre en compte dans la figure de droite. Mais, pour les variables continues, on mesure les probabilités par les surfaces : le « côté vertical » rajouté dans la figure de droite ( en gras), n’a à proprement parler pas d’épaisseur : en passant de la figure de droite à celle de gauche, on rajoute un « ensemble qui a une surface nulle » . On en déduit que les probabilités P( X < x ) et P(X ≤ x ) sont identiques On obtient ici une différence notoire entre les variables discrètes et continues . Pour une variable discrète, la probabilité que la variable prenne une modalité donnée n’est pas nulle . Aussi, il faut distinguer précisément P( X < x ) et P(X ≤ x ) . Par contre, pour les variables continues, la probabilité que la variable prenne une modalité particulière est toujours nulle, il n’y a pas lieu de faire cette distinction.

Mais, me direz-vous, comment se fait-il que la probabilité associée à chaque modalité particulière d’un intervalle soit nulle, et que, dans le même temps, la probabilité de

l’intervalle ne soit pas nulle ? Bonne question, à laquelle je répondrai par la pirouette habituelle « c’est trop compliqué pour ce cours ». Après cet acte de contrition, passons au vif

du sujet avec l’extrait suivant de la table donnée en annexe :

Gilbert Laffond page 15 Année 1999- 2000

Page 16: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

extrait du tableau de gauche 0.09 0.08 0.07 0.06 0.05 0.04 0.03 0.02 0.01 0.00

-0.2 0.3859 0.3897 0.3936 0.3974 0.4013 0.4052 0.4090 0.4129 0.4168 0.4207 -0.1 0.4247 0.4286 0.4325 0.4364 0.4404 0.4443 0.4483 0.4522 0.4562 0.4602 -0.0 0.4641 0.4681 0.4721 0.4761 0.4801 0.4840 0.4880 0.4920 0.4960 0.5000

extrait du tableau de droite 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 On peut utiliser ces tables de deux façons : 1) La lecture directe est très simple : soit X une v.a. suivant une loi N(0, 1). P( X < 0.17) = 0.5675 on lit ligne 0.1 colonne 0.07 P( X < 0.23) = 0.5910 on lit, ligne 0.2 colonne 0.03 P( X < -0.14) = 0.4443 on lit, ligne -0.1 colonne 0.04 P( X < -0.06) = 0.4761 on lit, ligne -0.0 colonne 0.06 Pour des intervalles, on pratique comme dans le cas des variables discrètes : P(-0.12 < X < 0.26 ) = P( X < 0.23 ) - P( X < -0.12) = 0.6026 - 0.4522 = 0.1504 P(-0.26 < X < 0.09 ) = P( X < 0.09 ) - P( X < -0.26) = 0.5359 - 0.3974 = 0.1385 Quelques valeurs remarquables : P( -1.96 < X < 1.96 ) = P( X < 1.96 ) - P( X < -1.96) = 0.9750 - 0.0250 = 0.9500 P( X < 1.645 ) = 0.95 Nous savons que si X suit une loi N(0, 1) alors la moyenne de X vaut 0, son écart-type vaut 1. Appliquons l’inégalité de Bienaymé Chebishev : La probabilité que X soit compris dans l’intervalle « moyenne ± 2 «écarts types » est d’au moins 0.75 . Ici, puisque la moyenne est nulle et l’écart-type vaut 1, l’inégalité affirme que la probabilité que X prenne une modalité dans l’intervalle 0 ± 2 vaut 0.95. 2) la lecture inverse : Soit X une v. a. suivant une loi N(0, 1) . trouver un nombre λ tel que P( X< λ ) = 0.5160 dans la table on trouve λ = 0.04 P( X< λ ) = 0.5517 dans la table on trouve λ = 0.13 P( X< λ ) = 0.5160 dans la table on trouve λ = 0.04 P( X< λ ) = 0.3974 dans la table on trouve λ = 0.26 On a évidement : P( X < λ ) = 1 - P( X > λ ) = 1-0.4821 = 0.5179 dans la table : λ = entre 0.04 et 0.05

Gilbert Laffond page 16 Année 1999- 2000

Page 17: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

de même : P( X > λ ) = 0.4510 dans la table on trouve λ entre 0.12 et 0.13 P( X > λ ) = 0.4752 dans la table on trouve λ entre 0.06 et 0.07 P( X > λ ) = 0.5965 dans la table on trouve λ entre -0.25 et -0.24 3) intervalles symétriques Trouver λ tel que P(-λ < X < λ ) = 0.3542

-3 0 3x

ces deux probabilités sont égales

-3 0 3x

Probabilité recherchée

Les deux dessins parlent d’eux mêmes : a) A l’intérieur de l’intervalle, la probabilité est de 0.3542. A l’extérieur elle est donc de 0.6458 : autrement dit : P(X < -λ ) + P(-λ < X < λ ) + P( X > λ) = 1 soit : P(X < -λ ) + P( X > λ) = 1 - P(-λ < X < λ ) = 0.6458 b) par raison de symétrie , P(X < -λ ) = P( X > λ), comme on le voit sur le dessin de droite. on a donc : 2 P(X < -λ ) = 0.6458 soit P(X < -λ ) = 0.3229, dans la table : -λ = -0.46 ou encore λ = 0.46 autres exemples P(-λ < X < λ ) = 0.8542 λ = 1.45 P(-λ < X < λ ) = 0.9250 λ = 1.77 P(-λ < X < λ ) = 0.9000 λ = 1.65 P(-λ < X < λ ) = 0.9900 λ = 2.58

Gilbert Laffond page 17 Année 1999- 2000

Page 18: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

3 Ou trouver des lois de Laplace - Gauss : la « loi Normale » Le fait que la loi de Laplace - Gauss soit d'utilisation très générale, repose sur deux types de considérations : des considérations d'ordre "mathématiques" ( dans certaines conditions, on peut remplacer la lecture dans la table d'une loi, disons Binomiale, mais nous verrons que le cadre est en fait beaucoup plus général, par la table de la loi de Laplace - Gauss) et des considérations d'ordre "statistiques "( beaucoup de phénomènes naturels semblent suivre une loi de Laplace - Gauss ). 3.1 les considérations mathématiques C'est à Laplace (1749 - 1827 ) que l'on doit une des premières formulations du

Théorème de la limite centrale : Soient X1, X2, ... , Xn, n variables aléatoires indépendantes et de même loi avec E(Xi) = m Var(Xi) = σ2

Soit Y X X Xn= + + +1 2 ... leur somme : nous savons que

E(Y) = nm et Var(Y) = nσ2. alors : lorsque n tend vers l'infini, tout se passe comme si

ZY nm

n=

−σ

suivait la loi N(0, 1)

Ce théorème, qu’il n’est pas question de montrer ici, constitue une des justifications principales de l’utilisation de la loi de Laplace-Gauss, et de son emploi qu’on jugeait au siècle dernier « presque universelle ». Donnons en un exemple immédiat d’application : Par exemple, si nous prenons X1, X2, ... , Xn, n variables de Bernouilly, indépendantes et de même paramètre p. Nous savons que Y = X1 + X2 + ... + Xn suit la loi binomiale B(n, p). Quand "n est grand", nous sommes dans les conditions d'application du Théorème de la limite centrale : Tout se passe comme si Y suivait une loi de Laplace . Pratiquement lorsque n ≥ 100 et 0.1 ≤ p ≤ 0.9, on remplace la lecture de la table de la loi Binomiale par la lecture de la table de la loi de Laplace.

Si X suit une loi binomiale B(n, p), si n est grand et « p pas trop petit » alors :

tout se passe comme si X suivait la loi N( np, np p( )1−

Par exemple, Soit X une variable aléatoire suivant une loi B(15000, 0.4). Calculer la probabilité P(X ≤ 6090 ) En appliquant le résultat précédent, on voit que « tout se passe comme si » X suivait une loi N(6000, 60) : On peut donc écrire :

P X P X

P ZZ

( ) (

( . )( . )

≤ =−

≤ )−

=≤

6900 609060

6090 600060

1501N

Dans la table, on lit que la probabilité recherchée est de 0.9332. A propos de cet exemple, les « puristes » appliqueraient la correction de continuité : ils diraient :

Gilbert Laffond page 18 Année 1999- 2000

Page 19: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

P X P X

P X P X

P ZZ

( ) ( . )

( . ) ( . )

( . )( . )

≤ = ≤

≤ =−

≤−

=≤≈

6090 6090 5

6090 5 600060

6090 5 600060

15083301N

Ils trouveraient à peu prés 0.9345 Le fait que les variables X1, X2, ... , Xn étudiées dans le théorème de la limite centrale doivent être toutes de même loi imposait une contrainte sur l’utilisation de la loi de Laplace. Depuis, on a pu montrer un théorème un peu plus général qui ressemble au suivant:

Théorème de la limite centrale : Soient X1, X2, ... , Xn, n variables aléatoires indépendantes, et X = X1 + X2 + ... +Xn On appelle

mi = E(Xi) la moyenne de Xi

σi2 = Var(Xi) la variance de Xi

m = E(X) la moyenne de X

σ2 = Var(X) la variance de X

On suppose qu’il existe M et S, deux nombres tels que -M ≤ mi ≤ M et σi

≤ S alors : lorsque n tend vers l'infini, tout se passe comme si

Z X m=

−σ

suivait la loi N(0, 1) ou encore X suit une loi N(m, σ)

Dans cette nouvelle version du théorème, on ne demande plus que les variables X1, X2, ... , Xn aient la même loi, mais uniquement que leurs moyennes et leurs variances soient bornées. Généralement, on traduit ce fait en disant « la variable Y est obtenue comme somme de très nombreuses petites perturbations indépendantes ». Quand il en est ainsi, Y suit approximativement une loi de Laplace-Gauss. D’où la conséquence suivante :

si X et Y sont deux variables aléatoires indépendantes et telles que X suit une loi N(m1, σ1)

et Y suit une loi N(m2, σ2) Définissons Z = X + Y

alors

Z suit une loi N(m1+m2, σ σ12

22+ )

Gilbert Laffond page 19 Année 1999- 2000

Page 20: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

En effet, si X suit une loi N(m1, σ1) et Y suit une loi N(m2, σ2), on peut considérer, comme dans le second théorème de la limite centrale, que X est la somme de « petites causes indépendantes « de même Y est la somme de « petites causes indépendantes » et donc Z = X + Y est aussi la somme de « petites causes indépendantes » Par application du théorème, Z suit une loi de Laplace - La moyenne m de Z est la somme des moyennes de X et de Y m = m1+m2

- La variance σ2 de Z est la somme des variances de X et de Y σ2 = σ12+ σ2

2

et donc, Z suit une loi N(m1+m2, σ σ12

22+ )

Ce résultat est très important dans la pratique, et nous en verrons de nombreuses applications Notons qu'en combinant les diverses remlations que nous avons établies, nous trouvons que :

si X et Y sont deux variables aléatoires indépendantes et telles que X suit une loi N(m1, σ1)

et Y suit une loi N(m2, σ2) Définissons Z = aX + bY + c

alors

Z suit une loi N(am1 + bm2 + c, 22

221

2 σσ ba + )

en particulier , notons que :

si X et Y sont deux variables aléatoires indépendantes et telles que X suit une loi N(m1, σ1)

et Y suit une loi N(m2, σ2) Définissons Z = X - Y

alors

Z suit une loi N(m1 - m2 , 22

21 σσ + )

si l'espérance" de la différence est la différence des espérances, la varaince de la différence est la somme des variances . Dans les exercices, on donne plusieurs applications de ces relations. 3.2 les considérations expérimentales Le théorème de la limite centrale est venu conforter les savants du XIXème siècle qui constataient que, à l'intérieur d’une même espèce, la plupart des grandeurs mesurables semblaient distribuées selon une loi de Laplace-Gauss. Que ce soit la distribution de la taille des conscrits, celle de leurs poids, ou encore la taille des feuilles d’un même arbre, la loi de Laplace semblait être une sorte de « constante universelle », et on attribue à Poincaré la proposition de l’appeler « loi Normale » (d’où le symbole N désignant la loi N(m, σ) ). Il ne faudrait pas en conclure à la légère que la distribution de « n’importe quel phénomène naturel » est celle d’une loi de Laplace-Gauss.

Gilbert Laffond page 20 Année 1999- 2000

Page 21: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

La seconde source de données statistiques qui vient conforter l ’usage de la distribution de Laplace-Gauss est fournie par la « théorie des erreurs de Gauss » : refaisant plusieurs fois la même expérience, « dans les mêmes conditions », il ne trouvait pas le même résultat. Il attribuait cette inconstance de la mesure à la concomitance de multiples sources d’erreurs indépendantes : la position de l’œil au dessus de l’instrument de mesure, le fait que le bras de l’expérimentateur tremble plus ou moins, ... .Chaque erreur étant faible, c’est la somme de cette multitude de petits effets qui permet d’obtenir une distribution de l’« écart total à la vraie mesure » qui est distribué selon une loi Normale (ou de Laplace-Gauss). Nous ne voulons pas développer plus avant cette justification expérimentale de l’utilisation de la loi Normale. Contentons nous de résumer les points que nous avons acquis et qui sont utiles pour résoudre les problèmes :

Gilbert Laffond page 21 Année 1999- 2000

Page 22: Loi de Poisson Cours

Mathématiques appliquées à l’économie leçon 12

Gilbert Laffond page 22 Année 1999- 2000

Résumé

1 Si X est une v.a. qui suit une loi N(m, σ) alors E(X) = m et Var(X) = σ2 si a et b sont deux nombres , et si Y = aX + b , alors Y suit une loi N(am + b, a σ ) (notez le signe "valeur absolue" dans l'écart-type de Y)

Ce résultat permet de transformer le problème du calcul des probabilités associées à une loi N(m, σ) en un problème de calcul de probabilités associées à une loi N(0, 1). L'opération de passage de la première distribution à la seconde s'appelle "centrer - réduire ).

2 Si X et Y sont deux variables aléatoires indépendantes et telles que X suit une loi N(m1,σ1) et Y suit une loi N(m2, σ2) alors Si Z = aX + bY +c

alors Z suit une loi N(am1 + bm2 + c , 22

221

2 σσ ba + )

Ce second résultat, fondamental, dit "en gros" que l'on ne sort pas de "la famille des lois Normales" en faisant des combinaisons linéaires de variables aléatoires indépendantes. Nous en verrons de multiples applications dans les leçons 13 et 14.

3 Si X suit une loi binomiale B(n, p), alors E(X) = np et Var(X) = np(1-p) Si n est "grand" et p "pas trop petit ", alors

tout se passe comme si X suivait une loi N(np, np p( )1− )

Quand p est "petit", on peut considérer que X suit une loi de Poisson. On a donc le choix, pour les cas intermédiaires ( p de l'ordre de 0.10 ) entre la loi de Poisson de paramètre λ = np et la loi Normale de paramètres np, et np p(1− ) . Mais le dilemme se résout, puisque l'on a le résultat suivant :

4 Si X suit une loi de Poisson P(λ) alors E(X) = λ et Var(X) = λ Si λ est "grand" alors tout se passe comme si X suivait une loi N(λ, √λ)