Calcul des Probabilités

66
MA 311 ESISAR Calcul des Probabilités

Transcript of Calcul des Probabilités

Page 1: Calcul des Probabilités

MA 311 ESISAR

Calcul

des

Probabilités

Page 2: Calcul des Probabilités

Le monde des phénomènes scientifiques peut se diviser en deux:

• Il y a les phénomènes dits déterministes, ce sont des phénomènes dont on est capable de mod-éliser précisément l’évolution avec des équations. Une fois résolues, ces équations nous permettentde connaitre exactement le comportement du phénomène.

Exemples: La chute d’une pierre, le mouvement des planètes...

• Les autres sont des phénomènes aléatoires (du latin alea, dé), c’est à dire que le hasardintervient dans leur évolution. Ainsi toute modélisation exacte du comportement de ce genre dephénomène devient chimérique...

Exemples: L’évolution du cours du temps d’une action, la propagation d’une épidémie, l’arrivéede personnes à un guichet, l’apparition d’erreurs lors de la transmission d’un signal, etc...

• C’est en réalité plus compliqué: certains phénomènes sont déterministes, mais si compliqués àmodéliser qu’on les considère comme étant aléatoires.

Exemples: Le mouvement de certaines particules dans un fluide, le lancer d’un dé...

Au vu de l’importance (économique, politique...) des domaines où apparaissent les phénomènesaléatoires, on ne peut pas se permettre de ne pas les étudier sous prétexte qu’on ne pourra jamaisles maitriser.

La théorie mathématique des probabilités essayera donc non pas de prédire de façon exactel’évolution d’un phénomène, mais de quantifier la possibilité qu’il évolue dans tel ou tel sens.

Page 3: Calcul des Probabilités

Chapitre I

Le vocabulaire mathématique desprobabilités

La théorie mathématique des probabilités, comme les autres théories mathématiques, possède un vo-cabulaire spécifique précis qu’il faudra maîtriser.

1 Quelques rappels de théorie des ensembles

On pourrait résumer ce cours en ces termes: calculer des probabilités, c’est mesurer la taille d’ensembles.Ceci implique qu’il faudra être à l’aise avec les opérations habituelles des ensembles, que l’on varappeler.

Définition:

Un ensemble est une collection d’élements. Dire que deux ensembles sont égaux, c’est dire qu’ils ontles mêmes éléments.

Définition:

Soient A,B des ensembles.

• On dit que A est inclus dans B si tout élément de A est aussi un élément de B. On le noteA ⊂ B.

• On appelle union de A et B l’ensemble, noté A∪B, des éléments qui sont dans A ou dans B

• On appelle intersection de A et B l’ensemble, noté A ∩ B, des éléments qui sont dans A etaussi dans B

• On appelle complémentaire de A l’ensemble des éléments qui ne sont pas dans A. On le noteA ou cA

• Si E est un ensemble, on dit que A est une partie de E si A ⊂ E.

• Deux ensembles A et B sont dits disjoints si A ∩ B = ∅• On appelle A privé de B l’ensemble, noté A\B des éléments qui sont dans A mais pas dans B

Enfin, rappelons que pour montrer que A = B, on doit prouver que A ⊂ B et B ⊂ A.

Page 4: Calcul des Probabilités

MA311 I. Le vocabulaire mathématique des probabilités 3

Remarque importante:

En probabilité, au lieu d’écrire A ∩ B, on écrira souvent A,B

2 L’ensemble fondamental

On considère une expérience aléatoire, c’est à dire une expérience dont le résultat ne peut être prévu.

Exemple(s):

1. On lance un dé, et on note le chiffre obtenu.

2. On compte le nombre de tentatives qu’il faut avant d’obtenir un 6 avec un dé.

3. On choisit un nombre réel au hasard entre 0 et +∞

Définition:

• Chacun des résultats possibles de cette expérience s’appelle un évènement élémentaire, ouune éventualité.

• L’ensemble de tous les évènements élémentaires, c’est à dire l’ensemble de tous les résultatspossibles de l’expérience, s’appelle l’ensemble fondamental associé à cette expérience. Onpeut l’appeller aussi l’univers associé à l’expérience

• L’ensemble fondamental se note Ω

Exemple(s):

Reprenons les 3 exemples cités ci dessus:

1. Dans cette expérience, 6 est un évènement élémentaire. L’ensemble fondamental associé est1, 2, 3, 4, 5, 6

2. Dans cette expérience, 1 ou 34 sont des évènements élémentaires. L’ensemble fondamental associéest 1, 2, . . . = N

3. Dans cette expérience, 1 ou 4, 678920233 sont des évènements élémentaires. L’ensemble fonda-mental associé est R

+.

L’ensemble Ω peut être simple comme très compliqué. On même parfois choisir plusieurs façons de ledécrire. La notion que l’on va rencontrer continuellement sera la notion d’évènement:

Définition:

Un évènement est une partie de Ω. C’est un ensemble d’éventualités.

Page 5: Calcul des Probabilités

MA311 I. Le vocabulaire mathématique des probabilités 4

Exemple(s):

1. Dans l’expérience 1, "le dé fait un nombre pair" est un évènement. C’est la partie de Ω égale à2, 4, 6

2. Dans l’expérience 2, "j’ai besoin d’au moins 3 lancers pour obtenir un 6" est un évènement. C’estla partie de Ω égale à 3, 4, . . .

3 Notion de probabilité

On étudie un phénomène aléatoire, et on note Ω l’ensemble des résultats possibles.Les résultats de l’expérience sont impossibles à prédire: néammoins, on veut savoir si un évènement

a plus de chances de se produire qu’un autre. Il va donc falloir quantifier la probabilité qu’un évènementse réalise. L’idée naturelle est donc de considérer une application qui prend en entrée un évènementauquel elle va associer un nombre: plus ce nombre sera grand, plus l’évènement aura de chances de seproduire; à l’inverse si le nombre est faible, l’évènement aura peu de chances de se produire.

Définition:

Soit Ω l’univers d’une expérience aléatoire. On appelle probabilité sur Ω une application

P : ensemble des évènements → [0, 1]A → P (A)

qui vérifie:

1. P (Ω) = 1

2. P (A ∪ B) = P (A) + P (B) si A et B sont disjoints.

Exemple(s):

Si Ω est un ensemble fini, on vérifie sans difficulté que l’application P : A → card(A)card(Ω) est une probabilité.

Page 6: Calcul des Probabilités

MA311 I. Le vocabulaire mathématique des probabilités 5

Proposition 1 (Propriétés fondamentales d’une probabilité)

Soit P une probabilité sur Ω. On a:

1. Si A est un évènement, P (cA) = 1 − P (A)

2. P (∅) = 0

3. si A ⊂ B, P (B\A) = P (B) − P (A) (Attention, c’est faux si on n’a pas A ⊂ B)

4. si A ⊂ B, P (A) ≤ P (B)

5. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

Démonstration:

Remarques:

• La probabilité d’un évènement est donc comprise entre 0 et 1. Dans un exercice, il faudradonc toujours vérifier que la probabilité que l’on vient de calculer est comprise entre 0 et 1. Celapermet d’éviter les grosses erreurs.

• L’évènement Ω est l’évènement certain: on est sur qu’il va arriver, car Ω regroupe tous lesrésultats possibles!

• Par contre, un évènement A = Ω tel que P (A) = 1 n’est pas un évènement certain. C’est unévènement qu’on appelle presque sur. Cet évènement peut ne pas se produire!

Page 7: Calcul des Probabilités

Chapitre II

Dénombrement

1 Probabilité uniforme

Soit une expérience aléatoire, soit Ω son ensemble fondamental. Plaçons nous dans le cas où:

1. Ω est fini (l’expérience n’a qu’un nombre fini de résultats possibles)

2. Chaque évènement élémentaire a la même probabilité de se produire. (on parle de probabilitéuniforme)

Exemples:

• On lance un dé, on a autant de chances d’avoir un 1, un 2 ou un 6.

• Un professeur choisit au hasard un élève dans une promo.

Soit A un évènement, calculons P (A):

Ainsi, savoir calculer card(A) est d’une importance capitale. On va donc exposer dans ce chapitreles différentes méthodes permettant de calculer les cardinaux d’ensembles.

Page 8: Calcul des Probabilités

MA311 II. Dénombrement 7

2 Les formules à savoir

a) Réunion d’ensembles

Proposition 2

Si A et B sont deux ensembles, alors

card(A ∪ B) = card(A) + card(B) − card(A ∩ B)

Remarque:

• Si A et B sont disjoints, on a donc card(A ∪ B) = card(A) + card(B).

Cette formule s’utilise souvent de la façon suivante: lorsque le cardinal d’un ensemble est un peudifficile à calculer, on peut décomposer cet ensemble en plusieurs ensembles dont le cardinal est facileà calculer.

Exemple(s):On cherche le nombre de tiercés gagnants où le cheval n13 arrive en 3ième ou 2ième position.

On peut dire que cet ensemble est l’union de A = tiercés gagnants où le cheval n13 arrive en3ième position, et de B = tiercés gagnants où le cheval n13 arrive en 2ième position.

b) Produits d’ensembles

Proposition 3

Si A et B sont deux ensembles, alors

card(A × B) = card(A)card(B)

Démonstration:

Exemple(s):Dans un groupe de 10 garçons et 10 filles, combien de couples (mixtes) peut-on former ?

c) Nombre d’applications

Proposition 4

Si A et B sont deux ensembles, le nombre d’applications f : A → B est card(B)card(A).

Page 9: Calcul des Probabilités

MA311 II. Dénombrement 8

Démonstration:

Exemple(s):On possède 5 peluches et 3 tiroirs. Combien y a-t-il de façons de ranger les peluches dans les tiroirs ?

d) Arrangements

Définition:

Soit E un ensemble à n éléments. Un p− arrangement de E est une suite ordonnée (a1, a2, . . . , ap)de p éléments 2 à 2 distincts de E.

Exemple(s):Dans une course de chevaux, un tiercé est un 3−arrangement de l’ensemble des chevaux partants.

Attention! Il y a une notion d’ordre qui est fondamentale dans les arrangements.En effet, (a1, a2, a3) = (a2, a1, a3)

Proposition 5

Soit E un ensemble à n éléments. Le nombre de p−arrangements de E est

Apn =

n!(n − p)!

Démonstration:

Exemple(s):Si il y a 16 chevaux au départ d’une course, il y a donc A3

16 tiercés possibles.

Page 10: Calcul des Probabilités

MA311 II. Dénombrement 9

Intéressons nous au cas où n = p:

Définition:

Un n arrangement d’un ensemble de n éléments s’appelle une permutation. Une permutation de Eest la donnée des éléments de E, rangés dans un ordre différent. Il y a donc An

n = n! permutationsde E.

Exemple(s):6 personnes doivent s’asseoir sur un banc. Il y a 6! façons de placer ces 6 personnes sur le banc.

e) Combinaisons

Définition:

Soit E un ensemble à n éléments. Le nombre de parties de E qui possèdent p éléments (p ≤ n) est

Cpn =

(np

)=

n!p!(n − p)!

(On parle de combinaison de p éléments parmi n)

Exemple(s):

On considère une promo de 50 élèves. Combien de binômes de TP peut-on former ?

La différence entre les arrangements et les combinaisons est qu’il n’y a pas d’ordre dans les combi-naisons: la partie a1, a2, a3 est la même que a2, a3, a1.Proposition 6

Soit E un ensemble à n éléments. Le nombre de parties de E est 2n.

Démonstration:

Page 11: Calcul des Probabilités

MA311 II. Dénombrement 10

3 Quelques remarques sur le dénombrement

Le dénombrement est assez difficile dans le sens où on a du mal à s’apercevoir de ses erreurs. En effet,ces erreurs sont induites par la façon dont notre cerveau a raisonné, façon qui nous parait naturelle (etdonc juste!) puisque c’est la nôtre.

• Ne pas hésiter à relire plusieurs fois l’énoncé pour bien comprendre ce qui est demandé.

• Bien retenir les exemples cités dans le cours, comme exemples typiques d’utilisation des Apn, les

Cpn...

• Une erreur fréquente est d’oublier de prendre en compte certains cas.

• Mais une autre erreur, plus difficile à déceler, est de compter plusieurs fois de suite le mêmeobjet.

• Ne pas oublier que P (A) = 1 − P (cA). Il est parfois plus facile de calculer P (cA) que P (A)

• Ne pas hésiter à decomposer un problème en plusieurs problèmes plus faciles à résoudre.

• Lorsque les choix se succèdent de façon indépendantes, on multiplie les possibilités, on peutmettre ceci sous forme d’un arbre.

• Pour être vraiment à l’aise avec ces calculs, pas de secret, seul l’entrainement fonctionne...

4 Exercices

Exercice 1

Une urne contient 10 boules noires et 6 boules blanches discernables.

1. On tire simultanément 5 boules de l’urne.

(a) Décrire l’ensemble fondamental associé à cette experience.

(b) Calculer la probabilité de tirer 2 blanches et 3 noires.

2. On tire maintenant successivement deux boules de l’urne, sans remise.

(a) Si on classe les boules par ordre de tirage, décrire l’ensemble fondamental associé à cetteexperience.

(b) Calculer dans ce cas la probabilité de tirer 1 blanche, puis une noire.

(c) Mêmes questions si on ne classe pas les boules.

3. On tire maintenant deux boules de l’urne avec remise.

(a) Si on classe les boules par ordre de tirage, décrire l’ensemble fondamental associé à cetteexperience.

(b) Calculer dans ce cas la probabilité de tirer 1 blanche, puis une noire.

(c) Mêmes questions si on ne classe pas les boules.

Exercice 2

Voici un problème historique: Le premier problème du Chevalier de MéréLe Chevalier de Méré, adepte des jeux de hasard, posa un jour cette question à Pascal:Quel est le plus probable: obtenir au moins un 6 en lancant 4 fois de suite un dé, ou obtenir au moinsun double 6 en lancant 24 fois de suite 2 dés?

Page 12: Calcul des Probabilités

MA311 II. Dénombrement 11

Que répondre au Chevalier de Méré?

Exercice 3

Le Chevalier de Méré continue d’embêter Pascal. Voici le nouveau problème qu’il lui pose:Deux joueurs jouent à un jeu de hasard en plusieurs parties: celui qui, le premier gagne trois parties

gagne le jeu et la totalité de la mise. Malheureusement, le jeu est interrompu alors que le premier adéjà gagné 2 parties, et le deuxieme joueur 1 partie. Comment répartir équitablement la mise?

Que répondre au Chevalier de Méré?

Exercice 4

Une entreprise dispose d’un parc de 20 voitures, parmi lesquelles 5 sont en panne. Pour une mission,on a besoin de 4 voitures et on choisit donc 4 voitures parmi les 20.

1. Combien y-a-t-il de choix possibles ?

2. Calculer de 2 façons différentes la probabilité pour que parmi les 4 voitures tirées il y en ait uneau moins en panne.

3. Quelle est la probabilité pour que 2 voitures exactement parmi les 4 soient en panne ?

Exercice 5

4 personnes font une course. Combien y a-t-il de classements possibles, en admettant qu’il puisse yavoir des ex-aequo?

Page 13: Calcul des Probabilités

Chapitre III

Probabilités conditionnelles etindépendance

Il suffit de penser à quelques exemples concrets de probabilités pour voir que dans certaines situations,il existe (ou il n’existe pas !) des liens entre les évènements.

Par exemple, les évènements il fera froid demain à Valence et demain je mettrai un pull sontsurement reliés.

A l’inverse, les évènements il fera froid demain à Valence et demain un requin blanc mordra unsurfeur en Australie ont l’air plutôt indépendants.

C’est la formulation mathématique de ces liens qu’on étudie dans ce chapitre.

1 Probabilités conditionnelles

Plaçons nous dans la situation suivante. Je lance un dé. A priori, on a donc P ( le dé fait 6 ) = 16 .

Mais supposons qu’un ami me dise: "Tiens, le dé a fait un nombre pair". Je vais instinctivementme dire, sachant que les seuls résultats possibles sont 2,4,6, que P ( le dé fait 6 ) = 1

3 .

Ainsi rajouter de l’information change la probabilité d’un évènement: c’est la théorie des proba-bilités conditionnelles.

En étudiant l’exemple précédent, on s’aperçoit que connaitre l’information B revient à changerl’univers Ω en B. Ce qui conduit à poser la définition suivante:

Définition:

Soit A et B deux évènements. Si P (B) = 0, on appelle probabilité de A sachant B le nombre:

P (A|B) =P (A ∩ B)

P (B)

Mathématiquement, au vu de la définition, on comprend bien pourquoi il faut que P (B) = 0. Maisintuitivement, cela se comprend aussi: quel intérêt à rajouter l’information B si celle si n’a aucunechance de se produire ?

Remarque:

Page 14: Calcul des Probabilités

MA311 III. Probabilités conditionnelles et indépendance 13

• On a donc P (A ∩ B) = P (A|B)P (B). Cette relation est parfois utile...

2 Utilisation des probabilités conditionnelles

a) Système complet d’évènements

C’est une notion très importante. Il arrive souvent que l’on puisse décomposer l’univers d’une expéri-ence aléatoire en plusieurs évènements disjoints, chacun étant de probabilité > 0.

Définition:

On considère une expérience aléatoire, d’univers Ω. Soit (Ai)i∈N une famille de parties qui vérifient:

1. Ω = ∪i∈IAi (les Ai reconstituent toutes les éventualités possibles)

2. ∀i ∈ I, ∀j = i ∈ I, Ai ∩ Aj = ∅ (Chaque évènement Ai est disjoint des autres Aj)

3. ∀i ∈ I, P (Ai) = 0 (Chaque Aj apporte réellement de l’information)

On dit que (Ai)i∈N forme un système complet d’évènements.

Exemple(s):On considère un magasin possédant 3 portes d’entrée A, B et C. La moitié des personnes passent par laporte A, le reste se répartit entre les portes B et C. On choisit une personne au hasard dans le magasin.

Si on pose:EA = la personne est entrée par la porte AEB = la personne est entrée par la porte B, alors EA, EB , EC , est un système complet d’évènements.EC = la personne est entrée par la porte C

b) Formule des probabilités totales

Souvent, on arrive pas à calculer directement P (B), mais on arrive à calculer P (B sachant certaines informations).Comment retrouver alors P (B)?

Exemple(s):On considère une promo composée de 80% de garçons et de 20% de filles.Je sais que 30% des filles d’une promo fument, et que cette proportion est de 40% chez les garçons.

Je choisis une personne au hasard, et je me demande quelle est la probabilité qu’elle fume:je connais P (la personne fume | c’est une fille) et P (la personne fume | c’est un garçon).

Comment calculer P (la personne fume) ? C’est l’objet de la formule suivante:

Page 15: Calcul des Probabilités

MA311 III. Probabilités conditionnelles et indépendance 14

Proposition 7 (Formule des probabilités totales)

Soit B un évènement. Si (Ai)i∈N est un système complet d’évenements, on a :

P (B) =∑i∈N

P (B|Ai)P (Ai)

Démonstration:

Exemple(s):Reprenons l’exemple précédent.

c) La formule de Bayes

Supposons que l’on dispose d’un système complet d’évènements (Ai). Je considère un évènement B,je cherche P (Aj |B).

Proposition 8 (Formule de Bayes)

Soit (Ai)i∈I un système complet d’évènements, soit B un évènement. Soit i0 un indice. On a:

P (Ai0 |B) =P (B|Ai0)P (Ai0)∑i∈I P (B|Ai)P (Ai)

Page 16: Calcul des Probabilités

MA311 III. Probabilités conditionnelles et indépendance 15

Démonstration:

Exemple(s):Avec l’exemple des fumeurs. On choisit une personne au hasard, et cette personne fume. Quelle est laprobabilité que cette personne soit une fille?

d) La formule des probabilités conditionnelles en cascadeProposition 9

Soient A1, A2, ..., An des évènements. On a:

P (A1 ∩ A2 ∩ .... ∩ An) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P (An|A1 ∩ A2 ∩ .... ∩ An−1)

Exemple(s):On choisit, dans un groupe de 9 personnes, 4 personnes successivement. Le groupe est constitué de 5garçons et 4 filles. Quelle est la probabilité que toutes les personnes choisies soient des filles ?

Page 17: Calcul des Probabilités

MA311 III. Probabilités conditionnelles et indépendance 16

3 Indépendance

C’est l’un des concepts fondamentaux des probabilités. Intuitivement, si deux évènements A et B sontindépendants, on se dit que P (A|B) = P (A).

Ce qui peut se réécrire P (A∩B) = P (A)P (B). C’est la définition que l’on adoptera pour modélisermathématiquement l’indépendance.

a) Indépendance de deux évènements

Définition:

Soit Ω un univers, soient A,B deux évènements. On dits que A et B sont indépendants si

P (A ∩ B) = P (A)P (B)

Exemple(s):On lance deux dés. On pose A =le premier dé fait 2 et B =le deuxième dé fait 3.

Intuitivement, il est évident que A et B sont indépendants. Vérifions le par le calcul.

On a Ω = (i, j), i = résultat du dé 1, j = résultat du dé 2,donc card(Ω) = 6 × 6 = 36.

Ainsi, P (A ∩ B) = P (le premier dé fait 2 et le deuxième dé fait 3)=136

=16

16

= P (A)P (B)

A et B sont donc bien indépendants.

Remarques:

• Parfois (comme dans l’exemple ci dessus), il n’est pas nécéssaire (et pas conseillé, car trop long!!) de faire un calcul pour prouver que deux évènements sont indépendants: leur définition suffit.

• Par contre, dès que ce n’est pas évident, un calcul est nécéssaire. Et parfois celui ci nous prouveque l’intuition peut être trompeuse...

Proposition 10

1. Si A et B sont deux évènements indépendants, alors cA et B sont aussi indépendants.

2. Un évènement presque sûr ou de probabilité nulle est indépendant de tous les autres évènements.

Démonstration:

Page 18: Calcul des Probabilités

MA311 III. Probabilités conditionnelles et indépendance 17

b) Indépendance d’une suite d’évènements

On généralise la définition précédente au cas d’une suite de n évènements (n > 2).

Définition:

Soient A1, ..., An des évènements. On dit que A1, ..., An sont dits indépendants (ou mutuellementindépendants) si:

∀i1 < i2 < ... < ik, P (Ai1 ∩ Ai2 ∩ ... ∩ Aik) = P (Ai1)P (Ai2)...P (Aik )

Prenons un exemple pour bien comprendre cette définition: Soient A,B,C 3 évènements.

A,B,C indépendants ⇔

⎧⎪⎨⎪⎩

P (A ∩ B) = P (A)P (B), P (A ∩ C) = P (A)P (C), P (B ∩ C) = P (B)P (C)et

P (A ∩ B ∩ C) = P (A)P (B)P (C)

Attention à ne pas confondre indépendance et indépendance 2 à 2En effet, on voit bien sur l’exemple précédent que dire "A,B,C sont indépendants" est différent dedire "A et B sont indépendants, B et C sont indépendants, A et C sont indépendants".

On a bien sûr A,B,C sont indépendants ⇒ A et B sont indépendants, B et C sont indépendants,A et C sont indépendants;Mais la réciproque est fausse en général, comme le prouve l’exemple suivant:

Exemple(s):

On lance deux dés. Notons:

⎧⎪⎨⎪⎩

A = le premier dé fait 4B = le deuxième dé fait 3C = la somme des résultats des deux dés fait 7

Montrer que A,B et C sont indépendants 2 à 2 mais que A,B,C ne sont pas indépendants.

Page 19: Calcul des Probabilités

MA311 III. Probabilités conditionnelles et indépendance 18

4 Exercices

Exercice 6

Le docteur M. pense avoir démontré un théorème très important, mais malheureusement sa démon-stration comporte une faute. En lisant son texte, un lecteur s’apercoit de l’erreur avec une probabilitép.Pour être sûr que son article est juste, il fait effectuer n relectures de ce dernier par n lecteurs avisésindépendants.

1. Soit k ∈ N∗. On note X = nombre de lecteurs ayant repéré l’erreur. Calculez la probabilité que

X = k.

2. Quelle est la probabilité qu’en n relectures, on s’apercevoive de l’erreur au moins deux fois?Application numérique: p = 0.2, n = 4

3. Le docteur M. est voué à un grand avenir et n’aimerait pas publier un article faux. Combien delectures doit il faire effectuer si il veut que l’erreur soit découverte avec 90% de chances ?Application numérique: p = 0.2

Exercice 7

Une information (de type binaire V ou F ) est transmise à travers n personnes J1, J2, ..., Jn.J1 recoit la bonne information, la transmet à J2 et ainsi de suite jusqu’à Jn qui transmet finalementl’information. Chaque personne transmet ce qu’il entendu avec la probabilité p, sinon il transmet lecontraire. Ce que la personne transmet est indépendant de ce que les autres personnes ont transmis.

On note pi = la probabilité pour l’information initiale soit correctement transmise par Ji

1. Exprimer pn en fonction de pn−1 (n ≥ 2)

2. En déduire pn en fonction de n

3. Que se passe t-il quand n → +∞?

Exercice 8

Une source d’information émet un message sous forme de " 0 " ou de " 1 " avec des probabilitésrespectives p0 = 0.3 et p1 = 0.7.

On souhaite transmettre ce message vers le recepteur par une liaison A. Cette liaison, à cause dedéfauts, transmet le contraire du message avec une probabilité d’erreur qA = 10−7.

On souhaite diminuer cette probabilité d’erreur, on considère alors le système suivant:Les messages sont maintenant transmis vers un récepteur par 2 canaux distincts A et B. On admet

que les 2 liaisons sont indépendantes et que les probabilités d’erreur sur chacune de ces liaisons sontrespectivement qA = 10−7 et qB = 2.10−7 (quel que soit le message émis).

1. A un instant donné, le récepteur reçoit " 0 " sur le premier canal et " 1 " sur le second. Ondemande de décider quel était le message émis, en choisissant celui dont la probabilité d’émissionsachant le résultat à la réception (sur les 2 canaux) est maximale. (méthode du maximum aposteriori)

2. Etablir une règle de décision par la méthode du maximum a posteriori pour toutes les configu-rations possibles en réception.

Page 20: Calcul des Probabilités

MA311 III. Probabilités conditionnelles et indépendance 19

( autrement dit, que décider dans les cas suivants:

• 0 recu sur A, 0 recu sur B

• 0 recu sur A, 1 recu sur B

• 1 recu sur A, 1 recu sur B

• 1 recu sur A, 0 recu sur B

)

3. Calculer approximativement la probabilité d’erreur globale de cette règle de décision. Qu’enconclure ?

Page 21: Calcul des Probabilités

Chapitre IV

Variables aléatoires

C’est le concept fondamental du cours.

On considère une expérience aléatoire; par exemple, on considère l’arrivée de personnes à un centrecommercial. On désigne par Ω l’ensemble des résultats de cette expérience.Dans ce phénomène, une grandeur m’interesse plus particulièrement:

• Par exemple, si je suis le patron d’une boutique du centre, c’est le nombre de gens qui arriventdans la journée qui est important.

• Si je suis le responsable d’une passerelle un peu fragile, c’est plutôt le poids des personnes qui vaattirer mon attention.

• Si je suis un dragueur de supermarché, c’est plutôt le nombre de filles entrant dans le magasinqui sera la donnée pertinente.

Chacune des grandeurs ci dessus est en fait une fonction f : Ω → R. Dire que l’ensemble de départest Ω revient à dire que ces fonctions sont aléatoires (elles dépendent du résultat de l’expérience, luimême aléatoire)

En probabilités, ces grandeurs sont appelées des Variables Aléatoires

1 Notion de variable aléatoire

Définition:

Soit une expérience aléatoire d’univers Ω. On dit que X est une variable aléatoire réelle si X est unefonction de Ω dans R

Remarques:

• On écrira souvent v.a au lieu de variable aléatoire.

• Nous rencontrerons surtout des variable aléatoires réelles, mais toutes les v.a ne sont pas forcé-ment réelles: certaines sont des v.a complexes (ie leur ensemble d’arrivée est C); Si l’ensembled’arrivée est R

n, on parlera plutôt de vecteur aléatoire.

Dans le monde fabuleux des variables aléatoires, deux types de v.a nous intéresseront plus particuliere-ment.

Page 22: Calcul des Probabilités

MA311 IV. Variables aléatoires 21

a) V.a discrètes et v.a continues

Définition:

Soit X une variable aléatoire réelle. Si l’ensemble d’arrivée de X est dénombrable (ie égal à Z ou unepartie de Z), on dit que X est une v.a discrète.

Exemple(s):

1. On joue à un jeu de pile ou face. On pose X =

1 si la pièce fait pile0 sinon

L’ensemble d’arrivée de X est 0, 1, cette v.a est donc discrète.

2. Un joueur s’entraîne à tirer des coups francs. Il continue à tirer tant qu’il n’en a pas réussi un.On note T =numéro du premier coup franc réussi.L’ensemble d’arrivée de T est 1, 2, ... = N

∗, cette v.a est donc discrète.

Définition:

Soit X une variable aléatoire réelle. Si l’ensemble d’arrivée de X contient un intervalle de R, on ditque X est une v.a continue.

Exemple(s):

1. On choisit un nombre réel entre 0 et 1, on appelle U ce nombre.

Les valeurs prises par U sont donc [0, 1]: U est une v.a continue.

2. On note T =durée de vie d’une ampoule électrique. L’ensemble des valeurs de T est [0,+∞[,c’est donc une v.a continue

b) Loi d’une variable aléatoire

Une v.a est aléatoire, on est donc incapable de prédire la valeur qu’elle va prendre. Par contre, ce quel’on va essayer de faire, c’est de calculer la probabilité qu’elle prenne telle ou telle valeur.

Notation: Si X : Ω → R est une v.a, si A ⊂ R, on note

X ∈ A = X−1(A)= w ∈ Ω tq X(w) ∈ A

C’est l’évènement : "X vaut une valeur qui est dans A"

Exemple(s):

Reprenons l’exemple du centre commercial; Je suis le responsable de la passerelle. On pose X =poids total qui traverse la passerelle en une journée. (en tonnes)

D’après mes calculs, ma passerelle va s’effondrer si (en cumulé) plus de 10 tonnes lui passent dessus.La probabilité que la passerelle s’effondre est donc P (X ∈]10,+∞[).

Notation: On notera

⎧⎪⎨⎪⎩

P (X ∈ [a,+∞[) = P (X ≥ a)P (X ∈ a) = P (X = a)P (X ∈ [a, b]) = P (a ≤ X ≤ b)

Page 23: Calcul des Probabilités

MA311 IV. Variables aléatoires 22

Définition:

Soit X une v.a. On appelle loi de X la donnée des nombres P (X ∈ A), pour tous les ensemblesA ⊂ R

Connaitre la loi d’une v.a, c’est donc être capable de calculer, ∀A ⊂ R, P (X ∈ A).

Avec cette définition, on s’apercoit que connaitre la loi d’une v.a n’est pas une tâche facile, car ily a beaucoup de parties A telles que A ⊂ R.Dans la suite, on va voir qu’il n’est pas nécéssaire de calculer P (X ∈ A) pour tout A ⊂ R, mais qu’onpeut se permettre de ne calculer P (X ∈ A) que pour certaines parties A.

2 Les V.A discrètes

a) Loi d’une v.a discrète

Soit X une v.a discrète, ie X prend ses valeurs dans une partie de Z.

Proposition 11 (Loi d’une v.a discrète)

Soit X une v.a discrète. Calculer la loi de X, c’est calculer, pour tous k ∈ Z, P (X = k)

Proposition 12

Soit X une v.a discrète. On a alors ∑k

P (X = k) = 1

Démonstration:

Ce petit résultat est très important dans la pratique, car il permet de vérifier que l’on ne s’est pastrompé lors du calcul de la loi: en effet, si on ne trouve pas 1 en calculant

∑k P (X = k), cela veut

dire qu’il y a une erreur dans le calcul des P (X = k).

b) Les lois discrètes classiques

On va maintenant donner quelques lois qui se retrouvent fréquemment dans la pratique. Chacune deses lois modélise une expérience aléatoire bien particulière qu’il faudra retenir.

La loi de Bernoulli:

Page 24: Calcul des Probabilités

MA311 IV. Variables aléatoires 23

Considérons l’expérience suivante: Un joueur de foot tire un coup franc. Il peut réussir avec laprobabilité p, ou rater avec la proba 1 − p.

On pose X =

0 si le coup franc est raté1 sinon La loi de X est donc donnée par:

Définition:

La loi Binomiale:

Considérons l’expérience suivante: Un joueur de foot tire n coups francs. Il peut réussir un coupfranc avec la probabilité p, ou rater avec la proba 1− p. Chaque tir de coup franc est indépendant desautres.

Posons X =nombre de coups francs réussis. Calculons la loi de X:

Définition:

La loi géométrique:

Considérons l’expérience suivante: Un joueur de foot tire des coups francs. Il peut réussir un coupfranc avec la probabilité p, ou rater avec la proba 1− p. Chaque tir de coup franc est indépendant desautres.

Posons X =nb de tentatives nécéssaires pour réussir le premier coup franc. Calculons la loi de X:

Page 25: Calcul des Probabilités

MA311 IV. Variables aléatoires 24

Définition:

La loi de Poisson:

On introduit ici une loi qui modélise les phénomènes qui peuvent prendre beaucoup de valeurs, ettels que la probabilité que le phénomène prenne une valeur fixée est faible. C’est la loi des "évènementsrares"

Définition:

Soit X une v.a qui prend ses valeurs dans N, soit λ ∈ R+.

Si ∀k ∈ N, P (X = k) = e−λλk

k! , on dit que X suit la loi de Poisson de paramètre λ. On noteX ∼ Poi(λ)

Quelques phénomènes que l’on modélise par une loi de Poisson:

• Le nombre de soldats prussiens tués par des mules au 19ième siècle peut être modélisé par uneloi de Poisson (exemple historique!)

• On choisit une partie du ciel, et on note X le nombre d’étoiles dans cette partie. X est une v.ade Poisson.

• Le nombre d’arrivées à un guichet pendant [0, t], le nombre d’appels téléphoniques à un standard,le nombre d’erreurs survenant lors de la transmission d’un signal.

Page 26: Calcul des Probabilités

MA311 IV. Variables aléatoires 25

3 Les V.A à densité

On s’intéresse ici aux variables aléatoires continues, en réalité à un certain type de v.a continues: lesv.a qui possèdent une densité de probabilité.

a) Notion de densité

Définition:

Soit f : R → R, une fonction. Si f vérifie:

1. ∀x ∈ R, f(x) ≥ 0

2.∫

R

f(x) dx = 1

3. f continue (sauf éventuellement en un nombre fini de points)

alors on dit que f est une densité de probabilité.

Définition:

Soit X une v.a continue. On dit que X possède (ou admet) une densité de probabilité f si

∀(a, b) ∈ R2, P (b ≤ X ≤ a) =

∫ a

bf(t) dt

Ainsi, on comprend que dans la suite du cours, le calcul intégral de 1er cycle sera de grande utilité...Notamment le calcul d’intégrales multiples, qu’il faudra maîtriser (en fait, surtout dans le chapitresuivant). De petites révisions s’imposent...

On déduit de cette définition deux petits résultats évidents, mais d’usage fréquent:

Proposition 13

Soit X une v.a qui possède une densité. Alors

1. ∀a ∈ R, P (X = a) = 0

2. ∀a ∈ R, P (X < a) = P (X ≤ a)

Démonstration:

b) Les principales v.a à densité

La loi uniforme:

Page 27: Calcul des Probabilités

MA311 IV. Variables aléatoires 26

Soient (a, b) ∈ R2. Considérons l’expérience suivante: Je choisis un nombre réel dans l’intervalle

[a, b], et j’appelle U ce nombre.

On a:

⎧⎪⎪⎨⎪⎪⎩

si x < a, P (U ≤ x) = 0

si x ∈ [a, b], P (U ≤ x) =x − a

b − asi x > b, P (U ≤ x) = 1

Orx − a

b − a=

∫ x

a

dt

b − a. On en déduit donc:

Définition:

On dit que U est une v.a de loi uniforme sur [a, b] si elle admet pour densité la fonction suivante:

f(x) =

1b−a si x ∈ [a, b]0 sinon

On note alors X ∼ U([a, b]).

a b

1/(b-a)

Figure IV.1: Densité de la loi U([a, b])

La loi exponentielle:

Cette loi est utilisée pour modéliser les temps d’attente:

• Temps d’attente avant d’être servi à un guichet.

• Temps de vie (=temps de bon fonctionnement) d’un objet(une durée de vie peut être vue comme un temps d’attente avant la mort, c’est une philosophiequi peut paraître un peu désabusée mais mathématiquement c’est vrai)

Définition:

Soit λ > 0, soit X une v.a. On dit que X suit la loi exponentielle de paramètre λ si X possèdecomme densité la fonction suivante:

f(x) =

0 si x < 0λe−λx sinon

On note alors X ∼ Exp(λ).

Page 28: Calcul des Probabilités

MA311 IV. Variables aléatoires 27

0

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

1.8

2

y

–2 –1 1 2 3 4 5

Figure IV.2: Densité de la loi Exp(12 )

Quelques propriétés de la loi exponentielle:

Proposition 14

Si X ∼ Exp(λ), on a:

1. P (X ≥ 0) = 1 (X est presque surement positive)

2. ∀(s, t) ∈ R+, P (X > t + s|X > s) = P (X > t) (la loi exponentielle est sans mémoire)

Démonstration:

Remarques:

• Le premier de ces résultats est évident de par la définition de la loi exponentielle, mais il ne fautjamais l’oublier ; si X ∼ Exp(λ), on peut affirmer que X ≥ 0.

• Le deuxième résultat est moins evident, mais capital. Il exprime que si l’on attend déja depuis5 minutes à un standard téléphonique, la probabilité que l’on attende encore 2 minutes de plusest la même que si on avait pas déjà attendu 5 min: la loi exponentielle est sans mémoire.

Ce phénomène est évident par exemple dans l’étude des durées de vie de machines: si on supposequ’un appareil n’a pas d’usure, son temps de vie est clairement sans mémoire. Bien sûr dans lapratique beaucoup de machines sont sujettes à l’usure, mais très souvent celle ci est négligeabledevant la (grande) durée de vie de la machine (durée de vie d’une ampoule électrique, parexemple), et donc la modélisation par une loi exponentielle est valable.

Page 29: Calcul des Probabilités

MA311 IV. Variables aléatoires 28

• On peut prouver que la loi exponentielle est la seule loi à densité qui ait cette propriété; c’est laraison pour laquelle on l’utilise pour modéliser les temps d’attente ou les durées de vie.

La loi Normale:

C’est la loi la plus célèbre des probabilités. C’est la loi qui modélise le hasard lorsque celui n’a pasde raison d’être étrange, lorsque celui ci est "normal".

Définition:

Soit (m,σ) ∈ R2, soit X une v.a. On dit que X suit la loi Normale de paramètre m et σ si X

possède comme densité la fonction suivante:

f(x) =1√2πσ

e−(x−m)2

2σ2

On note alors X ∼ N(m,σ).

Le graphe de la densité de la loi Normale est la célèbre "cloche":

0

0.2

0.4

0.6

0.8

1

y

–4 –3 –2 –1 1 2 3 4

x

Figure IV.3: Densité de la loi normale N(0, 1)

Quelques exemples typiques de phénomènes que l’on modélise avec une loi Normale:

• Les caractères physiques d’une population: la taille, le poids...

• les notes à un devoir de maths.

• le salaire moyen des individus d’une population.

Une propriété fondamentale de la loi Normale:

Proposition 15

Si X ∼ N(m,σ), alors:X − m

σ∼ N(0, 1)

Démonstration: voir exercice 12

Ainsi, lorsqu’on est face à une loi normale quelconque, on peut se ramener (à l’aide d’une soustraction

Page 30: Calcul des Probabilités

MA311 IV. Variables aléatoires 29

et d’une division) à faire des calculs avec la loi N(0, 1). Dans la suite, on ne parlera donc plus que dela loi N(0, 1). (qu’on appelle d’ailleurs loi Normale centrée réduite)

Si X ∼ N(0, 1), sa densité est donc: f(x) = 1√2π

e−x2

2 . Cette fonction est paire, on en déduit lesdeux résultats suivants, d’usage fréquent:

Proposition 16

Si X ∼ N(0, 1), on a:

1. ∀a > 0, P (X ≤ a) = P (X ≥ −a)

2. ∀a > 0, P (|X| ≤ a) = 2P (X ≤ a) − 1

Démonstration:

La loi normale étant d’usage courant, nous devons être capables de calculer φ(a) = P (X ≤ a) =∫ a

−∞

1√2π

e−x2

2 dx.

Malheureusement, cette fonction n’est pas exprimable à l’aide des fonctions usuelles (on ne connait pas

de primitive de e−x2

2 ). On a donc calculé de façon approchée, pour certaines valeurs de a, la valeur deφ(a). Ces valeurs sont regroupées dans des tables qui permettent :

1. Etant donné a, de calculer P (X ≤ a)

2. Etant donné α, de trouver b ∈ R tel que P (X ≤ b) ≤ α

Exemple(s):La température T dans les frigos suit une loi N(0, 1).

1. Je dois conserver un aliment entre 0 et 4. Calculer la probabilité que mon frigo conserve cor-rectement mon aliment.

2. Un fabriquant de produits frais cherche une température α telle que son aliment reste consommables’il est conservé en dessous de α.

Quelle température α doit il choisir s’il veut que son aliment soit conservable dans 90% des frigos?

Page 31: Calcul des Probabilités

MA311 IV. Variables aléatoires 30

Il n’est pas toujours évident de comprendre ce que représente le notion de densité.Imaginons qu’un professeur fasse un histogramme des 300 notes obtenues à son examen. Il obtient

le résultat suivant:

0

50

100

150

200

5 10 15 20

Figure IV.4: Histogramme des notes obtenues

On choisit un élève au hasard parmi les 300, et on note X = note de cet élève.Pour calculer P (X ≤ 12) = proportion des élèves qui ont moins de 12, que va t-on faire?On va ajouter les hauteurs des barres jusqu’à la barre 12, puis diviser par 300. Autrement dit, quitteà diviser chaque hauteur par 300, cela revient à ajouter les hauteurs des barres.

Et bien imaginons maintenant que X n’est plus une v.a discrète, mais une v.a continue qui peutprendre un nombre infini de valeurs: On pourrait de même tracer un histogramme representant lesvaleurs prises; mais les barres de l’histogramme ont maintenant une longueur nulle (infinité de valeurspossibles), ce sont juste des segments; autrement dit l’histogramme devient une courbe, qui n’est autreque la densité de X.

En effet, pour calculer P (X ≤ 12), on calcule∫ 12−∞ f(x) dx , où f est la densité de X. Cela revient

à ajouter des barres.

Page 32: Calcul des Probabilités

MA311 IV. Variables aléatoires 31

0

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16

0.18

0.2

y

5 10 15 20

x

Figure IV.5: Comparaison histogramme-densité

4 Fonction de répartition, Espérance, Variance d’une v.a

a) Fonction de répartition

Définition:

Soit X une v.a. On appelle fonction de répartition de X la fonction

FX(t) = P (X ≤ t)

Exemple(s):Soit X ∼ Exp(λ). On a :

FX(t) =

⎧⎨⎩

0 si t ≤ 0∫ t

0λe−λx dx = 1 − eλt sinon

Quel est l’intérêt de FX? Et bien calculer FX est une autre façon de donner la loi de X.

Proposition 17 (Retrouver la loi de X discrète avec FX)

Soit X une v.a discrète. On a:P (X = k) = FX(k) − FX(k − 1)

Proposition 18 (Retrouver la densité de X continue avec FX)

Soit X une v.a continue admettant une densité f . Si FX est continue, de classe C1 (sauf éventuellementen un nombre fini de points), alors X possède une densité qui est FX

On peut donc conclure en disant que pour donner la loi d’une v.a X:

Page 33: Calcul des Probabilités

MA311 IV. Variables aléatoires 32

• si X est discrète, il faut:

calculer ∀k ∈ Z, P (X = k)ou alors calculer ∀k ∈ Z, P (X ≤ k) = FX(k)

• si X possède une densité, il faut:⎧⎨⎩ calculer la densité f, ie la fonction qui vérifie P (X ≤ a) =

∫ a

−∞f(t) dt

ou alors calculer ∀t ∈ R, P (X ≤ t) = FX(t)

Il y a donc plusieurs façons de donner la loi d’une v.a; à nous de choisir celle qui sera la plus simpleau niveau calculs.

Exemple(s):Soient X1 et X2 deux v.a discrètes. On pose Y = max(X1,X2)

1. Calculer P (Y = k) et P (Y ≤ k)

2. Conclure: si on doit calculer la loi de X, quelle technique utiliser ?

b) Espérance d’une v.a

Définition:

Soit X une v.a discrète, on dit que X possède une espérance si∑

k

kP (X = k) converge

On pose alors E(X) =∑

k

kP (X = k): c’est l’espérance de X.

Cette définition montre ce qu’est l’espérance de X c’est la moyenne des valeurs k prises par X,pondérée par la probabilité que X = k.

On a une définition analogue dans le cas des v.a à densité:

Définition:

Soit X une v.a possédant une densité f , on dit que X possède une espérance si∫

R

xf(x) dx existe

On pose alors E(X) =∫

R

xf(x) dx: c’est l’espérance de X.

Remarques:

• L’espérance est un nombre, une donnée déterministe, qui ne dépend pas du hasard !

• On note parfois EX au lieu de E(X).

Exemple(s):

• Un joueur lance une pièce : si la pièce fait pile, il gagne 1 euro , sinon il perd un euro. Quel estle gain du joueur en moyenne ?

Page 34: Calcul des Probabilités

MA311 IV. Variables aléatoires 33

• La durée de vie des ampoules éléctriques de la marque A est une v.a de loi Exp(16 ). Quelle est la

durée moyenne de fonctionnement de ces ampoules ?

Attention! certaines v.a n’admettent pas d’espérance. (Voir la loi de Cauchy dans le formulaire)

Proposition 19 (Propriétés de l’espérance)

1. Si X = a presque surement (P (X = a) = 1), alors E(X) = a.

2. (Linéarité): Si a ∈ R, si X et Y sont des v.a, alors E(aX + Y ) = aE(X) + E(Y )

3. Si X ≤ Y , alors E(X) ≤ E(Y ).

4. Si A est un évènement, E(1A) = P (A)

5. Si X ≤ 0 presque surement, alors E(X) = 0 ⇔ X = 0

Plaçons nous dans la situation suivante: je connais la loi d’une v.a X, et on me demande de calculerE(g(X)), où g est une fonction quelconque. Par exemple, je cherche E(X2). Quelle formule utiliser?

Proposition 20

Soit X une v.a et g une fonction. Si g(X) admet une espérance, alors:

E(g(X)) =∑

k

g(k)P (X = k) si X discrète

E(g(X)) =∫

R

g(x)f(x) dx si X admet une densité f

Exemple(s):

Si X ∼ B(p), calculer E(X2)

Proposition 21 (Une formule pour les v.a positives)

Si X est une v.a positive, alors

E(X) =∫ +∞

0P (X > t) dt

Page 35: Calcul des Probabilités

MA311 IV. Variables aléatoires 34

c) Variance d’une v.a

Je considère une v.a X, qui possède une espérance E(X). En moyenne, X vaut donc E(X). Cepen-dant, cela n’empeche pas X de prendre des valeurs qui peuvent être très différentes de E(X). Commentquantifier ce phénomène?

La v.a (X −E(X))2 met en valeur ce phénomène. Si X −E(X) est proche de 0, X ne s’écarte pasbeaucoup de sa moyenne: cette valeur ne nous intéresse pas, en la mettant au carré on la diminue. Al’inverse, on amplifie les grands écarts.Prenons maintenant la moyenne de cette v.a: ce nombre nous donnera une idée donc de l’amplitudeavec laquelle X s’écarte de E(X).

Définition:

Soit X une v.a. Si le nombre E (X − E(X))2 existe, alors on dit que X admet une variance, et onpose

var(X) = E((X − E(X))2

)

Remarques:

• Certaines v.a n’admettent pas de variance.

• La variance est un nombre positif.

Proposition 22

Si var(X) = 0, alors X est constante (égale à sa moyenne E(X))

Ce résultat est conforme à ce que l’on demande à la variance: quantifier l’écart entre X et samoyenne. Si cet écart est nul, X vaut E(X).

Proposition 23 (Propriétés de la variance)

1. Si X est une v.a presque surement constante, alors var(X) = 0.

2. Si a ∈ R, alors var(aX) = a2var(X)

3. En général, var(X + Y ) = var(X) + var(Y )

Démonstration:

Page 36: Calcul des Probabilités

MA311 IV. Variables aléatoires 35

Proposition 24 (Autre formule pour la variance)

Si X possède une variance, alors

var(X) = E(X2) − E(X)2

Démonstration:

On voit avec cette formule que si E(X2) et E(X) existent, alors var(X) existe.Plus généralement, on va s’intéresser à l’existence de E(Xk), si k ∈ N

∗:

Définition:

Soit X une v.a. On dit que X admet un moment d’ordre k si E(Xk) existe. On appelle E(Xk)moment d’ordre k de X.

5 Variables aléatoires indépendantes

Nous avons défini l’indépendance de deux évènements, mais nous devons définir maintenant l’indépendancede deux v.a. En effet, si on pose X = nombre d’attaques de requins en Australie et Y = nombre decrevaisons d’un vélo en une année, il est assez naturel de penser que X et Y sont deux v.a indépen-dantes. Comment le définir mathématiquement ?

a) Des définitions

Définition:

Soient X et Y deux v.a réelles. On dit que X et Y sont indépendantes si

∀A ⊂ R, ∀B ⊂ R, P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B)

On va regarder ce que donne cette définition dans le cas particulier où X et Y sont deux v.a dis-crètes ou deux v.a continues:

Page 37: Calcul des Probabilités

MA311 IV. Variables aléatoires 36

Définition:

Si X et Y sont deux v.a discrètes, alors

X,Y indépendantes ⇔

⎧⎪⎨⎪⎩∀i ∈ Z, ∀j ∈ Z, P (X = i, Y = j) = P (X = i)P (Y = j)ou

∀i ∈ Z, ∀j ∈ Z, P (X ≤ i, Y ≤ j) = P (X ≤ i)P (Y ≤ j)

Définition:

Si X et Y sont deux v.a continues, alors

X,Y indépendantes ⇔ ∀i ∈ Z, ∀j ∈ Z, P (X ≤ i, Y ≤ j) = P (X ≤ i)P (Y ≤ j)

On va également généraliser cette définition à l’indépendance de plusieurs v.a:

Définition:

Soient X1, ...,Xn des v.a. On dit que X1,X2, ...,Xn sont indépendantes si

P (X1 ≤ x1, . . . ,Xn ≤ xn) = P (X1 ≤ x1) . . . P (Xn ≤ xn)

et enfin (ouf!) voici la définition de l’indépendance d’une famille infinie de v.a:

Définition:

Soient X1, ...,Xn, ... une suite de v.a. On dit que ces v.a sont indépendantes si pour tout choix danscette suite d’une sous famille finie de v.a Xi1 , ...Xip , ces v.a Xi1 , ...Xip sont indépendantes.

b) Conséquences de la définition

D’abord un petit résultat bien utile:

Proposition 25

Si X et Y sont deux v.a indépendantes, si f et g sont des fonctions, alors f(X) et g(Y ) sont indépen-dantes.

Exemple(s):Si X et Y sont deux v.a indépendantes, alors X2 et eY sont indépendantes.

On va tirer de l’indépendance un résultat important:

Page 38: Calcul des Probabilités

MA311 IV. Variables aléatoires 37

Proposition 26 (V.A indépendantes et espérance)

Si X et Y sont deux v.a indépendantes, alors:

1. E(XY ) = E(X)E(Y )

2. var(X + Y ) = var(X) + var(Y )

Remarques:

• La quantité E(XY ) − E(X)E(Y ) s’appelle covariance de X et Y .

• Attention !! les résultats de la proposition précédente sont FAUX (sauf miracle) si X et Y nesont pas indépendantes, comme le prouve l’exemple suivant:

Exemple(s):Soit X une v.a de loi B(1

2). Posons X = Y , calculons E(XY ).

On a E(XY ) = E(X2) = 12P (X = 1) + 02P (X = 0) = 12 et E(X)E(Y ) = E(X)2 = 1

4 .

On a donc bien E(XY ) = E(X)E(Y )

6 Exercices

Exercice 9

Le jeu américain "chuck a luck" est le suivant: On parie sur un nombre de 1 à 6. On lance 3 dés.

Si le nombre sur lequel on a parié sort :3 fois, on gagne 3$2 fois, on gagne 2 $ ;1 fois, on gagne 1 $ ;0 fois, on perd 1 $.

1. Soit X le gain lors d’une partie, déterminer la loi de X.

2. En moyenne, combien gagne t-on à ce jeu lors d’une partie ?

Exercice 10

Dans la mémoire d’un ordinateur d’un ordinateur, on appelle quartet un ensemble de 4 bits (1 bit=0ou 1).Soit Q un quartet, notons par Z le nombre tel que Q = écriture de Z en base 2.

On suppose que la mémoire de l’ordinateur n’a pas été initialisée: ainsi, tous les bits de la mémoirese trouvent, indépendamment, dans l’état 1 avec probabilité p.

1. Calculer l’espérance et la variance de Z.

2. Calculer la probabilité que Z soit pair.

3. Calculer P (Z > 3).

Page 39: Calcul des Probabilités

MA311 IV. Variables aléatoires 38

Exercice 11

1. Le nombre de kilomètres couverts par une batterie de voiture avant défaillance est distribuéexponentiellement et sa valeur moyenne est de 10000 kilomètres. Une personne souhaite selancer dans un voyage de 5000 kms. Avec quelle probabilité terminera-t-elle son voyage sansavarie de batterie ?

2. Une machine remplit des bouteilles d’eau. Le volume qu’elle délivre est en réalité aléatoire: c’estune v.a de loi N(m,σ2), avec m = 1.5, et σ = 0.025

(a) Calculer P1 = proportion de bouteilles remplies avec moins de 1.47 l d’eau.

(b) Calculer P2 = proportion de bouteilles contenant entre 1.48 et 1.52 l d’eau.

Exercice 12

Montrer que si X ∼ N(m,σ), alorsX − m

σ∼ N(0, 1)

Page 40: Calcul des Probabilités

MA311 IV. Variables aléatoires 39

Page 41: Calcul des Probabilités

Chapitre V

Couples de V.A

Maintenant que nous savons manipuler une variable aléatoire, nous pouvons passer à l’étape suivantequi est de savoir manipuler en même temps plusieurs variables aléatoires.

En effet, très souvent dans un problème on rencontre plusieurs variables aléatoires qui sont amenéesà interagir entre elles.

Exemple(s):

Deux enfants volent de la confiture dans la cuisine. Pendant un temps T1, les 2 enfants restentdans la cuisine le temps d’accomplir leur méfait, puis s’échappent. Le temps que met la maman avantde rentrer dans la cuisine est T2. Quelle est la probabilité que la maman découvre les voleurs ? C’estP (T1 ≥ T2).

1 Loi conjointe d’un couple de v.a, lois marginales

Définition:

Soient X et Y deux v.a réelles. On dit que la fonction: Ω → R2

w → (X(w), Y (w))est un couple de

v.a, et on le note (X,Y ).

On peut bien sûr généraliser cette définition au cas où il y a plus de deux v.a. On parle alors devecteur aléatoire.

Avant de passer aux résultats fondamentaux, définissons d’abord les objets:

Définition:

Connaitre la loi d’un couple de v.a (X,Y ), c’est être capable de calculer P (X ∈ A, Y ∈ B),∀(A,B) ⊂ R

2.

Page 42: Calcul des Probabilités

MA311 V. Couples de V.A 41

Définition:

Soit (X,Y ) un couple de v.a.

• La loi de X est une loi marginale du couple (X,Y ).

• De même, la loi de Y est une loi marginale du couple (X,Y ).

Ces définitions étant très générales, on va voir ce qu’elles donnent dans deux cas particuliers.

2 Cas des v.a discrètes

a) Loi du couple

Dans le cas où X et Y sont discrètes, le calcul de la loi du couple (X,Y ) se simplifie:

Définition:

Connaitre la loi d’un couple de v.a (X,Y ), c’est être capable de calculer:⎧⎪⎨⎪⎩

P (X = i, Y = j), ∀(i, j) ∈ R2

ouP (X ≤ i, Y ≤ j), ∀(i, j) ∈ R

2

b) Calcul des lois marginales à partir de la loi du couple

Si l’on connait la loi du couple (X,Y ), il est important de savoir retrouver les lois marginales de X etY :

Proposition 27

Soient X et Y deux v.a discrètes. On a:

P (X = k) =∑j∈Z

P (X = k, Y = j)

P (Y = k) =∑j∈Z

P (X = j, Y = k)

Démonstration:

Page 43: Calcul des Probabilités

MA311 V. Couples de V.A 42

Représentation en tableau:

Si X et Y prennent peu de valeurs, il est assez agréable de donner la loi de (X,Y ) dans un tableaucomme celui ci:

X\Y 0 1 31 0.1 0.5 0.14 0 0.2 05 0 0 0.1

La somme des chiffres du tableau doit donc faire 1;La loi marginale de X est obtenue en ajoutant les colonnes, et celle de Y en ajoutant les lignes:

X\Y 0 1 3 Loi de X

1 0.1 0.5 0.1 0.74 0 0.2 0 0.25 0 0 0.1 0.1

Loi de Y 0.1 0.7 0.2

c) Retrouver la loi conjointe à partir des lois marginales

On sait maintenant, connaissant la loi conjointe d’un couple (X,Y ), calculer les lois de X et Y .On se pose donc tout naturellement la question inverse: est il possible, connaissant la loi de X et cellede Y , de retrouver la loi de (X,Y ) ?

La réponse en général est non, car cela nécéssite des renseignements sur les liens qui unissent X etY , liens qui ne sont pas fournis par la simple donnée des lois de X et de Y . Il existe des v.a X,Y,Ztelles que les couples (X,Y ), (X,Z) ont des lois différentes mais les mêmes lois marginales.

Exemple(s):On lance deux dés. On pose X =valeur du premier dé, et Y =valeur de deuxième. On pose Z = 7−X.

1. Calculer les lois des couples (X,Y ) et (X,Z)

2. Calculer les lois marginales X,Y,Z.

Il y a cependant un cas où ceci est possible, c’est quand on sait qu’il n’y a pas de liens entre X et Y ,autrement dit si on sait que X et Y sont indépendantes. La loi du couple est alors donnée par

∀(i, j) ∈ R2, P (X = i, Y = j) = P (X = i)P (Y = j)

Page 44: Calcul des Probabilités

MA311 V. Couples de V.A 43

3 Couple de v.a à densité

Soient X et Y deux v.a continues.

Définition:

Soient X et Y deux variables aléatoires. On dit que le couple (X,Y ) possède une densité conjointesi il existe une fonction f : R

2 → R (appelée densité conjointe) qui vérifie:

1. ∀(x, y) ∈ R2, f(x, y) ≥ 0

2.∫

R2

f(x, y) dxdy

telle que

∀A ⊂ R, ∀B ⊂ R, P (X ∈ A, Y ∈ B) =∫

A

∫B

f(x, y) dxdy

Remarque : on a en particulier ∀(a, b) ∈ R2, P (X ≤ a, Y ≤ b) =

∫ a−∞

∫ b−∞ f(x, y) dxdy

a) Calcul des lois marginales à partir de la loi du couple

La formule vue précédemment pour les v.a discrètes se généralise, en remplaçant les∑

par des∫

:

Proposition 28

Soit (X,Y ) un couple de v.a dont la densité conjointe est f(x, y)

• Alors X possède une denxité fX donnée par fX(x) =∫

Rf(x, y) dy

• Alors Y possède une denxité fY donnée par fY (y) =∫

Rf(x, y) dx

Exemple(s):Soit (X,Y ) un couple de v.a dont la densité conjointe est

f(x, y) =

2e−xe−2y si x ≥ 0 et y ≥ 00 sinon

Calculer la loi marginale de X.

Page 45: Calcul des Probabilités

MA311 V. Couples de V.A 44

b) Cas où X et Y sont indépendantes

Comme on l’a dit précédemment, si l’on connait uniquement la densité de X et celle de Y , il estimpossible de retrouver la densité du couple (X,Y ), sauf si X et Y sont indépendantes:

Proposition 29

1. Si X et Y sont indépendantes, de densités respecives fX et fY , alors le couple (X,Y ) possède unedensité fX,Y donnée par fX,Y = fX(x)fY (y).

2. Soit (X,Y ) un couple de v.a dont la densité conjointe est fX,Y . Si fX,Y = g(x)h(y), alors X et Ysont indépendantes, et g = densité de X et h = densité de Y . (si f, g ≥ 0)

Ainsi, on retiendra que si fX,Y peut se mettre sous la forme d’un produit de deux fonctions nedépendant respectivement que de x et y, alors X et Y sont indépendantes.

Exemple(s):Dans l’exemple précédent, on peut voir tout de suite que les v.a X et Y sont indépendantes.

4 Utilisation de la loi conjointe

Cette partie est très importante, elle détaille l’intérêt de la densité conjointe.

a) Calcul de probabilités faisant intervenir X et Y

Comme on l’a dit dans l’exemple introductif du chapitre, on doit très souvent calculer des probabilitésou interviennent conjointement X et Y .

Exemple(s):

P (X ≤ Y ), P (X + Y ≤ a), ou P (X ≤ 2Y )

Les probabilités de ce type se calculent en utilisant le notion de densité conjointe. Si on doit calculerP (g(x, y) ∈ A (g est une fonction, A un ensemble), la marche à suivre est la suivante:

1. On détermine l’ensemble B tel que P (g(x, y) ∈ A) = P ((X,Y ) ∈ B).

2. On écrit ensuite P ((X,Y ) ∈ B) =∫ ∫

Bf(x, y) dxdy et on calcule l’intégrale double...

Ceci est plus clair sur un exemple:

Exemple(s):

Soit (X,Y ) un couple de v.a dont la densité conjointe est

f(x, y) =

2e−xe−2y si x ≥ 0 et y ≥ 00 sinon

. Calculer P (X ≤ 2Y ).

Page 46: Calcul des Probabilités

MA311 V. Couples de V.A 45

b) Calcul de lois

Cette méthode peut être utilisée pour calculer la loi d’une v.a du type g(X,Y ) (où g est une fonction):

Exemple(s):Soit (X,Y ) un couple de v.a dont la densité conjointe est

f(x, y) =

e−(x+y) si x ≥ 0 et y ≥ 00 sinon

1. Montrer que Y = 0 presque surement.

2. Calculer la densité deX

Y

Un cas particulier important est le calcul de la loi de X + Y , si X et Y sont indépendantes.

Proposition 30 (Produit de convolution de deux densités)

Si X et Y sont deux v.a indépendantes, de densités fX et fY , alors X + Y possède une densité donnéepar

fX+Y (x) =∫

R

fX(x − y)fY (y) dy = fX ∗ fY

La densité de X + Y est donc le produit de convolution des densités de X et Y .

Page 47: Calcul des Probabilités

MA311 V. Couples de V.A 46

5 Loi conditionnelle

Le concept de loi conditionnelle exprime le lien reliant deux v.a X et Y .

Cas de 2 v.a discrètes:

Définition:

Soit X et Y discrètes, soit k ∈ N.Calculer la loi conditionnelle de X sachant Y = k, c’est calculer P (X = i|Y = k), ∀i ∈ R

L’interêt de la loi conditionnelle est le suivant: si on connait:

la loi conditionnelle de X sachant Y = k

la loi de Yon peut calculer la loi de X, en utilisant la formule des probabilités totales:

P (X = i) =∑k∈Z

P (X = i|Y = k)P (Y = k)

Cas de 2 v.a à densité:

Définition:

Soit (X,Y ) un couple de v.a possédant une densité conjointe fX,Y .Si fY (y) = 0, on définit la densité conditionnelle de X sachant Y = y par

fY =yX (x) =

fX,Y (x, y)fY (y)

L’interêt est de pouvoir retrouver la loi de X si on connait

la densité conditionnelle de X sachant Y = y

la densité de Y

en utilisant la formule P (X ≤ t) =∫

R

∫ t

−∞fY =yX (x) fY (y) dxdy

(généralisation de la formule des probabilités totales au cas continu)

Remarque:

• On rencontre parfois P (X ≤ t|Y = y). Comme Y possède une densité, P (Y = y) = 0 et donc apriori (cf Chapitre III) P (X ≤ t|Y = y) n’a pas de sens.

En fait, on pose P (X ≤ t|Y = y) =∫ t−∞ f

Y =yX (x) dx

6 Exercices

Exercice 13

Soit X et Y deux v.a indépendantes suivant la loi normale N(0, 1).

1. Calculer la loi de Z = X2 + Y 2

2. Calculer E(Z)

Page 48: Calcul des Probabilités

MA311 V. Couples de V.A 47

Exercice 14

Stéphanie doit se rendre à la poste. Le temps qu’elle passe à attendre dans la queue suit une loiExp(λ1). Le temps qu’elle passe au guichet suit une loi Exp(λ2). Le temps qu’elle doit attendre avantque son téléphone portable sonne suit une loi Exp(λ3). Ces 3 grandeurs sont indépendantes.

Calculer la probabilité que le téléphone portable de Stéphanie sonne dans la poste.

Page 49: Calcul des Probabilités

Chapitre VI

Fonction génératrice, Fonctioncaractéristique d’une V.A

De nombreux problèmes de probabilités peuvent s’avérer difficiles si l’on aborde leur calcul du pointde vue sans deux outils qui s’avèrent parfois très efficaces. ces outils sont ce que l’on appelle destransformées de variables aléatoires.

1 Fonction génératrices

Attention, on ne s’intéresse ici qu’aux v.a discrètes

Définition:

Soit X une v.a discrète. On appelle fonction génératrice de X la fonction, notée GX :

GX :[−1, 1] → R

t → E(tX)

Exemple(s):Soit X une v.a de loi de Poisson de paramètre λ. Calculons GX(t):

GX(t) = E(tX) =+∞∑k=0

tkP (X = k)

=+∞∑k=0

tke−λ λk

k!

= e−λ+∞∑k=0

(tλ)k

k!

= e−λetλ = eλ(t−1)

Proposition 31

Si X et Y sont deux v.a indépendantes, alors GX+Y (t) = GX(t)GY (t)

Page 50: Calcul des Probabilités

MA311 VI. Fonction génératrice, Fonction caractéristique d’une V.A 49

Démonstration:

GX+Y (t) = E(tX+Y )= E(tXtY )= E(tX)E(tY ) car, comme X et Y sont indépendantes, tX et tY sont indépendantes= GX(t)GY (t)

A quoi servent ces fonctions génératrices? L’intérêt est donné par les résultats suivants:

Proposition 32

1. Si X et Y sont deux v.a qui possèdent la même fonction caractéristique, alors elles ont la même loi.

2. G′X(1) = E(X)

Démonstration:

1. On a GX(t) =∑

k∈ZtkP (X = k). C’est une série entière. Si GY = GX , on a donc∑

k∈Z

tkP (X = k) =∑k∈Z

tkP (Y = k)

Si deux séries entières sont égales, on a égalité des coefficients. Donc ∀k ∈ Z, P (X = k) =P (Y = k).

2. On dérive la série entière, on obtient G′X(t) =

∑k∈Z∗ ktk−1P (X = k). En 1, cela donne G′

X(1) =∑k∈Z∗ kP (X = k) = E(X)

Voici deux exemples où on s’aperçoit de l’interêt des fonctions génératrices:Exemple(s):

1. Soit X une v.a de loi de Poisson de paramètre λ. Calculons E(X) à l’aide de GX .

E(X) = (GX)′(1)= (eλ(t−1))′(1) = λeλ(t−1)(1)= λe0 = λ

C’est plus simple que le calcul de+∞∑k=0

ke−λ λk

k!!!

2. Soient X et Y deux v.a indépendantes de lois de Poisson de paramètres λ1 et λ2. On cherche laloi de X + Y , pour cela calculons GX+Y

GX+Y (t) = GX(t)GY (t) Proposition

= eλ1(t−1)eλ2(t−1) = e(λ1+λ2)(t−1)

Or si Z ∼ Poi(λ1 +λ2), GZ(t) = e(λ1+λ2)(t−1). Donc d’après la proposition ci dessus, Z et X +Yont la même loi. Ainsi X + Y ∼ Poi(λ1 + λ2)

La proposition précédente découle en fait du résultat plus général suivant:

Proposition 33

1. La loi de X est donnée par P (X = k) = G(k)X (0)k!

2. on a, si |X|k est intégrable, G(k)X (1) = E(X(X − 1)...(X − k + 1))

Page 51: Calcul des Probabilités

MA311 VI. Fonction génératrice, Fonction caractéristique d’une V.A 50

2 Fonctions caractéristiques

Ici, les v.a ne sont plus nécéssairement discrètes.

Définition:

Soit X une v.a. Si t ∈ R, on appelle fonction caractéristique de X la fonction

ϕX :R → C

t → E(eitX )

En particulier, si X a pour densité fX , on a ϕX(t) =∫

R

eitxfX(x)dx

Remarques:

• C’est donc une fonction à valeurs complexes, qui est définie sur R.

• Parfois il faudra utiliser la méthode des résidus pour calculer ϕX(t).

• Si X est discrète, on a: GX(eit) = ϕX(t).

Exemple(s):

Si X ∼ N(m,σ), on a ϕX(t) = e(im−σ2t2

2)

L’intérêt et l’utilisation des fonctions caractéristiques sont similaires à ceux des fonctions génératrices:

Proposition 34

1. Si 2 v.a ont la même fonction caractéristique, alors elles ont la même loi.

2. Si Xk possède une espérance, ϕX est k fois dérivable et on a : ikE(Xk) = ϕ(k)X (0)

En particulier, on a iE(X) = ϕ′X(0)

Page 52: Calcul des Probabilités

MA311 VI. Fonction génératrice, Fonction caractéristique d’une V.A 51

Page 53: Calcul des Probabilités

Chapitre VII

Convergence des suites de V.A

On s’intéresse maintenant à des situations où la même expérience se répète plusieurs fois. Exemples:

• Transmission d’un message dans une ligne ponctuée de défauts.

• Sondages

Peut on étudier simplement ce genre de phénomènes ?

1 La loi des grands nombres

a) Le théorème

Si je jette n fois une pièce équilibrée, si je note n1 = nombre de piles obtenus, l’intuition nous dit que

si n est grand, le rapportn1

nva tendre vers

12. Ce phénomène est appelé "loi des grands nombres"

Nous allons énoncer le résultat mathématique qui correspond à cette intuition, et avant nous devonsd’abord donner une définition de la notion de convergence.

Définition:

Soit (Xn) une suite de v.a, soit X une v.a. On dit que Xn −−−−−→n→+∞ X presque surement si l’ensemble

w ∈ Ω tq Xn(w) −−−−−→n→+∞ X(w) est de probabilité 1

Cela veut dire que si n est grand, Xn et X prennent les mêmes valeurs avec la probabilité 1.

Proposition 35 (Loi des grands nombres)

Soit (Xn) une suite de v.a qui verifie:

1. Les (Xi) sont indépendantes

2. Les (Xi) ont toutes la même loi.

3. Les (Xi) admettent une espérance. (On pose E(Xi) = m)

AlorsXn =

X1 + X2 + ... + Xn

n−−−−−→n→+∞ m presque surement

Page 54: Calcul des Probabilités

MA311 VII. Convergence des suites de V.A 53

Remarques:

1. Il existe plusieurs "lois des grands nombres". Leur différence consiste en des hypothèses différentessur les Xi, et/ou sur des modes différents de convergence.

2. Si ce résultat semble naturel, la démonstration n’en est pas moins douloureuse. Ce n’est pas unrésultat trivial.

3. Comme les Xi ont toutes la même loi, il suffit de prouver que E(X1) existe.

Comment comprendre ce résultat ? et bien, si l’on répète une expérience identique plusieurs fois,de façon indépendante, le nombre X1+X2+...+Xn

n , moyenne des résultats obtenus, sera proche de m,espérance commune des Xi.

Exemple(s):Reprenons l’exemple des deux dés.

Remarque:

Attention à ne pas faire l’erreur suivante: Je lance ma pièce, j’obtiens sur les 20 premiers lancers20 piles. D’après la loi des grands nombres, le rapport nombre de piles

nombre de lancers doit tendre vers 12 . Or il vaut

1 pour l’instant. J’ai donc de bonnes chances d’obtenir un face lors du 21 ième lancer pour "équilibrer".

Non, jamais la loi des grands nombres n’affirme une telle chose! Les lancers étant indépendants, laprobabilité d’obtenir un face lors du 21 ième lancer est toujours 1

2

b) Application fondamentale: les méthodes de Monte-Carlo

On l’a vu, les applications de la théorie des probabilité sont multiples:Files d’attentes, propagation de maladies, transmissions d’erreurs, étude de durées de vie de machines,gestions de stocks, étude des cours de valeurs financières...

Mais toutes ces applications semblent naturelles, puisque dans les phénomènes énoncés, le hasardintervient de façon évidente. Il est une autre application, toute aussi importante que les précédentes,qui semble plus étrange: c’est le calcul approché d’intégrales.

Page 55: Calcul des Probabilités

MA311 VII. Convergence des suites de V.A 54

Une intégrale (une aire, un volume, un flux...) est une donnée déterministe (l’aire d’une surfacedélimitée par une courbe ne dépend pas du hasard!) et pourtant dans la pratique, on utilise souventle hasard pour les calculer. L’idée est la suivante:

Je considère une fonction f dont je souhaite calculer l’intégrale sur [a, b].

a b

M

Figure VII.1: Une pauvre fonction dont on cherche l’intégrale

Je me bande les yeux et choisit au hasard n points dans le rectangle. Certains des points sont audessus de la courbe, d’autres non; Je compte le nombre de points au dessous de la courbe et je fais lerapport nombre de points au dessous de la courbe

nombre total de points choisis = nombre de points au dessous de la courben .

Alors j’affirme que ce rapport tend vers∫ ba f(t) dt

(b − a)Mquand n → +∞.

Il suffit donc de prendre n suffisamment grand pour avoir une approximation de l’intégrale.Démonstration:

Remarques:

1. La méthode décrite ici (sommairement) est très utilisée car:

• En général, on ne sait pas calculer de primitive de la fonction f

• Il existe d’autres méthodes de calcul approché d’intégrales (approximation à l’aide de rectan-gles, de trapèzes...) mais ces méthodes déterministes s’appliquent lorsque f est suffisammentrégulière (i.e de classe C1, C2...)

La méthode de Monte-Carlo par contre s’applique même si la fonction est un atroce caspathologique (pas continue, ou continue mais pas dérivable...)

Page 56: Calcul des Probabilités

MA311 VII. Convergence des suites de V.A 55

2. La terminologie Monte Carlo vient bien sur des casinos de Monaco, temples du hasard (enfin,pas tant que ca...)

c) Comment calculer π en lançant des aiguilles par terre...

Voici un joli exemple d’application des méthodes de Monte Carlo: le calcul de π:

On possède une table, recouverte de lignes parallèles, espacées entre elles de D cm. On y jette uneaiguille de longueur l, avec l ≤ D. On cherche la probabilité que l’aiguille rencontre une ligne.On repère la position de l’aiguille avec les coordonées suivantes:

• θ est l’angle aigu formé entre l’aiguille et une perpendiculaire aux lignes.

• X est la distance entre le milieu de l’aiguille et la ligne parallèle la plus proche.

1. Quelles lois suivent θ et X? Sont-elles indépendantes?

2. Trouver la probabilité cherchée.

3. Imaginez une méthode pour calculer π.

Page 57: Calcul des Probabilités

MA311 VII. Convergence des suites de V.A 56

2 Approximation de lois

Ce qui nous interesse, ce ne sont pas les valeurs d’une v.a, mais la loi de cette v.a. (les valeurs ne sontpas prévisibles de toute façon!)On va chercher ici à calculer la loi de X, si X s’écrit comme une somme de plusieurs v.a.

a) Convergence en loi

Définition:

Soit (Xn) une suite de v.a. On dit que (Xn) converge en loi vers X si

P (Xn ≤ t0) −−−−−→n→+∞ P (X ≤ t0) (si t0 est un point où FX est continue)

• Dans le cas où les Xi sont discrètes, on a:

(Xn) converge en loi vers X ⇔ ∀k ∈ Z, P (Xn = k) −−−−−→n→+∞ P (X = k)

• Dans le cas où les Xi possèdent une densité fi, on a:

(Xn) converge en loi vers X ⇔ ∀x ∈ R, fn(x) −−−−−→n→+∞ f(x)

b) Approximation de la loi Binomiale par la loi de Poisson

Un exemple classique de convergence en loi est la résultat suivant:

Proposition 36 (Convergence de la loi binomiale vers la loi de Poisson)

Soit λ ∈ R. Soit (Xn) une suite de v.a telles que Xn ∼ B(n, pn).

Si npn −−−−−→n→+∞ λ, alors Xn converge en loi vers la loi Poi(λ)

Ainsi, on pourra écrire P (Xn = i) = e−λ λi

i! au lieu de P (Xn = i) = Cinpi

n(1 − pn)n−i, ce qui est plussimple à calculer.

Ce résultat sert dans la pratique à faire l’approximation suivante: Si X ∼ B(n, p), avec n grand et nppetit, on dira que X ∼ Poi(np).Le terme n grand veut dire de l’ordre de la centaine, alors que np sera ≤ 15

Exemple(s):

Des transistors sont vendus par paquets de 100. Parmi eux, se trouvent des transistors défectueux,dans une proportion de 1%.Calculer la probabilité qu’il y ait plus de 2 transistors défectueux dans le paquet.

Page 58: Calcul des Probabilités

MA311 VII. Convergence des suites de V.A 57

c) Le théorème central limit

Soient X1,X2, ...,Xn des v.a indépendantes, de même loi, d’espérance m. Imaginons que l’on ap-proxime (approximation très grossière!) Xi par sa moyenne m.

Considérons la v.a Z = X1 + ... + Xn − nm qui représente l’erreur faite en remplacant Xi par samoyenne m. Le théorème central limit nous affirme alors que cette v.a, si n est assez grand, suivra uneloi normale.

Proposition 37 (Théorème Central limit)

Soit (Xn) une suite de v.a telles que:

1. Les Xi sont indépendantes

2. Les Xi ont la même loi

3. Les Xi possèdent une espérance m et une variance σ2

AlorsZn =

X1 + . . . Xn

σ√

nconverge en loi vers la loi N(0, 1)

Autrement dit, si n est grand, on connait la loi de Zn: C’est la loi N(0, 1). Cela revient à dire (voirpropriétés de la loi Normale) que X1 + . . . + Xn ∼ N(nm, σ

√n)

Conclusion:Si X1, . . . ,Xn sont des v.a indépendantes de même loi, la loi de X1 + . . . + Xn est une loiNormale (pour n assez grand)

En réalité, le TCL reste vrai même si les Xi n’ont pas la même loi (il faut cependant que Xi − mi

soit petit face ài∑

n=1

Xn).

Ceci explique pourquoi beaucoup de phénomènes aléatoires sont modélisés par une loi Normale: carsouvent un phénomène aléatoire est souvent la somme de plusieurs phénomènes indépendants.

Exemple(s):

• L’erreur commise suite à une mesure physique peut être modélisée par une loi normale, car cetteerreur est la somme de plusieurs causes indépendantes: erreur dûe à la température + erreurdûe à des conditions de pression + erreur dûe à un souffle + erreur dûe à des mouvements del’utilisateur...

• La taille d’une personne peut s’expliquer par des facteurs génétiques, alimentaires, sociaux, ...

Page 59: Calcul des Probabilités

MA311 VII. Convergence des suites de V.A 58

3 Exercices

Exercice 15

Pour éclairer un local, on dispose d’un stock de 40 ampoules, de durée de vie indépendantes, suivanttoutes la loi Exp(0.01) (le temps est en heures).

Calculer la probabilité que ce stock suffise à éclairer le local pendant 5000 heures.

Exercice 16

Soit ε > 0. On lance une pièce équilibrée. On pose f = fréquence d’apparition des piles. D’après laloi des grands nombres, on sait que f doit se rapprocher de 1

2 si le nombre de lancers est suffisammentgrand.

Combien de lancers doit-on effectuer pour être sûr à 95% que f soit proche de 12 à ε près ?

Page 60: Calcul des Probabilités

MA311 VII. Convergence des suites de V.A 59

Page 61: Calcul des Probabilités

Chapitre VIII

Probabilités et Simulation

1 Pourquoi simuler une variable aléatoire ?

Il est capital dans la pratique de savoir faire la chose suivante: étant donnée une loi de probabilitéL connue, pouvoir sortir une liste (x1, x2, ...xn) de nombres représentant les valeurs qu’ont prisessuccessivement n v.a indépendantes suivant toutes la loi L.

Dans quel but ?

• Par exemple, pour calculer une intégrale avec la méthode de Monte Carlo, nous devons êtrecapable de "tirer" des points, au hasard sur une zone du plan. Nous devons donc être capablesavec un ordinateur de "reproduire" cette experience aléatoire: ce qui revient à être capable desimuler des v.a de loi uniforme.

• Si l’on étudie une file d’attente à une caisse, nous devrons simuler l’arrivée des personnes à cettecaisse; Si on suppose que les temps entre 2 arrivées de clients sont des lois exponentielles, nousdevrons donner des valeurs à ces temps, ces temps n’étant pas choisis n’importe comment, maisétant choisis comme les réalisations de v.a indépendantes de lois exponentielles.

Si je tape sur Matlab exprnd(λ,n,1), j’obtiens n nombres a1, .., an. Que veulent dire ces nombres ?Il signifient qu’on a pris n v.a indépendantes X1, ...,Xn de même loi Exp(λ), que la première a priscomme valeur a1, la deuxième a2, etc...

La simulation sert à plusieurs choses:

1. Bien sur, à reproduire en labo le phénomène qu’on étudie, et en déduire des résultats;

2. Mais aussi à faire certains calculs de manière approchée:

Exemple 1:Une machine est constituée de 3 composants de la manière suivante:

T1

T2

T3

Figure VIII.1: Schéma de fonctionnement d’une machine

Chacun des composants possède une durée de vie Ti, qui est une v.a de loi Exponentielle.

Page 62: Calcul des Probabilités

MA311 VIII. Probabilités et Simulation 61

1. Calculer T = durée de vie du système en fonction de T1, T2 et T3.

2. Calculer la durée de vie moyenne du système E(T ) de façon théorique.

3. Calculer par simulation E(T ).

Exemple 2:

Soient T1 et T2 deux v.a indépendantes de loi Exp(1) et Exp(2).

1. Calculer P (T1 ≤ T2).

2. Retrouver ce résultat par simulation.

Page 63: Calcul des Probabilités

MA311 VIII. Probabilités et Simulation 62

2 Comment simuler une loi de probabilité quelconque?

On peut démontrer que si l’on sait simuler une v.a de loi U [0, 1], on peut simuler à partir de U n’importequelle variable aléatoire. Nous nous contenterons d’utiliser les commandes de Matlab qui permettentde simuler les lois classiques.

Donnons juste un exemple qui montre comment simuler une loi Exponentielle à partir d’une loi Uni-forme:

Exemple(s):

1. Soit λ ∈ R+∗, soit U une v.a de loi uniforme sur [0, 1]. On considère X = − ln(U)

λ.

(a) Pourquoi peut on dire que X existe presque surement?

(b) Calculer la loi de X

Tout repose donc sur la simulation d’une v.a U [0, 1]: le fameux rand() des calculatrices. Commentfonctionne ce rand() ?

Page 64: Calcul des Probabilités

MA311 VIII. Probabilités et Simulation 63

Une méthode couramment employée consiste à construire la suite suivante:

On se donne des réels a, b,M tels que

1 ≤ a ≤ M

0 ≤ b < M, et on construit la suite

xi+1 = axi + b [M ] (0 ≤ x0 < M)

On pose ensuite ui = xiM , ces nombres sont dans [0, 1].

Bien entendu, nulle part le hasard n’intervient dans la construction de ces nombres, ce ne sont quedes nombres pseudo-aléatoires: si l’on part du même x0 (x0 est la graine, seed), on obtiendra la mêmesuite! Cette suite est même périodique, elle se répète... bref rien à voir avec du hasard. Mais en réalité,si la période est suffisamment grande, on peut en premiere approximation considérer que cette suitenous sort bien des nombres "au hasard".

Exemple: La suite xi+1 = 3125xi + 1 [235] est périodique de période 34 359 738 668

De tels générateurs sont appelés générateurs congruentiels.

3 Exercices

Exercice 17

Le but de cet exercice est de simuler une loi normale à l’aide d’une loi uniforme:

Soient U1 et U2 2 v.a indépendantes de loi U([0, 1]). On pose:X1 =

√−2 ln(U1) cos(2πU2)X2 =

√−2 ln(U1) sin(2πU2)

Montrer que X1 et X2 sont indépendantes et suivent la loi N(0, 1)

Exercice 18

Le but de cet exercice est de montrer comment simuler une loi de probabilité quelconque à partird’une loi U([0, 1]).

Soit X une v.a à simuler, de fonction de répartition FX . On pose

G(y) = infx∈R

y ≤ FX(x)

1. Calculer la fonction de répartition de la v.a G(U).

2. En déduire le résultat.

Page 65: Calcul des Probabilités

Table des Matières

I Le vocabulaire mathématique des probabilités 21 Quelques rappels de théorie des ensembles . . . . . . . . . . . . . . . . . . . . . . . . . 22 L’ensemble fondamental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Notion de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

II Dénombrement 61 Probabilité uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 Les formules à savoir . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Quelques remarques sur le dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . 104 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

IIIProbabilités conditionnelles et indépendance 121 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 Utilisation des probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . 133 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

IV Variables aléatoires 201 Notion de variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 Les V.A discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223 Les V.A à densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254 Fonction de répartition, Espérance, Variance d’une v.a . . . . . . . . . . . . . . . . . . 315 Variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

V Couples de V.A 401 Loi conjointe d’un couple de v.a, lois marginales . . . . . . . . . . . . . . . . . . . . . . 402 Cas des v.a discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413 Couple de v.a à densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434 Utilisation de la loi conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 445 Loi conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

VI Fonction génératrice, Fonction caractéristique d’une V.A 481 Fonction génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 482 Fonctions caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

VIIConvergence des suites de V.A 521 La loi des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 522 Approximation de lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 563 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

64

Page 66: Calcul des Probabilités

MA311 VIII. Table des matières 65

VIIIProbabilités et Simulation 601 Pourquoi simuler une variable aléatoire ? . . . . . . . . . . . . . . . . . . . . . . . . . . 602 Comment simuler une loi de probabilité quelconque? . . . . . . . . . . . . . . . . . . . 623 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63