42102210 af1500

34
Date de publication : 10 avril 2014 Mots-clés équilibre de Nash | Théorie des jeux non coopératifs | Jeux sous forme normale et développée | modèle économétrique linéaire | multinomial logit model | données expérimentales et de terrain Keywords Nash equilibrium | non-cooperative game theory | extensive and normal form games | econometric linear model | multinomial logit model | experimental and field data sets Pour toute question : Service Relation clientèle - Techniques de l’Ingénieur Pleyad 1 - 39, bd Ornano 93200 Saint-Denis Par mail : [email protected] Par téléphone : 00 33 (0)1 53 35 20 20 Réf. : AF1500 Économétrie et théorie des jeux Cet article est issu de : Sciences fondamentales | Mathématiques pour l'ingénieur par Pascal BOUYAUX Résumé Cet article expose deux piliers fondamentaux de l'analyse économique : la théorie des jeux et l'économétrie. La première partie présente les bases de la théorie des jeux non coopératifs reposant sur la notion d'équilibre de Nash déterminée à partir des modèles de forme normale ou développée décrivant les interactions individuelles. Dans la seconde partie, la démarche économétrique est d'abord décrite dans le cadre traditionnel du modèle linéaire à variable endogène quantitative; puis elle est étendue au modèle logit multinomial à variable endogène qualitative qui permet de cerner les déterminants des choix individuels discrets. Finalement, on montre comment le modèle logit multinomial peut être utilisé pour tester la rationalité des comportements stratégiques et en révéler les principales incitations. Abstract This report outlines two fondamental pillars of economic analysis : game theory and econometrics. The first part provides basis of non cooperative game theory, that is the Nash equilibrium obtained with normal or extensive form games describing individual interactions. The second part provides the econometric processes in the traditionnal case of linear model with endogenous quantitative variable. It is then extended to the multinomial logit model which allows to delimit individual discrete choices. The lst part shows how the multinomial logit model can be used to test rationality of strategic behavior and to reveal principal explanatories variables of games. Document téléchargé le : 25/12/2015 Pour le compte : 7200030444 - pres universite paris est // 193.48.143.25 © Techniques de l'Ingénieur | tous droits réservés

Transcript of 42102210 af1500

Page 1: 42102210 af1500

Date de publication :

10 avril 2014

Mots-clés équilibre de Nash | Théorie desjeux non coopératifs | Jeux sousforme normale et développée |modèle économétrique linéaire| multinomial logit model |données expérimentales et deterrain

Keywords Nash equilibrium |non-cooperative game theory |extensive and normal formgames | econometric linearmodel | multinomial logit model| experimental and field datasets

Pour toute question : Service Relation clientèle -Techniques de l’IngénieurPleyad 1 - 39, bd Ornano93200 Saint-Denis

Par mail : [email protected] Par téléphone : 00 33 (0)1 53 35 20 20

Réf. : AF1500

Économétrie et théorie desjeux

Cet article est issu de : Sciences fondamentales | Mathématiques pour l'ingénieur

par Pascal BOUYAUX

Résumé  Cet article expose deux piliers fondamentaux de l'analyse économique : la

théorie des jeux et l'économétrie. La première partie présente les bases de la théorie des

jeux non coopératifs reposant sur la notion d'équilibre de Nash déterminée à partir des

modèles de forme normale ou développée décrivant les interactions individuelles. Dans la

seconde partie, la démarche économétrique est d'abord décrite dans le cadre traditionnel

du modèle linéaire à variable endogène quantitative; puis elle est étendue au modèle logit

multinomial à variable endogène qualitative qui permet de cerner les déterminants des

choix individuels discrets. Finalement, on montre comment le modèle logit multinomial

peut être utilisé pour tester la rationalité des comportements stratégiques et en révéler les

principales incitations.

Abstract  This report outlines two fondamental pillars of economic analysis : game

theory and econometrics. The first part provides basis of non cooperative game theory,

that is the Nash equilibrium obtained with normal or extensive form games describing

individual interactions. The second part provides the econometric processes in the

traditionnal case of linear model with endogenous quantitative variable. It is then extended

to the multinomial logit model which allows to delimit individual discrete choices. The lst

part shows how the multinomial logit model can be used to test rationality of strategic

behavior and to reveal principal explanatories variables of games.

Document téléchargé le : 25/12/2015

Pour le compte : 7200030444 - pres universite paris est // 193.48.143.25

© Techniques de l'Ingénieur | tous droits réservés

Page 2: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I. AF 1 500 – 1

AF

1 5

00

4 -

201

4

Économétrie et théorie des jeux

Pascal BOUYAUXMaître de conférences, Université de Rennes I

a théorie économique cherche à comprendre l’importance des motivations sous-jacentes aux décisions des individus vivant en société. Raisonnant

dans le cadre de modèles, les théoriciens formulent des hypothèses sur ces motivations dont ils déduisent, par une analyse logique, des comportements rationnels d’agents représentatifs d’un système économique tels que les consommateurs, les producteurs ou diverses institutions étatiques. La repré-sentation idéale du fonctionnement des économies de marché ainsi développée se veut descriptive, générant des explications et des prédictions des décisions humaines. Mais les agents économiques, disposant de capacités cognitives limitées, se comportent-ils comme les théoriciens l’ont imaginé ? Les résultats obtenus dans les modèles doivent être confrontés à des faits observés pour en tester la validité. Ce n’est que si ces tests sont positifs que l’on peut envisager d’utiliser les analyses formelles comme moyen d’action sur le réel, notamment comme outil d’aide à la décision dans un environnement économique et social.

L’économétrie a pour objet de procéder à une mise à l’épreuve des modèles théoriques, en appliquant les méthodes statistiques à des observations rela-tives aux comportements d’agents économiques impliqués dans des situations d’échange sur les marchés. La démarche employée consiste à construire des relations de nature empirique, entre des variables suggérées par la théorie, et relatives aux motivations et décisions des individus. La mesure des paramètres introduits dans ces relations pour exprimer leur direction et leur force, réalisée à l’aide de techniques statistiques appropriées, permettra d’évaluer l’adéqua-tion entre les expériences de pensée développées par les théoriciens et la réalité du fonctionnement d’une économie. Les données révélant les valeurs

1. La science des interactions stratégiques ......................................... AF 1 500 - 31.1 Objet de la théorie de jeux ......................................................................... — 31.2 Modèle fondamental et notion d’équilibre de Nash ................................ — 31.3 Principales tensions stratégiques .............................................................. — 41.4 Stratégies mixtes et équilibre de Nash ..................................................... — 51.5 Approfondissements : prise en compte du temps et de l’information... — 61.6 Quelques remarques .................................................................................. — 9

2. La démarche économétrique................................................................ — 92.1 Le modèle linéaire classique...................................................................... — 102.2 Modèle non linéaire à variable endogène qualitative : le modèle logit

multinomial ................................................................................................. — 15

3. Confrontation de la science des interactions stratégiques aux données .............................................................................................. — 24

3.1 Analyse économétrique d’un jeu non coopératif sous forme normale.. — 253.2 Applications................................................................................................. — 26

Pour en savoir plus .......................................................................................... Doc. AF 1 500

L

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 3: 42102210 af1500

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I.AF 1 500 – 2

des variables d’intérêt peuvent être générées par des enquêtes de terrain, enregistrant des motivations et des décisions non influencées par le modélisa-teur-économètre. Ces données ont l’avantage d’intégrer les contraintes auxquelles sont réellement confrontés les acteurs économiques, mais elles sont très souvent coûteuses et/ou difficiles à obtenir. Aussi la démarche écono-métrique est-elle encore mise en œuvre à partir de données expérimentales, obtenues dans des conditions contrôlées de laboratoire, qui permettent une évaluation plus fine des déterminants des décisions individuelles. Leur emploi constitue généralement une première étape avant la réalisation d’un test lourd sur données de terrain. La nature des variables enregistrées dans les données a des conséquences sur la complexité des relations empiriques traitées en éco-nométrie. Les décisions individuelles dont on cherche à comprendre les motivations expriment essentiellement des choix entre différentes options ; ces choix sont naturellement traduits à l’aide de variables qualitatives et mis en relation avec leurs motivations dans des modèles appartenant au domaine de l’économétrie des variables qualitatives.

La recherche des motivations des décisions individuelles doit, pour mieux s’accorder à la réalité, prendre en compte le fait que les agents économiques sont la plupart du temps immergés dans des situations de jeux. Un jeu est une situation où le résultat associé à chaque décision individuelle n’est pas indé-pendant des décisions d’autrui. Dans ces conditions, chaque acteur cherche à raisonner stratégiquement, en intégrant dans ses motivations les différentes décisions d’autres individus plongés dans le même contexte. Les interactions stratégiques sont présentes sur les marchés des biens, du capital et du travail qui fonctionnent souvent selon une concurrence imparfaite : les agents écono-miques ont alors un pouvoir sur la fixation des prix, les termes de l’échange n’étant pas indépendants de leurs décisions. La théorie des jeux est le cadre naturel pour étudier ce genre de problème. Cette méthodologie mathématique propose des modèles et des concepts d’équilibre permettant d’analyser logi-quement le comportement d’individus cherchant à agir au meilleur de leur intérêt étant donné leur information, donc à être rationnels dans des jeux tels que décrits plus haut. Elle permet notamment une représentation des princi-pales tensions stratégiques que peuvent rencontrer les acteurs économiques, soulignant de la sorte les problèmes de coordination liés aux interactions humaines. Le contenu empirique de la théorie des jeux est naturellement précisé à partir d’études expérimentales en laboratoire. On peut en effet tester directement cette approche en organisant des sessions dans lesquelles des individus recrutés pour la circonstance doivent chacun sélectionner une stra-tégie dans un contexte qui leur est spécifié. Les données ainsi collectées vont permettre d’apprécier selon la hauteur des motivations contrôlées par l’expéri-mentateur, les écarts entre les prédictions théoriques et les comportements observés. Mais la théorie des jeux se prête aussi à une confrontation à des données de terrain cherchant à déterminer les principales variables sous-jacentes aux motivations stratégiques. L’économétrie des variables qualitatives mentionnée plus haut permet d’atteindre ces objectifs empiriques, donnant à la théorie des jeux un rôle important pour comprendre les interactions et être utilisée pour les influencer dans un sens favorable à un intérêt individuel ou collectif.

La lecture des articles [AF 168] et [AF 170] est indispensable pour une bonne compréhension de la démarche économétrique. L’article [AF 605] offre une perspective complémentaire quant à la mise en œuvre de cette démarche.

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 4: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I. AF 1 500 – 3

___________________________________________________________________________________________________ ÉCONOMÉTRIE ET THÉORIE DES JEUX

1. La science des interactions stratégiques

1.1 Objet de la théorie de jeux

La théorie des jeux est une branche des mathématiques [1] ana-lysant le comportement d’individus – qualifiés de joueurs – dans des situations d’interaction stratégique où le résultat obtenu par chaque protagoniste dépend de sa propre décision et de celles d’autrui. Elle considère deux catégories de jeux : les jeux non coo-pératifs et les jeux coopératifs. Si le jeu est non coopératif, chaque joueur choisit une stratégie pour le meilleur de son intérêt, indé-pendamment des autres. Si le jeu est coopératif, les joueurs se groupent dans des coalitions, chaque coalition cherchant à obtenir le meilleur résultat possible sans que le détail des stratégies sui-vies soit précisé. Les situations correspondant à des jeux non coo-pératifs sont les plus nombreuses dans le monde économique et social où la loi interdit très souvent la formation des coalitions. Ce sont donc les éléments de la théorie des jeux non coopératifs qui sont exposés ci-dessous.

1.2 Modèle fondamental et notion d’équilibre de Nash

Un jeu non coopératif sous forme normale (ou stratégique), noté J, est défini par trois élements :

– un ensemble de joueurs N = {1,…, i,…, n} composé d’un nom-bre fini (n ≥ 2) de protagonistes ;

– pour chaque joueur i ∈ N, un ensemble de stratégies pures Si ;

chaque stratégie pure du joueur i, ∈ Si, est un plan complet d’actions indiquant une action pour chacune des circonstances où le joueur i peut se trouver dans le jeu. Dans la suite, par abus de notation et comme il est couramment pratiqué en théorie des jeux, une stratégie pure arbitraire du joueur i sera simplement notée si. Quand chaque joueur i a sélectionné si ∈ Si, on obtient un profil de stratégies s = (s1,..., si,..., sn) qui appartient au produit cartésien des ensembles Si. Ce profil peut aussi être noté, du point de vue du joueur i, s = (si, s–i) où s–i = (s1,..., si–1, si+1,...,sn) ;

– pour chaque joueur i ∈ N, une fonction de paiement Pi(si, s–i) à valeurs dans l’ensemble des réels. Cette fonction qui traduit la motivation du joueur i dépend non seulement de la stratégie sélec-tionnée par ce joueur, mais aussi des stratégies sélectionnées par ses concurrents : c’est à travers cette fonction qu’est traduit l’inte-raction. Concrètement le gain Pi(si, s–i) peut être une utilité, un pro-fit, une part de marché.

Un jeu sous forme normale est donc :

J = (S1,..., Si,..., Sn; P1,..., Pi,..., Pn).

Si chaque ensemble de stratégies pures Si comporte un nombre fini d’éléments, le jeu J est fini. Des problèmes stratégiques cru-ciaux exposés dans le paragraphe 1.3 peuvent être exprimés sous forme de jeux finis à deux joueurs, chaque joueur disposant de deux stratégies pures.

Supposant qu’une interaction stratégique puisse être complète-ment représentée par J, la théorie des jeux veut répondre à la question suivante : « Quelles stratégies des joueurs rationnels vont-ils sélectionner ? » Des joueurs rationnels étant des joueurs agissant au meilleur de leurs intérêts étant donné leur information, il faut alors préciser ce que chaque protagoniste connaît du jeu et des stratégies sélectionnées par ses concurrents.

L’hypothèse de base consiste à supposer que les joueurs ont un point de vue parfaitement symétrique vis-à-vis du jeu J et des stra-tégies sélectionnées par les uns et les autres, à savoir que :

– le jeu J que l’on peut assimiler à la règle est de connaissance commune parmi les joueurs (ce qui correspond à une récursion infinie : je connais la règle et sais que les autres la connaissent et savent que je la connais et savent que je sais qu’ils savent, etc.) ;

– chaque joueur i ∈ N choisit une stratégie sans connaître les stratégies sélectionnées par les autres joueurs j ≠ i, ayant une totale liberté de choix. Les choix des joueurs sont qualifiés de simultanés. Un tel protocole correspond, par exemple, au jeu de société Pierre-Papier-Ciseau.

La répartition de l’information structurelle, relative aux règles du jeu, et de l’information factuelle, relative aux stratégies sélection-nées, étant parfaitement symétrique, les joueurs rationnels devraient sélectionner un profil de stratégies s* ayant la propriété d’être un équilibre de Nash [2] du jeu J, défini de la façon suivante :

À l’équilibre de Nash s*, aucun joueur i, n’a envie de dévier

unilatéralement de sa stratégie , étant donné que les autres joueurs j ≠ i ont sélectionné leurs stratégies . La définition décrit donc un profil de stratégies stables par rapport aux déviations unilatérales des joueurs. Pour réinterpréter ce concept fondamental de rationalité, la théorie des jeux utilise la notion de correspondance de meilleure réponse du joueur i,

bi, telle que . Il s’agit de l’ensemble des stratégies pures du joueur i qui condui-sent à un meilleur paiement pour ce joueur, étant donné les stratégies des autres joueurs s–i. Un profil de stratégies s* est donc un équilibre de Nash du jeu J sous forme normale si et

seulement si , pour tout i ∈ N.

À l’équilibre de Nash s*, chaque joueur i, étant donné son infor-mation, a développé des croyances correctes quant aux choix stra-tégiques de ses concurrents et sélectionne sa meilleure

réponse .

Pourquoi des joueurs rationnels devraient-ils sélectionner un profil de stratégies constituant un équilibre de Nash ? Une justifi-cation importante est que cet équilibre constitue un conseil stra-tégique qu’un observateur extérieur pourrait donner aux participants d’un jeu qui ne seraient alors pas en mesure de le rejeter. Cette justification repose sur l’argument logique suivant : supposons que la théorie des jeux propose un profil unique de stratégies comme issue d’un jeu ; pour que cette prédiction soit correcte, il faut que chaque joueur soit disposé à sélectionner la stratégie que la théorie lui attribue. Donc, la stratégie attribuée à chaque joueur doit être la meilleure réponse aux stratégies attri-buées aux autres protagonistes du même jeu. Un tel profil de stratégies serait alors stable, aucun joueur ne voulant dévier de la stratégie qui lui est attribuée : il s’agit précisément d’un équilibre de Nash ! La théorie des jeux, grâce à l’équilibre de Nash, serait donc robuste à sa publication auprès du public et, par là-même, proposerait des prédictions des comportements stratégiques que des individus – notamment des agents économiques – intelli-gents pourraient eux mêmes deviner. La confrontation de cet argumentaire à des données est indispensable et réalisée dans troisième section de cet article.

Définition : Un profil de stratégies pures s* constitue un équilibre de Nash en stratégies pures de J = (S1,..., Si,..., Sn ;

P1,..., Pi,..., Pn) si,

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 5: 42102210 af1500

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I.AF 1 500 – 4

1.3 Principales tensions stratégiques

La théorie des jeux a identifié des problèmes de coordination stratégique que des individus vivant en société peuvent rencontrer de façon récurrente.

1.3.1 Le dilemme du prisonnier

Deux prisonniers, dont on pense qu’ils ont conjointement com-mis un délit grave, sont enfermés dans des cellules séparées. Ils ont chacun le choix entre avouer ( donc dénoncer l’autre) et ne pas avouer, sachant que le système institutionnel en place encourage la dénonciation. Si l’un avoue mais pas l’autre, le premier est libéré et le second subit la peine maximale. Si aucun d’eux n’avoue, ils sont chacun condamné à une peine légère. Si les deux avouent, ils subissent chacun une peine lourde inférieure à la sen-tence maximale.

La forme normale associée à cette interaction est un jeu fini à deux joueurs présenté dans le tableau 1. Pour chaque profil straté-gique sont indiqués à gauche le paiement, ou l’utilité, du joueur 1 (joueur ligne, J1) et à droite le paiement, ou l’utilité, du joueur 2 (joueur colonne, J2), la sentence maximale étant associée à une utilité nulle, la libération à une utilité égale à 3. Dans ce jeu, cha-que prisonnier dispose d’une seule meilleure réponse aux straté-gies posées de son comparse : avouer, donc le dénoncer. En conséquence, le profil de stratégies (avouer-avouer) est le seul équilibre de Nash en stratégies pures. Ce dilemme souligne qu’un équilibre de Nash ne génère pas forcément la gain le plus intéres-sant pour les joueurs : le profil (ne pas avouer-ne pas avouer) serait préférable, mais n’est pas stable ! Ce dilemme est caractéris-tique de situations de concurrence imparfaite comme une guerre des prix dans laquelle des firmes auraient intérêt à refréner la baisse de leur prix pour améliorer simultanément leur profit, ou comme une duopole de Cournot décrit dans le paragraphe 1.3.4

1.3.2 La bataille des sexes

Un homme et une femme formant un couple doivent dîner ensemble un soir, mais sont séparés l’un de l’autre sur leur lieu de travail (pas de téléphone portable ou réseau défectueux). L’homme doit acheter le vin, rouge ou blanc, et la femme doit choisir le plat principal, viande ou poisson. Ils préfèrent les profils de stratégies (rouge, viande) et (blanc, poisson), mais l’homme donne l’avan-tage à (rouge, viande) alors que la femme donne l’avantage à (blanc, poisson).

La forme normale est décrite dans le tableau 2 ci-après, les paie-ments exprimant l’intensité des préférences.

Dans ce jeu, la meilleure réponse de chaque protagoniste dépend du choix de l’autre. Plus précisément, si l’homme choisit le rouge, la meilleure réponse de la femme est la viande ; si l’homme choisit le blanc, la meilleure réponse de la femme est le poisson. Si la femme choisit la viande, la meilleure réponse de l’homme est le rouge ; si la femme choisit le poisson, la meilleure réponse de l’homme est le blanc. Donc le rouge est la meilleure réponse à la

viande et la viande est la meilleure réponse au rouge. De même, le blanc est la meilleure réponse au poisson et le poisson est la meilleure réponse au blanc. En conséquence, on peut identifier deux équilibres de Nash en stratégies pures, (rouge, viande) et (blanc, poisson). Il y a donc un problème de coordination entre les joueurs, problème caractéristique de situations du monde des affaires dans lesquelles deux firmes doivent se coordonner sur un standard, chacune préférant voir s’imposer le standard dont elle est propriétaire. La multiplicité des équilibres de Nash – il existe aussi un équilibre en stratégies mixtes tel que défini au paragraphe 1.4 – affaiblit le pouvoir prédictif de la théorie. Une idée serait de recourir à la culture commune des joueurs, ou s’il existe, à l’historique du jeu pour choisir un équilibre qui s’impose-rait « naturellement » aux joueurs, que l’on qualifie de point focal [3].

1.3.3 Le jeu de cache-cache

Deux joueurs ont chacun le choix entre deux stratégies pures, le joueur 1 entre A1 et A2, le joueur 2 entre B1 et B2. Le joueur 1 pré-fère les profils de stratégies repérés par un indice identique, alors que le joueur 2 préfère les profils de stratégies repérés par un indice différent. La forme normale est décrite dans le tableau 3 ci-après, les paiements reflétant l’intensité des préférences.

Dans ce jeu, aucun profil de stratégies ne correspond à une com-binaison de meilleures réponses mutuelles possibles. En effet, si J1 sélectionne A1, la meilleure réponse de J2 est B2 et si J1 sélec-tionne A2, la meilleure réponse de J2 est B1. Si J2 sélectionne B1, la meilleure réponse de J1 est A1 et si J2 sélectionne B2, la meilleure réponse de J1 est A2. Il n’existe pas d’équilibre de Nash en straté-gies pures. Les intérêts des joueurs sont parfaitement incompati-bles, et il faut, pour trouver une solution rationnelle, utiliser la notion de stratégie mixte présentée au paragraphe 1.4. La tension stratégique exprimée dans ce jeu se rencontre dans les situations d’audit du monde des affaires entre un employé soupçonné de négligence au travail et un employeur voulant effectuer un contrôle, chacun cherchant à prendre le contre-pied de l’autre.

1.3.4 Le duopole de Cournot

Un exemple typique de jeu non fini est la concurrence imparfaite entre deux firmes sur le marché d’un bien homogène. Chaque

Tableau 1 – Le dilemme du prisonnier

J2Avouer Ne pas avouer

J1

Avouer 1 1 3 0

Ne pas avouer 0 3 2 2

Tableau 2 – La bataille des sexes

Femmeviande poisson

Homme

rouge 2 1 0 0

blanc 0 0 1 2

Tableau 3 – Le jeu de cache-cache

J2B1 B2

J1

A1 1 0 0 1

A2 0 1 1 0

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 6: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I. AF 1 500 – 5

___________________________________________________________________________________________________ ÉCONOMÉTRIE ET THÉORIE DES JEUX

firme i peut fixer librement son niveau de production qi et cherche à maximiser son profit qui dépend du prix du bien p et du coût marginal de production ci : Πi = p × qi – ci × qi. Le prix p est déterminé par l’équilibre entre l’offre et la demande telles que O(p) = q1 + q2 = q et D(p) = a – p. La quantité demandée est une fonction décroissante du prix si p < a et nulle si p ≥ a, a étant un seuil exprimant les préférences des consommateurs. Dans la zone d’équilibre, on a donc p = a – (q1 + q2). Le profit de la firme i est alors Πi = qi(a – (q1 + q2) – ci). Chaque firme i doit choisir une quan-tité qi dans Si = [0, a[.

Supposant que ci = c, la maximisation simultanée des profits des deux firmes permet d’obtenir l’unique équilibre de Nash en straté-gies pures. Plus précisément, la meilleure réponse de la firme 1 à

une stratégie arbitraire de la firme 2 est obtenue par , soit

. De la même, la meilleure réponse de la firme 2 à

une stratégie arbitraire de la firme 1 est obtenue par soit

. À l’équilibre de Nash en stratégies pures, on a alors

et , donc chaque firme i produit la

quantité de bien homogène égale à .

Fondamentalement, les deux firmes sont tombées dans le piège du dilemme du prisonnier. Pour illustrer ce problème, supposons que a = 12, c = 0 et S1 = S2 = {4, 3}, alors le duopole de Cournot peut être présenté en termes d’un jeu fini décrit dans le tableau 4.

À l’équilibre de Nash, chaque firme produit la quantité 4 qui constitue son unique meilleure réponse aux stratégies de sa concurrente. Chaque firme aurait mieux fait de refréner sa produc-tion, en produisant seulement la quantité 3. Mais le profil (3,3) n’est pas stable !

1.4 Stratégies mixtes et équilibre de Nash

Un jeu fini peut ne pas avoir d’équilibre de Nash en stratégies pures, comme le montre le jeu de cache-cache. Pour déterminer une solution rationnelle, la théorie des jeux étend alors les possibi-lités stratégiques des joueurs aux stratégies mixtes. Une stratégie mixte mi du joueur i est une distribution de probabilités définie par rapport à ses stratégies pures. mi(si) est la probabilité selon laquelle si ∈ Si est sélectionné et on a :

Toute stratégie pure est donc une stratégie mixte dégénérée, qui concentre toute la distribution de probabilité sur la stratégie pure en question ; par conséquent l’ensemble des stratégies mixtes Mi

du joueur i contient l’ensemble de ses stratégies pures Si. On sup-pose que les joueurs mettent en œuvre leurs stratégies mixtes en faisant appel à des mécanismes de tirage au sort appropriés qui doivent être interprétés en fonction du jeu considéré. Si le profil de stratégies mixtes m = (m1,..., mi,...mn) est sélectionné alors chaque joueur i obtient un paiement espéré EPi(m), tel que :

chaque profil de stratégies pures s se réalisant avec une probabi-lité m1(s1) × ... ×mn(sn) puisque les choix non coordonnés des joueurs sont indépendants les uns des autres. Jusqu’ici, l’usage des stratégies pures nécessitait seulement que les fonctions de paiement des joueurs Pi(s) soient des représentations ordinales de leurs préférences, définies à une transformation strictement crois-sante près. L’emploi des stratégies mixtes nécessite dorénavant que les fonctions de paiement Pi(s) soient des représentations car-dinales des préférences [1][7], définies à une transformation affine près ( comme par exemple la température).

L’introduction des stratégies mixtes permet de montrer que tout jeu fini possède au moins un équilibre de Nash en stratégies mix-tes [2], donc qu’il existe un profil m* tel que, pour chaque joueur i ∈ N, on ait :

Dans la pratique, raisonnant pour un jeu à deux joueurs i et j, on peut pour déterminer un équilibre en stratégies mixtes utiliser l’observation suivante : le joueur i est disposé à sélectionner ses stratégies pures avec des probabilités différentes de 0 et 1, donc à jouer en stratégies mixtes, si et seulement si aucune de ses straté-gies pures ne génère un paiement meilleur que les autres quand elle est jouée contre la stratégie mixte de l’adversaire j. Donc les deux joueurs vont jouer en stratégies mixtes si chacun rend son adversaire indifférent entre ses stratégies pures.

Appliquant cette observation au jeu de cache-cache, cela signifie que chaque protagoniste, utilisant le lancer d’une pièce de monnaie parfaitement équilibrée, va sélectionner chacune de ses stratégies pures avec une chance sur deux. Chaque joueur rend ainsi son adversaire indifférent entre ses deux stratégies pures qui génèrent

un paiement espéré identique égal à . Il fait, de

la sorte, preuve de ruse, maintenant le doute dans l’esprit de son adversaire de façon à ce qu’il ne puisse deviner la stratégie pure qu’il va effectivement choisir. Tout se passe comme si chaque joueur a une information incomplète sur les motivations de l’autre, croyant qu’il va sélectionner chaque stratégie pure avec une chance sur deux. À l’équilibre en stratégies mixtes, chaque profil de straté-gies pures a donc une chance sur quatre de se réaliser.

L’équilibre de Nash en stratégies mixtes peut aussi exister dans des jeux finis tels que la bataille des sexes (paragraphe 1.3.2) pos-sédant déjà deux équilibres en stratégies pures. Appliquant la même observation, on montre que l’homme rend la femme indiffé-rente entre la viande et le poisson si et seulement s’il sélectionne le vin rouge avec deux chances sur trois ; la femme rend l’homme indifférent entre le vin rouge et le vin blanc si et seulement si elle choisit le poisson avec deux chances sur trois. Ici, les deux parte-naires ayant intérêt à se coordonner, l’appel explicite à un méca-nisme de tirage au sort semble stupide. Les probabilités expriment plutôt l’incertitude de chaque partenaire quant aux motivations de l’autre : chacun croît que l’autre a deux chances sur trois de choisir sa stratégie pure préférée, interprétation confirmée en § 1.5. Cet équilibre permet de quantifier la probabilité de non-coordination pour les deux joueurs égale à cinq chances sur neuf.

Au delà des exemples et des jeux finis, tout jeu sous forme normale :

J = (S1, …, Si, …, Sn ; P1, …, Pi, …, Pn)

Tableau 4 – Duopole de Cournot : un dilemme du prisonnier

Firme 24 3

Firme 1

4 16 16 20 15

3 15 20 18 18

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 7: 42102210 af1500

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I.AF 1 500 – 6

possède au moins un équilibre de Nash en stratégies mixtes si pour chaque joueur i, Si est un sous-ensemble compact d’un espace euclidien et Pi est une fonction continue [4]. La détermina-tion de tous les équilibres de Nash d’un jeu devient très laborieuse quand le nombre de joueurs est supérieur à deux ; des algorithmes et logiciels ont été développés pour les jeux finis [5][6].

1.5 Approfondissements : prise en compte du temps et de l’information

La théorie des jeux permet d’analyser des situations d’interac-tions stratégiques dans lesquelles la répartition de l’information détenue par les joueurs est dissymétrique. Raisonnant, dans la suite, pour des jeux finis à deux joueurs, deux cas doivent être considérés :

– l’un des joueurs observe la stratégie sélectionnée par son concurrent, disposant de la sorte d’une information factuelle supplé-mentaire relative au comportement de son adversaire dans le jeu ;

– l’un des joueurs détient une information privée sur sa fonction de paiement, connaissant donc mieux que son adversaire la moti-vation guidant son comportement.

Pour traiter ces situations stratégiques, la théorie des jeux s’appuie sur un modèle plus détaillé que la forme normale, appelé forme développée (ou extensive). Un jeu non coopératif sous forme développée spécifie cinq éléments :

– un ensemble fini de joueurs ;– l’ordre selon lequel chaque joueur peut sélectionner une action

dans le jeu ;– les actions disponibles pour chaque joueur à chaque fois qu’il

intervient dans le jeu ;– l’information à la disposition de chaque joueur quand il sélec-

tionne une action dans le jeu ;– les paiements générés par chaque combinaison d’actions pos-

sibles dans le jeu.

Cette forme développée est traduite par une arborescence com-posée essentiellement de nœuds de décision attribués aux joueurs, de branches émanant de nœuds de décisions et décrivant les actions possibles des joueurs, de nœuds terminaux en dessous desquels les paiements associés aux enchaînements d’actions sont indiqués, et d’ensembles d’information décrivant la connaissance des joueurs quant à l’enchaînement des actions dans le jeu.

Une définition formelle, beaucoup trop longue à exposer ici, peut être trouvée dans [7]. Contrairement à la forme normale, la forme développée fait apparaître l’ordre selon lequel les joueurs interviennent dans le jeu et l’information à la disposition des prota-gonistes à chaque fois qu’ils ont le trait. Elle permet de donner tout son sens à la notion de stratégie définie au paragraphe 1.1 comme un plan complet d’actions. Armée de cet outil, la théorie des jeux adapte la notion fondamentale d’équilibre de Nash à des situations où la répartition de l’information détenue par les joueurs n’est plus symétrique. Les deux cas évoqués précédemment sont présentés à partir d’exemples représentatifs.

1.5.1 Jeu dynamique et équilibre de Nash parfait en sous-jeux

On considère la concurrence imparfaite entre deux firmes 1 et 2 sur un marché d’un bien homogène. Ces deux firmes ont le même coût marginal de production égal à zéro et servent une demande D(p) = 12 – p si p < 12 et D(p) = 0 si p ≥ 12. L’interaction stratégi-que, qualifiée de duopole de Cournot-Stackelberg, se déroule en deux étapes : à la première étape, la firme 1 a le choix entre pro-duire une quantité élevée égale à 6 unités de bien homogène ou une quantité basse égale à 4 ; à la seconde étape, la firme 2 obser-vant le choix de la firme 1 peut produire une quantité élevée égale à 4 ou une quantité basse égale à 3. Naturellement, la théorie des

jeux représente cette situation à l’aide d’une forme développée décrite à la figure 1.

Sur l’arborescence, on distingue trois nœuds de décision, l’un affecté au joueur 1, les deux autres affectés au joueur 2 et quatre nœuds terminaux, en dessous desquels sont indiqués les profits des firmes 1 et 2 respectivement. Le joueur 2 dispose d’une infor-mation factuelle relative au choix du joueur 1 qui sait que le joueur 2 aura cette information, la règle du jeu étant de connais-sance commune. Techniquement, ce jeu dynamique est à informa-tion parfaite comme le jeu d’échecs dans lequel tous les coups sont observés du début jusqu’à la fin. Les ensembles d’informa-tion, en cercle pointillé sur l’arborescence, traduisant la connais-sance des actions sélectionnées, ne contiennent chacun qu’un nœud de décision ; le joueur 1 en contrôle un seul à la première étape, alors que le joueur 2 en contrôle deux à la seconde étape. Quel est alors le comportement rationnel des joueurs ? Dans un premier temps, appliquant le paragraphe 1.2, on peut construire la forme normale du jeu et déterminer ses équilibres de Nash en stra-tégies pures. Il faut donc d’abord construire les ensembles de stra-tégies pures des joueurs. La façon dont ces stratégies sont définies reflète la position asymétrique des joueurs dans le jeu. Chaque stratégie pure, étant un plan complet d’actions, doit indiquer une action à chaque ensemble d’information que le joueur contrôle.

Pour la firme 1, une stratégie pure est donc simplement une action, soit S1 = {6, 4} Pour la firme 2, une stratégie pure est un couple d’actions, indiquant une action à chaque ensemble d’infor-mation que ce joueur contrôle, donc S2 = {(4, 4), (4, 3), (3, 4), (3, 3)}, ou par exemple (4, 3) signifie : si l’ensemble d’information à gau-che de l’arborescence est atteint, jouer 4, si l’ensemble d’informa-tion à droite de l’arborescence est atteint, jouer 3.

La forme normale du jeu de Cournot-Stackelberg est alors don-née par le tableau 5.

Chaque paiement est obtenu en cherchant le nœud terminal uni-que associé à chaque profil de stratégies pures. Par exemple, si la firme 1 choisit la stratégie 4 et la firme 2 choisit la stratégie (4,3), alors c’est pour la firme 2 l’ensemble d’informations à droite de l’arborescence qui est atteint et activé en jouant la quantité 3, d’où les profits égaux à 20 pour la firme 1 et 15 pour la firme 2.

Déterminant les meilleures réponses de chaque joueur aux stra-tégies posées de son concurrent, on obtient deux équilibres de

Figure 1 – Duopole de Cournot-Stackelberg

12

8

18

9

16

16

20

15

2 2

1

4

6 4

3 4 3

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 8: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I. AF 1 500 – 7

___________________________________________________________________________________________________ ÉCONOMÉTRIE ET THÉORIE DES JEUX

Nash : (6, (3,4)) et (4, (4,4)). L’un de ces équilibres (4, (4,4)) peut toutefois être critiqué. En effet, la stratégie (4,4) du joueur 2 spéci-fie le jeu de l’action 4 à l’ensemble d’information à gauche de l’arborescence, alors que celle-ci ne génère pas le meilleur paie-ment pour ce joueur. Comment est-ce possible ? L’équilibre de Nash tel que défini en 1.2 ne prend pas en compte l’ordre selon lequel les actions sont sélectionnées. En conséquence, son utilisa-tion génère un comportement non crédible du joueur 2 à l’ensem-ble d’information à gauche de l’arborescence qui ne sera effectivement pas atteint si le profil de stratégies (4,(4,4)) est joué. Pour supprimer cette possibilité irrationnelle, la théorie des jeux renforce la notion d’équilibre de Nash en exigeant que les joueurs soient rationnels partout dans le jeu, techniquement dans tous les sous-jeux du jeu dynamique [8].

Le jeu de la figure 1 a deux sous-jeux à la seconde étape, cha-cun étant un jeu dans lequel le joueur 2, en parfaite connaissance de cause, doit choisir entre produire la quantité 4 ou produire la quantité 3. L’équilibre de Nash parfait en sous-jeux [8] est le profil de stratégies qui génère un comportement rationnel dans tous les sous-jeux, soit ici (6,(3,4)). Un raisonnement sur l’arborescence permet de l’obtenir directement, consistant à rechercher les com-portements rationnels des joueurs en remontant par induction vers l’amont. Concrètement, si la firme 1 choisit la quantité 6, alors la firme 2 choisira la quantité 3, mais si la firme 1 choisit la quantité 4 alors la firme 2 choisira la quantité 4. Si la firme 1 anticipe ces choix de la part de la firme 2 (ce qu’elle fera si elle sait que la firme 2 maximise son profit), alors elle choisira la quantité 6 qui maximise son profit, d’où l’équilibre cohérent (6,(3,4)) traduisant une rationalité séquentielle.

L’exemple analysé illustre un résultat général :

Continuant l’analyse de l’exemple, une question stratégique très intéressante est : « Que se passe-t-il si le joueur 2 n’observe pas la stratégie sélectionnée par le joueur 1 ? » Dans ces conditions, les joueurs sont dans une position symétrique puisqu’aucun d’eux n’observe le choix de l’autre. L’arborescence traduisant cette inte-raction est donnée par la figure 2.

Comme précédemment, l’ensemble d’information du joueur 1 ne contient qu’un nœud de décision : ce joueur qui débute le jeu doit choisir entre deux stratégies, produire la quantité 6 ou produire la quantité 4. Par contre, le joueur 2 ne contrôle plus qu’un seul ensemble d’information, représenté par un ovale en pointillés, comportant deux nœuds de décision, qu’il ne peut pas distinguer. Cet ensemble d’information exprime le manque d’informations de ce joueur vis-à-vis du choix du joueur 1 : quand il joue, le joueur 2 ne sait pas si c’est le nœud de décision de gauche ou de droite qui est atteint. En situation d’information imparfaite, le joueur 2 a le choix entre deux stratégies : produire la quantité 4 ou produire la

quantité 3. Quel est alors le comportement rationnel des joueurs ? La méthode d’induction vers l’amont est inopérante à cause de la présence d’un ensemble d’information contenant plusieurs nœuds de décision. Il suffit de représenter ce jeu sous forme normale, chaque joueur disposant de deux stratégies, et de déterminer un équilibre de Nash en stratégies pures, ici unique, soit le profil (4,4). En conséquence, on observe que si le joueur 2 dispose de moins d’information, en l’occurrence s’il n’observe pas le choix du joueur 1, alors le joueur 2 se retrouve dans une situation meilleure obtenant un profit supérieur. Ce point stratégique est caractéristi-que d’une situation de concurrence imparfaite à la Cournot-Stac-kelberg où le joueur intervenant à la seconde étape est désavantagé.

1.5.2 Information privée et équilibre de Nash bayésien

La théorie des jeux peut analyser des situations stratégiques dans lesquelles, raisonnant pour deux joueurs, chaque protago-niste sélectionne une stratégie sans connaître celle sélectionnée par l’autre, et où l’un des protagonistes ne connaît pas complète-ment la fonction de paiement de son concurrent. Il y a une asymé-trie d’information entre les joueurs provenant de la détention par l’un d’entre eux d’une information privée sur sa motivation à choi-sir une stratégie.

Un exemple classique est le duopole de Cournot avec asymétrie d’information sur les coûts. On considère la concurrence impar-faite entre deux firmes 1 et 2 sur le marché d’un bien homogène pour lequel la demande est D(p) = 12 – p si p < 12, et D(p) = 0 si p ≥ 12. La firme 2 a un coût marginal de production égal à une unité monétaire, qui est de connaissance commune chez les deux firmes. Par contre, le coût marginal de production de la firme 1 est seulement connu de cette firme. Étant donné l’état de la techno-logie, la firme 2 croît que le coût marginal de production de la firme 1 peut être identique au sien avec une chance sur deux, ou plus élevé avec une chance sur deux, étant alors égal à trois unités monétaires. La firme 1 sait que la firme 2 a ces croyances qui sont de connaissance commune chez les deux firmes. On suppose que les deux firmes ont le choix entre produire une quantité faible égale à trois unités de bien ou produire une quantité élevée égale à quatre unités de bien. Pour la firme 2, qui subit l’asymétrie

Tout jeu dynamique fini à information parfaite possède un unique équilibre de Nash parfait en sous-jeux que l’on peut obtenir par induction vers l’amont, à condition qu’aucun joueur ne soit indifférent entre deux fins de partie.

Tableau 5 – Duopole de Cournot-Stackelberg : forme normale

Firme 2(4,4) (4,3) (3,4) (3,3)

Firme 1

6 12 8 12 8 18 9 18 9

4 16 16 20 15 16 16 20 15

Figure 2 – Un jeu à information imparfaite

12

8

18

9

16

16

20

15

2

1

4

6 4

3 4 3

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 9: 42102210 af1500

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I.AF 1 500 – 8

d’information, tout ce passe donc comme s’il y avait deux jeux possibles sous forme normale, ayant chacun une chance sur deux de se réaliser, tels que représentés dans le tableau 6.

Pour construire un modèle cohérent de ce genre de situation, la théorie des jeux propose d’introduire un élément nouveau dans la description du jeu, qui exprime sous forme de paramètre l’incerti-tude structurelle qu’un joueur i peut avoir sur son concurrent j [9]. Le joueur i suppose que son adversaire peut être d’un certain type tj, tiré à partir d’un ensemble de types possibles pour ce joueur Tj ; tj résume les déterminants du choix stratégique de j par-faitement connus de lui-même, mais sur lesquels son adversaire a une information incomplète. Qui plus est, la théorie des jeux sup-pose que le joueur i entretient des croyances sur les types possi-bles de son concurrent, tj ∈ Tj, résumées par une distribution de probabilité définie sur Tj et partagée par les joueurs i et j. La forme développée du jeu fait alors apparaître, à une étape préliminaire, un joueur fictif, la nature, indicé par zéro, qui génère de façon exo-gène les différents types possibles de joueurs dans le jeu selon une loi de probabilité de connaissance commune. Dans ce modèle, chaque joueur contrôlera autant d’ensembles d’information qu’il a de types possibles, ces ensembles devant traduire l’asymétrie d’information et des choix stratégiques simultanés.

Appliquant ces idées à l’exemple, cela signifie que pour la firme 1, la firme 2 a un type unique parfaitement déterminé, en l’occurrence un coût marginal de production égal à une unité monétaire. Par contre pour la firme 2, la firme 1 peut avoir deux types : un type « coût marginal égal à une unité monétaire » ou un type « coût marginal égal à trois unités monétaires », chaque type pouvant se réaliser avec une chance sur deux. La forme dévelop-pée de ce jeu est alors donnée à la figure 3.

Sur cette forme développée, le joueur 1, étant de deux types possibles, contrôle deux ensembles d’information ; il sélectionne une stratégie en connaissant son type, mais sans connaître la stra-tégie sélectionnée par son concurrent. Le joueur 2, d’un seul type, contrôle un seul ensemble d’information ; ce dernier, réunissant quatre nœuds de décision, signifie que le joueur 2 ne connaît ni la stratégie sélectionnée par son concurrent, ni le type de son concur-rent quand il sélectionne une stratégie. Les stratégies employées par les joueurs reflètent la différence d’information qui existe entre eux.

Pour la firme 1, une stratégie est un couple de quantités, donc S1 = {(3, 3), (3, 4), (4, 3), (4, 4)} où par exemple, (3,4) signifie : si je suis de type c1 = 1, choisir la quantité 3, si je suis de type c1 = 3, choisir la quantité 4. Pour la firme 2 qui subit l’asymétrie d’information, une stratégie est simplement une quantité, donc S2 = {3, 4}. Le comporte-ment rationnel des joueurs peut alors être obtenu à partir de la forme normale présentée dans le tableau 7. Tous les paiements sont des paiements espérés, puisque chaque combinaison de stratégies abou-tit à deux nœuds terminaux sur la forme développée à cause de la présence de la nature. Par exemple, le profil ((3,4),3) donne au joueur 1 un paiement espéré égal à 15 × 1/2 + 8 × 1/2 = 11, 5 et au joueur 2 un paiement espéré égal à 15 × 1/2 + 12 × 1/2 = 13, 5.

Ce jeu possède deux équilibres de Nash en stratégies pures, les profils ((4,3),4) et ((3,3),4). Ces équilibres sont qualifiés de bayé-siens, étant déterminé grâce aux croyances des joueurs quant aux types possibles de leur concurrent. Dans les cas les plus généraux, lorsque les types ne sont pas indépendants les uns des autres, ces croyances sont déterminées par la règle de Bayes. L’un de ces équilibres ((4,3),4) constitue la prédiction la plus plausible de l’issue de ce jeu, car la stratégie de la firme 1 est dominante, dans le sens où elle donne un paiement espéré supérieur ou égal à tou-tes les autres stratégies de ce joueur, quoi que fasse le concurrent.

La détermination du comportement rationnel dans un jeu avec asymétrie d’information est donc réalisée à partir du modèle de la forme normale qui, intégrant les types possibles des joueurs et

Tableau 6 – Duopole de Cournot avec asymétrie d’information

Firme 2 Firme 2

3 4 3 4

Firme 1

3 15 15 12 16Firme 1

3 9 15 6 16

4 16 12 12 12 4 8 12 4 12

c1 = c2 = 1 c1 = 3, c2 = 1

Figure 3 – Forme développée du duopole de Cournot avec asymétrie d’information

1 1

0

3

3 4

(1/2) c1 = 1 (1/2) c1 = 3

4 3 4

15

15

12

16

3 4

16

12

12

12

3 4

9

15

6

16

3 4

8

12

4

12

2

Tableau 7 – Forme normale du duopole de Cournot avec asymétrie d’information

Firme 2 3 4

Firme 1

(3,3) 12 15 9 16

(3,4) 11,5 13,5 8 14

(4,3) 12,5 13,5 9 14

(4,4) 12 12 8 12

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 10: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I. AF 1 500 – 9

___________________________________________________________________________________________________ ÉCONOMÉTRIE ET THÉORIE DES JEUX

leurs croyances respectives à travers le calcul de gains espérés, permet d’obtenir au moins un équilibre de Nash bayésien. Cet équilibre offre une interprétation intéressante des stratégies mixtes exposées au § 1.4. Ce concept des stratégies, garantissant l’exis-tence d’un comportement rationnel en théorie des jeux, est d’un emploi controversé dans un jeu tel quel la bataille des sexes (§ 1.3.2) où l’on ne comprend pas pourquoi les joueurs feraient appel à un mécanisme de tirage au sort. Une autre façon d’inter-préter les stratégies mixtes est de considérer qu’elles expriment les incertitudes des joueurs vis-à-vis des motivations exactes sous-jacentes aux stratégies pures des uns et autres : les stratégies mix-tes ne sont alors qu’une approximation des comportements obser-vés, ceux-ci étant en fait générés à partir de stratégies pures. Les jeux avec asymétrie d’information permettent de préciser cette idée. En effet, la théorie des jeux montre, sous certaines conditions [10], qu’un équilibre de Nash en stratégies mixtes d’un jeu sans asymétrie d’information peut être interprété comme un équilibre de Nash bayésien en stratégies pures d’un jeu avec asymétrie d’information. Intuitivement, on peut comprendre ce résultat en revenant à l’exemple précédant. À l’équilibre, le joueur 1, qui joue en parfaite connaissance de cause de son type, sélectionne la quantité 4 si c1 = 1 et la quantité 3 si c1 = 3. Du point de vue du joueur 2 qui subit l’asymétrie d’information, et du modélisateur, observateur extérieur de l’interaction stratégique, tout se passe comme si le joueur 1 joue avec une stratégie mixte induite consis-tant à sélectionner la quantité 4 avec une chance 1/2 et la quantité 3 avec une chance 1/2. En effet, le joueur 2 connaît seule-ment les probabilités de réalisation des différents états de coût possibles (faible ou élevé), mais n’observe pas celui effectivement à l’œuvre : il assimile donc le joueur 1 à un joueur qui joue de façon aléatoire, alors qu’il n’en est rien. La stratégie du joueur 1 n’est mixte que dans la croyance du joueur 2 à son égard.

L’application privilégiée de ce résultat est la bataille des sexes. On considère que le jeu présenté dans le tableau 2 n’est qu’une approximation d’un jeu plus compliqué avec asymétrie d’informa-tion. On fait l’hypothèse que le paiement de l’homme associé au profil (rouge, viande) est égal à 2 + uh, uh est une variable aléa-toire dont la réalisation est seulement observée par l’homme. De la même façon, le paiement de la femme associé au profil (blanc, poisson) est égal à 2 + uf, uf est la variable aléatoire dont la réali-sation seulement observée par la femme. Tous les autres paie-ments sont inchangés. On suppose que les valeur de uh et uf sont tirées indépendamment l’une de l’autre d’une même loi de proba-bilité définie sur un intervalle donné et de connaissance commune des joueurs. Chaque joueur a donc une incertitude quant aux motivations exactes de l’autre ; techniquement, chaque joueur possède une infinité de types possibles, chaque type étant associé à la réalisation de la variable aléatoire uh ou uf. On suppose alors que la stratégie de l’homme consiste à choisir le rouge si uhexcède une valeur critique, le blanc sinon, tandis que la stratégie de la femme consiste à choisir le poisson si uf excède une valeur critique, la viande sinon. À l’équilibre de Nash bayésien en straté-gies pures de ce jeu, les stratégies décrites doivent être les meilleures réponses l’une à l’autre. Comme on l’a expliqué plus haut, la stratégie de chaque joueur peut être assimilée à une stra-tégie mixte induite auquel l’autre devra répondre de façon opti-male. L’équilibre est donc exprimée en termes de probabilités rationalisées par des aléas observés de façon privée. Un calcul [11] montre que ces probabilités tendent vers les valeurs obte-nues à l’équilibre de Nash en stratégies mixtes du jeu original à information complète lorsque l’asymétrie d’information disparaît : les stratégies pures du jeu avec asymétrie d’information se rap-prochent donc des stratégies mixtes originelles. Plus générale-ment, l’approche très élégante des comportements stratégiques probabilistes développés dans [10] constitue l’un des fondements de la version statistique de l’équilibre de Nash exposée dans la troisième partie de cet article.

1.6 Quelques remarques

La présentation de la théorie des jeux non coopératifs adoptée dans cette section est articulée autours de deux modèles décrivant les interactions stratégiques, la forme normale et la forme déve-loppée, conformément à [7] et [12] . Comme il a été illustré au § 1.5, tout jeu sous forme développé peut être transformé en une seule forme normale, une fois que les stratégies des joueurs ont été correctement spécifiées. Cette opération, plus ou moins labo-rieuse, a été automatisé dans [5]. Par contre, pour un jeu donné a priori sous forme normale, il existera plusieurs formes dévelop-pées possibles parce que l’ordre d’intervention des joueurs n’y est pas indiqué. Les deux modèles ne sont pas équivalents. La forme normale, moins détaillée, est un outil permettant de cerner les pro-priétés de stabilité stratégique minimales d’un jeu, dans le sens où elle suffit à la détermination d’au moins un équilibre de Nash (éventuellement en stratégies mixtes).

L’équilibre de Nash, notion centrale de la théorie des jeux, doit d’abord être considéré comme une propriété mathématique d’un jeu non coopératif, car, du point de vue des comportements, il exige des capacités cognitives fortes des protagonistes devant simultanément être tous capables de prévoir sans erreur les straté-gies sélectionnées par autrui. Un concept moins exigeant de ratio-nalité est celui d’équilibre en stratégies dominantes. Un joueur possède une stratégie dominante s’il possède une stratégie géné-rant un paiement supérieur ou égal à toutes les autres stratégies, quoi que fassent ses adversaires. Dans ces conditions, le joueur n’a pas besoin de prévoir correctement les stratégies sélectionnées par ses concurrents, puisque son meilleur choix en est indépen-dant. Si chaque joueur d’un jeu possède une stratégie dominante, on obtient un équilibre forcément de Nash, en stratégies dominan-tes, comme par exemple dans le dilemme du prisonnier. Malheu-reusement, cette situation est rare.

Les idées présentées dans cette section peuvent évidemment être combinées pour étudier des interactions stratégiques plus sophistiquées. Une présentation alternative de la théorie des jeux telle qu’elle est développée dans [11] consiste à étudier les interac-tions stratégiques par ordre croissant de complexité, selon que les jeux sont statiques, dynamiques, à information parfaite ou impar-faite, avec ou sans asymétrie d’informations. Les concepts de théo-rie des jeux sont alors présentés selon les besoins de l’analyse, en s’appuyant sur des exemples représentatifs de situation de concur-rence imparfaite. Des éclairages complémentaires sont présentés dans [13] et [14].

2. La démarche économétrique

L’économétrie confronte la théorie économique à la réalité des comportements observés sur les marchés en construisant des rela-tions empiriques entre des variables associées à des décisions (ou événements) et des variables associées aux motivations ou déter-minants de ces décisions. La complexité des relations empiriques dépend de la nature des phénomènes envisagés. Par la suite, on ne considérera qu’une seule décision. Si cette décision peut être exprimée par une variable quantitative dont la valeur varie, a priori, continûment, alors quelle que soit la forme des variables exprimant la motivation, la relation empirique sera généralement présentée en termes d’un modèle linéaire classique (encore quali-fié de modèle de régression linéaire) qui constitue l’outil de base en économétrie. Si, par contre, cette décision, renvoyant à un phé-nomène d’ordre qualitatif ne peut être exprimé qu’à l’aide d’une variable qualitative devant être codée sous la forme d’un nombre limité de valeurs, alors une spécification opérationnelle très sou-vent employée est celle du modèle non linéaire logit multinomial.

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 11: 42102210 af1500

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I.AF 1 500 – 10

2.1 Le modèle linéaire classique

2.1.1 Construction du modèle

La théorie économique suggère à partir d’un raisonnement logi-que une relation causale entre une variable expliquée, dépendante ou endogène, y et un ensemble de K variables explicatives ou exo-gènes, x1, …, xk, …, xK, que l’on peut écrire très généralement y = f(x1, …, xk, …, xK). La relation présentée est une relation de dépendance fonctionnelle stricte qui associe à chaque ensemble de valeurs possibles des variables x1, …, xK, une unique valeur pour la variable y. Pour confronter cette relation déterministe à des données relatives aux variables en jeu, on considère d’abord qu’il n’est pas possible de connaître et d’observer complètement le phé-nomène analysé par un raisonnement théorique. Certains facteurs explicatifs qui devraient ou pourraient intervenir ont pu être négli-gés soit par pure ignorance de leur rôle, soit parce qu’ils ne peu-vent être observés. On admet ensuite que les données peuvent être sujettes à des erreurs d’observations. Enfin, les comporte-ments analysés ne sont pas forcément parfaitement déterministes ; ils peuvent comporter une part d’aléatoire. Au total, on substitue à la relation fonctionnelle stricte précédente une relation stochasti-que ou aléatoire, en introduisant un aléa u de la façon additive suivante : y = f(x1, …, xk, …, xK) + u. u est une variable aléatoire dont les réalisations sont inobservées, traduisant essentiellement les influences omises et les erreurs de mesure, mais aussi l’absence de déterminisme parfait dans le phénomène envisagé. La fonction f peut, a priori, revêtir de nombreuses formes, la théo-rie n’étant pas toujours très précise à ce sujet ; la forme la plus simple et la plus étudiée est linéaire, ce qui signifie que le modèle économétrique s’écrit de la façon suivante :

y = β1x1 + … + βkxk + … + βKxK + u

Dans cette dernière expression, β1, …, βk, …, βK sont des para-mètres exprimant les forces et directions de la relation entre la variable endogène et les variables explicatives, certains d’entre eux pouvant être déjà présents dans la théorie. Le modèle linéaire (ou de régression linéaire) obtenu a une certaine généralité puisque :

– le nombre de variables explicatives K est quelconque ;– l’une des variables explicatives peut toujours être prise égale à

1, de sorte que le paramètre associé joue le rôle de constante de la relation linéaire ; dans la suite, nous supposerons qu’il s’agit de la variable x1, donc que β1 est cette constante ;

– l’expression est linéaire dans les paramètres et non dans les variables qui peuvent, si besoin, être exprimées sous des formes plus ou moins sophistiquées (logarithme, mise au carré…).

Pour atteindre cet objectif, on dispose de T observations des variables auxquelles le modèle linéaire est appliqué, {yt} et {xtk}, k = 1, …, K, t = 1, …, T, donc yt = β1xt1 + …+ βkxtk + … + βKxtK + ut, t = 1, …, T, {ut}, t = 1, …, T étant des réalisations inobservées de l’aléa u. Si l’on définit le vecteur ligne de dimension K

et le vecteur colonne de dimension Kβ = (β1, …, βk, …, βK)′ alors on peut réécrire le modèle linéaire

sous le forme : . Pour aboutir à une écriture matricielle du modèle, on empile les observations en définissant les éléments suivants :

– y = (y1, …, yt, …, yT)′ est le vecteur colonne des T observations de la variable expliquée ;

– u = (u1, …, ut, …, uT)′ est le vecteur colonne des T réalisations inobservées de l’aléa ;

– X est la matrice de dimension T × K des T observations des Kvariables explicatives, dont la te ligne est , donc telle que X′ = (x1, x2, …, xT).

Le modèle linéaire sous forme matricielle est donc : y = Xβ + u, avec la convention selon laquelle xt1 = 1, ∀t, (β1 constante). Les notations proposées ici ne font pas la distinction entre les varia-bles aléatoires (habituellement en majuscule) et leurs réalisations (habituellement en minuscule). Les approfondissements ci-dessous et le contexte devraient permettre de trancher entre les deux inter-prétations.

2.1.2 Nature et génération de données

Les données qui constituent la matière première sur laquelle est réalisée l’investigation économétrique peuvent être distinguées en fonction de l’unité d’observation à partir de laquelle elles sont recueillies. Les trois catégories sont :

– les données en coupe transversale, qui sont obtenues à partir de l’observation d’un ensemble d’individus (consommateur, entre-prise, pays…) à un moment donné. Étant composées à partir de différentes unités d’observation, elles sont caractérisées par la pré-sence d’éléments inobservables propres à chacune de ces unités ;

– les données temporelles ou longitudinales (séries chronologi-ques) qui sont obtenues à partir de l’observation d’un même indi-vidu à plusieurs occasions. Le même individu étant observé de façon répétitive, les caractéristiques inobservables restent (vrai-semblablement) permanentes et affectent donc l’ensemble des observations. Contrairement aux données en coupe, l’ordre selon lequel les observations sont réalisées contient potentiellement de l’information importante ;

– les données de panel ou en coupes répétées, qui intègrent les deux dimensions précédentes, obtenues en observant un ensem-ble d’individus à différentes occasions. Ces données ont l’avantage de permettre le contrôle de certaines caractéristiques inobservées des individus.

Les données employées pour l’estimation du modèle linéaire doivent, dans la mesure du possible, constituer une représentation fidèle du phénomène étudié. Les observations obtenues devraient former un échantillon représentatif de la population dont elles sont issues et dont on cherche à examiner un comportement particulier. Techniquement, un échantillon représentatif est un échantillon aléatoire, dans lequel les individus sont sélectionnés sur une base purement probabiliste, indépendante du phénomène étudié. Dans ces conditions idéales, les observations {yt} et {xtk}, k = 1, …, K, t = 1, …, T sont à interpréter comme les réalisations de variables aléatoires indépendantes et identiquement distribuées : à chaque fois que l’on tire un échantillon d’une même population, on obtient donc un jeu de données différent, le contenu du vecteur y et de la matrice X changeant simultanément (sauf la constante).

Les données obtenues par des enquêtes de terrain, révélant des comportements et leurs motivations dans des conditions réelles de marché, sont non contrôlées. Leur nature non expérimentale devrait les rapprocher du cadre idéal de l’échantillon aléatoire. Mais une investigation économétrique peut aussi être menée à partir de données expérimentales ; leur caractéristique principale est que les valeurs des variables apparaissant dans la matrice Xpeuvent être toutes fixées, a priori, à des niveaux spécifiques que l’on peut réutiliser à chaque fois que l’on tire un échantillon. Dans ces conditions contrôlées, seules les observations {yt}, ∀t, sont à interpréter comme des réalisations de variables aléatoires. De tel-les conditions peuvent être établies sur certains marchés pour les-quelles les variables d’offre sont, a priori, maîtrisées par les entreprises. Elle sont évidemment à l’œuvre en laboratoire, où un expérimentateur peut fixer, a priori, toutes les valeurs des varia-bles explicatives contenues dans la matrice X, testant de la sorte la rationalité d’individus dans un contexte étroitement défini.

L’objet de l’investigation économétrique est d’estimer les paramètres du modèle linéaire et de tester des hypothèses sur ces paramètres, leurs valeurs et leurs signes déterminant la validité de la théorie économique et les effets des change-ments dans les valeurs des variables explicatives.

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 12: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I. AF 1 500 – 11

___________________________________________________________________________________________________ ÉCONOMÉTRIE ET THÉORIE DES JEUX

L’interprétation du modèle linéaire change selon que l’on utilise des données de nature plus expérimentales (la matrice X est contrôlée) ou des données issues d’enquête de terrain. Dans un contexte expérimental, l’économètre connaît, a priori, la valeur de tous les facteurs explicatifs, et le modèle est naturellement associé à une relation de cause à effet entre X et y, le vecteur d’aléas upouvant être associé à des « erreurs » de la part des agents écono-miques imparfaitement rationnels. Dans un contexte non expéri-mental, l’économètre ne connaît pas, a priori, les valeurs des variables explicatives introduites dans la matrice X, et le modèle linéaire peut plutôt être considéré comme une décomposition d’une variable à expliquer en une partie systématique directement inspirée par la théorie et une partie résiduelle due à des influences omises et à des erreurs de mesure. Le modèle linéaire est alors interprété comme un modèle à erreurs sur l’équation résultant de la méconnaissance de l’économètre quant à l’existence de détermi-nants de la décision étudiée.

2.1.3 Processus générateur des données : les hypothèses fondamentales

Pour atteindre l’objectif de l’investigation économétrique, il faut mettre en œuvre les techniques de l’inférence statistique [AF168], [AF170], permettant de circonscrire de façon probabiliste la valeur vraie des paramètres à partir de leurs estimations. Les méthodes d’estimation et procédures de tests que l’on peut utiliser dépen-dent des restrictions que l’on impose, a priori, sur la matrice X et sur le vecteur d’aléas u. Quatre hypothèses fondamentales, expo-sées et interprétées ci-dessous, spécifient le processus générateur des données dans le cadre du modèle linéaire présenté en 2.1.1.

Hypothèse 1 (H1)

X est une matrice de variables explicatives non aléatoires de rang K (nombre de variables explicatives) inférieur au nombre d’observations T.

Cette hypothèse signifie d’une part que les facteurs explicatifs {xtk}, ∀k, ∀t, ont des valeurs a priori connues et réutilisables. D’autre part, elle suppose que les colonnes de la matrice X sont linéairement indépendantes, ce qui est équivalent à supposer que la matrice X′X est non singulière ( inversible), hypothèse cruciale pour garantir l’identification des paramètres βk lors de l’estimation décrite au § 2.1.4

Hypothèse 2 (H2)

E(u) = 0 ⇒ E(ut) = 0, ∀t, où 0 désigne le vecteur colonne com-posé de T zéros.

La valeur espérée de l’aléa est supposée nulle ; cette hypothèse

signifie que , ∀t et donc yt = E(yt) + ut, ∀t. Fondamenta-lement, le modèle linéaire décompose la variable expliquée (endo-gène) aléatoire en la somme de son espérance – une partie systématique exprimant la théorie que l’on espère valable en moyenne – et de la déviation par rapports à cette espérance, l’aléa.

Hypothèse 3 (H3)

E(uu′) = σ2I où I est la matrice identité de dimension

Cette hypothèse, décrivant le contenu de la matrice de variance-covariance du vecteur u fait apparaître un nouveau paramètre σ2, la variance de l’aléa, supposée identique pour toutes les observations : on parle d’homoscédasticité. Elle signifie que var(yt) = σ2, ∀t ; la dispersion de la variable expliquée autour de la moyenne est la même pour toutes les valeurs des {xtk}. D’autre part, cette hypothèse impose la non-corrélation des aléas, qui signifie encore que cov(yt, yt′) = 0, ∀t, ∀t′ : il n’existe pas de lien linéaire systématique entre yt et yt′.

Hypothèse 4 (H4)

Compte tenu de la source de l’aléa ( essentiellement influences omises et erreurs de mesure), il semble raisonnable de supposer que les conditions d’application du théorème central-limite sont vérifiées au moins approximativement, et donc qu’il est possible de faire de l’hypothèse de normalité. On peut alors montrer que yt ∼ N(x′

tβ, σ2), ∀t. Les yt étant toutes distribuées selon une loi nor-male et non corrélées, sont indépendantes, mais non identique-ment distribuées, car ayant des espérances différentes.

Le modèle linéaire, accompagné des hypothèses H1, H2, H3 et H4, spécifie un processus générateur des données permettant de cerner de façon probabiliste la valeur vraie des βk et de σ2. L’hypothèse H1, imposant un caractère non aléatoire à la matrice X – chaque ligne de cette matrice est alors composée de constantes connues – renvoie à l’usage de données générées dans des conditions expérimentales contrôlées. Si les données sont obtenues à partir d’une enquête de terrain, il est plus vraisemblable de considérer que les {xtk} sont comme les {yt} des variables aléatoi-res, dont les valeurs sont, a priori, inconnues. Dans ce cas plus général, les hypothèses H2, H3 et H4 sont réécrites, conditionnelle-ment à la réalisation de la matrice X. Le processus générateur des données est alors le modèle linéaire accompagné des hypothèses suivantes : H1′ : X matrice aléatoire de rang K < T, H ′2 : E(u/X) = 0, H 3′ : E(uu′/X) = σ2I, H′ 4 : u/X ∼ N(0, σ2I).

D’un point de vue statistique, conditionner les résultats aux valeurs des {xtk} obtenus dans l’échantillon revient à considérer les valeurs {xtk} comme étant fixes lors d’échantillonnages répétés, donc générées dans un environnement contrôlé. Que la matrice Xsoit aléatoire ou non, il est crucial pour l’identification correcte des paramètres qu’elle soit générée de façon indépendante (statisti-quement et économiquement) du vecteur aléatoire u.

2.1.4 Estimation

Dans le cadre du modèle linéaire accompagné des hypothèses H1, H2, H3 et H4, il s’agit de construire des estimateurs de β et σ2 apportant la meilleure information possible sur la vraie valeur de ces paramètres.

La loi des observations étant complètement spécifiée, il est possible d’utiliser la méthode du maximum de vraisemblance [AF168], [15]. Les observations étant supposées indépendantes, la probabilité de tirer l’échantillon observé est simplement le produit des probabilités d’observer chaque individu. Étant donné la restric-tion (normale) sur la loi des observations, cette probabilité corres-pond à la fonction de vraisemblance de l’échantillon. Cette fonction, dépendant des paramètres β et σ2, est donc donnée par :

Prenant le logarithme naturel, on obtient la log-vraisemblance, plus utile pour l’estimation :

On cherche alors les valeurs de β et de σ2, qui rendent maximales la probabilité d’observer l’échantillon disponible, donc qui maximi-sent la log-vraisemblance. On procède en deux étapes.

L’estimateur de β qui maximise log L, quel que soit σ2, est l’esti-mateur qui minimise S(β) = (y – Xβ)′(y – Xβ). Que signifie cette approche ? si K = 2, il faut estimer la droite E(yt) = β1 + β2xt2. On cherche donc la droite la plus vraisemblable, présentant les valeurs de β1 et β2, notées b1 et b2, qui maximisent la probabilité de tirer l’échantillon. Cela revient à trouver b1 et b2 qui minimisent la somme des carrés des distances entre les observations {yt}, {xt2},

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 13: 42102210 af1500

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I.AF 1 500 – 12

t = 1, …, T et la droite d’équation b1 + b2xt2 ; prendre le carré des distances permet de donner la même importance aux erreurs par défaut ou excès. Plus généralement, si K > 2, minimiser S(β) revient à trouver l’hyperplan qui passe au plus près des observa-tions. Pour trouver l’expression de l’estimateur de , on développe S(β) selon S(β) = y′y – 2y′Xβ + β′X′X β.

Définissant le vecteur des dérivées partielles

, on a : .

D’après H1, la matrice X est inversible, donc en posant la dérivée précédente égale à 0 et en résolvant pour β, on obtient l’estimateur du maximum de vraisemblance de β, soit :

Cet estimateur permet de calculer la valeur prédite du vecteur y,

notée , qui a pour expression . On définit alors le vecteur

des résidus d’estimation e, tel que ; chaque composante

de ce vecteur mesure l’écart entre la valeur observée de la variable endogène et la valeur prédite à l’issue de l’estimation. À ce stade, il est important de distinguer le modèle

, concernant la population des individus, du

modèle , concernant l’échantillon tiré à partir de cette population. En général et est différent de ut parce que b est différent de β ; on peut interpréter les résidus de et comme des estimations des aléas ut. L’estimateur obtenu b, minimisant donc la somme des carrés des résidus, est appelé estimateur des moin-dres carrés ordinaires.

Dans une seconde étape, il reste à déterminer l’estimateur du paramètre de nuisance σ2, la variance des aléas. Insérant b dans l’expression de la log-vraisemblance, on obtient la log-vraisemblance concentrée qui ne dépend que de σ2, soit

.

Dérivant alors logL par rapport à σ2 et posant la dérivée égale à 0, on obtient l’estimateur du maximum de vraisemblance σ2, soit

. Le vecteur b étant notamment obtenu à partir de la

condition , il vérifie forcément , donc

n’est autre que la variance empirique des résidus d’estimation.

Il est important de remarquer que les expressions de b et de peuvent être obtenues directement sous les hypothèses H1, H2 et H3 en appliquant la méthode des moindres carrés consistant à minimiser S(β). Cette méthode génère l’estimateur b à partir du calcul des dérivées partielles de S par rapport à βk, ∀k. Utilisant les résidus d’estimation {et} et sachant que Σet = 0, on peut naturelle-ment proposer comme estimateur de σ2 la variance empirique de ces résidus en remarquant que e′e = y′y – bX′y.

La méthode des moindres carrés, ne nécessitant pas l’hypothèse H4, est en fait un cas particulier de la méthode des moments, qui consiste à construire des estimateurs en exploitant les restrictions stochastiques portant sur les moments de l’aléa du modèle économétrique. Plus précisément, les estimateurs sont obtenus en faisant concorder les moments empiriques calculés à partir des données avec les moments théoriques issus des restric-tions stochastiques [16].

Quelle est la qualité de l’information apportée par les estima-teurs b et ? Leurs propriétés dépendent des hypothèses rete-nues sur le processus générateur des données. Si l’on ne retient d’abord que les hypothèses H1, H2 et H3, alors le théorème de

Gauss-Markov justifie fondamentalement la méthode des moin-dres carrés : b est le meilleur estimateur linéaire sans biais de βpour un échantillon de taille T fixe [16][17][18]. Fonction linéaire des observations {yt}, t = 1, …, T, b concorde donc en moyenne avec la vraie valeur de β et est le plus précis possible, donc de variance minimale.

On montre que :

– E(b) = β (sans biais) ;– V (b) = E(b – E(b))(b – E(b))′ = σ2(X′X)–1 [16][17][18].

V (b) est la matrice de variance-covariance de b, de dimension K × K et symétrique. Ses éléments diagonaux correspondent aux variances de b1, b2, …, bK, alors que les autres éléments corres-pondent aux covariances de bk et bl, k ≠ l. Son expression indique que l’information apportée par b sur β est d’autant plus précise que la quantité d’information apportée par X est élevée, relative-ment à σ2.

La matrice V (b) dépend de σ2. Pour la connaître, il faut donc estimer σ2. Un estimateur naturel de σ2, construit précédemment,

est la variance empirique des résidus , dont on peut montrer qu’elle constitue un estimateur biaisé de σ2. Un estimateur centré

de ce paramètre est [16][17][18]. On en déduit alors un

estimateur centré de la matrice de dispersion de b,

. contient les variances et covariances estimées des bk et bl. Les racines carrées des éléments diagonaux sont qualifiées d’erreurs-types d’estimation.

Le théorème de Gauss-Markov reste valable dans le cas des hypothèses H′

1, H′

2 et H′

3, donc si la matrice X est aléatoire, pourvu que les données soient obtenues par échantillonnage aléatoire [17].

Un résultat plus fort que ce théorème peut être obtenu si l’on ajoute l’hypothèse de normalité du vecteur aléatoire u. Avec celle-ci, il est alors possible de construire la fonction de vraisemblance de l’échantillon et de montrer que V (b) atteint la borne inférieure de l’inégalité de Cramer-Rao [AF168] [16] [18]. b est donc le meilleur estimateur sans biais de β, sans qu’il soit nécessaire de se restreindre aux estimateurs fonctions linéaires des observations.

Sous l’hypothèse de normalité de u, les estimateurs des moin-dres carrés de β et σ2 sont les estimateurs du maximum de vrai-semblance de ces paramètres, dont ils héritent des propriétés asymptotiques obtenues quand la taille de l’échantillon tend vers l’infini (convergence, normalité, efficacité) [16]. Il faut remarquer qu’il est possible, moyennant des hypothèses plus approfondies sur la matrice X, de montrer l’existence de telles propriétés asymptotiques sans utiliser l’hypothèse de normalité [16][18].

Le modèle linéaire estimé doit permettre d’expliquer la variation des {yt} à partir de la variation des {xtk}. Si les {yt} sont bien expli-qués par les {xtk}, alors on peut dire que la qualité de l’ajustement

du modèle est bonne. La variance empirique peut être considé-rée comme une mesure de cette qualité d’ajustement : plus elle est petite, meilleur est l’ajustement. Toutefois dépend de l’unité de mesure des {yt}. Aussi, on préfère utiliser le coefficient de détermi-

nation ou R2, défini par

Cet indicateur ne dépend pas de l’unité de mesure des {yt} ni de celle des {xtk}. Il prend une valeur comprise entre 1, ce qui corres-

pondrait à un ajustement parfait des observations quand e′e = 0, et 0. On peut l’interpréter en utilisant l’équation d’analyse de la

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 14: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I. AF 1 500 – 13

___________________________________________________________________________________________________ ÉCONOMÉTRIE ET THÉORIE DES JEUX

variance selon laquelle : variance de yt = variance de + variance

de et soit : [16][17].

Divisant les deux membres de cette égalité par , on obtient :

R2 est la proportion de variation de la variable endogène expliquée par l’influence linéaire conjointe des {xtk}, le modèle comportant une constante. On peut encore montrer que R2 n’est autre que le

carré du coefficient de corrélation entre les {yt} et les [16][18].

2.1.5 Tests, prédiction

Les estimateurs b, et le coefficient de détermination permet-tent de réaliser des tests sur les paramètres du modèle linéaire ayant pour objet de vérifier si les effets séparés ou joints des diffé-rentes variables explicatives suggérées par la théorie sont confir-mées au vu des données employées. S’interrogeant sur la significativité au sens statistique des paramètres, on cherche dans quelle mesure il serait possible de simplifier le modèle en suppri-mant les variables explicatives, ou en imposant des contraintes entre les coefficients. Ces tests usuels, les plus simples, sont des tests de restriction sur le modèle linéaire, réalisés en supposant qu’il n’y a pas d’erreur sur le processus générateur des données. À ce stade, l’hypothèse H4 (H′4) de normalité des aléas est indispen-sable car elle permet de déterminer les lois de probabilités suivies par les estimateurs b et , et donc les lois de probabilités des sta-tistiques employées pour prendre une décision [AF 170]. En prati-que, les résultats asymptotiques validés pour de grands échantillons et les études de simulation montrent que la violation de cette hypothèse n’est pas la plus pénalisante pour la fiabilité du modèle. Sous l’hypothèse H4, b étant fonction linéaire des obser-

vations {yt}, on montre [16][17][18] que : ,

sont indépendants. Ces propriétés sont

employées pour construire les trois types de tests proposés ci-après :

– un premier type d’inférence consiste en la réalisation du test de l’hypothèse H0 : c′β = a, où a est un scalaire connu et c une vec-teur colonne non nul comportant K constantes réelles. Il s’agit donc de tester une contrainte linéaire sur les paramètres β1, β2,…, βK.

Sous H0, on montre que la statistique est distribuée

selon une loi de Student à (T-K) degrés de liberté, étant la racine carrée de l’estimateur sans biais de σ2 défini plus haut [16][17][18]. Ce test de Student est idéal pour apprécier si chaque paramètre βkest significativement différent de 0, ou encore si deux paramètres βk et βl sont égaux entre eux, k≠l. La statistique construite peut aussi être utilisée pour construire un intervalle de confiance pour chaque paramètre ;

– un second type d’inférence consiste en la réalisation du test de l’hypothèse H0 : β2 = β3 = … = βK = 0 . Tous les paramètres, à l’exception de la constante, sont-ils nuls ? Retenir l’hypothèse H0signifierait qu’aucune des variables explicatives introduite dans la matrice X n’explique le phénomène analysé. Il s’agit d’un test de significativité du modèle linéaire dans sa globalité, appelé test de

Fisher. Sous l’hypothèse H0, on montre que la statistique

est distribuée selon une loi de Fisher à K – 1 et

T – K degrés de liberté, R2 étant le coefficient de détermination associé au modèle estimé. Comme il est souligné dans [16], il est possible de trouver le modèle linéaire globalement significatif, alors que les tests de Student conduisent séparément à la conclu-sion qu’aucun paramètre n’est significativement différent de zéro : la raison est que le test de Fisher prend en compte les corrélations existant entre les variables explicatives ;

– le test de Fisher est un cas particulier d’un test permettant de réaliser une inférence sur un modèle réduit, tel que certains para-mètres soient nuls (à l’exception du terme constant), l’hypothèse alternative étant celle du modèle complet avec toutes les variables explicatives. En ayant éventuellement réordonné les variables, on considère donc l’hypothèse H0 : β2 = β3 = … = βK’

′ = 0, K′ < K. Sous H0, on montre que la statistique

est distribué selon une loi de Fisher à K′ – 1 et T – K degrés de liberté, étant le coefficient de détermination du modèle réduit à K’ variables explicatives (y compris la constante). Ce test nécessite deux estimations : celle du modèle complet et celle du modèle sous l’hypothèse H0. Si K′ = K, alors ; en effet, le modèle contraint est simplement yt = β1 + ut, dont l’estimation donne

d’où la statistique du test de Fisher. Si l’hypothèse testée est seulement H0 : βk = 0, on revient à un test de significativité de βk identique à celui de Student.

Les paramètres estimés et validés à l’issue de tests appropriés expriment (sauf la constante) les effets marginaux des variable explicatives, supposées ici continues, sur la valeur prédite de la

variable endogène. En effet, = b1 + b2xt2 + … + bkxtk + … + bKxtK, ∀t, donc si l’on modifie la valeur de chaque variable explicative

d’une unité, alors = b2Δxt2 + … + bkΔxtk + … + bKΔxtK, ∀t . bk

mesure donc le changement de dû à une augmentation d’une unité de xtk, toutes les autres variables xtl, l ≠ k étant supposées

fixes, soit = bkΔxtk, ∀k ≠ 1

Tout se passe comme si l’on a contrôlé les variables xtl, l ≠ k, quand on a mesuré l’effet de xtk sur yt. Donner cette interprétation à chaque paramètre bk revient à considérer que l’on a recueilli les observations en maintenant chaque variable xtl, l ≠ k, à une valeur constante, quelle que soit l’unité d’observation t, ce qui signifie encore que l’on a effec-tué l’estimation d’un modèle linéaire ne contenant qu’une seule varia-ble explicative xtk. Le modèle linéaire permet ainsi de simuler des conditions idéales d’expérimentation dans lesquelles on cherche à mesurer l’impact d’un facteur particulier, tous les autres étant mainte-nus constants. Pour cette raison, les variables explicatives, exogènes, sont encore qualifiées de variables de contrôle.

Le modèle linéaire estimé et testé peut finalement être utilisé pour réaliser une prédiction de la variable endogène. Il ne s’agit pas de faire une prévision du futur, mais de calculer la valeur ajus-tée de la variable endogène à partir du modèle estimé en imagi-nant pour les variable explicatives un ensemble de valeurs inédites par rapport à celles utilisées lors de l’estimation. On simule de la sorte une modification des motivations des individus (par exemple des conditions d’offre sur un marché) sur leurs décisions. On a donc estimé, sous les hypothèses H1, H2, H3 et H4, le modèle linéaire .

On imagine, pour certaines raisons économiques, que pour n’importe quel individu considéré, le vecteur des variables explica-tives devienne le vecteur ligne . Le modèle de prédiction est

alors : , où yp et up sont non observables, est un vecteur ligne de dimension K dont tous les éléments sont connus.

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 15: 42102210 af1500

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I.AF 1 500 – 14

On suppose que l’aléa up est distribué indépendamment du vec-

teur u et que E(up) = 0 et var(up) = σ2. Remarquez que β et σ2 sont les mêmes que dans le modèle estimé. Une prédiction naturelle de

yp est . Que vaut-elle ? L’erreur de prédiction est

. L’espérance de cette erreur est nulle

puisque E(β) = b et E(up) = 0, donc le prédicteur est sans biais.

La variance de l’erreur de prédiction est [16][17][18] :

L’imprécision de la prédiction est la somme de deux termes :– σ2 qui représente une incertitude irréductible puisque u p a une

réalisation imprévisible ;

– , qui signifie que la prédiction

est d’autant plus précise que l’estimateur b est précis et que les valeurs des variables du vecteur ne sont pas trop éloignées des valeurs des variables utilisées pour l’estimation.

2.1.6 Une application canonique : l’estimation d’une fonction de consommation

Selon la théorie économique, la consommation C de chaque ménage dépend essentiellement de son revenu disponible R, selon la relation fonctionnelle stricte C = β1 + β2R. Pour déterminer la validité de cette théorie, un économètre tire un échantillon aléa-toire de T ménages, observant pour chacun d’eux sa consomma-tion Ct et son revenu Rt, t = 1, …, T, à un moment donné : il s’agit donc d’une coupe transversale. Substituant à la relation fonction-nelle précédente une relation aléatoire, il spécifie le modèle linéaire suivant, qualifié de modèle de régression simple

Ct = β1 + β2Rt + ut, t = 1, …, T.

Ct est la variable endogène, à expliquer, de ce modèle. Rt est l’uni-que variable explicative, exogène. Pour l’économètre, les valeurs prises par Ct et Rt sont supposées inconnues avant le tirage de l’échantillon et changent à chaque fois qu’un échantillon est tiré. En conséquence, on peut admettre que Ct et Rt sont des variables aléatoires, et donc travailler dans le cadre des hypothèses

, conditionnellement aux réalisations observées de Rt dans l’échantillon.

Le but de l’investigation économétrique est d’évaluer les para-mètres β1 et β2. En effet, pour savoir si le revenu disponible des ménages influence effectivement le montant de leur consomma-tion, il faut déterminer si le paramètre β2 est ou non égal à 0. Si cette théorie, très simple, de la consommation n’est pas invalidée, on s’intéresse alors aux valeurs de β2 et β1.

Pour atteindre cet objectif, il faut construire des estimateurs de β1, β2 et de σ2, la variance des aléas. L’information contenue dans les données est résumée par les statistiques suivantes :

qui représentent respectivement les moyennes empiriques de la consommation et du revenu, T fois les variances empiriques de la consommation et du revenu, et T fois la covariance empirique entre le revenu et la consommation. Sous les hypothèses

la mise en œuvre de la méthode des moindres carrés consiste à retenir les valeurs de b1 et b2 qui minimisent :

On obtient facilement les expressions suivantes [17][18] :

La variance des aléas σ2 peut être naturellement estimée par la variance des résidus

où avec :

Cet estimateur est biaisé ; un estimateur sans biais de σ2 est

La précision des estimateurs dépend de leur variance. On mon-tre que [17][18] :

On remarque que la variance de b2 est le rapport entre la variance des aléas σ2 et T fois la variance empirique de la variable exogène dont on veut estimer l’effet sur la consommation. La pré-cision de la mesure du paramètre β2 est donc d’autant meilleure que le nombre d’observations est élevé, que les valeurs de la variable exogène sont plus dispersées et que la distribution des aléas est plus concentrée autour de zéro. Par ailleurs, on montre que [17][18] :

Puisque , la pente et la constante de la droite de régression sont corrélées négativement : quand la pente estimée b2 aug-mente, la constante estimée b1 diminue (et réciproquement). Les variances et covariance précédentes sont estimées sans biais en remplaçant σ2 par son estimateur sans biais défini plus haut. La qualité de l’ajustement est donnée par le coefficient de détermina-tion R2, dont l’expression est :

R2 n’est autre que le carré du coefficient de corrélation entre Rt et Ct.

Si l’on ajoute l’hypothèse de normalité conditionnelle des aléas, alors la log-vraisemblance est donnée par :

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 16: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I. AF 1 500 – 15

___________________________________________________________________________________________________ ÉCONOMÉTRIE ET THÉORIE DES JEUX

Appliquant les deux étapes décrites au § 2.1.4, il est facile de montrer [15] que les estimateurs du maximum de vraisemblance de β1 et β2 ne sont autres que les estimateurs des moindres car-rées de ces deux paramètres. Par ailleurs, l’estimateur du maxi-mum de vraisemblance de σ2 n’est autre que , l’estimateur biaisé de σ2 correspondant à la variance des résidus.

Sous l’hypothèse de normalité conditionnelle des aléas, comme il a déjà été expliqué au § 2.1.5, on a :

.

Alors :

où τ(T–2) désigne une loi de Student à (T – 2) degré de liberté.

On peut donc tester le significativité de chacun des paramètres, soit les hypothèses H0 : β1 = 0 et β2 = 0 en calculant les statistiques

. Si la théorie n’est pas rejetée au vu des

observations, donc si le paramètre β2, en particulier, est significati-vement différent de 0, il peut être intéressant d’utiliser la fonction de consommation estimée pour réaliser une prédiction de la consommation Cp, générée par une valeur du revenu disponible Rpdifférente de celles utilisées lors de l’estimation et justifiée par une modification de l’environnement économique des ménages, soit

.

La précision de cette prédiction donnée par est

[16][17][18].

Cette expression signifie que la variance de l’erreur de prédic-tion est d’autant plus petite que :

– le nombre d’observations est élevé ;– les valeurs de la variable exogène sont plus dispersées ;

– la distance entre Rp et la moyenne empirique est faible.

Le dernier point, le plus intéressant, signifie que la prédiction est meilleure si l’on choisit une valeur de R, Rp, au voisinage proche des valeurs utilisées pour l’estimation du modèle. Plus Rp a une valeur éloignée des valeurs observées, plus la simulation est auda-cieuse, et plus on s’expose à une erreur conséquente.

Usuellement, la présentation des résultats d’une investigation économétrique comporte, au minimum, la valeur de chaque para-mètre estimé, la valeur de son erreur-type d’estimation, ou encore le rapport entre ces valeurs (permettant d’apprécier la significati-vité du paramètre) et la valeur de R2. Dans l’exemple, l’équation

estimée peut être écrite sous la forme .

indique que cette équation est valable seulement pour les valeurs ajustées de la variable dépendante, et non pour les valeurs observées de cette variable au moment du tirage de l’échantillon.

Mais on peut aussi écrire Ct = b1 + b2Rt + et où et représente le résidu. Par contre l’écriture Ct = b1 + b2Rt est incorrecte.

La fonction de consommation estimée à partir d’un échantillon aléatoire de T ménages implique que l’effet marginal du revenu disponible sur la consommation prédite – encore qualifiée de pro-pension marginale à consommer – est constant, égal à b2, quel que soit le montant du revenu disponible. Cette première approche est souvent trop simple par rapport à des observations révélant

que la propension marginale à consommer décroît au fur et à mesure que le montant du revenu disponible augmente. Pour prendre en compte l’existence d’un tel phénomène, il faudrait ajus-ter la consommation Ct par un polynôme du second degré en Rt,

soit estimer le modèle linéaire suivant : .

Ici, l’effet marginal du revenu disponible sur la consommation prédite est b2 + 2b3Rt, plus en conformité avec les observations. Par ailleurs, l’hypothèse selon laquelle la variance des aléas σ2 est constante est également trop simple, car les dépenses de consom-mation sont généralement beaucoup plus dispersées pour les revenus d’un montant élevé que pour les revenus d’un montant faible. Un processus générateur des données plus sophistiqué devrait donc être mis en œuvre, associé à une méthode d’estima-tion appropriée.

Il faut également remarquer que la théorie économique ventile les dépenses de consommation des ménages en différentes catégories : aliments, vêtements, logement, transports, santé, loi-sirs. Aussi une approche plus désagrégée et plus pertinente consisterait-elle à spécifier et estimer une fonction de consomma-tion pour chaque type de dépenses.

Enfin, la même théorie peut être testée à partir d’observations agrégées relatives à la consommation et au revenu d’un ensemble de ménages localisés dans la même zone géographique (un pays) enregistrées sur plusieurs dizaines d’années. Des difficultés sup-plémentaires, dues à la nature temporelle des données, vont alors apparaître.

2.1.7 Quelques remarques pour conclure

L’investigation économétrique basée sur le modèle linéaire clas-sique repose sur une spécification précise du processus générateur des données, y = Xβ + u avec H1, H2, H3 et H4 (ou ). La construction d’un graphique des résidus et qui permettent la prédiction des aléas ut est une bonne idée pour apprécier si cette spécification est correcte. Un tel graphique peut intuitivement indi-quer que certaines hypothèses, notamment l’homoscédasticité des aléas et leur indépendance, sont inappropriées. Plus rigoureuse-ment des tests de spécification [16][17][18] pourront être mis en œuvre, et indiquer la nécessité de spécifier un processus généra-teur des données plus sophistiqué, complexifiant notamment le contenu du terme aléatoire u. Des estimateurs adéquats devront alors être sélectionnés. Évidemment, la nature des données employées – coupe transversale, données longitudinales ou de panel – conditionne a priori l’écriture du processus générateur des données et le choix d’une méthode d’estimation. Il faut également noter que les techniques bayésiennes peuvent être utilisées, en particulier pour sélectionner les variables explicatives appropriées [AF 605].

Les références [15][17][19][20] contiennent de nombreux exem-ples et des sources de données et de logiciels permettant d’acqué-rir un savoir-faire pertinent sur la démarche économétrique.

2.2 Modèle non linéaire à variable endogène qualitative : le modèle logit multinomial

La démarche économétrique traditionnelle, basée sur le modèle linéaire, cherche à mettre en évidence les facteurs explicatifs du comportement moyen de variables endogènes continues. Fonda-mentalement, ce type de variables agrège des choix individuels effectués, très souvent, à partir d’ensembles finis d’éventualités mutuellement exclusives les unes des autres ; de tels choix sont alors qualifiés de choix discrets. Ainsi, les dépenses de consom-mation des ménages déterminées, en moyenne, par leurs revenus regroupent une multitude de décisions relatives à des choix por-tant sur des biens de consommation courante (boisson rafraîchis-sante, dentifrice…), des biens durables (automobile, ordinateur…),

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 17: 42102210 af1500

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I.AF 1 500 – 16

ou encore sur des services (modes de transports, traitements médicaux, collèges ou universités…). La théorie économique sup-pose que chacun de ces choix discrets dépend des préférences individuelles représentées par des fonctions d’utilité dont les prin-cipaux arguments sont les caractéristiques socio-économiques des décideurs et les attributs des différentes éventualités. Pour confronter cette théorie à des faits, donc à des choix observés sur des marchés ou dans des conditions expérimentales, il faut sélec-tionner un processus générateur des données adapté à la nature qualitative (discrète) de la variable endogène employée pour repré-senter la décision étudiée. Le problème est d’abord abordé pour un choix binaire puis généralisé, grâce à la fonction d’utilité aléa-toire, aux choix portant sur un nombre quelconque et fini d’éven-tualité. La révélation des préférences des individus et le test de leur rationalité sont opérationnels grâce au modèle logit multino-mial, estimé par maximum de vraisemblance.

2.2.1 Choix binaire

On considère une enquête de terrain révélant, à un moment donné, les choix d’un échantillon de T individus entre deux éven-tualités mutuellement exclusives l’une de l’autre, comme par exemple deux modes de transport – automobile ou transport en commun – qui peuvent être utilisés pour se rendre sur le lieu de travail. La variable endogène, aléatoire yt, prend, a priori, une valeur égale à 1 si l’individu t sélectionne l’une des options, une valeur égale à 0 s’il sélectionne l’autre. Le codage retenu ici l’est pour des raisons pratiques, mais est sans conséquence sur les caractéristiques du modèle. Les choix observés sont supposés dépendre de variables explicatives, exogènes représentées par le vecteur ligne de dimension K. La forme canonique du modèle économétrique exprime alors la probabilité (condition-nelle) de choisir l’une des éventualités sous la forme :

, t = 1, …, T, où β est un vecteur colonne de K paramètres β1,β2, …, βK. Puisque la fonction F doit prendre ses

valeurs dans l’intervalle [0,1] et être croissante par rapport à , il est naturel de la spécifier comme une fonction de répartition d’une loi de probabilité continue définie sur l’axe des réels.

Si l’on veut revenir aux idées exposées au § 2.1, cela signifie que l’on choisit pour F la fonction identité, ce qui conduit au modèle de probabilité linéaire . Puisque E(yt) = Pt, ce modèle implique , où ut = yt – E(yt) est une variable aléa-toire d’espérance nulle. On retrouve donc le cadre d’un modèle linéaire décomposant la variable expliquée en la somme de son espérance et d’un aléa (H2). Mais la mise en œuvre des techniques d’inférence statistique pose alors un certain nombre de problèmes. En effet, la loi de probabilité de ut n’est pas normale. Étant donné

, ut suit une loi de probabilité discrète, pouvant prendre les

valeurs avec, respectivement, les probabilités Pt et 1 – Pt. De plus, on peut montrer que var(ut) = Pt(1 – Pt), donc l’hypothèse d’homoscédasticité (H3) ne tient plus. Ces deux points invalident l’emploi de l’estimateur des moindres carrés ordinaire construit au § 2.1.4. Qui plus est, les valeurs prises par , donc Pt, peuvent être inférieures à 0 ou supérieures à 1, ce qui rend le modèle de probabilité linéaire peu attractif en termes d’interpréta-tion.

Deux spécifications de F sont dans la pratique utilisées, permet-tant de spécifier un modèle probabiliste de choix cohérent et testa-ble. Si l’on choisit pour F la fonction de répartition de la loi normale centrée réduite N(0,1), alors on obtient un modèle probit de choix binaire tel que :

Le choix de la loi normale, qui peut sembler naturel d’un point de vue statistique, a le défaut de générer un modèle qui ne pos-sède pas de formulation analytique des probabilités. Si l’on choisit

pour F la fonction de répartition de la loi logistique (i. e.

espérance 0, variance ), alors on obtient un modèle logit de

choix binaire tel que :

La loi logistique possède, comme la loi normale, une distribution en cloche symétrique, mais ces queues sont beaucoup plus épais-ses. Elle a comme avantage de générer une formulation analytique des probabilités qui peut être justifiée plus profondément (§ 2.2.2) et généralisée à l’étude d’un problème de choix entre un nombre quelconque et fini d’éventualités (§ 2.2.3).

Le choix de F n’est pas aussi crucial dans la mesure où, comme dans le modèle linéaire, les variables explicatives peuvent être introduites sous différentes formes (logarithme, mise au carré…). Pour le voir, supposons que la vraie fonction soit G, mais que l’économètre suppose que celle-ci soit F [18], alors, en sélection-nant une fonction h de façon appropriée, il peut toujours satisfaire

.

Quelle que soit la forme de F retenue, il est important de remar-quer que, contrairement au modèle linéaire, les paramètres conte-nus dans le vecteur β ne peuvent pas être directement interprétés comme les effets marginaux des différentes variables explicatives. L’effet marginal d’une variable exogène continue xtk est donné par

où f est la dérivée de F (donc la densité de pro-

babilité), soit pour un modèle logit βk × Pt(1 – Pt) et pour un modèle

probit βk × f(F–1(Pt)). L’effet marginal change donc avec la valeur de

; il est pour les deux spécifications de F le plus élevé à proxi-mité de Pt = 1/2 et tend vers zéro quand Pt approche 0 ou 1. En général, cet effet est peu différent pour un modèle logit et un modèle probit estimés sur un même ensemble de données [18]. Le signe de chaque paramètre est quant à lui, directement interpréta-ble, permettant de savoir si la probabilité Pt est une fonction crois-sante (ou décroissante, toutes choses égales par ailleurs) de la variable explicative correspondante.

La loi de probabilité des observations étant complètement spéci-fiée, il est naturel d’estimer le modèle de choix binaire en utilisant la méthode du maximum de vraisemblance. Il faut, à ce stade, remarquer qu’il s’agit seulement d’estimer le vecteur de paramètre β exprimant l’influence éventuelle des variables explicatives ; contrairement au modèle linéaire, aucun paramètre de nuisance (variance de l’aléa) n’est ici pris en compte. Sous l’hypothèse que l’échantillon est aléatoire, donc que les observations sont indépen-dantes, la fonction de vraisemblance de l’échantillon, pour un modèle probit ou logit, est donnée par :

La log-vraisemblance correspondante est alors :

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 18: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I. AF 1 500 – 17

___________________________________________________________________________________________________ ÉCONOMÉTRIE ET THÉORIE DES JEUX

L’estimateur du maximum de vraisemblance de β, est alors solu-tion de :

Contrairement au modèle linéaire, on ne peut pas exprimer comme une fonction simple des observations. L’estimateur du

maximum de vraisemblance doit être obtenu à partir d’une méthode numérique itérative de recherche de maximum telle que décrite dans [18][21]. Pour les deux spécifications de F, cette méthode converge en général très rapidement (6 itérations au plus) puisque la log-vraisemblance est globalement concave.

Sous des conditions imposées à la façon dont évoluent les varia-bles explicatives qui peuvent, comme dans le modèle linéaire, être

déterministes ou aléatoires, on montre [21] que l’estimateur existe asymptotiquement, converge vers la vraie valeur de β et suit asymptotiquement une loi normale d’espérance β et de matrice de variance-covariance asymptotique l’inverse de la matrice d’infor-mation de Fisher telle que définie en [AF 168]. Pour les modèles

logit et probit, cette matrice est égale à :

Cette matrice est estimée en remplaçant β par . Les erreurs types d’estimation correspondent aux racines carrées de ses éléments

diagonaux, donc aux . L’estimateur et sa matrice de

variance-covariance estimée peuvent être utilisés, comme dans le modèle linéaire, pour tester la significativité de chaque paramètre. Sous l’hypothèse H0 : βk = 0, la statistique de Wald :

est asymptotiquement distribuée selon la loi du χ2 à un degré de liberté. Par ailleurs, comme la loi des observations est complète-ment spécifiée, il est naturel d’utiliser la méthode du rapport de vraisemblance pour tester l’influence conjointe de plusieurs varia-bles explicatives (par exemple H0 : βk = βl = 0) ou l’existence d’une relation linéaire entre plusieurs paramètres (par exemple

). La statistique calculée est basée sur l’idée selon laquelle si l’hypothèse H0 est vraie, alors les valeurs des log-vraisemblances respectivement évaluées pour le modèle restreint, donc sous H0, et le modèle non restreint devraient être très proches ; ceci suggère d’utiliser une fonction de la différence

entre et où et désignent respectivement

les vecteurs paramètres avec et sans restriction. On montre que la

statistique est asymptotiquement dis-

tribuée selon une loi du χ2 dont le nombre de degrés de liberté est égal au nombre de restrictions sous H0 [21]. Cette méthode néces-site de réaliser deux estimations par maximum de vraisemblance

d’un même modèle (logit ou probit), celle du modèle sous la res-triction décrite dans H0 et celle du modèle sans restriction.

Un test de significativité globale du modèle logit ou probit, donc de l’hypothèse H0 : β2 = β3 = … = βK = 0 (tous les paramètres sauf la constante sont-ils nuls ?), que l’on peut rapprocher du test de Fisher permettant d’apprécier la significativité du modèle linéaire dans sa globalité, peut être réalisé en appliquant la méthode du rapport de vraisemblance. Pour un modèle logit, il est facile de

montrer que la valeur de n’est autre que celle obtenue en

évaluant les aux fréquences de réalisation de yt = 1 et yt = 0 observées dans l’échantillon (résultat seulement approximatif par le modèle probit) [16], donc on a :

Dans la pratique, les valeurs prises par la statistique LR calculée

en utilisant cette expression de comme base de référence

sont généralement beaucoup plus grandes que celles fournies dans la table du χ2 : on rejette donc quasi systématiquement H0.

Le modèle logit ou probit estimé doit permettre d’expliquer les variations des {yt} à partir des variations des {xtk}. La qualité de l’ajustement sera d’autant meilleure que les probabilités estimées

seront proches de 1 ou de 0 selon que yt = 1 ou yt = 0, ∀t.

Aussi, la valeur maximale théorique de la log-vraisemblance non

restreinte d’un modèle logit ou probit, , est-elle zéro !

Cette remarque cruciale suggère qu’une métrique naturelle pour comparer un modèle logit à un modèle probit comportant les même variables explicatives et estimés à partir du même jeu de

données est la valeur de . Plus cette dernière est proche

de zéro et meilleur est l’ajustement. Dans la pratique, les valeurs des log-vraisemblances sont souvent proches, indiquant qu’il y a peu de gain additionnel à utiliser l’une des spécifications plutôt que l’autre.

Plus généralement, malgré l’absence d’aléas et donc de résidus tels qu’ils ont été définis dans le modèle linéaire, le problème de la qualité de l’ajustement dans un modèle de choix discrets logit ou probit peut être exposé dans les termes suivants : « Quelle est la quantité supplémentaire d’information apportée par les variables explicatives xt2, xt3,…, xtK, par rapport à la seule connaissance des fréquences de réalisation de yt = 1 et yt = 0 observées dans l’échantillon ? » On peut alors proposer d’après [22] le « pseudo R2 » suivant, noté ρ2 tel que :

étant l’expression de la log-vraisemblance en terme de

fréquences observées, décrite précédemment. Cet indicateur prend des valeurs comprises entre 0 – les variables explicatives n’appor-

tant alors aucune information – donc , et 1,

l’ajustement étant parfait, donc . Par construction, cet

indicateur prend des valeurs plus basses qu’un R2 traditionnel ; pour un modèle logit ou probit estimé sur coupe transversale, un ρ2 de valeur 0,4 correspondra à un R2 de valeur égale à 0,8.

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 19: 42102210 af1500

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I.AF 1 500 – 18

2.2.2 Fondements microéconomiques : la fonction d’utilité aléatoire

Dans une situation de choix binaire, un individu, possédant cer-taines caractéristiques socio-économiques (âge, sexe, revenu, loca-lisation…) doit choisir entre deux éventualités possédant chacune certains attributs (coût, forme, couleur, confort d’usage…). On sup-pose que l’individu sélectionne l’éventualité qui lui apporte la meilleure satisfaction, encore qualifiée plus théoriquement d’uti-lité. La fonction d’utilité sous-jacente à la décision résume l’attrac-tion de chaque option générée d’abord par ses attributs, mais dépendant aussi des caractéristiques de l’individu. En économé-trie, cette fonction d’utilité est fondamentalement une variable non observable, qualifiée de variable latente. On suppose qu’il est pos-sible de décomposer cette variable en la somme d’une partie sys-tématique, déterministe, exprimée à l’aide de facteurs explicatifs observables, et d’une partie aléatoire dont les réalisations sont inconnues par l’économètre. Ce terme aléatoire renvoie à l’exis-tence de variables omises, parfaitement connues de l’individu, mais ignorées et/ou non observables de la part de l’économètre, ainsi qu’à d’éventuelles erreurs de mesure ; il peut donc être iden-tifié à l’aléa du modèle économétrique linéaire traditionnel, tel que défini au § 2.1.1.

Si, par commodité, on identifie les deux éventualités aux indices 0 et 1, alors leur utilité respective U s’écrit pour chaque individu td’un échantillon U0t = V0t + u0t et U1t = V1t + u1t où V0t et V1t dési-gnent les parties systématiques et u0t et u1t les parties aléatoires. L’individu t sélectionne l’éventualité 1 si et seulement si U1t > U0t. Tous les choix observés dans l’échantillon sont donc interprétés par un ensemble d’inégalités : yt = 1 si U1t > U0t, yt = 0 sinon, t = 1, …, T. L’utilité étant aléatoire, l’économètre observateur des choix peut, au mieux, exprimer la probabilité de sélectionner l’éventua-lité 1, soit

où F est la fonction de répartition de la loi de probabilité de (u0t – u1t). Arrivé à ce stade, si l’on pose , alors

et l’on revient aux modèles logit ou probit défi-nis au § 2.2.1.

La justification d’un modèle de choix binaire en terme d’une fonction d’utilité aléatoire permet d’approfondir son interprétation et sa spécification selon les quatre aspects suivants :

– les probabilités modélisées expriment l’information incomplète de l’économètre vis-à-vis des déterminants des choix observés à un moment donné, et non une éventuelle irrationalité des indivi-dus qui ne sélectionneraient pas pour chacun d’eux la meilleure option. En conséquence, plus l’information recueillie sur ces déter-minants sera complète, et plus les valeurs estimées des probabili-tés estimées seront proches de 1 ou 0, conformément aux explications précédentes sur la qualité de l’ajustement ;

– l’échelle de l’utilité sous-jacente doit être normalisée puisque si U1t > U0t, alors δU1t > δU0t, pour tout δ > 0. Cette normalisation est usuellement réalisée en fixant les variances de u0t et u1t, ou la variance de (u0t – u1t), pour un modèle probit, égale à 1, et pour un

modèle logit, égale à . Seul le vecteur β est donc estimé.

Remarquez alors que pour une estimation réalisée sur un même jeu de données, la valeur absolue des paramètres estimés du logit sera automatiquement supérieure à la valeur absolue des paramè-tres estimés du probit, ce qui doit être pris en compte au moment de l’interprétation des résultats ;

– on peut spécifier la loi de probabilité de la partie aléatoire de l’utilité de différentes façons. L’hypothèse qui semble la plus natu-

relle, déjà utilisée pour le modèle linéaire, est de considérer que chaque terme aléatoire est la somme de nombreuses variables aléatoires indépendantes traduisant les influences omises et les erreurs de mesure ; alors, par application du théorème central-limite, chacun de ces termes est distribué selon une loi normale, donc la différence (u0t – u1t) est aussi distribuée selon une loi nor-male d’où le modèle probit. Mais on peut aussi faire l’hypothèse suivante : chaque terme aléatoire est le maximum de nombreuses variables aléatoires indépendantes associées aux influences omi-ses et erreurs de mesure ; alors chaque terme est distribué selon une loi de Gumbel ou loi à valeurs extrêmes de type I. La spécifica-tion d’une telle loi est la suivante : une variable aléatoire z est dis-tribuée selon une loi de Gumbel si sa densité est :

f (z) = exp(–z)exp(–exp(–z)), –∞ < z < ∞et sa fonction de répartition F(z) = exp(–exp(–z)) . Cette loi, rare-ment utilisée en économétrie, est non symétrique (distribution décalée vers la droite), a pour moyenne 0,5772 et pour variance

; elle est bien approximée par une loi log-normale. Sous cette

hypothèse, la différence (u0t –u1t) est distribuée selon une loi logis-

tique d’espérance 0 et de variance , d’où le modèle logit. Cette

hypothèse introduite dans [22] a une justification microéconomi-que car un modèle de choix discrets est fondé sur la maximisation de l’utilité ; elle a également une justification pratique, puisqu’elle permet de générer une formulation analytique des probabilités ;

– dans les applications, les variables explicatives introduites dans la partie systématique de l’utilité peuvent être de deux types :

• un premier type de variables permet de décrire les éventuali-tés par leurs attributs ; ces variables ont des valeurs qui chan-gent d’une option à l’autre et d’un individu à l’autre. Elles seront représentées par le vecteur ligne de dimension l,

• un second type de variables décrit les caractéristiques socio-économiques des individus en situation de choix ; leurs valeurs ne changent pas entre les éventualités pour un même individu. Elles seront représentées par le vecteur ligne de dimension m. La partie systématique de l’utilité s’écrit alors :

j = 0, 1 où θ est un vecteur colonne de dimension l et γj un vecteur colonne de dimension m.

La probabilité de sélectionner l’éventualité 1 est donc :

L’influence des variables socio-économiques, dont les valeurs ne changent pas d’une éventualité à l’autre, ne peut être exprimée qu’en termes de différences de paramètres (γ1 – γ0) . Lors de l’esti-mation, une restriction identifiante, par exemple γ0 = 0, permet de mesurer γ1. La même idée s’applique aux constantes exprimant une préférence pure ou une aversion innée pour les éventualités : on ne pourra en mesurer qu’une seule associée, par exemple, à la partie systématique de l’utilité de l’éventualité 1.

2.2.3 Généralisation : le modèle de choix discrets logit-multinomial

Considérons un échantillon (aléatoire) de T individus confrontés chacun à un problème de choix entre J (> 2) éventualités mutuelle-ment exclusives les unes des autres (par exemple des modes de transport pour se rendre sur le lieu de travail). À un moment donné (coupe transversale) chaque individu choisit, en fonction des attributs des éventualités et de ses caractéristiques socio-éco-nomiques, l’une des éventualités possibles. À ce stade, les choix réalisés sont considérés complètement indépendants les uns des

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 20: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I. AF 1 500 – 19

___________________________________________________________________________________________________ ÉCONOMÉTRIE ET THÉORIE DES JEUX

autres, aucune considération stratégique n’étant en particulier prise en compte. Généralisant l’approche exposée au § 2.2.2, on suppose que chaque individu sélectionne l’éventualité qui génère pour lui la plus forte utilité. Plus précisément, chaque individu taffecte à chaque éventualité j une utilité Ujt, qui pour l’économètre est aléatoire et s’écrit sous la forme additive suivante :

Ujt = Vjt + ujt, j = 1, 2, …, J, t = 1, …, T

Vjt est la partie systématique, déterministe, des préférences, fonc-tion des attributs observés des éventualités et de caractéristiques socio-économiques supposées déterminantes. ujt est le bruit du modèle, la partie aléatoire des préférences dont les réalisations ne sont pas observées par l’économètre, et que l’on peut assimiler à l’aléa d’un modèle linéaire traditionnel.

L’hypothèse est donc : t choisit j si et seulement si . L’utilité étant aléatoire, l’économètre peut au

mieux exprimer la probabilité de sélection de chaque éventualité,

soit donc

ou encore :

.

Différents modèles de choix discrets peuvent alors être cons-truits, dépendant chacun de l’hypothèse réalisée sur la loi de pro-babilité jointe des termes aléatoires ukt. Généralisant le paragraphe 2.2.2, on peut supposer que les ukt sont des variables aléatoires indépendantes et identiquement distribuées selon une loi de Gumbel ou à valeurs extrêmes de type I de paramètres η et λ (> 0) dont la fonction de densité est

et la fonction de répartition est F(z) = exp(– exp(– λ(z – η))). Cette loi

a pour moyenne où γ = 0,5772 est la constante d’Euler, et

pour variance . On montre alors [22] que :

L’expression obtenue est celle du modèle logit nultinomial de choix discrets. Il est bien sûr possible de supposer que les ukt sont des variables aléatoires distribuées conjointement selon une loi normale (J–1) variée autorisant certaines corrélations entre les uti-lités aléatoires. Mais le modèle probit multinomial de choix dis-crets ne présente pas de formulation analytique des probabilités qui sont difficiles à calculer et à estimer [16].

S’il a l’avantage de posséder de solides fondements microéco-nomiques, grâce à sa justification par la loi de Gumbel, et d’offrir une formulation analytique des probabilités, le modèle logit multi-nomial peut être facilement critiqué. Il possède en effet la propriété d’indépendance des éventualités non pertinentes selon laquelle le rapport ente les probabilités de choix de deux éventualités j et kest indépendant des utilités systématiques de n’importe quelles autres éventualités possibles l ≠ k et j, soit :

Cette propriété, conséquence de l’hypothèse d’indépendance des termes aléatoires ukt, implique que ce modèle ignore les res-semblances éventuelles pouvant exister entre les éventualité, ce qui peut conduire à surestimer certaines probabilités de choix et à en sous-estimer d’autres. Elle peut être testée comme il est expli-

qué plus loin, et elle a suscité la recherche de modèles analytiques de choix discrets plus généraux [22].

Le modèle logit multinomial est naturellement estimé par la méthode du maximum de vraisemblance. Si l’on définit les varia-bles dichotomiques yjt = 1 si yt = j, yjt = 0 sinon, j = 1, …, J, alors la fonction de vraisemblance de l’échantillon est donnée par :

La log-vraisemblance correspondante est donc :

Il n’existe pas de formule simple pour l’estimateur qui doit être déterminé à l’aide d’une méthode numérique itérative de recher-che de maximum, forcément convergente puisque la log-vraisem-blance du logit multinomial est globalement concave [21]. Généralisant l’approche exposée au § 2.2.2, cette méthode doit permettre d’estimer les paramètres apparaissant dans l’expression suivante :

On distingue ici le scalaire λ, positif, associé à la variance du

terme aléatoire telle que , ∀j, ∀t et les vecteurs θ et

γj, pondérant, respectivement, les attributs des éventualités repré-

sentés par le vecteur ligne , et les caractéristiques socio-écono-

miques représentées par le vecteur ligne . L’expression précédente, linéaire par rapport aux paramètres, ne permet pas de mesurer séparément λ, θ et γj. La valeur de λ est usuellement fixée

à 1, donc la variance des termes aléatoires est fixée à π2/6, ce qui normalise l’échelle de l’utilité aléatoire. Comme pour les choix binaires, et contrairement au modèle linéaire, le modèle logit mul-tinomial ne permet donc pas d’estimer la variance de l’aléa ujt. Remarquez que le paramètre λ exprime l’ignorance de l’économè-tre vis-à-vis des déterminants des choix. Lorsque λ tend vers l’infini, la variance des ujt tend vers zéro, et la probabilité de sélec-tionner l’éventualité j tend vers 1 si V jt est la plus élevée et 0 sinon : les caractéristiques des actions sont parfaitement obser-vées. Lorsque λ tend vers zéro, la variance des ujt tend vers l’infini, et la probabilité de sélectionner j tend vers 1/J quel que soit j, ce qui signifie que l’ignorance de l’économètre est totale : les varia-bles explicatives introduites dans la partie systématiques de l’uti-lité n’apportent aucune information. Entre ces deux extrêmes, l’information incomplète de l’économètre lui permet seulement d’exprimer les choix observés de façon probabiliste. La méthode du maximum de vraisemblance permet donc d’estimer le vecteur de paramètres θ, exprimant l’influence des attributs des éventuali-tés. Elle permet aussi de mesurer l’influence des variables socio-économiques à travers (J–1) vecteurs de paramètres γ1, …, γJ–1, si par exemple, on choisit de poser la restriction identifiante γJ = 0 ; une telle prolifération des vecteurs de paramètres, inhabituelle dans le modèle linéaire classique, est rendue nécessaire par la non-variation des caractéristiques socio-économiques d’une éven-tualité à l’autre. Pour une raison similaire, les préférences pures en aversions innées pour les différentes éventualités sont mesurées à travers (J–1) constantes en posant, par exemple, celle associée à l’éventualité J égale à 0.

Les estimateurs du maximum de vraisemblance des paramètres du modèle logit multinomial, possédant des propriétés asymptoti-ques [21], peuvent être employés pour mettre en œuvre des tests de restriction sur les valeurs de ces paramètres, basés sur la statis-tique de Wald ou sur une statistique du rapport de vraisemblance,

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 21: 42102210 af1500

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I.AF 1 500 – 20

déjà définies au § 2.2.2. La qualité de l’ajustement peut être mesu-rée par le ρ2 défini au § 2.2.2. Il faut alors remarquer que la log-vraisemblance restreinte associée au modèle pour lequel tous les paramètres, sauf les constantes, sont nuls est :

où est le nombre d’individus de l’échantillon pour

lequel on observe le choix de l’éventualité j.

Un test de spécification permettant d’apprécier la validité de la propriété d’indépendance des éventualités non pertinentes peut aussi être employé. L’idée consiste à comparer les valeurs des paramètres obtenues lorsque le modèle logit multinomial est estimé en utilisant l’ensemble complet d’éventualités (composé de J éléments) aux valeurs des paramètres obtenues lorsque le modèle logit multinomial est estimé en utilisant un sous-ensemble de l’ensemble complet d’éventualités (composé au plus de (J–1) éléments). Si la propriété est valide (hypothèse H0), alors on obtiendra des estimateurs convergents des paramètres, donc des valeurs ou estimations de ces derniers, peu différentes. La statisti-que à calculer est :

distribuée selon un χ2 dont le nombre de degrés de liberté est le

nombre de paramètres du modèle restreint ; et désignent

les vecteurs de paramètres composés de et des estimés, res-pectivement sous la restriction et pour l’ensemble complet d’éven-tualités [16]. Le rejet de l’hypothèse H0 signale à l’économètre l’existence de liens entre certaines éventualités nécessitant de modifier la spécification des utilités aléatoires, sans toutefois lui indiquer quel est le modèle alternatif à employer.

L’interprétation des valeurs des paramètres obtenues par l’esti-mation d’un modèle logit multinomial n’est pas immédiate. Les uti-lités systématiques étant des fonctions linéaires de ces paramètres, il peut être tentant de considérer, pour des variables explicatives continues décrivant les attributs des éventualités, la valeur absolue de chaque paramètre comme représentant l’effet ou utilité marginal(e) de la variable à laquelle il est associé. Mais, cette valeur absolue n’a pas d’interprétation directe car elle dépend de la condition de normalisation fixant l’échelle de l’utilité, donc de la variance de la partie aléatoire. Il peut alors être plus judicieux de calculer le rapport entre les valeurs de deux de ces paramètres, exprimant l’effet relatif d’une modification marginale de l’une des variables en fonction de l’autre, encore appelé en microéconomie taux marginal de substitution. Ce rapport est indé-pendant de la condition de normalisation évoquée précédemment. Par ailleurs, les effets marginaux des variables explicatives sur les probabilités de choix dépendent, comme dans le cas binaire, des valeurs des variables explicatives et sont selon la nature de ces variables (attributs des éventualités ou variables socio-économi-ques) plus ou moins complexes à analyser [16][19].

2.2.4 Modèle logit-multinomial et rationalité limitée

Selon la théorie économique, l’individu qui doit faire un choix à partir d’un ensemble d’actions réalisables range ces dernières de façon cohérente et non ambiguë à l’aide d’une fonction d’utilité qui exprime ses préférences. L’individu parfaitement rationnel sélec-tionne alors l’action qui maximise son utilité. Le processus de choix décrit est donc de nature déterministe. En psychologie, étant donné les incohérences observées dans les comportements humains, on suppose plus modestement que le même individu, disposant de capacités cognitives limitées, est la plupart du temps

imparfaitement optimisateur, ne choisissant pas forcément la meilleure action réalisable, mais procédant de façon à sélectionner « au mieux » parmi les différentes options. Les choix individuels, généralement suboptimaux, sont alors appréhendés de façon pro-babiliste. L’un des modèles de choix probabilistes les plus anciens et les plus célèbres est le modèle à « utilité stricte » [24]. Dans ce cadre, la probabilité selon laquelle un individu sélectionne une action est proportionnelle à l’utilité qu’elle procure. Plus précisé-ment, si w(a) désigne l’utilité déterministe strictement positive associée à l’action réalisable a appartenant à un ensemble de telles actions A, alors la probabilité que l’individu sélectionne a ∈ A est donnée par :

Toute action générant une utilité strictement positive a donc une probabilité non nulle d’être choisie. Mais la rationalité de l’individu est conservée sous forme tendancielle puisque plus l’utilité d’une action est élevée et plus la probabilité que cette action soit choisie est grande. La probabilité de sélectionner a ∈ A est une fonction croissante de w(a) ; elle décroît lorsque l’utilité d’une action b ≠ a, w(b) augmente. Le comportement souple décrit dans ce modèle tranche avec le comportement maximisateur de choix déterministe amenant le décideur à basculer définitivement en faveur d’une option lorsque son utilité est supérieure à celle des autres.

Si l’on compare le modèle à « utilité stricte » au modèle logit multinomial présenté au § 2.2.3, on voit qu’il suffit de poser w(a) = exp(λVa) pour obtenir une équivalence. Le modèle logit mul-tinomial n’est autre qu’une version économétrique du modèle à « utilité stricte » dans laquelle les utilités systématiques, détermi-nistes, associées aux différentes éventualités sont fonctions de variables explicatives exogènes décrivant généralement les condi-tions d’offre sur un marché et les caractéristiques d’un échantillon d’individus-décideurs [22].

Réécrire le modèle à « utilité stricte » en termes d’un modèle logit mulitinomial a l’avantage de faire apparaître le paramètre λqui exprime ici la sensibilité de l’individu à l’utilité systématique associée à chaque action réalisable. Si λ tend vers zéro, l’individu choisit entre ses actions de façon aléatoire, s’écartant complète-ment du schéma de rationalité parfaite de la théorie économique. Pour des valeurs finies de λ, le choix de l’individu est imparfaite-ment rationnel, la complexité du problème de décision lui permet-tant seulement de procéder « au mieux ».

Au total, le modèle logit multinomial a une double interprétation [23][24][25] :

– une interprétation cognitive, les probabilités de choix expri-mant la décision suboptimale d’un individu qui ne dispose généra-lement pas d’une capacité de discrimination parfaite entre différentes actions réalisables ;

– une interprétation économétrique, les probabilités de choix exprimant l’asymétrie d’information entre l’économètre et un échantillon d’individus, supposés parfaitement rationnels, dont les préférences sont modélisées.

Selon ces interprétations, il faut remarquer que la signification donnée au paramètre λ change : soit c’est un indicateur des limites de la rationalité de l’individu, soit, comme expliqué au § 2.2.3, c’est un indicateur de l’ignorance de l’économètre vis-à-vis des détermi-nants des choix. Si ce paramètre ne peut pas être mesuré dans le contexte économétrique traditionnel décrit au § 2.2.3 (coupe trans-versale d’individus dotés d’une fonction d’utilité linéaire), on peut néanmoins envisager son identification dans un contexte très contrôlé d’obtention des données visant à tester la rationalité.

Le paragraphe suivant décrit les principales applications du modèle logit multinomial selon les conditions d’obtention des observations et le degré de rationalité supposé des individus.

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 22: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I. AF 1 500 – 21

___________________________________________________________________________________________________ ÉCONOMÉTRIE ET THÉORIE DES JEUX

2.2.5 Applications

Une contrainte majeure relative à l’estimation d’un modèle logit multinomial est que la taille de la base de données augmente très rapidement avec le nombre d’éventualités considérées dans le pro-blème de choix étudié. L’estimation d’un modèle linéaire classique nécessite une ligne de données par unité observation ; ainsi, l’esti-mation de la fonction de consommation décrite au § 2.1.6. néces-site pour chaque ménage une ligne de données enregistrant le montant de sa consommation et celui de son revenu. Le nombre total d’enregistrements est donc égal au nombre d’unités d’obser-vations. Par contre, l’estimation d’un modèle de choix discrets logit multinomial nécessite pour chaque unité d’observation autant de lignes de données que d’éventualités auxquelles cette unité est confrontée. Il est en effet nécessaire d’avoir de l’information sur toutes les éventualités considérées, et pas seulement sur celle sélectionnée au moment de l’enquête. Si le nombre d’éventualités est le même pour toutes les unités d’observation – hypothèse faite précédemment mais qui peut être relâchée – alors le nombre d’enregistrements contenus dans la base de données est égal au nombre d’unités d’observation (par exemple de ménages), multi-plié par le nombre d’éventualités considérées.

Cette remarque liminaire étant posée, on considère d’abord une application traditionnelle de la méthodologie précédemment décrite, cherchant à partir de données de terrain les principaux fac-teurs explicatifs de la possession d’un bien durable par une ensemble de ménages. Les économistes supposent, a priori, que les caractéristiques des ménages telles que la taille, le revenu, la localisation spatiale, mais aussi les caractéristiques du bien consi-déré tels que ses coûts d’acquisition et de fonctionnement sont les principaux déterminants des préférences. Un très bon exemple de ce type de problème, dont nous mettons ici en relief des aspects méthodologiques nécessaires à sa compréhension, est décrit dans [26]. Il s’agit de rechercher les facteurs explicatifs de la possession d’un sèche-linge alimenté à l’électricité ou au gaz chez les ména-ges américains. Un échantillon aléatoire de 1 408 ménages rési-dant sur le territoire américain en 1975 révèle que 961 d’entre eux possèdent un sèche-linge, dont 630 sont alimentés à l’électricité et 331 au gaz. Inversant la démarche exposée dans [26], supposons d’abord que l’on s’intéresse au sous-échantillon des 961 ménages possédant un sèche-linge, et que l’on recherche les déterminants du choix entre les deux variétés, électricité ou gaz. Les variables socio-économiques prises en compte sont la disponibilité du gaz pour le ménage t dans sa zone d’habitation, Gt (mesurée par la proportion de ménages de la zone possédant le gaz), le fait que le ménage t soit propriétaire ou non de son logement, Pot (variable dichotomique égale à 1 si propriétaire, 0 sinon) et la taille Tt du ménage t (mesurée par le nombre de personnes, incluant les enfants). Les variables décrivant les caractéristiques des deux éventualités, j = 1 si électrique, j = 2 si gaz, sont le coût du capital acquis CCjt et le coût de fonctionnement de l’équipement CFjt, dont les valeurs sont reconstituées pour chaque ménage et chaque éventualité à partir d’éléments économiques disponibles en 1975. On fait alors d’hypothèse que le choix d’un type de sèche-linge est basé sur la comparaison des utilités associées aux deux éventuali-tés, soit :

Les spécifications retenues appliquent les règles exposées au § 2.2.2. Les paramètres θ1 et θ2 pondérant les variables CFjt et CCjtdont les valeurs changent d’une éventualité à l’autre sont com-muns aux deux éventualités. Les paramètres γ11, γ12 et γ13 pondé-rant les variables socio-économiques Gt, Pot et Tt dont les valeurs ne changent pas d’une éventualité à l’autre sont spécifiques à l’éventualité 1. La constante, γ10, spécifique à l’éventualité 1 exprime une préférence pure pour cette option.

Le modèle logit binomial de choix discrets, comportant donc six paramètres, est estimé par la méthode du maximum de

vraisemblance à partir d’un fichier de données où pour chaque unité d’observation – un ménage – il y a deux lignes, donc comportant un nombre total d’enregistrements égal à 1922. Les éléments fournis dans [26] permettent d’apprécier la qualité de l’ajustement réalisé en calculant d’indicateur ρ2 défini au § 2.2.1.

En effet, . Par ailleurs,

; donc . La valeur obte-

nue est typique d’une estimation réalisée sur coupe transversale et suffisamment élevée pour considérer le modèle globalement satisfaisant.

Si l’on utilise maintenant l’échantillon complet des 1 408 ménages, on peut estimer un modèle logit multinomial révé-lant les déterminants des choix entre trois éventualités, soit j = 1 si électrique, j = 2 si gaz, j = 3 pas de sèche-linge. Les choix observés sont supposés basés sur la comparaison des utilités suivantes :

– ;

– ;

– .

L’utilité associée à la non-possession de sèche-linge U3t dépend d’une constante spécifique γ30 et des variables socio-économiques déjà définies plus haut. Il faut remarquer ici la prolifération des paramètres pondérant les variables socio-économiques, γ11 et γ31pour Gt, γ12 et γ32 pour Pot, et γ13 et γ33 pour Tt, rendue nécessaire par la non-variation de leur valeur d’une éventualité à l’autre pour le même ménage.

Le modèle logit multinomial de choix discrets, comportant donc dix paramètres, est estimé par la méthode du maximum de vrai-semblance à partir d’un fichier de données où, pour chaque unité d’observation, il y a trois lignes, donc comportant un nombre total d’enregistrements égal à 4224. Les éléments fournis dans [26] per-mettent de calculer l’indicateur ρ2.

D’après le paragraphe 2.2.3. :

Par ailleurs , donc ρ2 = 0,13.

La valeur obtenue est faible, ce qui amène à s’interroger sur la pertinence de la spécification retenue. La question cruciale est alors : la propriété d’indépendance des éventualités non pertinen-tes, caractéristiques du modèle logit multinomial, et décrite au § 2.2.3. est-elle valide ? Le test exposé au § 2.2.3 et mis en œuvre dans [26] amène à rejeter cette hypothèse au vu des données, invi-tant alors l’économètre à envisager une spécification différente des probabilités de choix, dans laquelle les éventualités 1 et 2 ne sont plus considérées sur le même plan que l’éventualité 3, ou telle que les termes d’erreur des utilités aléatoires u1t, u2t et u3t ne soient plus tous indépendants les uns des autres.

Dans ce premier exemple, la décision de chaque ménage rela-tive à la possession d’un sèche-linge et au choix d’une variété, électrique ou gaz, est supposée parfaitement rationnelle. Les pro-babilités de choix estimées expriment l’asymétrie d’information entre l’économètre et les préférences des ménages. Cette asymé-trie révélée par la valeur de ρ2 est importante, notamment parce que les variables décrivant les éventualités en termes de coût sont reconstituées pour les besoins de l’étude par l’économètre, et non pas révélées par les ménages au moment de l’enquête. Leurs valeurs calculées pour chaque éventualité peuvent être éloignées des valeurs effectivement perçues par les ménages et réglant leur comportement. Qui plus est, d’autres caractéristiques des éventua-lités peuvent entrer en jeu lors de la décision de chaque ménage. Au total, l’environnement dans lequel le choix se réalise est peu contrôlé par l’économètre, ce qui laisse place à l’existence de nom-breuses erreurs et d’oublis.

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 23: 42102210 af1500

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I.AF 1 500 – 22

Un second exemple représentatif de l’application du modèle logit multinomial concerne le choix d’une variété d’un bien de consommation courante par un ménage, lors de son passage dans un supermarché localisé dans sa zone de résidence. Les données utilisées pour l’estimation, qualifiées de données « scanner » [27][28] enregistrent, pour un échantillon de ménages localisés dans une certaine agglomération, tous les achats réalisés durant une période de temps et dans un ensemble de supermarchés, pour une catégorie de produit décliné sous différentes marques, le prix payé au moment de chaque achat, la présence ou non d’une pro-motion sur le produit dans le supermarché où est réalisé l’achat, ainsi que l’existence ou non d’une campagne publicitaire pour telle ou telle marque dans la presse. La question de marketing stratégi-que à laquelle la mise en œuvre de la méthodologie cherche à répondre est : quels sont les effets des prix, des promotions et des campagnes de publicité sur le comportement des ménages-consommateurs ? Il faut remarquer ici que l’environnement dans lequel les choix sont réalisés est mieux contrôlé que dans le pre-mier exemple, les données révélant directement les déterminants importants de ces choix, notamment les prix ainsi que les motiva-tions générées par des actions de marketing. Cette approche a été employée pour étudier les choix entre des marques de café [27], des marques de yaourt, de sauce ketchup, de biscuits salés [28] ou encore les choix entre des variétés de boissons rafraîchissantes au cola (Coca ou Pepsi) [19].

Pour l’illustrer, nous décrivons les principaux traits méthodologi-ques du problème du choix d’une marque de biscuits salés, dont les résultats détaillés sont exposés dans [28]. Un échantillon de 100 ménages américains réalisent sur une zone urbaine donnée et durant une période de 2 ans, 2 509 achats portant sur quatre mar-ques indicées j = 1, 2, 3, 4 (les quantités étant identiques). Cet échantillon révèle que 148 achats concernent la marque 1, 186 achats concernent la marque 2, 1 392 achats concernent la marque 3 alors que 783 achats concernent la marque 4. L’achat ou non d’une marque à un moment donné est supposé dépendre de la comparaison de son utilité à celles des autres. Plus précisément, l’achat réalisé t (d’une marque j) qui constitue l’unité d’observation est fonction de trois variables : le prix Pjt, la présence ou non d’une promotion Promjt (variable dichotomique égale à 1 si la marque jest en promotion dans le supermarché, zéro sinon), l’existence d’une campagne publicitaire dans la presse Pubjt (variable dichoto-mique égale à 1 si la campagne de pub existe pour la marque j, zéro sinon). Les utilités s’écrivent alors :

– U1t = γ10 + θ1P1t + θ2Prom1t + θ3Pub1t + u1t ;– U2t = γ20 + θ1P2t + θ2Prom2t + θ3Pub2t + u2t ;– U3t = γ30 + θ1P3t + θ2Prom3t + θ3Pub3t + u3t ;– U4t = θ1P4t + θ2Prom4t + θ3Pub4t + u4t, t = 1, …, T.

Appliquant les règles d’identification des paramètres exposées au § 2.2.3, cette spécification du modèle de choix discrets com-porte trois paramètres communs aux quatre éventualités, θ1, θ2 et θ3 pondérant respectivement les variables Pjt, Promjt et Pubjt dont les valeurs changent d’une éventualité à l’autre. Elle comporte éga-lement trois constantes γ10, γ20 et γ30 spécifiques respectivement aux marques 1,2,3 et exprimant des préférences pures pour ce der-nières. La constante spécifique à la marque 4, n’étant pas identifia-ble, est posée égale à zéro.

Le modèle logit multinomial de choix discrets, comportant donc six paramètres, est estimé par la méthode du maximum de vraisem-blance à partir d’un fichier de données où pour chaque unité d’obser-vation – chaque achat – il y quatre lignes décrivant les caractéristiques de la marque sélectionnée et des marques concurrentes. Au total, ce fichier comporte donc 10036 enregistrements. Il faut remarquer ici que chaque achat est considéré comme une observation indépen-dante des autres. Toutefois, la nature des données employées, de type panel (§ 2.1.2) permettrait de prendre en compte des effets dyna-miques comme il est expliqué dans [27]. L’estimation réalisée dans [28] indique l’importance du prix dont le paramètre associé a, comme attendu, une valeur estimée négative. Elle souligne également le rôle plus conséquent joué par l’existence d’une campagne publicitaire

dans la presse par rapport aux actions promotionnelles en magasin. Enfin, elle montre une préférence innée plus forte pour la marque 3 qui a la plus grande part de marché. Toutefois, la qualité de l’ajuste-ment réalisé est médiocre car la valeur de la log-vraisemblance du modèle estimé (= –2506) améliore peu la valeur de la log-vraisemblance du modèle ne comportant que des constantes

.

La spécification retenue a pour défaut de ne pas suffisamment prendre en compte l’hétérogénéité des ménages-consommateurs dont toutes les différences sont résumées dans la boite noire de l’utilité aléatoire, ujt. Tous les achats observés sont supposés géné-rés par des ménages qui ont les mêmes préférences pures pour les différentes marques (exprimées par les paramètres γ10, γ20 et γ30) et qui pondèrent de la même façon les prix (paramètre θ1) et les variables d’actions marketing (paramètres θ2 et θ3). Il est montré dans [28] comment une modélisation plus sophistiquée s’appuyant toujours sur la spécification logit multinomial, mais intégrant une variété dans les goûts des ménages, peut améliorer significative-ment les résultats. Dans ce second exemple, comme dans le pre-mier, chaque ménage-consommateur est supposé parfaitement rationnel, les utilités aléatoires étant des variables latentes expri-mant la méconnaissance de l’économètre vis-à-vis des détermi-nants des choix. Pour les deux premiers exemples, le modèle logit multinomial doit donc être rapproché du modèle linéaire interprété en tant que modèle à erreur sur l’équation, comme il est expliqué au § 2.1.2.

Les deux applications précédentes utilisent des données issues de l’observation de situations de choix réelles. Ces données qui entrent dans la catégorie « choix observés » ont l’avantage d’infor-mer sur les choix réalisés dans des situations concrètes, intégrant de la sorte les contraintes réelles sur les décisions des individus, notamment la contrainte budgétaire. Mais elles soulèvent plu-sieurs problèmes. En premier lieu, l’économètre doit définir l’ensemble de choix auquel est confronté chaque individu. Ce der-nier, n’étant pas observé, est généralement déduit de critères de disponibilité physique, définies de façon plus ou moins ad hoc, qui, en cas de non-pertinence, induiront des biais lors de l’estima-tion du modèle ; de tels critères amènent souvent à lever l’hypo-thèse simplificatrice d’identité de l’ensemble de choix pour toutes les unités d’observation, ce qui complique la constitution du fichier des observations, le nombre de lignes à informer changeant d’une unité à l’autre.

En second lieu, les caractéristiques ou attributs des éventualités, qui sont les variables clés de l’analyse, sont incomplètement observées et leurs valeurs présentent une variation faible qui rend l’estimation des paramètres imprécise. Enfin, les données enregis-trent les choix des individus par rapport à des éventualités existan-tes objets de transaction sur des marchés, ne donnant aucune indication quant à l’utilité d’options inédites que des entreprises pourraient trouver intéressant d’introduire.

Pour pallier aux défauts des choix observés, il est possible de mettre en œuvre le modèle logit multinomial dans des conditions expérimentales permettant de contrôler étroitement les motiva-tions des individus réalisant des choix. Une expérience de choix discrets [29][30], consiste à présenter à chaque individu d’un échantillon différents ensembles d’éventualités, lui demandant à chaque occasion d’indiquer l’option préférée. Chaque éventualité est décrite en termes d’un ensemble d’attributs dont les valeurs ont été soigneusement sélectionnées par l’expérimentateur à l’aide d’une technique appropriée, de façon à optimiser l’efficacité de l’estimation (minimiser la variance des paramètres estimés). Les données ainsi générées appartiennent à la catégorie « choix déclarés ». Ces données, moins coûteuses à obtenir que les don-nées de terrain, permettent d’analyser les préférences des consom-mateurs pour des éventualités possédant des caractéristiques qui ne sont pas forcément présentes dans les produits proposés sur les marchés ; qui plus est, elles sont très utiles lorsque les marchés

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 24: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I. AF 1 500 – 23

___________________________________________________________________________________________________ ÉCONOMÉTRIE ET THÉORIE DES JEUX

n’existent pas, notamment dans le domaine de la santé [30] quand il s’agit de comprendre les déterminants de choix de participation à des tests, ou ceux du choix de traitement.

L’utilisation d’expérience de choix discrets pose d’abord un pro-blème de validité externe : quelle est l’adéquation entre les com-portements identifiés dans un cadre expérimental étroitement contrôlé et ceux effectivement adoptés dans la réalité ? L’unité d’observation, placée dans une situation de choix hypothétique, ne subit aucune des contraintes auxquelles elle est confrontée dans une situation de choix réelle. Il est alors proposé [22][29] de combi-ner pour un même problème les choix observés et les choix décla-rés, les avantages des uns palliant aux défauts des autres. Il faut ensuite remarquer que l’interprétation de la partie aléatoire de l’utilité ujt associée à chaque éventualité n’est rigoureusement plus tout à fait identique à celle donnée précédemment, et tradition-nelle en économétrie correspondant aux variables omises et erreurs de mesure. Dans une expérience de choix discrets, tous les attributs décrivant les éventualités sont a priori connus de l’expéri-mentateur. Par conséquent, les bruits des utilités ujt traduisent plus vraisemblablement les hétérogénéités non observées des indivi-dus relatives à leur capacité à choisir la meilleure option, qui peut être entachée d’erreurs, de confusion de toute sorte, d’inattention, d’indifférence. Certaines unités d’observation, moins parfaitement rationnelles que d’autres, feront des choix plus au hasard, accor-dant moins d’importance aux valeurs des caractéristiques. Si de telles hétérogénéités existent, elles peuvent comme expliqué dans [30] être techniquement associées à la variance des termes ujt qui changerait d’une unité d’observation à l’autre : une variance faible génère des valeurs absolues des paramètres estimés de la partie systématique de l’utilité aléatoire plus élevées que celles obtenues pour une variance élevée. Or la procédure d’estimation standard d’un modèle logit multinomial décrite au § 2.2.3 ne permet pas

l’identification de la variance des ujt posée égale à (on retrouve

ici l’hypothèse d’homoscédasticité des termes d’erreurs d’un modèle linéaire). Comme il est montré dans [30], les données expérimentales de choix déclarés, enregistrant plusieurs observa-tions pour chaque individu, rendent possible, dans le cadre d’une spécification logit multinomial plus générale, l’estimation d’un paramètre supplémentaire traduisant ce type d’hétérogénéité. Les dix expériences décrites dans [30] concernent le domaine médical (choix d’un test génétique pour détecter les désordres héréditaires) et des biens de consommation courante (téléphone portable, carte de paiement, vacances, pizza livrée à domicile). Pour chaque expé-rience, un modèle logit multinomial est estimé par maximum de vraisemblance, révélant les préférences des unités d’observation à travers la valeur et le signe de paramètres pondérant les attributs dont les niveaux sont fixés a priori par l’expérimentateur. Une spé-cification plus sophistiquée, qualifiée de modèle logit multinomial avec hétérogénéité d’échelle, permet sans ambiguïté d’améliorer pour les dix expériences la qualité de l’ajustement, la valeur de la log-vraisemblance estimée étant dans chaque cas plus proche de zéro que la valeur obtenue par le modèle logit multinomial. Il est souligné [30] que l’amélioration des résultats est d’autant plus significative que la complexité du problème de choix proposé aux individus est importante (choix de programmes médicaux, ou de biens comportant des technologies sophistiquées comme le télé-phone portable), ce qui implique le recours à des fonctions céré-brales plus avancées que celles utilisées lors de la sélection d’objets simples (carte de paiement, vacances, pizza).

La démarche économétrique illustrée à ce stade consiste à inter-préter les comportements observés ou déclarés d’un échantillon d’individus dans le cadre d’une théorie posée a priori. Supposant que les individus maximisent une fonction d’utilité, il s’agit, à par-tir de leurs choix enregistrés, de déterminer les principaux facteurs explicatifs de cette fonction. Le modèle logit multinomial, dans sa version standard exposée au § 2.2.3 ou plus sophistiquée, révèle, lors de son estimation, l’importance de ces facteurs à travers la significativité statistique des paramètres qui les pondèrent. Une

application différente et plus récente de ce modèle consiste à l’uti-liser pour tester la validité d’hypothèses théoriques permettant d’exprimer un comportement rationnel sous la forme de l’optimi-sation de préférences. Cet emploi relève du domaine de l’écono-mie expérimentale [32]. L’objet de cette approche consiste, lors de sessions d’expérimentation menées en laboratoire, à comparer des prédictions théoriques de choix (éventuellement stratégiques comme il est expliqué dans la section suivante) à des observations générées par des individus mis dans des situations de décisions aussi proches que possible de la réalité. Ce but est notamment atteint grâce à l’élaboration d’un système d’incitations financières, qui à la fin de chaque session, se caractérisera, pour chaque indi-vidu interrogé, par un paiement monétaire plus ou moins avanta-geux selon le comportement adopté. Les données générées dans ce cadre, au delà du calcul de statistiques descriptives, peuvent être exploitées à l’aide d’une démarche économétrique adaptée, que l’on qualifiera « d’expérimétrie ». Ce type d’analyse permet de vérifier la robustesse d’une théorie et de suggérer éventuellement des modèles comportementaux plus pertinents, tout comme les expériences de laboratoire menées en physique peuvent informer sur la possibilité de nouveaux développements théoriques.

En économie expérimentale, un domaine privilégié d’études est celui des décisions en situations incertaines caractérisées par une dose plus ou moins importante de risque. La plupart des choix que les agents économiques ont à faire dans la réalité sont compliqués à cause de l’incertitude qui s’y attache. En fait, ce qui est retenu – et ce qui est écarté – ne se résume pas à un futur, mais plutôt à un ensemble de futurs possibles, chacun étant plus ou moins proba-ble. Concrètement, lors du choix d’un bien durable de type ordina-teur, automobile… se pose au décideur la question de l’adoption d’une assurance lui permettant de couvrir, sur une certaine période, toutes les défaillances, par un dépannage rapide et/ou un remplacement à l’identique. Le problème du consommateur est donc de comparer l’utilité certaine d’un achat pour lequel tous les risques futurs sont couverts, à l’utilité incertaine d’une adoption sans assurance, étant donné son évaluation des probabilités de défaillance. Plus généralement, comment un individu réalise-t-il un choix entre des actions générant des conséquences incertaines, donc plus ou moins risquées ? La théorie économique suppose que ce choix est basé sur le principe de maximisation de l’utilité espérée, développée à l’origine dans [1]. On suppose qu’il existe pour l’individu – décideur une fonction à valeurs réelles ϕ définie sur un ensemble d’issues possibles X = {x1, …, xl, …, xL} telle que si une action disponible a génère les issues xl avec les probabilités Pl, l = 1, …, L et si une autre action disponible b génère les mêmes issues avec les probabilités ql, alors l’individu préfère l’action a à l’action b si et seulement si l’utilité espérée de a est supérieure à l’utilité espérée de b, donc :

La fonction ϕ doit traduire le degré d’aversion au risque de l’indi-vidu. Étant une mesure cardinale des préférences, elle est définie à une transformation affine près (comme la température). Il est pos-sible de choisir la fonction ϕ telle que ϕ(xl) = xl, ∀l. Dans ce cas, l’individu rationnel choisira l’action qui maximisera simplement son gain espéré : il est alors neutre au risque. Mais cette hypo-thèse peut être réfutée à partir de l’observation suivante : si on demande à un individu de choisir entre un gain certain de 3 000 euros et une loterie qui rapporte 4 000 euros avec 80 % de chances et rien avec 20 % de chances, alors son choix se portera très vraisemblablement sur le gain certain de 3 000 euros. Le cri-tère de gain espéré, qui ne distingue pas l’aléatoire du certain, ne prend pas en compte le coût du risque, qui ici est considérable. En choisissant le gain certain de 3 000 euros, l’individu révèle qu’il a une aversion vis-à-vis du risque, ce qui signifie qu’à une loterie d’espérance de gain e, il préférera toujours une somme certaine d’un montant e. Une fonction ϕ exprimant ce type de comporte-

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 25: 42102210 af1500

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I.AF 1 500 – 24

ment est , ∀l, où r est un paramètre (< 1) exprimant l’aversion au risque. Si r = 0, on retrouve la neutralité au risque ; plus r est élevé, plus l’utilité marginale d’un gain monétaire décroît. Il est montré dans [1] que la fonction ϕ existe si et seule-ment si l’individu a des préférences non contradictoires vis-à-vis des paires de loteries entre lesquelles on lui demande de choisir. Tel n’est pas forcément le cas. Continuant l’exemple précédent, supposons maintenant que l’on propose au même individu de choisir entre la loterie qui rapporte 3 000 euros avec 25 % de chance (0 euro avec 75 % de chance) et la loterie qui rapporte 4 000 euros avec 20 % de chance (0 euro avec 80 % de chance) et qu’il choisisse, comme il est très souvent observé, la seconde éventualité. Alors, normalisant l’échelle des préférences en posant ϕ(0) = 0, nous avons pour cet individu, d’une part ϕ(3 000) > 0,8ϕ(4 000) et d’autre part 0,25ϕ(3 000) < 0,2ϕ(4 000), soit encore ϕ(3 000) < 0,8ϕ(4 000), ce qui contredit la première inégalité. Cette inversion des préférences invalide l’existence de φ et donc le principe de maximisation de l’utilité espérée. Ce principe est néan-moins crucial en sciences économiques, notamment parce qu’il constitue le fondement incontournable de la théorie des jeux non coopératifs. En effet, comme il a été expliqué dans la première par-tie de cet article, au § 1.4, tout jeu sous forme normale possède au moins un équilibre de Nash en stratégies mixtes, ce qui renvoie automatiquement au calcul d’utilités espérées dans un contexte stratégique.

Un exemple de mise à l’épreuve du principe de maximisation de l’utilité espérée est exposé dans [32]. Nous en présentons ici les principaux traits méthodologiques nécessaires à sa compréhen-sion. Des individus – des étudiants réalisant leurs études aux États-Unis – recrutés pour la circonstance (l’échantillon n’est, rigoureu-sement, pas aléatoire, donc pas représentatif de la population américaine) sont soumis, en laboratoire, à une série de 10 choix entre deux loteries, générant chacune un gain élevé ou un gain fai-ble. L’une des loterie S est relativement sûre, l’écart entre le gain élevé et le gain faible étant petit (quelques unités monétaires) ; l’autre loterie R est plus risquée, l’écart entre le gain élevé et le gain faible étant important (quelques dizaines d’unités monétai-res). Les probabilités d’obtenir les gains élevé et faible, identiques pour les deux loteries, sont modifiées à chacune des 10 occasions de choix, les gains monétaires différents d’une loterie à l’autre, restant constants lors de ces 10 interrogations. Théoriquement, si les individus interrogés sont neutres au risque, ils doivent basculer vers l’option risquée R dès que son gain espéré dépasse celui de l’option plus sûre S. Si les mêmes individus ont une certaine aver-sion au risque, le basculement de l’option S vers l’option R devrait être moins rapide puisque le fonction ϕ définie plus haut atténue l’attraction des gains élevés. Les observations rapportées dans [32]montrent, graphiquement, un comportement moins tranché que les prédictions théoriques, la tendance étant l’existence d’une aver-sion au risque entachée de quelques erreurs. Une analyse écono-métrique utilisant ces données expérimentales est réalisée de la façon suivante ; on suppose que chaque individu t choisit entre une loterie S et une loterie R en comparant leur utilité espérée res-pective, VSt(r) et VRt(r), chacune fonction du paramètre r exprimant le degré d’aversion au risque ; les formulations précises de VSt(r) et VRt(r) dépendent de la spécification de la fonction ϕ dont un exemple a été donné plus haut. Puisque les données sont bruitées, notamment parce que les individus commettent des erreurs, l’expérimentateur suppose que les utilités associées aux loteries sont en fait aléatoires, s’écrivant sous la forme : USt = VSt(r) + uStet URt = VRt(r) + uRt.

Les choix observés sont alors interprétés par un ensemble d’inégalités :

yt = 1 (choix de S) si USt > URt, yt = 0 sinon, t = 1, …, T

Faisant l’hypothèse que les termes uSt et uRt sont des variables aléatoires indépendantes et identiquement distribuées selon une loi à valeurs extrêmes de type I, l’expérimentateur exprime les pro-babilités de sélectionner les loteries de la façon suivante :

et PRt = 1 – PSt, t = 1, …, T.

L’estimation par maximum de vraisemblance de ce modèle logit de choix discrets permet de mesurer séparément les paramètres λet r parce que les utilités espérées VSt(r) et VRt(r) sont des fonc-tions non linéaires du paramètre r. λ est le paramètre qui mesure la tendance à la rationalité des individus interrogés, conformément aux explications données au § 2.2.3. Si λ est significativement posi-tif, cela indique que les individus ne font pas leurs choix au hasard mais ont une propension à utiliser le principe théorique de la maxi-misation de l’utilité espérée. Les résultats discutés en détail dans [32] révèlent que les individus ont une tendance significative à sui-vre ce principe, leur aversion au risque augmentant avec la hau-teur des gains.

Les estimations par maximum de vraisemblance du modèle logit multinomial (version standard du § 2.2.3 ou plus sophistiquée) décrites dans les applications précédentes peuvent être réalisées à l’aide de logiciels dont on trouvera les références dans [16][29] et [29].

3. Confrontation de la science des interactions stratégiques aux données

La théorie des jeux non coopératifs exprime la rationalité straté-gique des protagonistes d’un jeu à travers le concept d’équilibre de Nash. Ce concept génère des prédictions tranchées quant aux issues de jeux traduisant des problèmes de coordination rencon-trés par les agents économiques : aucune erreur dans le processus de décision analysé n’est en effet prise en compte, que ce soit du point de vue du joueur ou du point de vue de celui qui définit la modélisation. Cela signifie, strictement, que si, dans un contexte particulier, on observe qu’une combinaison de stratégies sélection-nées ne correspond pas à un équilibre de Nash, alors on devrait rejeter ce concept et donc la théorie du comportement rationnel sous-jacente. Or, depuis la publication de l’ouvrage fondateur [1], ce type d’observation a pu être effectué à d’innombrables reprises dans le cadre d’expériences contrôlées en laboratoire [33][34] où la modification de la structure des paiements d’un jeu non coopératif (sous forme normale ou développée) peut produire une incohé-rence entre la (les) prédiction(s) théorique(s) et le comportement humain. Pourtant il n’est pas pertinent de conclure à la réfutation de la théorie parce que l’absence d’erreurs caractérisant cette der-nière rend une analyse statistique rigoureuse de ces prédictions quasi impossible. Pour tester scientifiquement la validité de l’équi-libre de Nash et rechercher les déterminants significatifs des choix stratégiques observés sur les marchés, il faut élaborer une analyse économétrique pertinente des jeux non coopératifs, prenant en compte le bruit – l’aléatoire – que l’on rencontre forcément lorsque l’on traite un échantillon d’observations individuelles. L’analyse présentée ci-après, permettant une généralisation statistique de l’équilibre de Nash, répond à cet objectif, autorisant de la sorte une exploitation pertinente des données expérimentales et des don-nées de terrain.

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 26: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I. AF 1 500 – 25

___________________________________________________________________________________________________ ÉCONOMÉTRIE ET THÉORIE DES JEUX

3.1 Analyse économétrique d’un jeu non coopératif sous forme normale

En adaptant les éléments exposés aux paragraphes 2.2.2, 2.2.3 et 2.2.4, il est possible de construire, de façon très naturelle, une approche économétrique des comportements stratégiques. Nous en présentons ici l’essence, raisonnant par souci de clarté dans le cadre d’un jeu fini à deux joueurs, disposant chacun de deux actions ou stratégies pures. Supposons, conformément au cadre exposé au § 1.2., que deux joueurs indicés 1 et 2, sélectionnent simultanément une action ou stratégie pure appartenant, respecti-vement, à l’ensemble A1 = {a1, a2} et à l’ensemble A2 = {b1, b2}. Pour chacune des quatre combinaisons d’actions possibles, le paiement obtenu par le joueur 1 s’écrit sous la formeP1(ai, bj) + u1(ai), i, j = 1, 2 ; le paiement obtenu par le joueur 2 s’écrit P2(ai, bj) + u2(bj), i, j = 1, 2.

Dans ces expressions, Pi(ai, bj) désigne la partie systématique déterministe des paiements, de connaissance commune des joueurs et de l’économètre-expérimentateur. u1(ai) et u2(bj) repré-sentent les déterminants privés des choix stratégiques, seulement connus, respectivement, du joueur 1 et du joueur 2, et caractéri-sant leur humeur, psychologie et façon particulière d’appréhender le problème de décision. Remarquez que u1(ai) est indépendant de l’action bj sélectionnée par le joueur 2 et que u2(bj) est indépen-dant de l’action ai sélectionnée par le joueur 1. On suppose que les u1(ai) et u2(bj) sont des variables aléatoires indépendantes et iden-tiquement distribuées entre les joueurs et les actions selon une loi de probabilité qui est de connaissance commune des joueurs et de l’économètre-expérimentateur. Dans ce jeu, chaque protagoniste connaît parfaitement le paiement qu’il obtient pour chaque combi-naison de stratégies possible, mais a une information incomplète quant aux paiements de son adversaire. Il y a donc une asymétrie d’information entre les joueurs. L’économètre-expérimentateur est, quant à lui, en situation d’information asymétrique vis-à-vis des deux joueurs, ne connaissant pas les valeurs réalisées de u1(a1), u1(a2), u2(b1) et u2(b2). Le modèle de jeu construit ici peut être interprété comme une transformation statistique [35] du modèle habituel de forme normale stratégique dans lequel les paiements associés à chaque combinaison de stratégies sont seulement les Pi(ai, bj), i, j = 1, 2, parfaitement connus des joueurs et de l’écono-mètre-expérimentateur. En appliquant cette transformation, on considère, comme dans [10], qu’un jeu à information complète est une approximation d’un jeu plus compliqué à information incom-plète dans lequel les paiements réellement obtenus par les joueurs ne sont connus que d’eux-mêmes. Une telle transformation permet d’introduire les u1(ai) et u2(bj), variables que l’on assimile alors aux termes d’erreurs indispensables à la construction d’un processus générateur des données, conformément à la démarche économé-trique exposée dans la section 2.

Le jeu étant complètement décrit par un modèle, il convient alors d’en déterminer un équilibre, donc une situation stratégique stable qu’aucun des joueurs ne remettra en cause. Suivant la méthodologie exposée dans la première partie de cet article, il faut déterminer la meilleure réponse du joueur 1 à l’action sélectionnée par le joueur 2 et, simultanément, la meilleure réponse du joueur 2 à l’action sélectionnée par le joueur 1. Étant donné l’asymétrie d’information, la meilleure réponse de chaque joueur dépend de la croyance qu’il entretient quant aux choix de son concurrent, croyance exprimée sous le forme d’une probabilité. Plus précisé-ment, on note p la probabilité selon laquelle le joueur 1 sélec-tionne a1 ((1 – p) étant la probabilité selon laquelle il sélectionne a2), et q la probabilité selon laquelle le joueur 2 sélectionne b1 ((1 – q)la probabilité selon laquelle il sélectionne b2). Si le joueur 1 croit que le joueur 2 sélectionne ses actions possibles selon la distribu-tion de probabilités (q, 1 – q), alors l’utilité espérée associée au choix de a1 est donnée par :

En regroupant les termes, on obtient :

On écrira cette expression sous la forme plus compacte suivante :

Si le joueur 2 croit que le joueur 1 sélectionne ses actions possi-bles selon la distribution de probabilités (p, 1 – p), alors l’utilité espérée associée au choix de b1 est donnée par :

En regroupant les termes, on obtient :

On écrira cette expression sous la forme plus compacte suivante :

Des calculs similaires permettent d’exprimer U1(a2) et U2(b2) respectivement sous la forme :

Les quatre expressions précédentes ne sont autres qu’une géné-ralisation de la notion de fonction d’utilité aléatoire sous-jacente aux modèles de choix discrets telle qu’elle a été définie au § 2.2.2. La différence est que les préférences modélisées ici sont expri-mées dans un cadre stratégique pris en compte dans les expres-sions des parties systématiques V1(a1), V 1(a2), V2(b1) et V2(b2) dépendant de la combinaison de stratégies sélectionnées. L’ana-lyse développée à ce stade n’impose plus l’hypothèse, souvent trop forte, selon laquelle les individus agissent isolément les uns des autres, comme dans les paragraphes 2.2.2, 2.2.3 et 2.2.4.

Pour le joueur 1 l’action a1 est optimale si et seulement si U1(a1) > U1(a2). Pour le joueur 2, l’action b1 est optimale si et seule-ment si U2(b1) > U2(b2).

Ces actions optimales satisfont donc simultanément :

et

Si on suppose que u1(a1), u1(a2), u2(b1) et u2(b2) sont des variables aléatoires indépendantes et identiquement distribuées selon une loi à valeurs extrêmes de type I, alors la maximisation des utilités aléatoires implique que :

et

On obtient un système de deux équations qui expriment chacune la meilleure réponse probabiliste d’un joueur à la stratégie d’équi-libre de son concurrent, cette dernière étant également spécifiée sous forme probabiliste. D’un point de vue théorique, il s’agit d’un équilibre de Nash bayésien d’un jeu perturbé par des erreurs, tel que défini dans [10]. L’idée de cet équilibre, introduit dans la litté-rature sous le qualificatif d’équilibre à réponse quantale [36] est

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 27: 42102210 af1500

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I.AF 1 500 – 26

que chaque joueur a seulement une propension à choisir la straté-gie avec l’utilité espérée la plus élevée, à cause de la présence de facteurs aléatoires non observables rendant les choix de stratégies probabilistes plutôt que déterministes. La sensibilité des joueurs aux paiements espérés est exprimée par le paramètre λ qui, conformément aux explications données dans le paragraphe 2.2.4 peut être interprété comme un indicateur des limites de la rationa-lité d’un individu. Si λ = 0, cela signifie que chaque joueur choisit une stratégie au hasard, étant complètement insensible aux paie-ments espérés. Au fur et à mesure que λ augmente, des probabili-tés de plus en plus élevées sont mises sur les stratégies ayant les meilleurs paiements espérés. L’équilibre à réponse quantale approche l’équilibre de Nash quand λ tend vers l’infini, la stratégie ayant le paiement espéré le plus élevé étant presque toujours sélectionnée. Entre ces deux extrêmes théoriques, les protagonis-tes choisissent « au mieux » une stratégie. Toutes les stratégies ayant une probabilité strictement positive d’être choisies, cela signifie que s’il y a une petite chance pour que l’un des joueur fasse quelque chose d’irrationnel qui a des conséquences impor-tantes, alors l’autre joueur devrait prendre en compte cette irratio-nalité en réalisant une sorte d’analyse de robustesse.

De façon plus générale, si l’on considère un jeu à n joueurs dis-posant chacun d’un nombre fini quelconque de stratégies pures, l’équilibre à réponse quantale est défini par un ensemble de proba-bilités pour chaque joueur et chaque stratégie qui sont cohérentes avec les contraintes d’erreurs auxquelles sont soumis les protago-nistes du jeu. Si les termes d’erreurs sont des variables aléatoires indépendantes et identiquement distribuées selon une loi de Gum-bel, de connaissance commune parmi les joueurs, alors ces proba-bilités s’écrivent pour chaque joueur i sous la forme suivante :

Chaque joueur i, formant des croyances sur ce que les autres joueurs vont faire, soit Pr(s–i) évalue l’utilité espérée associée à chacune de ses stratégies si, soit ∑ s–i Pr(s–i) ui(si, s–i), et répond au mieux en sélectionnant chaque stratégie si selon Pr(si). Cette expression ressemble à celle du modèle logit multinomial défini en 2.2.4. Elle s’en distingue néanmoins fondamentalement par son caractère récursif, puisque dans un contexte stratégique, le com-portement du joueur i détermine le comportement de ses adversai-res (–i) qui en retour et simultanément détermine son propre comportement.

L’existence d’un équilibre à réponse quantale a été démontrée

dans [36] pour toute valeur de λ appartenant à l’intervalle . Pour résoudre le système d’équations probabilistes et exprimer les probabilités seulement en fonction du paramètre λ, il faut faire appel à des méthodes numériques exposées dans [6] et mises en œuvre dans [5]. Cet équilibre ne doit pas être confondu avec l’équi-libre de Nash en stratégies mixtes défini en 1.4. En stratégies mix-tes, chaque joueur sélectionne ses stratégies pures selon une distribution de probabilités fixe dépendant seulement des gains de ses adversaires. Par contre, à l’équilibre à réponse quantale la pro-babilité selon laquelle chaque joueur choisit une stratégie dépend de ses propres gains et de ceux de ses adversaires. Formalisant les comportements stratégiques avec du bruit, l’équilibre à réponse quantale est le support idéal d’investigations empiriques décrites dans le paragraphe suivant.

3.2 ApplicationsEn économie expérimentale [31][32][33][34], des expériences

contrôlées de laboratoire cherchent à tester la validité de l’équili-bre de Nash. Dans le cadre de protocoles très précis reproduisant les hypothèses théoriques relatives à l’information structurelle et

factuelle des joueurs, des individus appariés de façon anonyme doivent chacun sélectionner une stratégie dans des jeux qui leur sont présentés, endossant à la demande de l’expérimentateur le rôle de tel ou tel joueur. Les choix stratégiques ainsi observés constituent, conjointement avec la spécification des jeux, des don-nées qui vont permettre de réaliser un ajustement économétrique de l’équilibre à réponse quantale, donc de mesurer la valeur de l’unique paramètre λ, indicateur de la tendance à la rationalité. Il s’agit, en fonction du résultat obtenu, d’apprécier le degré de com-portement stratégique des individus interrogés, a priori compris entre des décisions complètement aléatoires et des choix guidés par la logique rigoureuse de Nash.

Un exemple significatif de cette approche porte sur l’étude du comportement stratégique observé dans différentes variantes du jeu de « cache-cache » dont une version a été présentée au paragraphe 1.3.3 dans le tableau 3. Dans ce jeu fini, deux joueurs 1 et 2 doivent simultanément sélectionner une stratégie respective-ment dans l’ensemble S1 = {A1, A2} et dans l’ensemble S2 = {B1, B2}. Le joueur 1 obtient un paiement strictement positif si et seulement si il sélectionne une stratégie pure d’indice identique à celle sélection-née par le joueur 2 ; sinon son paiement est nul. Par contre, le joueur 2 obtient un paiement strictement positif si et seulement si il sélectionne une stratégie pure d’indice différent de celle sélection-née par le joueur 1 ; sinon son paiement est nul. Chaque joueur a donc intérêt à prendre le contre-pied de l’autre (comme par exemple au football, lors de l’épreuve des pénalties) Les paiements sont égaux à ceux présentés dans le tableau 3, à l’exception de celui du joueur 1 associé à la combinaison de stratégies (A1, B1) et tel que : P1(A1, B1) = X > 0. Dans la suite, on note p la probabilité de sélec-tionner A1 et q la probabilité de sélectionner B1.

Si X = 1, on obtient la version du tableau 3 dont on a expliqué qu’elle est caractérisée par un unique équilibre de Nash en stratégies mixtes, tel que p = q = 1/2. À cet équilibre, aucun joueur ne peut être exploité par l’autre, car chaque probabilité est choisie de façon à lais-ser l’adversaire indifférent entre ses stratégies pures. Précisément, la valeur d’équilibre de p est déterminée à partir des gains du joueur 2 et est donc, théoriquement, insensible à toute modification des paie-ments du joueur 1, ce qui n’est pas forcément intuitif. De la même façon, la valeur d’équilibre de q, déterminée à partir des gains du joueur 1, est théoriquement insensible à toute modification des paie-ments du joueur 2. Il faut également remarquer qu’en l’absence de toute erreur relative au processus de décision, le comportement de meilleure réponse de chaque joueur présente un aspect fondamenta-lement discontinu, consistant à « sauter » sur l’une ou l’autre de ces stratégies pures dès que son paiement espéré devient meilleur.

L’équilibre à réponse quantale de cette première version de « cache-cache » est défini par le système d’équations :

Pour toutes les valeurs de λ (≥ 0), la solution ce ce système est p = q= 1/2, correspondant donc à l’équilibre de Nash en stratégies mixtes. Mais, les deux remarques précédentes ne s’appliquent plus. D’une part, les probabilités p et q sont déterminées à partir des gains des deux joueurs. D’autre part, le comportement de meilleure réponse des joueurs n’est plus discontinu : par exemple, supposant λ = 1, si le joueur 1 croit que le joueur 2 sélectionne B1 avec une probabilité égale à 0,55, alors anticipant ce comportement, il sélectionnera A1avec une probabilité égale à 0,52. Le comportement stratégique est donc moins tranché qu’en stratégies mixtes.

Confrontant, en laboratoire, des individus à cette première ver-sion de « cache-cache », on observe [36] des fréquences empiri-ques de choix stratégiques très proches de 1/2, ne permettant pas de remettre en cause la validité de l’équilibre de Nash.

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 28: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I. AF 1 500 – 27

___________________________________________________________________________________________________ ÉCONOMÉTRIE ET THÉORIE DES JEUX

Supposons maintenant, conformément à [36], que l’on modifie la valeur de X, les autres paiements restant identiques à ceux de la première version du jeu. En stratégies mixtes, la probabilité de sélectionner A1 ne doit pas changer, étant seulement déterminée à partir des gains du joueur 2, donc p = 1/2. Par contre, la probabilité q de sélectionner B1, déterminée à partir des gains du joueur 1,

change avec la valeur de X. En effet, on montre que . Les

valeurs sélectionnées dans [36] sont X = 4, soit q = 0, 2 et X = 9 soit q = 0, 1. Confrontant des individus aux versions « cache-cache » pour lesquels X = 4 et X = 9, on observe [36] que la prédiction de Nash selon laquelle la valeur de p est indépendante de X n’est plus valide. Conformémént à l’intuition, la valeur de p augmente avec la valeur de X. Qui plus est, le joueur 2 ne sélectionne pas B1 selon les probabilités calculées précédemment, anticipant d’une certaine façon le comportement du joueur 1. Peut on alors expliquer ces observations comme un phénomène d’équilibre ? Considérons le cas où X = 9. L’équilibre à réponse quantale est déterminé par le système d’équations suivant :

Pour toute valeur de λ, il existe un seul couple (p, q) résolvant simultanément ces équations. En particulier, si λ = 2, p* = 0,646 et q* = 0,343. Les fréquences empiriques de choix stratégiques obser-vés dans [36] sont plus proches de ces valeurs que des prédictions générées par l’équilibre de Nash en stratégies mixtes calculé pré-cédemment.

Utilisant les données stratégiques générées en laboratoire, il est possible de mesurer précisément la valeur de λ. Le principe est de rechercher la valeur de λ qui rend les fréquences de choix obser-vées les plus vraisemblables. On exprime d’abord les probabilités d’équilibre p*, (1 – p*), q* (1 – q*) seulement en fonction de λ à l’aide d’une méthode numérique. Puis, on construit la log-vraisem-blance de l’échantillon qui est simplement :

désignant respectivement le nombre de

fois où les individus endossant les rôles des joueurs 1 et 2 durant l’expérience ont sélectionné A1, A2, B1 et B2. Utilisant un algo-rithme, il est facile de trouver la valeur de λ maximisant log(λ). Comme il a été expliqué au § 2.2.1, plus la qualité de l’ajustement est bonne et plus la valeur de la log-vraisemblance (négative) est proche de zéro. L’expérience menée dans [36] à partir de 128 observations génère une valeur estimée de λ égale à 1,95, soit des probabilités prédites de sélection de A1 et B1 égales respecti-vement à 0,645 et 0,347, cohérentes avec les comportements enre-gistrés. La qualité de l’ajustement économétrique réalisé est meilleure que celle associée à des décisions purement aléatoires et que celle associée à des choix stratégiques suivant rigoureuse-ment la logique de Nash. Les résultats exposés dans [36] suggè-rent également que les déviations de l’équilibre de Nash s’atténuent lorsque les sujets acquièrent une expérience sur le jeu auquel ils sont confrontés : un effet d’apprentissage d’une rationa-lité nashienne peut en effet être mis en évidence à travers l’aug-mentation de la valeur estimée du paramètre λ lorsque les mêmes individus sont réinterrogés devant un cadre stratégique fixe.

Plus généralement, on trouvera dans [33][34], de nombreuses analyses d’expériences basées sur la méthodologie décrite au § 3.1. Si les ajustements économétriques effectués sont souvent

cohérents avec les comportements stratégiques observés, l’équili-bre de Nash n’en reste pas moins un repère indispensable à la compréhension du degré de rationalité à l’œuvre.

L’emploi de l’équilibre à réponse quantale en économie expéri-mentale suppose que le contenu des jeux étudiés soit parfaitement défini par l’expérimentateur, en particulier les gains des joueurs correspondant aux différentes combinaisons de stratégies. Mais, suivant [37], il est aussi possible d’adapter cette approche pour rechercher les déterminants significatifs des choix stratégiques à partir de données de terrain enregistrant des comportements sur des marchés imparfaitement concurrentiels. Cette démarche, à l’inverse de la précédente, cherche à révéler les principaux traits d’un jeu à partir d’actions observées. Nous en esquissons ici les principales étapes à partir d’un exemple stratégique canonique, un jeu statique d’entrée à deux protagonistes. On considère donc deux firmes, la firme 1 et la firme 2, choisissant d’entrer ou non sur M marchés séparés géographiquement. On définit la variable qua-litative yim telle que yim = 1 si la firme i décide d’entrer sur le mar-ché m, yim = 0 si elle n’entre pas, i = 1, 2 et m = 1, …, M. Selon la théorie économique, la décision de la firme i d’entrer sur le marché m est motivée par le profit attendu qui doit être supérieur à celui obtenu en restant à l’extérieur de ce marché. Ce profit dépend fon-damentalement de trois facteurs :

– la taille Tam du marché m, donc la demande des consomma-teurs que l’on peut approximer par la population résidant dans la zone géographique du marché m ;

– le coût d’accès Cim au marché m pour la firme i, que l’on peut approximer par la distance séparant la firme i du distributeur le plus proche du marché m ;

– l’interaction stratégique entre la firme i et sa concurrente, le profit étant plus faible si le nombre de compétiteurs est important ; on note y–im (= 1 ou 0) la décision d’entrer (ou non) du compétiteur –i de la firme i.

À ces trois facteurs, s’ajoutent des déterminants privés du choix de la firme i, uim seulement connus de cette firme. Au total, le pro-fit de la firme i peut être spécifié sous la forme suivante :

Le profit associé à la non-entrée est donc normalisé à zéro. Le pro-fit associé à l’entrée dépend des variables Tam Cim et y–im dont l’influence est exprimée par les paramètres α, β et γ. uim est le terme d’erreur dont la valeur est inconnue de l’économètre et du concurrent de la firme i. En pratique, cela signifie que la firme –i, tout comme l’économètre, est incapable de prévoir parfaitement le profit de la firme i ce qui est une hypothèse acceptable pour la plu-part des marchés.

Supposant que l’économètre ait accès à des données sur les décisions des deux firmes et les variables exogènes Tam et Cimpour un ensemble de M marchés (coupe transversale), l’objectif est alors d’estimer par une méthodologie appropriée les paramè-tres α, β et γ traduisant la nature des motivations stratégiques.

Soit Pr[yim = 1], la probabilité que la firme i entre sur le marché m. On suppose que la firme i, rationnelle, détermine sa meilleure réponse à sa croyance d’équilibre quant à la décision d’entrée de sa concurrente –i, soit Pr[y–im = 1]. La règle de décision de la firme i est donc :

La firme i entrera sur le marché m si et seulement si son profit espéré est plus grand que zéro. La firme i, tout comme l’économè-tre, ne connaît pas exactement le profit de la firme –i parce qu’elle ne connaît pas la valeur de u–im. Il s’agit donc d’étudier l’équilibre de Nash bayésien de ce jeu. Faisant comme précédemment l’hypo-thèse que les uim sont des variables aléatoires indépendantes et

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 29: 42102210 af1500

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. – © Editions T.I.AF 1 500 – 28

identiquement distribuées selon une loi à valeurs extrêmes de type I, on obtient :

et

Ces probabilités sont proches de celles du modèle logit de choix binaire présenté au § 2.2.1. La différence est qu’elles dépendent de l’autre protagoniste –i à travers Pr[y–im = 1], car on étudie ici un problème stratégique de décisions prises simultanément. L’équili-bre de Nash bayésien du jeu d’entrée est alors défini par le sys-tème de deux équations à deux inconnues suivant :

Sous l’hypothèse, plus ou moins acceptable selon les marchés pris en compte, qu’un unique équilibre caractérise les données uti-lisées, il est possible, comme expliqué dans [37], d’estimer ce sys-tème d’équations en procédant selon deux étapes. Dans une première étape, on mesure les croyances des joueurs quant à la décision de leur concurrent en estimant un modèle logit de choix binaire – entrée ou pas – dont les variables exogènes sont Tam, C1m et C2m. Ce modèle peut être interprété comme une solution approchée du système d’équations précédent qualifié en économé-

trie de « forme réduite ». Cette étape est justifiée dans la mesure où les prédictions des probabilités d’entrée ainsi obtenues,

, convergent vers les valeurs vraies de ces probabilités quand la taille de l’échantillon devient très grande.

La règle de décision de chaque firme est ensuite réécrite sous la forme :

Cela implique que la probabilité selon laquelle la firme i entre sur le marché m soit :

Ce modèle de choix discrets ne comportant plus que des

variables exogènes Tam, Cim et est alors, dans une seconde étape, estimé par maximum de vraisemblance, ce qui per-met d’obtenir des estimateurs convergents de α, β et γ. Dans cette démarche, le paramètre λ caractérisant, à un facteur près, l’inverse de la racine carrée de la variance des termes d’erreurs uim est implicitement posé égal à 1, car non identifiable d’après données de terrain, comme expliqué au § 2.2.3. Contrairement à l’analyse de données expérimentales, on suppose que les joueurs se com-portent rationnellement selon l’équilibre de Nash, et on recherche les principaux facteurs de leur motivation exprimés en termes de variables exogènes. Cette approche économétrique des données de terrain stratégiques, exposée en détail dans [37], repose donc fondamentalement sur les principes de l’économétrie des variables qualitatives présentés au § 2.2.

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 30: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. – © Editions T.I. Doc. AF 1 500 – 1

Do

c. A

F 1

50

0

4

- 20

14

POUR

EN

SAVOIR

PLUS

Économétrie et théorie des jeux

Pascal BOUYAUXMaître de conférences, Université de Rennes I

Sources bibliographiques

[1] VON NEUMANN (J.) et MORGENSTERN (O.). – Theory of games and economic behavior. Princeton University Press, édition du soixan-tième anniversaire. (2004)

[2] NASH (J.). – Non-coopérative games. Annals of Mathematics, 54,2, p 286-295 (1951)

[3] SCHELLING (T.C.). – The strategy of conflict. Harvard University Press, Cambridge, Mas-sachusetts and London, England. (1980)

[4] GLICKSBERG (I.). – A further generalization of Kakutani’s fixed point theorem. Proceedings of the American Mathematical Society, 3, p 170-174 (1952)

[5] McKELVEY (R.D.), McLENNAN (A.M.) et TU-ROCY (T.L.). – Gambit : software tools for game theory, version 02010.09.01. http://w.w.w.gambit-project.org.

[6] McKELVEY (R.D.) et McLENNAN (A.M.). – Computation of equilibria in finite games. Chapitre 2 in Handbook of computational economics, Vol 1, Elsevier Science.(1996).

[7] JEHLE (G.A.) et RENY (P.J.). – Advanced mi-croeconomic theory. Pearson Education Li-mited, England, 3e ed. (2011)

[8] SELTEN (R.). – Spieltheoretische behandlung eines oligopolmodells mit nachfragetragheit. Zeitschrift für die gesamte staatswissens-chaft, 121, p 301-324 (1965)

[9] HARSANYI (J.C.). – Games with incomplete information. American Economic Review, 85, 3, p 291-303 (1995)

[10] HARSANYI (J.C.). – Games with randomly disturbed payoffs : a new rationale for mixed strategy equilibrium points. International Journal of Game Theory, 2, p 1-23 (1973)

[11] GIBBONS (R.). – Game theory for applied economists. Princeton University Press, Pri-ceton, New Jersey. (1992)

[12] DEMANGE (G.) et PONSSARD (J.P.). – Théo-rie des jeux et analyse économique. Presses Universitaires de France, Paris. (1994)

[13] UMBHAUER (G.). – Théorie des jeux. Vuibert, Paris. (2004)

[14] RASMUSEN (E.). – Jeux et information, intro-duction à la théorie des jeux. De Boeck, Bruxelles. (2004)

[15] HENDRY (D.F.) et NIELSEN (B.). – Econome-tric modeling, a likelehood approach. Price-ton University Press, Priceton, New Jersey. (2007)

[16] GREENE (W.). – Économétrie. Pearson Edu-cation France, 5e ed. (2005)

[17] DORMONT (B.). – Introduction à l’économé-trie. Montchretien. (1999)

[18] AMEMIYA (T.). – Introduction to statistics and econometrics. Harvard University Press, Cambridge, Massachusetts and London, En-gland. (1994)

[19] HILL (R.C.), GRIFFITHS (W.E.) et LIM (G.C.). – Principles of econometricsJohn Wiley, 4e ed. (2012)

[20] WOOLDRIDGE (J.M.). – Introductory econo-metrics, a modern approach. South Western, 4e ed. (2008)

[21] GOURIEROUX (C.). – Économétrie des varia-bles qualitatives. Economica, Paris, 2e ed. (1989)

[22] McFADDEN (D.). – Economic choices. Ameri-can Economic Review, 91, 3, p 351-378 (2001)

[23] BILLOT (A.) et et THISSE (J.F.). – Modèles de choix individuels discrets, théorie et applica-tions à la microéconomie. Revue Économi-que, 46, p 921-930 (1995)

[24] BOUYAUX (P.). – Une difficulté d’interpréta-tion de l’approche logit : l’exemple de l’éco-nomie des transports. Économie et Prévision, 91, p 119-131 (1989)

[25] DE PALMA (A.) et THISSE (J.F.). – Les modè-les de choix discrets. Annales d’Économie et de Statistique, 14, p 151-190 (1989)

[26] McFADDEN (D.). – Qualitative response mo-dels. Chapitre 1 in Advances in econometrics, édité par Werner Hildendrand, Cambridge University Press (1982)

[27] GUADAGNI (P.M.) et LITTLE (J.D.C.). – A logit model of brand choice calibrated on scanner data. Marketing Science, 2, 3, p 203-238 (1983)

[28] JAIN (D.C.), VILCASSIM (N.J.) et CHINTA-GUNTA (P.K.). – A random coefficients logit brand choice model applied to panel data. Journal of Business and Economic Statistics, 12, 3, p 317-328 (1994)

[29] HENSHER (D.A.), ROSE (J.M.) et GREENE (W.). – Applied choice analysis, a primer. Cambridge University Press, New York. (2005)

[30] FIEBIG (D.G.), KEANE (M.P.), LOUVIERE (J.)et WASI (N.). – The generalizad multinomial logit model : accounting for scale and coeffi-

cient heterogeneity. Marketing Science, 29, 3, p 393-421 (2010)

[31] EBER (N.). – Théorie des jeux. Dunod, Paris. (2004)

[32] HOLT (C.A.). – Markets, games and strategic behavior. Addison – Wesley, Boston. (2006)

[33] GOEREE (J.K.) et HOLT (C.A.). – Ten little treasures of game theory and ten intuitive contradictions. American Economic Review, 91, 5, p 1402-1422 (2001)

[34] CAMERER (C.F.). – Behavioral game theory, experiments in strategic interaction. Prince-ton University Press, Princeton, New Jersey. (2003)

[35] SIGNORINO (C.S.). – Structure and uncer-tainty in discrete choice models. Political Analysis, 11, 4, p 316-344 (2003)

[36] McKELVEY (R.D.) et PALFREY (T.R.). – Quan-tal response equilibria for normal form ga-mes. Games and Economic Behavior, 10, p 6-38 (1995)

[37] BAJARI (P.), HONG (H.), KRAINER (J.) et NE-KIPELOV (D.). – Estimating static models of strategic interactions. Journal of Business and Economic Statistics, 28, 4, p 469-482 (2010)

Sources bibliographiques complémentaires

– Sur la théorie des jeux :AUMANN (R.). – Game Theory in The New Pal-

grave, édité par John Eatwell, Muray Milgate et Peter Newman, Macmillan Press. (1999)

BINMORE (K.). – Jeux et Théorie des Jeux. De Boeck, Bruxelles. (1999)

GINTIS (H.). – Game Theory Evolving. Princeton University Press, Princeton et Oxford, seconde ed. (2009)

MYERSON (R.B.). – Game Theory, analysis of con-flict. Havard University Press, paper back ed. (1997)

– Sur la démarche économétrique :KENNEDY (P.). – A guide to econometrics. Wiley-

Blackwell, 6e ed (2008)

– Sur la mise en œuvre (estimation et tests) des

modèles de choix discrets :BEN-AKIVA (M.) et LERMAN (S.). – Discrete Choice

Analysis : Theory and Application to Predict Travel Demand. MIT Press, Cambridge. (1985)

TRAIN (K.). – Dicrete Choice Methods with Simula-tion. Cambridge University Press, Cambridge. (2003)

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 31: 42102210 af1500

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. – ©þEditions T.I.

ÉCONOMÉTRIE ET THÉORIE DES JEUX __________________________________________________________________________________________________

Doc. AF 1 500 – 2

POUR

EN

SAVOIR

PLUS

À lire également dans nos bases

CHEZE (N.). – Statistique inférentielle. Estimation. [AF 168] Mathématiques pour l’ingénieur (2003).

CHEZE (N.). – Statistique inférentielle. Tests statistiques. [AF 170] Mathéma-tiques pour l’ingénieur (2004).

MARIN (J.M.) et ROBERT (C.P.). – Statistique bayésienne : les bases. [AF 605] Mathématiques pour l’ingénieur (2009).

Logiciels

BIERLAIRE(M.). – BIOGEME : a free package for the estimation of discrete choice models. Proceeding of the 3rd Swiss Transportation Research Conference, Ascona, Switzerland. (2003)

HEISS (F.). – Structural choice analysis with nested logit models. The Stata Journal, 2, 3, p 227-252 (2002)

PARK (H.M.). – Categorical dependant variable models using SAS, STATA, LIMDEP, and SPSS. The Trustees of Indiana University. (2003-2005), dis-ponible à http://www.indiana.edu

Événement

« Discrete Choice Analysis : Predicting Demand and Market Shares »Cours organisé chaque année, depuis 10 ans, à l’École Polytechnique Fédérale de Lausanne par les meilleurs spécialistes des modèles de choix discrets, dont Daniel McFadden (prix Nobel d’économie 2000), Moshe Ben-Akiva et Michel Bierlaire. Toutes les informations sont disponibles sur : http://transp-or.epfl.ch/dca

Par

uti

on

: a

vril

2014

- C

e d

ocu

men

t a

ete

del

ivre

po

ur

le c

om

pte

de

7200

0304

44 -

pre

s u

niv

ersi

te p

aris

est

// 1

93.4

8.14

3.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25

Ce document a ete delivre pour le compte de 7200030444 - pres universite paris est // 193.48.143.25tiwekacontentpdf_af1500

Page 32: 42102210 af1500

Techniques de l’Ingénieur vous apporte une information précise et fi able pour l’étude et la réalisation de vos projets.

Actualisées en permanence, les ressources documentaires profi tent aujourd’hui à plus de 300 000 utilisateurs et sont la référence pour tout ingénieur, bureau d’études, direction technique et centre de documentation.

Depuis près de 70 ans, 3 500 experts contribuent quotidiennement à développer, enrichir et mettre à jour cette documentation professionnelle unique en son genre.

L'intégralité de ces ressources représente plus de 9 000 articles, répartis dans plus de 430 bases documentaires, accessibles sur internet, en téléchargement PDF, et sur tablette.

4 BONNES RAISONS DE CHOISIR TECHNIQUES DE L’INGÉNIEUR

• Une actualisation permanente du fonds documentaire

• Un comité d’experts scientifi ques et techniques reconnus

• Une collection scientifi que et technique incontournable sur le marché francophone

• L’espace actualité pour suivre les tendances et innovations de vos secteurs

L'expertise technique et scientifi que de référence

4 BONNES RAISONS DE CHOISIR

DES SERVICES ASSOCIÉS À CHAQUE ABONNEMENT• Service de questions-réponses (1)(2) : interrogez les plus grands spécialistes des domaines couverts par vos bases

documentaires. Votre abonnement vous permet en effet de poser des questions techniques ou scientifi ques.• Les articles Découverte : un article vous intéresse, mais ne fait pas partie de votre abonnement ? Techniques de

l’Ingénieur vous offre la possibilité de l’ajouter.• Le Dictionnaire technique multilingue : 45 000 termes scientifi ques et techniques – avec illustrations et légendes –

en français, anglais, espagnol, allemand.• Les Archives : vos bases documentaires s’enrichissent et sont mises à jour en ligne en permanence. Les Archives

conservent la mémoire de ces évolutions et vous permettent d’accéder aux versions antérieures de vos articles, ainsi qu’à ceux qui traitent des technologies plus anciennes.

Profi tez également de l'impression à la demande (1), pour commander une ou plusieurs éditions papier supplémentaires de vos bases documentaires (sur devis).

(1) Disponible pour la France, le Luxembourg, la Belgique, la Suisse et Monaco.(2) Non disponible pour les établissements scolaires, écoles, universités et autres organismes de formation.

ILS NOUS FONT CONFIANCE :

Page 33: 42102210 af1500

LES + DES OFFRES PACK• Un large choix de + de 60 thématiques pour des besoins de contenu plus larges• Des tarifs préférentiels sur mesure adaptés à vos besoins

LES UNIVERS DOCUMENTAIRES• Plus de 430 bases documentaires et plus de 9 000 articles en 14 univers

POUR EN SAVOIR PLUS SUR LES OFFRES DE PACKS...... contactez le service Relation Clientèlequi se chargera de vous rediriger vers un chargé d’affaires :

Tél : +33 (0)1 53 35 20 20Email : [email protected]

Pour disposer d’un panorama complet sur une thématique

DÉCOUVREZ les offres de packs !

Sciences fondamentales

Environnement - Sécurité

Énergies

Technologies de l’information

Mécanique

Innovations

Génie industriel

Biomédical - Pharma

Procédés Chimie -Bio - Agro

Matériaux

Mesures - Analyses

Électronique - automatique

Construction

Transports

LES AVANTAGES TECHNIQUES DE L’INGÉNIEURLe droit d’accès, annuel ou pluriannuel, permet une consultation illimitée des ressources documentaires sélectionnées, ainsi que le téléchargement des versions PDF des articles de référence ou fi ches pratiques inclus dans ces ressources. Les droits d’accès sont proposés en monoposte ou multiposte.

• ACTUALISATION PERMANENTE Mises à jour permanentes, publication de nouveaux articles de références et fi ches pratique : un contenu complet sur

le sujet qui vous intéresse, des alertes par email.

• DES SERVICES INCLUS En plus de l'accès aux ressources documentaires, chaque souscription offre un accès privilégié à un ensemble

de services.

• MOBILITÉ Votre abonnement étant 100 % web, vous pouvez le consulter à tout moment, sur n'importe quel ordinateur ou sur

nos versions iPad et Android.

Page 34: 42102210 af1500

Nous contacter : Tél. : +33 (0)1 53 35 20 20 – Fax : +33 (0)1 53 26 79 18 – E-mail : [email protected]

MONTEZ EN COMPETENCE• Des formations personnalisées, réalisées au sein de votre établissement et à vos dates

• Un accompagnement à la mise en conformité réglementaire

• Des missions d'audit et de recommandations techniques

LES ENGAGEMENTS TECHNIQUES DE L'INGÉNIEUR• Un réseau d'experts reconnus pour vous conseiller

• Une veille scientifi que et technique pour mieux décider

• Les dernières obligations HSE pour être en règle

• Les clés en management des hommes et des projets pour gagner en effi cacité

Pour accompagner vos équipes et projets, CHOISISSEZ les offres de formation et conseil

Consultez l'intégralité

des programmes sur le site

de Techniques de l’Ingénieur,

espaces FORMATION et CONSEIL

www.techniques-ingenieur.fr