1 Dominique Muller Laboratoire Inter-universitaire de Psychologie Bureau : 238 Tel : 04 76 82 58 90...

Post on 03-Apr-2015

103 views 0 download

Transcript of 1 Dominique Muller Laboratoire Inter-universitaire de Psychologie Bureau : 238 Tel : 04 76 82 58 90...

1

Dominique Muller

Laboratoire Inter-universitaire de Psychologie

Bureau : 238Tel : 04 76 82 58 90

Email : dominique.muller@upmf-grenoble.fr

2

Modèle contraint (MC)

Modèle augmenté (MA)

Comparaison de modèles : test de b1 pour un modèle à un facteur continu

Prc∑ =59.89

Prc∑i =b0 +b1BEPCi

Prc∑ =b0

Prc∑i =39.30 +1.83BEPCi

3

Modèles à un facteur continu : régression simple

Prc∑i =39.30 +1.83BEPCi

b1 = 1.83, l’augmentation de 1.83 du pourcentage de bonnes réponses pour chaque augmentation d’un point de BEPC est significative

Connaître la note au BEPC permet de prédire le pourcentage de bonnes rép.

Prci=β0 +β1BEPCi + ε i

4

Formalisation (1)

0 1 1 2 2β β β εi i i iY X X

Y : le critère, la mesure ou VD

Yi : valeur observée pour l’observation i sur la variable Y

X1 et X2 : premier et second prédicteurs ou VIs (peuvent être manipulés ou mesurés)

Xi1 et Xi2 : valeurs de X1 et X2 pour l’observation i

: paramètres DANS LA POPULATION permettant de réduire les erreurs de prédiction lorsque les prédicteurs X1 et X2 sont utilisés (sous une forme donnée)

iε : erreur de prédiction pour l’observation i lorsque X1 et X2 sont utilisées comme prédicteurs et si les VRAIS paramètres étaient connus

VARIABLES :

PARAMETRES et ERREUR (ne pourront être qu’estimés) :

0 1 2, etβ β β

5

ei : erreur de prédiction pour l’observation i lorsque X1 et X2 sont utilisés

comme prédicteurs et que b0, b1 et b2 sont utilisés comme estimateurs

Formalisation (2)

Yi, Xi1 et Xi2 : leurs sens restent inchangés

b0, b1 et b2 : estimations respectives de sur la base de ces données 0 1 2, etβ β β

Yib0 b1X i1 b2X i2

iY : prédiction pour l’observation i sur la base de b0, b1 et b2 et des valeurs de X1 et X2

0 εi iY B B0 : valeur fixée A PRIORI (ni valeur dans la population, ni estimée sur la base des données)

Yib0 b1X i1 b2X i2 ei

6

Formalisation (3) : résumé

Lettres grecques : valeurs dans la population (à moins de pouvoir mesurer l’ensemble de la population, nous ne pourrons que les estimer)

Lettres minuscules : estimations des valeurs que l’on observerait dans la population

Lettres majuscules : variables (ex : Y, X1) ou valeurs fixées a priori (ex : B0)

7

Mesure (Y ou VD) : pourcentage de bonnes réponses à un test de connaissance (50 questions de math en vrai/faux)

Prédicteur (X ou VI) : Présence d’Autrui (1) vs Seul (2) ; participants assignés aléatoirement au sein des deux conditions

Variables catégorielles (k = 2) :

test t échantillons indépendants / ANOVA à un facteur

Commençons par le modèle simple (même prédiction pour toutes les observations)

Là encore la valeur b0 correspondra à la moyenne de Prc (Y)

Prci=β0 + ε i Prc∑ =39

8

Faire mieux avec un modèle plus complexe ?

Prci=β0 +β1PAi1 + ε i

MPA

MSeul

Peut-on améliorer notre modèle en ajustant nos prédictions selon les valeurs de X (Présence d’Autrui) ?

Ajouter PA dans la partie modèle de l’équation nous permet d’ajuster la prédiction en fonction des conditions (i.e., permettre à la pente d’être différente de 0)

Pour le savoir, ajout de PA dans notre modèle :

Prc∑i =30 + 6PAi

9

Interprétation des coefficients de régression

Interprétation du b0 : ordonné à l’origine, c’est-à-dire la prédiction pour une valeur de PA = 0

Dans notre exemple, b0 = 30 donc pour les gens ayant un score de 0 sur la variable PA le modèle prédit un pourcentage d’erreurs de 30

Interprétation du b1 : il s’agit de la pente => de combien change la prédiction sur Prc lorsque l’on change d’une unité sur PA

Prc∑i =b0 +b1PAi

ici :

Prédiction pour PA = 1 =>

Prédiction pour PA = 2 =>

Prc∑i =30 + 6PAi

Ainsi, avec une seule unité de différence entre les deux conditions (PA=1 et Seul=2), b1 = différence de moyennes

Or, 36 et 42 sont en effet les moyennes des deux conditions

10

Comparaison de modèles : test d’un modèle à un facteur catégoriel

Modèle contraint (MC)

Prc∑ =39

Modèle augmenté (MA)

Prc∑i =30 + 6PAi

Tester cette comp. de modèles revient donc à tester

H

0:β1 =0 ⇔ MPA =MSeul

(⇔ Prci =β0 + 0PAi1 + ε i )

Prci=β0 + ε i

Prci=β0 +β1PAi1 + ε i

11

ANOVA un facteur : calcul des SCE

12

Modèles ANOVA à un facteur (k =2)

Prci=β0 +β1PAi1 + ε i Prc∑

i =30 + 6PAi

Lorsque l’on passe de la condition de présence d’autrui (1) à la condition seul (2) le taux de bonnes réponses augmente de 6 points :

Nous observons donc un effet d’inhibition sociale mais il est non-significatif

13

PAc

Prci=β0 +β1PAci + ε i

Code de contrastes

0kk

Code de contrastes, règle 1 :

Avec k le code attribué à

chaque groupe

Et k, les k groupes

-1 / 1 est donc un code de contraste (mais aussi - 0.5 / 0.5…)

Prc∑i =39 + 3PAci

14

PAc

Prci=β0 +β1PAci + ε i

Code de contrastes

Divise simplement la pente par deux, car il y a maintenant deux unités de différence entre PA (-1) et Seul (1)

Afin d’obtenir directement la différence de moyennes, on préférera un codage -0.5 / 0.5

Prc∑i =39 + 3PAci

15

Prci=β0 +β1PAdi + ε i

Dummy coding

Prc∑i =36 + 6PAdi

PAd

b0 est toujours la prédiction pour PA = 0

Or, avec ce nouveau codage, cette prédiction correspond à la condition PA

Le test de b0 sera donc le test de la moyenne de PA contre 0

Prci=β0 +β1PAdi + ε i Prc

i=0 + β1PAdi + ε i

MC : MA :vs.

16

Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées

Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les

Ces résidus doivent être :

distribués normalement

avoir une variance constante

être indépendants les uns des autres

*

*

***

Règles d’application de la méthode des moindres carrés

17

Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées

Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les

Ces résidus doivent être :

distribués normalement

avoir une variance constante

être indépendants les uns des autres

*

*

***

Règles d’application de la méthode des moindres carrés

18

Distribution des résidus

Performance en fonction de la taille

0 1β β εi i iPerf taille 19.83 0.22i i iPerf taille e

19

Distribution des résidus

« Histogramme » des résidus

0 1β β εi i iPerf taille 19.83 0.22i i iPerf taille e

20

Distribution des résidus

0 1β β εi i iPerf taille 19.83 0.22i i iPerf taille e

« Histogramme » des résidus

Bonne nouvelle :

=> Toutes les violations de la normalité ne sont pas graves

21

Ce qui est important par rapport à la normalité

La distribution uniforme,un problème ?

Moins un problème ?

22

Tous les votes ne naissent pas égaux

23

Ce qui est important par rapport à la normalité

La distribution uniforme,un problème ?

Moins un problème ?

Les violations par rapport à la normalité ne sont problématiques que pour les extrémités

Comment savoir si c’est le cas ?

24

Diagramme des quantiles - quantiles

0 1β β εi i iPerf taille 19.83 0.22i i iPerf taille e

Les observations sur la droite suivent la loi normale

Problème (ici) si les observations extrêmes aplatissent la droite :

• En dessous de la droite en haut

• En dessus de la droite en bas

25

Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées

Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les iε

Ces résidus doivent être :

distribués normalement

avoir une variance constante

être indépendants les uns des autres

*

*

***

Règles d’application de la méthode des moindres carrés

26

Performance en fonction de la taille

0 1β β εi i iPerf taille 19.83 0.22i i iPerf taille e

Variance constante des résidus

27

Variance constante des résidus

28

Variance constante des résidus

Distribution problématique : en entonnoir

29

Variance constante des résidus : autre représentation

Il nous suffit maintenant de regarder s’il existe une relation entre les deux variables

30

Règles d’application de la méthode des moindres carrés

Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées

Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les iε

Ces résidus doivent être :

distribués normalement

avoir une variance constante

être indépendants les uns des autres

*

*

***

31

Effet de l’habitat sur la satisfaction dans le couple :présentation des résidus (ei)

Satisfactioni=β0 + β1Condci + ε i

On voit clairement ici que les résidus ne sont pas indépendants à l’intérieur des couples

32

Remèdes

Si les résidus ne sont pas (ou n’ont pas) :

distribués normalement

une variance constante

indépendants les uns des autres

=> Transformations

=> Transformations

=> Tests non-paramètriques (dernier recours)

=> Tests non-paramètriques

=> Jouer sur le nombre

d’observations

=> Tests paramètriques type Welch

33

Type d’erreurs

Erreur de Type I : rejeter H0 à tord (nous disons qu’un effet existe alors qu’il n’existe pas)

Erreur de Type II : ne pas rejeter H0 à tord (un effet existe mais nous ne le voyons pas)

34

Hétérogénéité des variances et nombre de sujets par condition (Tomarken & Serlin, 1986)

Nombre de sujets par condition et variance sont liés positivement => augmentation des erreurs de Type II

Nombre de sujets par condition et variance sont liés négativement => augmentation des erreurs de Type I

Nombre de sujets par condition et variance sont indépendants (même nombre de sujets par condition) => très faible augmentation des erreurs de Type I

Se ramener au même nombre de sujets par condition permet de diminuer les risques

35

Remèdes

Si les résidus ne sont pas (ou n’ont pas) :

distribués normalement

une variance constante

indépendants les uns des autres

=> Transformations

=> Transformations

=> Tests non-paramètriques (dernier recours)

=> Tests non-paramètriques

=> Jouer sur le nombre

d’observations

=> Autres types de tests

=> Tests paramètriques type Welch

36

Types de problèmes et types de transformations

Transformer les données pour atteindre la normalité

– Pour les distributions « plates » : inverse (1/Y)– Pour les distributions « asymétriques + » : log ou inverse– Pour les distributions « asymétriques - » : racine carré

Transformer les données pour atteindre une variance constante des résidus (homoscédasticité)

– Cône des résidus ouvert à droite : inverse– Cône des résidus ouvert à gauche : racine carré