Syllabus Epistat 1 F 2010 Version NN

158
EPIDEMIOLOGIE ET STATISTIQUE DE BASE (EPISTAT 1) Département d’Epidémiologie et de Contrôle des maladies

Transcript of Syllabus Epistat 1 F 2010 Version NN

Page 1: Syllabus Epistat 1 F 2010 Version NN

EPIDEMIOLOGIE ET STATISTIQUE DE BASE

(EPISTAT 1)

Département d’Epidémiologie et de Contrôle des maladies

Page 2: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 2 /158

Ce syllabus a été développé par l’unité d’épidémiologie et de contrôle des maladies à l’IMT : Marleen Boelaert, Greet Dieltiens, Marie-Laurence Lambert, Francine Matthys, Bart Ostyn, Jo Robays, Patrick Van der Stuyft and Veerle Vanlerberghe.

Toute remarque peut être envoyée à Nadine Nuyts, [email protected]

Dernière mise à jour : août 2009

Page 3: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 3 /158

Epistat 1 – Table de matières

CHAPITRE 1: INTRODUCTION À L’ÉPIDÉMIOLOGIE - MESURE DE LA FRÉQUENCE DE LA MALADIE----------------------------------------------------------------------------------------------------------------------------7

I. Introduction ----------------------------------------------------------------------------------------------------------------8 II. Mesures de la fréquence de la maladie---------------------------------------------------------------------------9

A. Concepts de base: ratio, proportion, taux -----------------------------------------------------------------------9 B. Prévalence et incidence-------------------------------------------------------------------------------------------- 11 C. Éléments à prendre en compte dans le calcul de la mesure de l’incidence-------------------------- 14 D. Cas particulier de mesures d’incidence et de prévalence------------------------------------------------- 14 E. Relation entre l’incidence et la prévalence-------------------------------------------------------------------- 15 F. Usage des mesures d’incidence et de prévalence---------------------------------------------------------- 15 G. Indicateurs de base et utilisation de l’information disponible--------------------------------------------- 16

1. Mortalité --------------------------------------------------------------------------------------------------------------------16 2. L’espérance de vie ------------------------------------------------------------------------------------------------------17 3. Morbidité -------------------------------------------------------------------------------------------------------------------17

III. Description de la distribution de la maladie ------------------------------------------------------------------ 18 A. Caractéristiques de la personne --------------------------------------------------------------------------------- 18 B. Caractéristiques de lieu -------------------------------------------------------------------------------------------- 18 C. Caractéristiques de temps----------------------------------------------------------------------------------------- 18

CHAPITRE 1BIS: STANDARDISATION----------------------------------------------------------------------------------- 19

I. Problématique ---------------------------------------------------------------------------------------------------------- 20 II. Standardisation directe -------------------------------------------------------------------------------------------- 22 III. Standardisation indirecte ----------------------------------------------------------------------------------------- 25 IV. Standardisation directe ou indirecte ? ---------------------------------------------------------------------- 27 V. Contre-indications---------------------------------------------------------------------------------------------------- 28

Résumé--------------------------------------------------------------------------------------------------------------------- 30 Annexe---------------------------------------------------------------------------------------------------------------------- 31

CHAPITRE 2: VALIDITÉ ET REPRODUCTIBILITÉ D’UN TEST --------------------------------------------------- 33

I. Introduction : validité et reproductibilité ----------------------------------------------------------------------- 34 II. Validité d'une mesure ------------------------------------------------------------------------------------------------- 35

A. Concepts de base et définitions---------------------------------------------------------------------------------- 35 1. Sensibilité et spécificité ------------------------------------------------------------------------------------------------35 2. Valeur prédictive ---------------------------------------------------------------------------------------------------------38 3. Résumé---------------------------------------------------------------------------------------------------------------------38 4. Valeur prédictive et prévalence--------------------------------------------------------------------------------------39 5. Stabilité de la sensibilité et de la spécificité----------------------------------------------------------------------40 6. NB: Définition de cas clinique----------------------------------------------------------------------------------------41 7. Annexe: rapport de vraisemblance (RV)--------------------------------------------------------------------------42

B. Utiliser l’information pour la prise de décision. --------------------------------------------------------------- 43 1. Tests : diagnostic vs dépistage--------------------------------------------------------------------------------------43 2. Conséquences : faux positifs et faux négatifs-------------------------------------------------------------------44

III. Reproductibilité --------------------------------------------------------------------------------------------------------- 47 A. Définition --------------------------------------------------------------------------------------------------------------- 47 B. Mesurer la reproductibilité ----------------------------------------------------------------------------------------- 47

1. Méthodes inadéquates-------------------------------------------------------------------------------------------------47 2. Le coefficient de Kappa------------------------------------------------------------------------------------------------48 3. Kappa : points de discussion-----------------------------------------------------------------------------------------49

Page 4: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 4 /158

CHAPITRE 3 : TYPES D'ÉTUDES ÉPIDÉMIOLOGIQUES ---------------------------------------------------------- 51

I. Introduction -------------------------------------------------------------------------------------------------------------- 52 II. Etudes expérimentales ----------------------------------------------------------------------------------------------- 53

A. Définition --------------------------------------------------------------------------------------------------------------- 53 B. Principes --------------------------------------------------------------------------------------------------------------- 53 C. Avantages et inconvénients--------------------------------------------------------------------------------------- 54

Avantages---------------------------------------------------------------------------------------------------------------------54 Inconvénients ----------------------------------------------------------------------------------------------------------------55

III. Etudes d'Observation (non expérimentales)------------------------------------------------------------------ 56 A. Définition --------------------------------------------------------------------------------------------------------------- 56 B. Objectif------------------------------------------------------------------------------------------------------------------ 56

1. Étude épidémiologique descriptive---------------------------------------------------------------------------------56 2. Études épidémiologiques analytiques -----------------------------------------------------------------------------57

C. Les plans d'étude ---------------------------------------------------------------------------------------------------- 57 1. Études transversales (En Anglais : Cross-sectional study) -------------------------------------------------57 2. Études longitudinales (ou de suivi) (En Anglais : Longitudinal ou Follow-up Study)-----------------58 3. Études de cas témoins (En Anglais : Case-Control Study) -------------------------------------------------61 4. Études écologiques -----------------------------------------------------------------------------------------------------64 5. Vue d'ensemble des différences entre les études longitudinales, et cas témoins--------------------65

IV. Conclusion---------------------------------------------------------------------------------------------------------------- 65 CHAPITRE 4: STATISTIQUE DESCRIPTIVE---------------------------------------------------------------------------- 67

I. Introduction :------------------------------------------------------------------------------------------------------------- 68 II. Variables et echelles de mesure ---------------------------------------------------------------------------------- 69

A. Echelles nominales (ou catégorielles, ou qualitatives)----------------------------------------------------- 69 B. Echelles ordinales (qualitatives) --------------------------------------------------------------------------------- 69 C. Echelles numériques (quantitatives)---------------------------------------------------------------------------- 70 D. Quelques remarques sur les échelles de mesure----------------------------------------------------------- 70

III. Organiser et présenter des données univariées ------------------------------------------------------------ 71 A. Tableaux et distributions de fréquences ----------------------------------------------------------------------- 71 B. Suggestions pour la construction de tableaux pour des rapports--------------------------------------- 74 C. Graphiques ------------------------------------------------------------------------------------------------------------ 74

1. Diagramme en bâtons--------------------------------------------------------------------------------------------------74 2. Diagrammes en cercle (‘’Camembert’’) ---------------------------------------------------------------------------74 3. Histogrammes ------------------------------------------------------------------------------------------------------------75 4. Polygone -------------------------------------------------------------------------------------------------------------------76

D. Que chercher dans un histogramme ou un polygone ? --------------------------------------------------- 76 E. Conseils pratiques pour construire un graphique ----------------------------------------------------------- 77

IV. Résumer des données univariées -------------------------------------------------------------------------------- 78 A. Introduction ------------------------------------------------------------------------------------------------------------ 78 B. Mesure de tendance centrale------------------------------------------------------------------------------------- 78

1. La moyenne ---------------------------------------------------------------------------------------------------------------78 2. La médiane----------------------------------------------------------------------------------------------------------------79 3. Le mode --------------------------------------------------------------------------------------------------------------------79 4. Comparaison entre les mesures de tendance centrale ------------------------------------------------------80

C. Mesures de dispersion --------------------------------------------------------------------------------------------- 81 1. L'écart type ----------------------------------------------------------------------------------------------------------------82 2. Coefficient de variation-------------------------------------------------------------------------------------------------83 3. L'intervalle interquartile (IIQ)-----------------------------------------------------------------------------------------83 4. L'amplitude (ou étendue) ----------------------------------------------------------------------------------------------84 5. Comparaison des mesures de dispersion------------------------------------------------------------------------84 6. Les valeurs extrêmes (‘outliers’)-------------------------------------------------------------------------------------85 7. Annexe: résultat d'un traitement informatique (EpiInfo) décrivant une distribution-------------------85

D. Représentation graphique des statistiques descriptives--------------------------------------------------- 86 1. Graphique branche et feuilles----------------------------------------------------------------------------------------86

Page 5: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 5 /158

2. Histogramme (polygone de fréquence) ---------------------------------------------------------------------------87 3. Diagramme en boîte (diagramme en moustaches, « box plot » ou « box and whisker plot ») ---87

V. Réduction des données ---------------------------------------------------------------------------------------------- 89 VI. Visualiser et résumer des données bivariées ---------------------------------------------------------------- 90

A. Association entre 2 variables quantitatives ------------------------------------------------------------------- 91 B. Association entre une variable qualitative et une variable quantitative. ------------------------------- 92 C. Association entre 2 variables qualitatives --------------------------------------------------------------------- 95

CHAPITRE 5 : INFÉRENCE--------------------------------------------------------------------------------------------------- 97

I. Introduction: le concept d'inférence----------------------------------------------------------------------------- 98 II. La distribution normale ---------------------------------------------------------------------------------------------- 99

A. Une courbe très utile en biologie : la distribution normale ------------------------------------------------ 99 B. La distribution normale standardisée ------------------------------------------------------------------------- 100 C. Une courbe très utile en statistique --------------------------------------------------------------------------- 102

1. La distribution d’échantillonnage---------------------------------------------------------------------------------102 2. Transformation des résultats d'échantillons en écart réduit----------------------------------------------103 3. Probabilité et écart réduit-------------------------------------------------------------------------------------------105

III. La logique des tests d'inférence -------------------------------------------------------------------------------- 106 A. Comment formuler une hypothèse? ----------------------------------------------------------------------------106 B. Comment déterminer le seuil de décision? -------------------------------------------------------------------108 C. Comment choisir le test approprié? -----------------------------------------------------------------------------109 D. Comment calculer la valeur d'un test? -------------------------------------------------------------------------109 E. A propos des probabilités liées aux valeurs du test --------------------------------------------------------110 F. Comment interpréter le test?--------------------------------------------------------------------------------------110

IV. La logique des intervalles de confiance---------------------------------------------------------------------- 112 V. Les outils ---------------------------------------------------------------------------------------------------------------- 113

A. Inférence pour un simple échantillon ------------------------------------------------------------------------- 113 1. Une moyenne-----------------------------------------------------------------------------------------------------------113 2. Une médiane------------------------------------------------------------------------------------------------------------114 3. Une proportion----------------------------------------------------------------------------------------------------------115 4. Un taux -------------------------------------------------------------------------------------------------------------------115

B. Inférence lorsqu'on compare deux échantillons ----------------------------------------------------------- 116 1. Comparaison de deux moyennes --------------------------------------------------------------------------------116 2. Comparaison de deux médianes ---------------------------------------------------------------------------------116 3. Comparaison de deux proportions -------------------------------------------------------------------------------117 4. Comparaison de deux taux -----------------------------------------------------------------------------------------119 5. I.C. autour d'une différence de risque ---------------------------------------------------------------------------120 6. I.C. autour d'une différence de taux ------------------------------------------------------------------------------120 7. I.C. autour d'un rapport de risques ou d'un rapport des taux (RR)--------------------------------------121

CHAPITRE 6: VALIDITÉ D'UNE ÉTUDE ÉPIDÉMIOLOGIQUE -------------------------------------------------- 127

I. Concepts ---------------------------------------------------------------------------------------------------------------- 128 A. Principes de l'inférence------------------------------------------------------------------------------------------- 128 B. Erreur aléatoire ----------------------------------------------------------------------------------------------------- 129 C. Validité interne------------------------------------------------------------------------------------------------------ 130 D. Validité externe ----------------------------------------------------------------------------------------------------- 130

II. Biais de sélection----------------------------------------------------------------------------------------------------- 131 III. Biais d'information (ou d'observation)------------------------------------------------------------------------ 133 IV. La confusion ----------------------------------------------------------------------------------------------------------- 135

A. Conditions pour la confusion------------------------------------------------------------------------------------ 136 B. Méthodes pour contrôler la confusion dans le plan d'étude -------------------------------------------- 138 C. Méthodes pour contrôler la confusion pendant l'analyse------------------------------------------------ 138

Page 6: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 6 /158

CHAPITRE 6BIS : ANALYSE STRATIFIÉ : UNE TECHNIQUE POUR CONTRÔLER LES BIAIS DE CONFUSION--------------------------------------------------------------------------------------------------------------------- 139

I. Définition ---------------------------------------------------------------------------------------------------------------- 139 II. Que faire en cas de suspicion de confusion ? ------------------------------------------------------------- 140 III. La modification de l'effet------------------------------------------------------------------------------------------- 141 IV. Procédure de l’analyse stratifiée-------------------------------------------------------------------------------- 142 V. Calcul de la mesure pondérée de l'association entre facteur de risque et maladie selon la méthode de Mantel-Haenszel------------------------------------------------------------------------------------------ 143

VI. Résumé ------------------------------------------------------------------------------------------------------------------- 144 CHAPITRE 7 : LE CONCEPT DE RISQUE ----------------------------------------------------------------------------- 145

Introduction------------------------------------------------------------------------------------------------------------------ 146 I. Le risque absolu ------------------------------------------------------------------------------------------------------ 148 II. Les mesures d’association --------------------------------------------------------------------------------------- 149

A. Mesures de rapport ------------------------------------------------------------------------------------------------ 149 1. Rapport de risque------------------------------------------------------------------------------------------------------149 2. Le rapport des taux ---------------------------------------------------------------------------------------------------150 3. Le rapport des cotes (Odds ratio)---------------------------------------------------------------------------------151

B. Mesures de différence -------------------------------------------------------------------------------------------- 152 1) a) La différence de risque ou le risque attribuable-----------------------------------------------------------152

1) b) Le pourcentage de risque attribuable dans les personnes exposées------------------------- 153 2) a) Risque attribuable dans la population (RAP) -------------------------------------------------------- 153 2) b) La Fraction de risque Attribuable dans la Population (FAP)------------------------------------- 155

Page 7: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 7 /158

Chapitre 1: Introduction à l’épidémiologie Mesure de la fréquence de la maladie Ce chapitre est adapté de: C.H.Hennekens and J.E.Buring. Epidemiology in Medicine. Little Brown and Company. Boston.1987. Chapter I.4.

OBJECTIFS DU CHAPITRE 1 Après avoir lu ce chapitre, vous devriez être capables de: 1. Utiliser de façon appropriée les concepts de prévalence et d'incidence, ainsi que

diverses mesures assimilées (taux d'attaque, taux de morbidité) 2. Expliquer la relation entre incidence et prévalence 3. Évaluer d'un œil critique la collecte systématique de données

Page 8: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 8 /158

I. INTRODUCTION L'épidémiologie est "l'étude de la distribution et des déterminants de la fréquence de la maladie dans les populations humaines", dans le but d'améliorer l'état de santé de cette population. Ces trois concepts interdépendants – distribution, déterminants et fréquence – recouvrent l’ensemble des principes et méthodes épidémiologiques. La mesure de la fréquence de la maladie concerne la quantification de la présence ou de la survenue de la maladie. La disponibilité de telles données est une condition préalable à toute recherche visant à étudier les modalités d'apparition de la maladie dans des populations humaines. La distribution de la maladie considère des questions telles que : qui est malade dans la population, où et quand la maladie est-elle apparue (TLP: Temps, Lieu, Personnes). La connaissance d'une telle distribution est essentielle pour décrire la maladie ainsi que pour formuler des hypothèses concernant de possibles facteurs causaux et / ou de prévention. Les déterminants de la maladie découlent des deux premiers puisque la connaissance de la fréquence et de la distribution de la maladie sont nécessaires pour tester une hypothèse épidémiologique. Il est tout d'abord nécessaire de mesurer la fréquence d’une maladie (ou d'autres variables d’intérêt). De telles mesures sont les outils de base pour formuler et tester des hypothèses. Elles permettent la comparaison de la fréquence d’une maladie dans différentes populations, ou chez différents individus présentant une caractéristique particulière au sein de la population. Les diverses informations produites auront des usages multiples. Certaines pourront servir à des gestionnaires de santé, d'autres à la recherche en épidémiologie.

Page 9: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 9 /158

II. MESURES DE LA FREQUENCE DE LA MALADIE La plus simple des mesures de fréquence de la maladie est le comptage des individus atteints. Une telle information est essentielle pour les planificateurs de santé et les gestionnaires qui souhaitent déterminer l'allocation des ressources sanitaires dans une communauté particulière. Le tableau ci-dessous présente le nombre de cas d'hépatites C diagnostiquées dans deux villes. Dans la ville A, 58 nouveaux cas ont été rapportés durant l'année 1995. Dans la ville B, il y eut 35 cas pendant les années 1994 et 1995. Cette information pourrait être suffisante aux gestionnaires de santé des deux cités pour planifier le personnel et les services nécessaires au traitement des individus malades. Données hypothétiques sur la fréquence de l'hépatite C dans les deux villes Nouveaux cas

d'hépatite Période Population

Ville A 58 1995 25.000 Ville B 35 1994-1995 7.000

Taux annuel d'apparition de l'hépatite: Ville A: 58/25.000/1an = 232/100.000/an Ville B: 35/7.000/2ans = 250/100.000/an (17.5/7.000/1an) Au vu du simple nombre des cas, on pourrait penser à tort que l'hépatite est plus fréquente dans la ville A que dans la B. Afin de comparer la fréquence dans les deux villes, il faut tenir compte de la taille de leurs populations respectives et de la durée de chaque période d'enregistrement. Dans cet exemple, le taux annuel d'apparition de l'hépatite est de 58 pour 25.000 dans la ville A et de 17,5 pour 7.000 dans la ville B (35 pour 7.000 en deux ans). En général, on utilise la même unité de population au dénominateur pour faciliter la comparaison directe des taux. On l'exprime d'habitude sous la forme d'un multiple de 10 (100, 1000, 10.000, 100.000, ou 1 million). Il apparaît donc ainsi clairement que la fréquence d'apparition de l'hépatite C est légèrement plus élevée dans la ville B. L'utilisation d’'unités semblables (population, temps) facilite les comparaisons directes des fréquences de maladies entre des populations différentes. A. Concepts de base: ratio, proportion, taux En épidémiologie, on utilise trois classes principales de paramètres mathématiques: le ratio, la proportion et le taux. Le ratio est obtenu par la simple division d'une quantité par une autre sans qu'il y ait de relation particulière entre le numérateur et le dénominateur. Il n'est pas nécessaire que le numérateur soit inclue dans le dénominateur. Ils peuvent tous les deux avoir des unités différentes.

yxratio =

Page 10: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 10 /158

Exemples de ratios

- Nombre d'hommes / nombre de femmes (sex ratio) - Les cas observés / les cas attendus - Le nombre d'habitants / centre de santé - Nombre de morts maternels/cent mille naissances vivantes - Nombre de mort-nés / mille naissances vivantes

La proportion est un type particulier de ratio où le numérateur fait partie du dénominateur. Les deux doivent évidemment avoir les mêmes unités. Ce ratio considéré comme une partie du total est souvent exprimé sous la forme de pourcentage.

Exemples de proportions

- Nombre de femmes de plus de 50 ans qui ont subi une hystérectomie / toutes les femmes de plus de 50 ans

- Les enfants de 12 à 23 mois immunisés contre la polio / l'ensemble des enfants de 12 à 23 mois

- Nombre de femmes enceintes séropositives venues en consultation prénatale / toutes les femmes enceintes suivies en CPN

Un taux au sens strict est un paramètre pour lequel existe une relation entre le numérateur et le dénominateur (événement / unités à risque pour cet événement). Plus spécialement le dénominateur comprend une notion de temps.

Exemples de taux

- Les cas de tuberculose diagnostiqués par 100.000 habitants pendant un an - Le nombre de nouveaux cas de choléra par 1000 réfugiés pendant une semaine

Malheureusement, le terme "taux" est souvent utilisé pour désigner bon nombre de mesures démographiques et épidémiologiques qui peuvent être tout aussi bien des vrais taux que des ratios ou des proportions. Considérons par exemple le cas du taux de mortalité infantile.

nombre de décès apparus en une année chez les enfants de moins d'un an nombre de naissances vivantes pendant cette même année

Ceci n'est, strictement parlant, pas un taux mais un ratio. Puisque ces termes sont souvent utilisés l'un pour l'autre, il est important d'être bien conscient de la façon dont chaque mesure est en fait définie et calculée. Lorsque l'on établit des mesures de fréquences de maladie, il faut être très précis dans la définition du numérateur et du dénominateur. On doit, par exemple, clairement spécifier si l'on parle d'un nombre d'événements ou d'individus.

baaproportion+

=

Page 11: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 11 /158

Exemples Dans une étude sur l'utilisation de services de santé privés, l'unité analysée peut être: - le patient visitant une structure de santé - les visites à une structure de santé (le même patient peut y consulter plusieurs fois!)

Lors du calcul de la fréquence des effets secondaires d'un médicament, on peut choisir comme dénominateur: - le nombre total des traitements - ou le nombre total des individus recevant le traitement.

Dans une étude sur le trachome, l'unité d'analyse pourrait aussi bien être l'œil que le patient.

B. Prévalence et incidence Les mesures de fréquence de la maladie les plus utilisées en épidémiologie peuvent être classées en deux grandes catégories: la prévalence et l'incidence. La prévalence mesure la proportion des individus d'une population, qui ont la maladie à un instant précis.

Le nombre de cas d'une maladie à un instant donné total de la population à ce moment précis

Exemples En 1994, tous les 434 habitants de Fasila Bime (Soudan), furent l'objet d'un dépistage de la maladie du sommeil. On détecta 27 cas positifs. La prévalence de la maladie du sommeil était donc de 27/434 = 6,2%. Le 31 décembre 1992, il y avait 145 patients enregistrés, traités pour tuberculose au centre de santé d'Agdao, aux Philippines. La population couverte par ce centre était de 45.000 personnes. La prévalence des tuberculoses (traitées) était donc de 145/45.000=322/100.000.

Les termes "taux de prévalence" et "prévalence" sont souvent utilisés l'un pour l'autre quoique ce dernier soit, strictement parlant, une proportion et non un taux. La prévalence peut être considérée comme l'état de la maladie dans une population à un moment donné. Celui-ci fait référence soit à un moment précis du calendrier, soit à un point précis dans le cours des évènements, qui peut varier d'une personne à l'autre. On peut prendre par exemple la survenue de la ménopause ou de la puberté ou encore la prévalence d'une infection de la plaie opératoire trois jours après l'intervention. L’incidence est définie par le nombre de nouveaux événements ou cas de maladie qui se développent dans une population d’individus à risque pendant un intervalle de temps déterminé. La prévalence mesure un état tandis que l’incidence mesure le changement d'un état (en bonne santé) vers un autre état (malade). Il existe deux sortes de mesures d’incidence : l’incidence cumulative et le taux d’incidence ou densité.

P =

Page 12: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 12 /158

L’incidence cumulative (IC) est la proportion de gens qui tombent malades pendant une période de temps définie.

Nombre de nouveaux cas de maladies pendant une période de temps Total de la population à risque au début de cette période de temps

L’incidence cumulative donne une estimation de la probabilité, ou risque qu’un individu développe une maladie pendant une période de temps déterminée. C’est une proportion mais elle est parfois appelée "taux d’incidence cumulative".

Exemples

Dans une étude associant contraception orale et bactériurie, 482 utilisatrices âgées de 16 à 49 ans sans bactériurie furent identifiées. Pendant les trois années suivantes, 27 d’entre elles développèrent une bactériurie. L’incidence cumulative de la bactériurie parmi les utilisatrices de contraception orale fut donc de 27 sur 482, soit 5,6 % pendant cette période de trois ans.

La période de temps considérée doit être clairement précisée lors du calcul de l’IC. Une incidence cumulative de bactériurie de 5,7% est différente si elle concerne une période de 6 mois ou une période de dix ans. Déterminer une incidence cumulative suppose que toute la population à risque au début de l’étude a été suivie pendant toute la durée de l'étude. Fréquemment cependant, la durée du suivi n'est pas uniforme pour tous, certains sujets peuvent être perdus dans le décours de l'étude. Le taux d’incidence (TI), (appelé aussi densité d'incidence), est une estimation plus précise de l'occurrence de maladie dans la population.

nombre de nouveaux cas d’une maladie pendant une période de temps donnée Total des personnes à risque observées x temps d’observation

Ici aussi, comme dans toutes les mesures d’incidence, le numérateur est le nombre de nouveaux cas (ou événements) dans la population durant une période donnée. Le dénominateur, cependant, devient la somme des temps d'observation pour chaque individu à risque ou encore la somme du temps que chaque personne demeure sous observation et libre de la maladie considérée. Il est essentiel de préciser l’unité de temps la plus pertinente. Le dénominateur pourra par exemple avoir un format de personnes-jours, personnes-mois, personnes-années, etc.

IC =

TI =

Page 13: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 13 /158

Exemple:

Cinq enfants sont suivis pendant 5 ans après la naissance pour déterminer le taux d’incidence de la rougeole.

Enfant Contribution au numérateur (0= pas de rougeole, 1= rougeole)

Contribution au dénominateur (années d’observation)

A B C D E

0 0 1 1 0

5 1 (mort d’un accident de circulation après 1 an)3 (rougeole à 3 ans) 2 (mort de la rougeole à l’âge de 2 ans) 4 (mort de diarrhée à l’âge de 4 ans)

Total 2 15

Le taux d’incidence = 2/15 personnes-années ou 0,13/personnes-années ou 13/100 personnes-années.

Child history

4

2-> MEASLES

3 -> MEASLES

1

5

0 1 2 3 4 5 6

E

D

C

B

A

Child

Years

L’hypothèse sous-jacente est que l’observation de 16 personnes pendant un an est équivalente à l’observation de 8 personnes pendant 2 ans ou de 32 personnes pendant 6 mois, soit : 16 personnes-années d’observation.

Exemple Dans une étude de cohorte étudiant l'association entre l’utilisation d’hormones de substitution après la ménopause et le risque de maladie coronarienne, 90 cas furent diagnostiqués parmi 32.317 femmes ménopausées lors d’un suivi de 105.786 personnes-années. Le taux d’incidence de la maladie coronarienne parmi les participantes à cette étude est de 90/105.786,2 soit: 85/100.000 personnes-années.

Page 14: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 14 /158

Il existe une association mathématique entre le taux d’incidence et l’incidence cumulative (le risque individuel de développer la maladie pendant une certaine période de temps).

IC = 1 – e -TIxΔt

Cette formule suppose que le taux d’incidence est stable pendant tout le temps de l’étude. Si l’IC de la maladie est bas (inférieure à 0,1), ou que le temps d’observation est court, la formule peut être simplifiée par l’approximation suivante :

IC = TI x Δt L’incidence cumulative est approximativement le produit du taux d’incidence par la période de temps considérée. C. Éléments à prendre en compte dans le calcul de la mesure de l’incidence La définition précise du dénominateur est essentielle tant pour l'exactitude que la clarté. Le dénominateur d’une mesure d’incidence doit, en théorie, contenir seulement ceux qui sont considérés "à risque" de développer la maladie étudiée. En conséquence, ceux qui font la maladie en étude ou l'ont déjà faite auparavant devraient en principe être exclus du dénominateur. Il en est de même des personnes qui ne peuvent développer la maladie pour des raisons telles que l’âge, le sexe, une immunisation, etc. La population à risque du cancer du col ne comprend évidemment pas les hommes. La rougeole ou la perte des deux jambes ne peut arriver qu’une seule fois ! D. Cas particulier de mesures d’incidence et de prévalence On peut considérer que toutes les mesures épidémiologiques sont des types particuliers d’incidence ou de prévalence. Nom Type Numérateur Dénominateur Taux de morbidité Incidence Nouveaux cas de maladie Taux de mortalité Incidence Nombres de décès toutes

causes confondues Taux de mortalité spécifique

Incidence Nombre de décès liés à une cause spécifique

Total des personnes-années observées dans la population à risque

Taux de létalité Incidence (cumulative)

Nombre de décès liés à une maladie

Nombre de cas de cette maladie

Taux d’attaque Incidence (cumulative)

Nombre de cas d’une maladie

Total de la population à risque observée pendant une période limitée de temps (par exemple une épidémie)

Taux de malformations congénitales

Prévalence Nombre de bébés nés avec une malformation

Nombre de naissances vivantes

Page 15: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 15 /158

Exemple Aux États-Unis, en 1982, il y eut un total de 1.973.000 décès parmi une population de 231.534.000 individus. Cela correspond à un « taux » général de mortalité (incidence cumulative) de 852 par 100.000 habitants et par an. Il y eut 1807 décès attribués à la tuberculose ce qui donne un « taux » (incidence cumulative) de mortalité spécifique de 7,8 par million et par an. E. Relation entre l’incidence et la prévalence La prévalence et l’incidence sont liées étroitement. La prévalence dépend à la fois du taux d’incidence et de la durée de la maladie. Si, mais ceux qui en sont affectés le sont pendant une longue période, la proportion de la population qui présente la maladie à un moment donné peut être élevée par rapport à l’incidence. Réciproquement, même si l’incidence est élevée, mais que la durée est courte (par guérison ou décès), la prévalence sera basse comparée à l’incidence.

Exemples Le taux d’incidence du diabète de l’adulte est bas dans les pays occidentaux, mais la prévalence est proportionnellement élevée parce que le diabète n’est ni curable ni très mortel.

Pour la fièvre hémorragique d’Ebola, la mortalité varie entre 50 et 90% et la durée entre le début des symptômes et le décès est d’habitude entre 7 et 14 jours. Dans ce cas, la prévalence sera basse par rapport à l’incidence.

Donc, si l'on constate une variation de la prévalence dans le temps, cela peut être dû à une variation de l’incidence ou un changement dans la durée de la maladie, ou les deux. L’introduction d’une nouvelle thérapeutique qui prévient la mort, mais ne guérit pas, aura pour effet d’augmenter la prévalence de la maladie. De même, une diminution de la prévalence peut résulter d’une diminution de la durée de la maladie grâce à une guérison plus rapide. Dans une situation stable où le taux d’incidence (TI), et la durée moyenne de la maladie (D) sont constants dans le temps; et pour autant que la prévalence (P) de la maladie dans la population soit basse (moins de 10%), alors incidence et prévalence sont liés comme suit:

P = TI x D

F. Usage des mesures d’incidence et de prévalence Comme la prévalence représente les cas existants à un moment donné et l’incidence mesure la vitesse avec laquelle des nouveaux cas apparaissent, chaque mesure peut être utilisée pour des différents objectifs. La mesure de la prévalence est surtout utile aux gestionnaires de soins de santé pour évaluer l’impact d’une maladie chronique dans une communauté et pour planifier les soins médicaux nécessaires aux individus touchés (personnel, nombre de lits d’hôpital, …).

Page 16: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 16 /158

Taux de mortalité infantile =

Le taux d’incidence peut être utilisé pour évaluer l’impact, en termes de santé publique, des maladies aiguës ainsi que pour le suivi d'une intervention. Est-ce que le programme de vaccination a réduit efficacement l’incidence de la rougeole ? Est-ce que le programme de contrôle du vecteur a réussi à réduire l’incidence de la maladie du sommeil ? Les études concernant les déterminants de la maladie peuvent rarement se baser sur des données de prévalence. Par exemple lorsqu’une association est trouvée entre une maladie et un facteur de risque supposé, il est impossible de savoir lequel vient en premier et la direction de la causalité. Une étude de prévalence a montré que des patients souffrant de maladie coronarienne pratiquaient moins d'exercice physique régulier que ceux sans cette affection. Peut-on conclure que l'exercice protège contre la maladie coronarienne ? Ou bien encore que les gens qui en sont atteints simplement ne se sentent pas capables de tels exercices ? G. Indicateurs de base et utilisation de l’information disponible L'étude de la santé d’une population commence en général par les informations disponibles en routine. 1. Mortalité Dans beaucoup de pays l’enregistrement des décès et de leurs causes se fait sur un certificat de décès qui contient aussi des informations sur l’âge, le sexe, la date de naissance et le domicile. Avec ces données, on peut déjà calculer des taux de mortalité bruts et ajustés. L’utilité des données dépend de beaucoup de facteurs dont l'exhaustivité des enregistrements et l'exactitude avec laquelle les causes de la mort sont attribuées. Malheureusement, dans de nombreux pays, les statistiques de base de la mortalité ne sont pas encore disponibles, en général parce que les moyens ne permettent pas l’enregistrement systématique des décès. Disposer de données précises sur les décès est une priorité pour les épidémiologistes. Une procédure de classification internationalement acceptée se retrouve dans « La classification internationale des maladies (OMS, 1992) » qui est mise à jour périodiquement. Le taux de mortalité infantile est couramment utilisé comme indicateur du niveau de santé des populations. On se base sur la l’hypothèse qu’il est particulièrement sensible aux changements socio-économiques et aux actions sanitaires. Ce taux varie énormément. En 1985, il était de 7,8/1000 naissances vivantes en France mais de 152/1000 naissances vivantes en Éthiopie (OMS, 1990). Les taux élevés doivent alerter les professionnels de la santé sur la nécessité de mesures à grande échelle.

Le nombre de morts dans l’année d’enfants de < 1 an Nombre de naissances vivantes dans la même année

Le taux de mortalité maternelle (ce n’est pas vraiment un taux mais plutôt un ratio), est un important indicateur souvent négligé jusqu’il y a peu parce qu’il est difficile à calculer précisément. Il varie considérablement d’une valeur d’environ 10 pour 100.000 naissances vivantes en Europe à plus de 1000 pour 100,000 naissances vivantes en Afrique.

x 1000

Page 17: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 17 /158

__Le nombre de décès maternels en un an__

Total des naissances la même année

Selon l’OMS : « le décès d'une femme survenu au cours de la grossesse ou dans un délai de 42 jours après sa terminaison, quelle qu'en soit la durée ou la localisation, pour une cause quelconque déterminée ou aggravée par la grossesse ou les soins qu'elle a motivé, mais ni accidentelle ni fortuite. » 2. L’espérance de vie L’espérance de vie est une autre mesure globale de l’état de santé de la population fréquemment utilisée. Elle est définie comme le nombre moyen d’années qu’un individu d’un certain âge peut espérer vivre en considérant que les taux de mortalité actuels restent constants. Il n’est pas toujours facile d’interpréter les raisons des différences d'espérance de vie d'un pays à un autre, car cela dépend de la mesure. En tant que mesure globale de l’état de santé d'une population, attache une plus grande importance aux décès survenus dans l’enfance, qu’à ceux chez les personnes plus âgées (donc difficile de comparer l’espérance de vie à la naissance, et l’espérance de vie à 20 ans). 3. Morbidité Dans beaucoup de pays, certaines données de morbidité sont collectées pour satisfaire des exigences légales, par exemple les maladies à déclaration obligatoire. Cette déclaration dépend du fait que les malades consultent effectivement pour leur problème, de la qualité des diagnostics, et de la transmission effective de l'information aux autorités de santé publique. Bien souvent de nombreux cas ne sont jamais enregistrés. D’autres sources d’information sur la morbidité sont les données d'admissions et de sorties hospitalières, de consultations de 1er, de 2nd niveaux, de services spécialisés (les traitements d’accidents par exemple) ainsi que les registres des maladies spécifiques telles que les cancers ou les malformations congénitales. Les taux d’admission à l’hôpital sont influencés par d'autres facteurs que la morbidité de la population (comme la disponibilité des lits, les politiques d’admission, les facteurs sociaux, etc.). Dans certains cas, Il n'est pas possible de séparer les admissions des réadmissions ni de déterminer la population couverte par un hôpital (le dénominateur). Comme l’enregistrement en routine des données sur la morbidité présente de nombreuses limites, beaucoup d'études de morbidité se basent sur la récolte de nouvelles données. Il s'agira de les collecter en se servant de questionnaires adaptés et de méthodes de dépistage spécifiques.

Taux de mortalité maternelle = (x 105)

Page 18: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 18 /158

III. DESCRIPTION DE LA DISTRIBUTION DE LA MALADIE La distribution de la maladie est étudiée selon des caractéristiques de temps, de lieu et de personne (TPP). La connaissance d’une telle distribution est essentielle pour décrire la maladie ainsi que pour formuler des hypothèses concernant d'éventuels facteurs causaux ou protecteurs. A. Caractéristiques de la personne La survenue des maladies et des décès est fortement associée à l’âge et dans beaucoup de cas au sexe. Toute description élémentaire de la maladie doit au minimum inclure une répartition par âge et par sexe. Il existe un ensemble d’autres caractéristiques utiles à étudier tels que les facteurs sociodémographiques comme les groupes ethniques, religieux, socio-économiques (revenus, éducation, profession, …), le statut familial, etc. B. Caractéristiques de lieu Quand on parle de lieu, on sous-entend une notion géographique mais il peut aussi être défini par les conditions environnementales et ses habitants. Les caractéristiques du lieu peuvent inclure des facteurs climatiques (saisons sèches ou pluvieuses), l’urbanisation, la densité de population, l’organisation du secteur de la santé, les richesses, etc. La notion de lieu est particulièrement importante en surveillance épidémiologique. Le relevé cartographique peut être une technique très utile pour étudier les liens entre une maladie et sa répartition géographique. C. Caractéristiques de temps Périodicité : Il faut toujours chercher une possible périodicité des phénomènes morbides : variations saisonnières de la malaria, les cycles d’apparition de la méningite, etc. Ces variations périodiques peuvent prendre des mois, un an ou même plusieurs années. La période d’observation doit dépasser le temps d’un cycle avant de pouvoir tirer des conclusions sur un éventuel changement du modèle épidémiologie d’une maladie (par exemple les variations épidémiques de la rougeole endémique). Variabilité : Les termes endémique et épidémique font référence à la variabilité de la fréquence d’un phénomène de santé dans le temps (surtout utilisé pour les maladies infectieuses). En situations endémiques, l’incidence demeure plus ou moins stable dans le temps et dans des limites connues. Une épidémie est définie comme une augmentation significative par rapport au niveau endémique considéré comme le niveau "normal" de l'incidence dans la population (augmentation des cas attendus, étant données les variations saisonnières ou autres considérées comme "normales"). Les changements séculaires (tendances): Cette notion concerne l'évolution d'un phénomène sur une très longue période de temps (décade, génération, siècle, etc.). On peut donner comme exemple la mortalité infantile en Europe ou la disparition de la lèpre en Norvège. Les causes des changements séculaires sont souvent nombreuses et interdépendantes comme par exemple les changements des conditions économiques, de vie et sanitaires, nutritionnelles, etc. La connaissance des tendances est importante lorsque l'on doit évaluer l'impact des programmes de santé.

Page 19: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 19 /158

Chapitre 1bis: Standardisation

OBJECTIFS POUR LE CHAPITRE 1bis : Après avoir lu ce chapitre, vous devriez être capables de: 1. Reconnaître la relevance de standardisation 2. Utiliser les deux techniques de standardisation 3. Expliquer les avantages et les limitations des deux techniques 4. Connaître les contre-indications de standardisation

Page 20: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 20 /158

I. PROBLEMATIQUE

En 1962, le taux brut de mortalité en Suède était plus élevé qu’au Panama (9,8 versus 7,7 par 1000 personnes-années, Tableau 1), malgré le fait que le niveau de vie en Suède est considéré plus élevé qu’au Panama. Pourtant, les taux de mortalité par âge étaient plus hauts au Panama qu’en Suède dans toutes les strates d’âge (Tableau 1). Comment expliquer ces ‘contradictions’ ?

1962 Suède Panama

Population Décès Taux de mortalité

Population Décès Taux de mortalité

0 – 29 ans 3.145.000 3.523 1,1 741.000 3.904 5,3

30 – 59 ans 3.057.000 10.928 3,6 275.000 1.421 5,2

> 59 ans 1.297.000 59.104 45,6 59.000 2.956 50,1

TOTAL 7.499.000 73.555 9,8 1.075.000 8.281 7,7

Taux de mortalités : par 1000 personnes-années (pa)

Tableau 1 : Taux de mortalité en Suède et au Panama, 1962

Cette ‘contradiction’ est due aux faits que, primo, les taux de mortalité augmentent avec l’âge (Tableau 1), et que, secundo, la structure d’âge n’est pas la même dans les deux populations : la population de Panama est plus jeune que celle de la Suède (tableau 2). Ainsi, en calculant les taux bruts de mortalité, la strate jeune de la population avec son taux de mortalité relativement bas a une influence plus grande au Panama qu’en Suède.

1962 Suède Panama

Population % de la population totale

Population % de la population totale

0 – 29 ans 3.145.000 42% 741.000 69%

30 – 59 ans 3.057.000 41% 275.000 26%

> 59 ans 1.297.000 17% 59.000 5%

TOTAL 7.499.000 100% 1.075.000 100%

Tableau 2 : Structure d’âge en Suède et au Panama, 1962

Le taux brut de mortalité est réel et reflète la mortalité dans une population spécifique. Cependant, pour la comparaison de la mortalité de plusieurs populations, les taux bruts ne peuvent pas être utilisés, si ces populations diffèrent quant à l’âge, et si les taux spécifiques par âge varient avec l’âge. Dans ce contexte on dit que l'âge est un ‘facteur de confusion’.

Page 21: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 21 /158

Les taux spécifiques par âge (en anglais : Age Specific Mortality Rate ou ASMR) ne sont pas confus par l’âge, mais il est lourd et peu pratique de baser la comparaison de plusieurs populations sur toute une gamme des taux spécifiques.

Ce qu’on cherche c’est une mesure sommaire de mortalité qui prend en compte les différences dans la structure d’âge. Ceci peut se faire par standardisation. La standardisation est une réponse à la question : comment la mortalité serait-elle si la population de l’étude avait la même structure d’âge comme la population-type ?

La standardisation existe en deux variations : la standardisation directe et indirecte. La différence principale entre les deux techniques est que dans la standardisation directe, la structure d’âge de la population-type est utilisée (« importée » et appliquée aux taux spécifiques par âge) tandis que dans la standardisation indirecte, les taux spécifiques par âge de la population standard sont utilisés (« importés » et appliqués à la structure d’âge de la population d’étude)

NB :

1. Il n’importe pas si les populations à comparer diffèrent en ce qui concerne la place (Suède. /. Panama) et/ou le temps (1990. /. 2000) et/ou l’exposition à un facteur de risque (fumeurs ./. non-fumeurs).

2. Il n’importe pas si le caractéristique à comparer c’est la mortalité ou un autre caractéristique de la population.

3. Il n’importe pas si c’est l’âge ou une autre variable qui joue le rôle d’un facteur de confusion.

Page 22: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 22 /158

II. STANDARDISATION DIRECTE Principe et calcul

On choisit une population-type. On multiplie les taux spécifiques par âge de la population d’étude (txi) avec les effectifs des groupes d’âge de la population-type (nti) et obtient ainsi les nombres de cas attendus dans la population d’étude si la structure d’âge de la population étudiée était comme dans la population-type. La somme de cas attendus divisée par le nombre total de la population-type (Nt) donne le taux standardisé de mortalité (TSD). Si on applique cette méthode à deux populations d’étude, un rapport des taux standardisés de mortalité peut être calculé, aussi appelé ‘rapport comparatif de mortalité’ (RCM) ou ‘indice comparatif de mortalité’ (ICM). Le terme ‘comparatif’ indique que le paramètre a été calculé par standardisation directe.

t

g

itixi

SD N

ntT

∑=

×= 1

avec g = nombre de groupes d’âge

Exemple Ici, la population-type est une population fictive. Le résultat de cette standardisation : Au Panama, le taux de mortalité standardisé est 50% plus élevé qu’en Suède. Population

type Suède Population

type Panama

Population Taux de mortalité

Décès attendus

Population Taux de mortalité

Décès attendus

0 – 29 ans 56.000 x 1,1 = 63 56.000 x 5,3 = 295

30 – 59 ans 33.000 x 3,6 = 118 33.000 x 5,2 = 171

> 59 ans 11.000 x 45,6 = 501 11.000 x 50,1 = 551

TOTAL 100.000 682 100.000 1.017

Taux standardisé de mortalité

682 / 100.000 =

6,8 par 1.000 pa

1.017 / 100.000 =

10,2 par 1.000 pa

Rapport des taux standardisés de mortalité

10,2 / 6,8 =

1,5

Tableau 3 : Standardisation directe avec population-type fictive

Les taux standardisés ne sont pas de taux réels, mais fictifs qu’on ne calcule qu’avec un seul objectif : la comparaison d’une population avec une autre population. Donc, dans la standardisation directe, les taux de mortalité par âge proviennent de la population d’étude, et sont ensuite appliqués à la structure d’âge de la population standard.

Page 23: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 23 /158

Graphique 1 : Le principe de la standardisation directe

Choix de la population-type N’importe quelle population peut servir comme population-type :

1. Une des populations d’étude à comparer (p.e. la population de Suède). 2. La somme des populations à comparer (p.e. la population de Suède + la population de

Panama). 3. Une autre population réelle, p.ex. la population mondiale 4. Une population fictive

Comme les taux standardisés sont des taux pondérés, avec les poids dérivés de la population-type, chaque population-type produira des taux standardisés différents, et souvent un rapport des taux standardisés différent. La différence entre les résultats des différents standards est particulièrement prononcée si la distribution d’âge des deux populations d’étude se croise.

Taux de mortalité par âge

Structure d’âge Population-type

Décès attendus

Taux de mortalité par âge

Décès attendus

Taux standardisé de mort. Taux standardisé de mort.

Rapport des taux standardisés de mortalité = ‘Rapport comparatif de mortalité’

Population X Population Y

Page 24: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 24 /158

Par exemple, si on standardise la mortalité en Suède et au Panama en utilisant la somme des deux populations comme population-type, les taux standardisés ainsi que le rapport des taux standardisés sont différents de ce qu’on avait calculé avant (tableau 4) : dans ce cas, le rapport des taux de mortalité standardisés s’élève à 1.4 en comparant Panama avec Suède ; on pourrait dire aussi : le taux de mortalité standardisé est 40% plus élevé au Panama qu’en Suède.

Population

type Suède Population

type Panama

Population Taux de mortalité

Décès attendus

Population Taux de mortalité

Décès attendus

0 – 29 ans 3.886.000 x 1,1 = 4.353 3.886.000 x 5,3 = 20.474

30 – 59 ans 3.332.000 x 3,6 = 11.911 3.332.000 x 5,2 = 17.217

> 59 ans 1.356.000 x 45,6 = 61.793 1.356.000 x 50,1 = 67.938

TOTAL 8.574.000 78.057 8.574.000 105.629

Taux standardisé de mortalité

78.057 / 8.574.000 =

9,1 par 1.000 pa

105.629 / 8.574.000 =

12,3 par 1.000 pa

Rapport des taux standardisés de mortalité 12,3 / 9,1 =

1,4

Tableau 4 : Standardisation directe, population-type : la somme de Suède et Panama

L’utilisation d’une population standard ‘idéale’, mise en disposition par l’OMS etc., est recommandée pour rendre les comparaisons comparables. Il y a plusieurs standards idéals, p.e. la population standard européenne, la population standard mondiale etc.

Page 25: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 25 /158

III. STANDARDISATION INDIRECTE Principe et calcul On choisit une population-type. On multiplie les taux spécifiques par âge de la population-type (tsi) avec les effectifs des groupes d’âge de la population d’étude (nxi) et obtient ainsi les nombres de cas attendus dans la population d’étude si les taux spécifiques par âge dans la population d’étude étaient comme dans la population-type. La somme des cas observés dans la population d’étude Cx divisée par la somme des cas attendus dans la population d’étude donne le rapport standardisé des mortalités (RSM).

∑=

×= g

ixisi

x

nt

CRSM

1

Donc, dans la standardisation indirecte, la structure d’âge provient de la population d’étude, qui est alors appliquée aux taux de mortalité par âge de la population-type.

Exemple graphique 2 : Le principe de la standardisation indirecte

Structure d’âge

Taux par âge Population-type

Décès attendus

Structure d’âge

Décès attendus

Rapport standardisé de mortalité

Rapport standardisé de mortalité

Population A Population B

, avec g = nombre de groupes d’âge

Page 26: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 26 /158

Exemple

Ici, la Suède sert comme population-type. Le résultat de cette standardisation indirecte : Au Panama, le rapport standardisé de mortalité s’élève à 1.84 par rapport à la Suède (tableau 5).

VOIRE TABLE 1 Panama :

structure d’âge de la population

Population type = Suede

Panama : structure

d’âge de la population

Panama ↓

Population

Taux de mortalité (par 1000 pa)

Décès attendus Population

Taux de mortalité (par 1000

pa)

Déces attendus

0 – 29 ans 741000 x 1,1 = 830 741000 x 5,3 = 3904

30 – 59ans 275000 x 3,6 = 983 275000 x 5,2 = 1421

> 59 ans 59000 x 45,6 = 2689 59000 x 50,1 = 2956

TOTAL 1075000 4502 1075000 8281

Pas de taux de mortalité standardisé disponible !!

Décès attendus: 4502 Décès observés: 8281 Rapport standardise de mortalité (RSM) 8281 / 4502 = 1,84 ou 184%

Tableau 5 : Standardisation indirecte avec la Suède comme population-type Choix de la population-type Les rapports standardisés de mortalité (RSM) sont surtout utilisés pour la comparaison d’une population d’étude avec une population-type. Comme pour la standardisation directe, en principe n’importe quelle population peut servir comme population-type, mais chaque population-type résultera dans un autre RSM. Pour de raisons subtiles, il est déconseillé de comparer les RSM l’un avec l’autre1. Pour qu’on puisse quand même comparer deux populations d’étude, on choisit souvent l’une parmi elles comme population-type (p.e. la population des non exposés).

On doit admettre qu’en pratique les RSM sont souvent comparés entre eux sans qu’une inconsistance majeure soit introduite par cette pratique. On devrait s’attendre à une inconsistance majeure surtout si les taux spécifiques (p.e. par âge) ou les effectifs par strate sont très différents d’une population à l’autre (voir annexe).

1 Les RSM ne devraient pas à être comparés l’un avec l’autre pour la raison suivante : même s’ils sont

basés sur les taux de la même population-type, le nombre de décès attendus dans une certaine population dépend de la structure d’âge de cette population d’étude. Ainsi, chaque RSM est standardisé à une population spécifique avec une distribution d’âge spécifique ; ils ne sont pas standardisés dans un sens universel. L’avantage de la méthode directe est son résultat universel. Ceci sera illustré par un exemple : Si population A montre un rapport comparatif de mortalité (RCM) de 3 comparé avec la population-type T, et le RCM de la population B s’élève à 2 comparé avec la population T, le RCM de la population A comparée avec la population B sera 3/2 = 1,5. Cette consistance peut manquer aux RSM de la méthode indirecte. Dans l’annexe, il y a un exemple pour cette problématique.

Page 27: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 27 /158

IV. STANDARDISATION DIRECTE OU INDIRECTE ? Les différences principales entre les deux types de standardisation concernent l’origine des paramètres qui entrent dans les calculs - les taux spécifiques et la taille des strates -, et la validité des comparaisons entre différentes populations d’étude (tableau 6). Standardisation directe Standardisation indirecte

Origine des paramètres

Taille de la population par âge population-type population d’étude

Taux de mortalité par âge population d’étude population-type

Comparaisons valides populations d’étude entre elles à l’aide

d’une population-type

population d’étude avec une

population-type

Produits taux de mortalité standardisé (TSM)

rapport standardisé de mortalité (RSM)

rapport de taux de mortalité standardisés =

rapport comparatif de mortalité (RCM)

Tableau 6 : Différences entres les deux techniques de standardisation

Comme règle générale, la standardisation directe est à préférer s’il est possible de l’utiliser, vu ses avantages en ce qui concerne la consistance de ses résultats (voir note en bas de la page précédente).

Cependant il est évident que dans l’absence des taux de mortalité par strate dans une population d’étude - ce qui est souvent le cas -, la standardisation indirecte est la seule méthode disponible.

Si les strates d’âge dans une population d’étude sont petites (disons, moins de 30 observations per strate), il est préférable d’utiliser la standardisation indirecte, car les taux de mortalités par âge de la population d’étude sont instables et ont donc un grand potentiel de fausser les résultats de la standardisation. Cela sera illustré par l’exemple suivant : manquer un décès réduit le taux de mortalité de 60% à 40% dans une petite strate avec 5 observations, mais de 60% à 58% seulement dans la strate avec 50 observations (tableau 7).

évaluation complète évaluation incomplète

population # décès taux de mortalité # décès taux de mortalité

petite strate 5 3 60% 3 – 1 = 2 40%

grande strate 50 30 60% 30 – 1 = 29 58%

Tableau 7 : Effet d’une évaluation incomplète dans une petite strate vs une grande strate

Page 28: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 28 /158

V. CONTRE-INDICATIONS

Comme beaucoup de méthodes en épidémiologie et statistique, la validité de la standardisation dépend de certaines conditions. Pour la standardisation il est conseillé de vérifier d’abord les taux spécifiques qui doivent être homogènes, c’est à dire qu’ils suivent la même tendance assez claire dans les populations d’étude à comparer – ce qui est le cas dans l’exemple ‘Suède vs. Panama’ du syllabus, et ‘Population générale vs. classe sociale I’ de l’exercice (graphique 3). Dans une telle situation, la standardisation est possible.

Graphique 3 : Taux spécifiques homogènes

Des taux et rapports standardisés sont des mesures sommaires, qui sont par définition moins détaillées que les mesures spécifiques par strate. Cela est un désavantage s’il y a un détail qui devrait plutôt être rapporté que d’être aplani. Dans le graphique 4, on remarque une hétérogénéité : chez une des populations, il y a une augmentation extraordinaire de la mortalité dans la catégorie d'âge 25-34. La standardisation ferait disparaître cette information essentielle, elle est donc déconseillée.

Graphique 4 : Taux hétérogènes, avec un taux extraordinaire dans un groupe d’âge

Suède / Panama

0102030405060

0 - 29 30 - 59 > 59

Groupe d'âge

Taux

Population générale/ Classe sociale I

05

1015202530

15 – 19 20 – 24 25 – 34 35 – 44 45 – 54 55 – 64

Groupe d'âgeTa

ux

Phénomène extraordinaire

05

1015

2025

30

15 – 19 20 – 24 25 – 34 35 – 44 45 – 54 55 – 64

Groupe d'âge

Taux

Page 29: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 29 /158

Une autre forme d’hétérogénéité existe si le facteur de confusion (dans cet exemple : l’âge) a une influence opposée sur la variable de résultat (ici : la mortalité) dans les populations d'étude (le pays ou la classe sociale étant les variables d’exposition dans nos exemples) : les taux de mortalité par âge se croisent (graphique 5). Comme avant, cette information devrait plutôt être rapportée que d’être fait disparaître. En plus il y a ici un problème méthodologique, car les taux et les rapports standardisés dépendraient énormément de la population-type choisie.

Graphique 5 : Hétérogénéité des taux, avec croisement des taux spécifiques

Conclusion :

La standardisation est contre-indiquée si les taux spécifiques sont hétérogènes.

Croisement

0

5

10

15

20

15 – 19 20 – 24 25 – 34 35 – 44 45 – 54 55 – 64

Groupe d'âge

Taux

Page 30: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 30 /158

RESUME

1. Taux cru : Taux réel et sommaire, mais souvent non appropriée pour comparer plusieurs populations du à l’effet de confusion

2. Taux spécifiques par strate : Taux réels et détaillés, en principes appropriés pour la comparaison, mais difficiles à rapporter

3. Taux standardisé (méthode directe) : Taux fictif et sommaire, ajusté pour le facteur de confusion et approprié pour comparaisons entre plusieurs populations d’études

4. Rapport standardisé (méthode indirecte) : Mesure sommaire, ajustée pour le facteur de confusion et appropriée pour comparaisons entre la population d’étude et la population-type

5. En général, la méthode directe est à préférer si elle est faisable (exception : petites strates)

6. Eviter la comparaison de rapports standardisés (méthode indirecte)

7. Avant de standardiser, vérifier d’abord les taux spécifiques ; en cas d’hétérogénéité : considérer de rapporter les taux spécifiques au lieu de faire disparaître l’hétérogénéité par une mesure sommaire

8. En principe, la standardisation peut être utilisée pour d’autres facteurs de confusion que l’âge

Page 31: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 31 /158

ANNEXE

Cet exemple illustre la problématique de comparer des RSM (standardisation indirecte) si les structures d’âges sont très différentes dans les populations d’étude.

Dans le tableau 8, la mortalité de deux populations exposées, A et B, est comparée avec celle de la population générale. On remarque que les taux spécifiques sont identiques dans les deux populations exposés. On s’attendrait donc que les rapports standardisés de mortalité de ces deux populations soient identiques, si la population générale sert comme population-type pour les deux populations exposées.

Population générale Exposition A Exposition B Pop. Décès Taux Pop. Décès Taux Pop. Décès Taux

20-39 100.000 50 0,5 ‰ 10.000 50 5 ‰ 1.000 5 5 ‰ 40-59 200.000 400 2 ‰ 1.000 4 4 ‰ 10.000 40 4 ‰ Total 300.000 450 1,5 ‰ 11.000 54 4,9 ‰ 11.000 45 4,1 ‰

Tableau 8 : Problématique de la comparaison des RSM

Or, si on applique la standardisation indirecte on obtient :

Pour l’exposition A :

7,754

1000/2000.11000/5,0000.10=

×+×=ARSM

Pour l’exposition B :

2,245

1000/2000.101000/5,0000.1=

×+×=BRSM

Ces rapport standardisés de mortalité permettent la conclusion que la mortalité ajustée est plus élevée dans les deux populations exposées que dans la population générale, mais ils ne permettent pas la conclusion que la mortalité ajustée est plus élevée dans la population A que dans la population B (elle est identique) : il n’est pas valable de comparer des rapports standardisés!

La standardisation directe ne produit pas cette inconsistance. En prenant la population générale comme population-type, les taux standardisés et les rapports comparatifs pour les populations A et B sont identiques :

000.3001000/4000.2001000/5000.1001000/3,4

000.3001000/4000.2001000/5000.100 ×+×

===×+×

= BA TSMTSM

9,21000/5,11000/3,4

=== BA RCMRCM

Page 32: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 32 /158

Page 33: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 33 /158

Chapitre 2: Validité et Reproductibilité d’un test OBJECTIFS POUR LE CHAPITRE 2 Après avoir lu ce chapitre, vous devriez être capables de: 1. Interpréter l'information fournie par les tests en termes de probabilité 2. Evaluer les conséquences de résultats faux positifs, et faux négatifs, et utiliser cette information pour la prise de décision clinique et en santé publique. 3. Discriminer entre les méthodes adéquates, et inadéquates, pour évaluer la reproductibilité.

Page 34: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 34 /158

I. INTRODUCTION : VALIDITE ET REPRODUCTIBILITE

Dans quelle mesure le résultat d’un examen, ou d’un test, reflète-t-il la réalité ?

Exemple: Un médecin soupçonne une tuberculose pulmonaire chez un patient. Il demande une recherche de bacilles alcoolo-acido résistants (BAAR) dans les crachats de son patient.

- La recherche de BAAR dans les crachats est-elle un bon moyen de mesurer la présence ou l'absence de la maladie 'tuberculose pulmonaire'? Quelle est la validité de la méthode de mesure? (La validité d'une mesure exprime la distance entre ce que l'on veut mesurer, et ce que l'on mesure en réalité).

- Si le test est répété, donnera-t-il les mêmes résultats? Quelle est la reproductibilité de la méthode?

La valeur diagnostique d'une méthode de mesure est toujours relative à une méthode de référence à laquelle les autres méthodes sont comparées. Ce test, le 'standard d'or' (gold standard) fourni l'information diagnostique la plus proche de la réalité, dans l'état actuel des connaissances scientifiques.

Validité

Elevée

Faible

Valeurs mesurées Valeurs mesurées

Elevée

|--------------------------------------|

Valeur réelle

|--------------------------------------|

Valeur réelle

Faible

Valeurs mesurées

|--------------------------------------|

Valeur réelle

Valeurs mesurées

|--------------------------------------|

Valeur réelle

Réproductibilité

Page 35: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 35 /158

II. VALIDITE D'UNE MESURE A. Concepts de base et définitions 1. Sensibilité et spécificité Les critères suivants sont utilisés pour décrire les caractéristiques d'un test:

La sensibilité d'un test décrit sa capacité à identifier correctement les personnes malades.

La spécificité d'un test décrit sa capacité à identifier correctement les personnes NON malades.

En comparant les résultats d’un test avec l’état réel, ou avec un test de référence, les possibilités suivantes peuvent se présenter: - Une personne malade peut avoir un résultat positif (« vrai positif ») - Une personne malade peut avoir un résultat négatif (« faux négatif »)

- Une personne non-malade peut avoir un résultat négatif (« vrai négatif ») - Une personne non-malade peut avoir un résultat positif (« faux positif »)

STATUT REEL

(ou test de référence)

+ - Total

+ Vrais

positifs Faux

positifs Nouveau

test sous étude _

Faux négatifs

Vrais négatifs

Total

• Supposons que nous connaissions, grâce à un test parfait (lequel n'existe pas pour la tuberculose) que 100 personnes souffrent de tuberculose pulmonaire (TBP). Ces 100 patients subissent une radiographie de poumons.

Page 36: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 36 /158

• Le radiologiste n'est pas au courant du diagnostic. Il pose un diagnostic de PTB pour 90 de ces patients, mais pour 10 patients il se trompe: il n'a pas identifié les lésions radiologiques comme étant dues à la tuberculose, ou peut-être que r certains patients ne présentaient pas de lésions identifiables à la radiographie. La sensibilité de la radiographie (en comparaison avec le test 'parfait') est la suivante:

No. de malades de TBP correctement diagnostiqués No. de malades de TBP

= 90 100

• Supposons que nous avons exclu avec une certitude absolue, la tuberculose pulmonaire chez 100 patients. Ces 100 personnes subissent une radiographie de poumons.

A la lecture de la radiographie, le radiologiste, (qui ne sait pas que le diagnostic de TBP a été exclu), confondant peut-être des lésions cancéreuses, ou dues à d'autres maladies pulmonaires, diagnostique une TBP pour 20 de ces patients. La spécificité de la radiographie (en comparaison avec le test 'parfait') est la suivante :

No. de personnes non malades de TBP correctement identifiées comme telles No. de personnes non malades de TBP

= 80 100

Sensibilité : Nombre de personnes malades avec un test positif Nombre de personnes malades

Spécificité : Nombre de personnes non malades avec un test négatif Nombre de personnes non-malades

La sensibilité et la spécificité d'un test sont exprimées par un pourcentage et représentent des probabilités. • La sensibilité d'un test est la probabilité qu'une personne malade soit correctement

reconnue comme telle par ce test. • La spécificité d'un test est la probabilité qu'une personne NON malade soit

correctement reconnue comme telle par ce test.

Page 37: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 37 /158

Pour les tests qui donnent un résultat sur une échelle numérique -ou ordinale (taux d'hémoglobine, de cholestérol…), la différence entre un test positif et un test négatif est définie par un seuil:

Exemple Le test tuberculinique (TT) mesure la réponse immunitaire stimulée par le contact préalable avec le bacille de Koch (BK). Cette réaction est mesurée par le diamètre de l'induration cutanée causée par l'injection intradermique d'un antigène mycobactérien.

Chez les personnes infectées par le BK, la taille de l'induration peut varier fortement d'un individu à l'autre. D'autre part, une réaction peu importante au TT peut exister également chez les personnes non-infectées par le BK, par exemple en cas de contact préalable avec une mycobactérie atypique. Il est donc nécessaire de choisir un seuil de positivité.

Seuil Induration >= 10 mm Induration >= 5 mm Combien de personnes infectées par le BK testeront positives?

Quelques personnes infectées auront une réaction TT au dessous de ce seuil (une certaine proportion de faux négatifs)

Moins de personnes infectées auront une réaction TT au dessous de ce seuil (moins de faux négatifs)

Sensitivité (Personnes BK-infectées, TT positives / total des personnes BK-infectées)

Plus basse Plus haute

Combien de personnes non-infectées testeront positives??

Très peu de réactions TT, suite à des mycobactéries atypiques ou à un BCG administré à l’enfance dépasseront ce seuil (très peu de faux positifs)

Plus de réactions TT, liées aux mycobactéries atypiques ou à un BCG dépasseront ce seuil (plus de faux positifs)

Spécificité: (Personnes non-infectées, TT négatives / total des personnes non-infectées)

Plus haute Plus basse

Le choix du seuil détermine la sensibilité et la spécificité du test. Si on augmente la sensibilité, la spécificité diminue - et vice-versa.

Page 38: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 38 /158

2. Valeur prédictive Dans les exemples précédents, le vrai diagnostic était connu à l'avance, et les performances du test (radiographie de poumon), étaient évaluées en relation avec ce diagnostic.

En pratique, on ne connaît pas à l'avance le vrai diagnostic (sinon on n'aurait pas besoin de faire ce test). Quand on est confronté au résultat d'un test, ce que l'on souhaite savoir, c'est:

Si le test est positif, quelles sont les chances que le patient soit malade? Si le test est négatif, quelles sont les chances que le patient ne soit pas malade?

La valeur prédictive positive d'un test (VPP) est la probabilité qu'une personne avec un test positif, soit réellement malade.

No. de personnes malades avec un test positif No. de personnes avec un test positif

La valeur prédictive négative d'un test (VPN) est la probabilité qu'une personne avec un test négatif, soit réellement non-malade.

No. de personnes non-malades avec un test négatif No. de personnes avec un test négatif

Chaque paramètre est exprimé comme un pourcentage, et représente une probabilité. 3. Résumé

Malade Test Oui Non Total

Positif a (VP = vrais positifs)

b (FP = faux positifs)

a+b (Total tests positifs)

Négatif c (FN = faux négatifs)

d (VN =Vrais négatifs)

c+d (Total tests négatifs)

Total a+c (Total malades)

b+d (Total non)

a+b+c+d (Total testés)

Sensibilité: test + parmi les malades a/a+c

Spécificité: test - parmi les non-malades d/b+d

Valeur prédictive positive: malades parmi les tests + a/a+b

Valeur prédictive négative: non-malades parmi les tests - d/c+d

Page 39: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 39 /158

4. Valeur prédictive et prévalence La valeur prédictive d’un test dépend de sa sensibilité, et de sa spécificité, mais également de la prévalence de la maladie dans la population testée.

Exemple : dépistage de l’infection VIH. On suppose une sensibilité de 99%, et une spécificité de 98% pour le test de dépistage ELISA. On teste 2 populations différentes : 100.000 donneurs de sang, parmi lesquels la prévalence de VIH est de 0,1%, et 100.000 prostituées, parmi lesquelles la prévalence de VIH est de 20%. 100,000 donneurs de sang 100,000 prostituées

VIH+ VIH-- Total VIH + VIH - Total

Elisa + 99 (VP) 1.998 (FP) 2.097 19.800 (VP) 1.600 (FP) 21.400

Elisa - 1 (FN) 97.902 (VN) 97.903 200 (FN) 78.400 (VN) 78.600

Total 100 99.900 100.000 20.000 80.000 100.000

• Valeur prédictive positive (VPP): Vrais positifs / Total Elisa +

Donneurs de sang : 99 / 2.097 = 5 % Prostituées: 19.800 / 21.400 = 93%

Un résultat positif chez un donneur de sang a une probabilité de 5% d'être un vrai positif et donc une probabilité de 95% d'être un faux positif. Par contre la probabilité d'un résultat positif d'être un vrai positif, est de 93% parmi les prostituées.

• Valeur prédictive négative (VPN): Vrais négatifs / Total Elisa - Donneurs de sang : 97.902 / 97.903 = 100 % Prostituées: 78.400 / 78.600 = 99,7%

Dans ce cas un test négatif est beaucoup plus fiable dans les 2 groupes: leur valeur prédictive est presque de 100%.

Pour une sensibilité et une spécificité donnée, la VPP dépend de la prévalence dans la population testée. Un test positif chez une prostituée (personne à haut risque d'infection par le VIH) - a une probabilité beaucoup plus élevée d'être un vrai positif, qu'un résultat positif chez une personne à faible risque (donneur de sang).

Le théorème de Bayes donne la formule permettant de calculer la VPP, et la VPN, connaissant la sensibilité (Se) et la spécificité (Sp) du test, et la prévalence de la maladie dans la population testée (P) en remplaçant simplement le contenu des cases dans le tableau ci-dessus dans les formules VPP = a / (a+b) & VPN = d / (c+d), dans lesquels N peut être enlevé du numérateur et du dénominateur).

VPP = Se x P

Se x P + (1-Sp) x (1-P)

VPN = Sp x (1-P)

Sp x (1-P) + (1-Se) x P

Page 40: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 40 /158

• NB: tester une population versus tester une personne L'exemple précédent impliquait de tester une population. La valeur prédictive du test était reliée à la prévalence de l'infection HIV dans cette population.

Au niveau individuel, le concept de prévalence dans la population testée est la probabilité pré-test: avant le test, quelle est la probabilité de cette personne, de souffrir de la maladie en question?

Exemples: - Un commerçant d’Anvers se sentant fatigué, consulte un spécialiste en médecine interne.

Il tousse depuis quelques jours. Un check-up général inclut une radiographie de thorax, car ce commerçant est un gros fumeur. Sur base de lésions atypiques, le radiologiste émet une suspicion de tuberculose. Ce commerçant, a, en l’absence de facteurs de risques connus pour la TB, une probabilité pré-test de tuberculose équivalente à la prévalence de la tuberculose pulmonaire en Belgique (à peu près 20/100.000): une probabilité très faible, mais non nulle. La valeur prédictive positive de ce diagnostic radiologique sera extrêmement faible.

- A l’inverse, dans un pays d’Afrique sub-saharienne, un patient se plaint de tousser depuis plus de 3 semaines. On sait par expérience que la proportion de tuberculose pulmonaire parmi les personnes présentant ce symptôme dans un pays à haute prévalence de TB, peut atteindre jusqu'à 20%, ou même plus. Ceci est la probabilité pré-test de tuberculose. La valeur prédictive positive d’un diagnostic radiologique sera nettement plus élevée que dans l’exemple précédent.

Pouvez-vous calculer les valeurs prédictives positives de la radiographie dans ces 2 exemples (estimation des performances de la radiographie: sensibilité : 95%, spécificité : 85%).

5. Stabilité de la sensibilité et de la spécificité La sensibilité et la spécificité sont souvent présentées comme des caractéristiques stables, données, qui résument les performances d'un test, alors que la valeur prédictive dépend de la population, ou de la personne testée. Cependant, la performance du test est liée à un tableau clinique particulier. La recherche de BAAR par examen direct de crachat est un examen performant chez les malades qui excrètent une grande quantité de BK dans les crachats, mais l'est nettement moins chez les patients qui excrètent peu de BK. La présentation clinique peut dépendre de l'âge, du sexe, de l'intensité de l'infection, du stade de la maladie, ou de facteurs individuels…Le tableau radiologique de la tuberculose pulmonaire est différent chez les malades du SIDA. La sensibilité et la spécificité d'un test peuvent varier selon les sous-groupes de patients souffrant d'une même maladie.

Page 41: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 41 /158

6. NB: Définition de cas clinique Une définition de cas clinique peut être considérée comme un test diagnostique.

Exemple: définition de cas clinique de la fièvre Dengue.

Une épidémie de Dengue est survenue dans la ville de Santa Cruz, en Bolivie, en Février 1997. Lors d'une enquête aléatoire dans la population, on a interrogé les participants à l'enquête quant à la survenue d'épisodes de maladie dans les 2 derniers mois, et en cas de réponse positive, on a posé des questions sur les signes et symptômes de ces épisodes. Des échantillons de sang ont également été prélevés pour sérologie.

Des 433 personnes inclues dans l'enquête, 5.9 % possédaient des anticorps IgM spécifiques de la dengue. En utilisant les résultats de la sérologie comme ‘gold standard’, il a été possible d'évaluer la sensibilité et la spécificité des différents signes et symptômes, ainsi que la sensibilité, spécificité, et valeur prédictive de la définition de cas utilisée.

1) Sensibilité (%) et spécificité (%) des signes et symptômes inclus dans la définition classique de la dengue:

Sensibilité (%) Spécificité (%) Fièvre 77 64 Céphalée 69 64 Douleur rétro-orbitaire 50 75 Myalgies 62 75 Arthralgies 58 80 Eruption 31 92 Manifestations hémorragiques

31 92

2) Sensibilité (%) et spécificité (%) et valeur prédictive positive de la définition de cas

clinique : 'Maladie fébrile aiguë, avec n, ou plus symptômes de la liste ci-dessus’

n Sensibilité (%) Spécificité (%) Valeur Prédictive Positive (%) 0 77 64 12 1 73 68 12 2 65 74 13 3 62 80 16 4 46 84 15

La conclusion fut que la définition de cas existante, n'était pas adéquate pour le diagnostic de l’infection ‘dengue’.

Page 42: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 42 /158

7. Annexe: rapport de vraisemblance (RV) Le calcul des VPP et VPN à partir de la sensibilité, de la spécificité, et de la prévalence, est fastidieux. Une approche alternative est le calcul du rapport de vraisemblance, (likelihood ratio), ou RV, lequel est le rapport de 2 probabilités: probabilité d’un résultat donné chez les malades/ probabilité de ce résultat chez les non-malades.

RV + Prob. Test (+) chez un malade Prob. Test (+) chez un non malade

= Se/(1-Sp)

RV - Prob. Test (-) chez un malade Prob. Test (-) chez un non malade

= (1-Se)/Sp

Le rapport de vraisemblance exprime les cotes (odds) qu’un certain résultat soit attendu chez un malade, par opposition au même résultat chez une personne non malade. Propriétés :

(1) RV ne dépend pas de la prévalence (ou de la probabilité pré-test)

(2) Pour les tests qui donnent des résultats sur une échelle numérique, les RV peuvent être calculés pour différentes valeurs du seuil

(3) Les cotes pré-test x RV (+) = les cotes post-test

Exemple : test VIH

Supposons que le test Elisa soit 99% sensible, et 98% spécifique.

• RV+ = 0.99/(1-0.98)= 49.5.

Si le test est +, l'infection VIH chez la personne testée est 49.5 fois plus probable que si le test est négatif.

• RV- = 1-0.99/0.98=0.01

Un test - est 1/100 moins probable chez une personne VIH -, par rapport à une personne VIH+ (100 fois plus probable chez une personne VIH-).

Une prostituée de Nairobi se présente à la consultation externe avec des signes cliniques suggérant la tuberculose. Sachant que (1) la prévalence du VIH est élevée chez les prostituées, et (2) la tuberculose est fréquente chez les personnes VIH+, le médecin estime la probabilité pré-test de l'infection VIH, à 60%. Les cotes sont donc de 6 : 4 (60% vs 40%), ou 1,5 : 1, pour l'infection VIH.

Le test Elisa est positif pour le VIH.

Cotes pré-test (HIV+) x RV (+) = Cotes post-test (VIH+)

1,5:1 x 49,5 = 74,25:1

Après le test, la présence de l’infection VIH est 74 fois plus probable que l’absence d’infection.

Page 43: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 43 /158

Les cotes post-test peuvent être transformées en probabilités :

Probabilité post-test =

= (74,25/74,25 + 1) = 74.25 / ,75.25 = 99%.

Un important désavantage des RV est cette nécessité de passer des cotes aux probabilités, et vice-versa.

B. Utiliser l’information pour la prise de décision.

Quelles vont être les conséquences du résultat du test? NB: Si le résultat du test ne change pas la prise de décision, alors il n’est pas justifié de faire le test.

Exemples

- Diagnostic: le test tuberculinique est souvent utilisé pour identifier les personnes susceptibles de bénéficier de chimio prophylaxie tuberculeuse. Dans beaucoup de pays cependant, la chimio prophylaxie n’est recommandée que pour certains groupes à risque. Si la personne n’appartient pas à ces groupes à risque, il n’est pas justifié de faire le test: même si le test est positif, la chimio prophylaxie ne sera pas offerte.

- Dépistage: un frottis de Papanicolaou positif demande une confirmation. Dans beaucoup de PVD, la confirmation n’est pas disponible. Dans ces conditions, il n’est pas justifié de faire le test.

1. Tests : diagnostic vs dépistage

Dans un exemple précédant, la valeur prédictive positive d’un test VIH était d’à peine 5 %. On ne peut bien entendu pas baser un diagnostic sur une telle probabilité. Par contre, un test positif rend possible d'identifier des personnes suspectes, candidates à un test de confirmation.

A test de diagnostic positif conduit à prescrire un traitement.

A test de dépistage conduit à demander un test de confirmation. - Caractéristiques souhaitables d'un test de dépistage : facile à utiliser, bon marché (car il

sera utilise sur un grand nombre de personnes), sensibilité élevée. Exemple : CATT test pour la maladie du sommeil.

- Caractéristiques souhaitables d'un test diagnostic : spécificité et sensibilité élevée. Cependant cela veut souvent dire que ces tests sont plus invasifs, et/ou plus chers. Exemple : ponction lombaire pour le diagnostic de la maladie du sommeil, stade 2.

cotes post-test VIH (+) _. cotes post-test VIH (+) + 1

Page 44: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 44 /158

Un test de dépistage permet une présélection des suspects. Cela augmente la valeur prédictive positive des tests diagnostiques qui suivent (puisque la probabilité pré-test de maladie est plus élevée chez les suspects), mais aussi cela permet un usage plus rationnel de tests plus chers, plus invasifs, ou plus définitifs (par exemple, le Western Blot pour le VIH).

Parfois, le même test peut servir pour le dépistage, ou pour le diagnostic, selon la situation. Par exemple, la radiographie de thorax peut être utilisée pour le diagnostic ou pour le dépistage de la tuberculose pulmonaire :

- Dans un pays à haute prévalence de TBC, une personne se présente avec une toux chronique, ce qui correspond avec la définition de cas de « tuberculose suspectée » : la probabilité pré-test de TBC est élevée, de ce fait, la VPP d’une radiographie « compatible avec la TBC » est élevée. Toute personne présentant des lésions suggérant la présence de TBC commencera donc un traitement antituberculeux. (NB : Comme il est moins cher et plus spécifique, l’examen de crachat devrait toujours être utilisé comme premier test – et la radiographie seulement pour des cas crachat-négatifs).

- Dans d’autres pays, tout le personnel soignant est dépisté pour TBC chaque année à travers une radiographie du thorax. La probabilité pré-test est basse, de ce fait la valeur prodictive positive d’une radiographie « compatible avec une tuberculose pulmonaire » est basse. Toute personne présentant des lésions suggestives devront passer des tests supplémentaires.

2. Conséquences : faux positifs et faux négatifs

Il n’y a virtuellement pas de test qui soit 100% sensible, et 100% spécifique. Certains résultats seront donc des faux positifs, d’autres des faux négatifs. La magnitude, et les conséquences de ces erreurs, doivent être évalues.

a) La magnitude des erreurs de classification.

Cela dépend de la sensibilité, de la spécificité, et de la prévalence dans la population testée.

• Il y a beaucoup de faux positifs quand la Valeur Prédictive Positive du test est faible. La VPP est faible quand la spécificité du test, et/ou la prévalence de ce qu’on teste (ou la probabilité pré-test), sont faibles.

• Il y a beaucoup de faux négatifs quand la Valeur Prédictive Négative du test est faible. La VPN est faible quand la sensibilité du test est faible, et/ou la prévalence de ce qu’on teste (ou la probabilité pré-test), est élevée.

Page 45: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 45 /158

b) Conséquences des erreurs de classification Pour l’individu Pour la communauté/ les services

de santé

Faux-positifs Anxiété, stigma social Risques lies à d’autres tests, Risques lies au traitement (effets secondaires) Coût

Charge pour les services Gaspillage de ressources (problème d’autant plus grave qu’un grand nombre de faux positifs met en cause la qualité du traitement donne aux vrais positifs)

Faux-négatifs Diagnostic correct retardé, souffrance, morts

Transmission (maladies infectieuses) Diagnostic tardif peut augmenter le coût de la prise en charge.

Les conséquences des erreurs de classification varient selon la maladie testée – et l’objectif du test (clinique? surveillance?). Un résultat VIH+ erroné a des conséquences dramatiques pour le patient : seuls des résultats confirmés devraient lui être communiqués. D’un autre coté une banque de sang ne peut pas se permettre de résultat VIH faux négatif. La maladie du sommeil est toujours mortelle, (conséquences graves pour les faux -négatifs), d'un autre côté le traitement présente un risque élevé de mortalité iatrogène élevée (conséquences graves pour les faux-positifs).

Souvent on insiste sur le fait qu’il est particulièrement important pour un test de dépistage d'être sensible, et pour un test diagnostic d'être spécifique (tout en restant sensible). Cependant les conséquences des résultats faux positifs et faux négatifs devraient toujours être évaluées.

Exemple : comparaison entre deux définitions de cas cliniques pour l’identification des sujets suspects de TBP (test de dépistage)

L’objectif d’un programme de contrôle de la TB est d’identifier au plus tôt et de traiter les cas les plus contagieux, ç.à.d. les patients TBP ayant assez de BK dans leur crachat pour être visible dans un examen de frottis direct (Smear+ PTB). Le but est de faire un dépistage dans une population avec une définition de cas clinique. Les personnes qui correspondent à cette définition (sujets suspects de TB) subiront ultérieurement 3 examens de crachat. Deux définitions de cas cliniques sont comparées aux résultats des examens de frottis directs.

Page 46: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 46 /158

Définition de cas Toux depuis deux semaines ou plus

Toux depuis trois semaines ou plus

Sensitivité de la définition Spécificité de la définition Personnes qui correspondent à la définition de cas Frottis+ % parmi les suspects (valeur prédictive positive) Nombre de cas détectés (Frottis + TB) Nombre de tests de crachat

Plus élevée Plus basse

1500* 8%*

8% x 1500=120 1500 x 3 = 4500

Plus basse Plus élevée

1000* 10%*

10% x 1000=100 1000 x 3 = 3000

Nombre de faux positifs (correspondent à la définition de cas des sujets suspects, mais ne sont pas des cas Frottis+ TB).

1500 - 120 = 1380 1000-100 = 900

Nombre de faux négatifs (ne correspondent pas à la définition de cas des sujets suspects, mais sont des cas Frottis(+) TB

Plus basse Plus élevée

*Chiffres hypothétiques

Conséquences des faux positifs Individu : mineures (faire test de crachat) Services de santé: surcharge de travail pour le laboratoire

Conséquences des faux négatifs Individu : diagnostic retardé (mineur dans ce cas)Communauté : ces patients sont contagieux

Il y a plus de patients avec un frottis+ qui ne correspondent pas à la définition de cas de ‘3 semaines’ (plus de faux négatifs). Mais les conséquences sont mineures pour l’individu : les TBP qui n’avaient pas de toux pendant les 3 dernières semaines, atteindront ce stade plus tard et seront dépistés (espérons !) à ce moment là - TBP n’est pratiquement jamais urgente, et un délai d’une ou deux semaines dans le diagnostic ne ferra pas beaucoup de différence pour le patient. Les conséquences des faux négatifs sont potentiellement plus graves pour la communauté, parce que ces patients peuvent transmettre la maladie. Il y a moins de faux négatifs avec la définition de cas de ‘2 semaines’, mais la différence entre les 2 définitions signifie que quelques patients seront contagieux pendant une semaine additionnelle seulement. Selon les normes TB, ceci est négligeable. Une définition de cas plus sensitive permet de détecter plus de cas – au coût de travail additionnel pour le laboratoire. (Dans cet exemple 1500 tests étaient nécessaires pour détecter 20 cas supplémentaires). Le choix de la meilleure définition dépendra donc de la charge de travail que le laboratoire est capable de gérer.

Page 47: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 47 /158

III. REPRODUCTIBILITE A. Définition La reproductibilité est la capacité d'un test à donner le même résultat (qu'il soit correct, ou incorrect), lors d'applications répétées pour un même état de la maladie (Rothmann).

On rencontre 3 types de variation des mesures prises:

• Le phénomène observé (par ex., les fluctuations de pression artérielle), la manifestation sur laquelle le test est basé (la quantité de BK dans les expectorations varie entre les échantillons)

• L'instrument de mesure: un microscope monoculaire, et un microscope binoculaire, ont des performances différentes

• La variabilité due à l'observateur: variabilité inter observateurs, ou intra-observateurs NB: En anglais on distingue la 'répétabilité' (repeatability) - ou capacité à reproduire le même résultat en conditions théoriques, idéales (même laboratoire, même technicien, même échantillon) et la reproductibilité ('reproducibility')- capacité à reproduire le même résultat en conditions de terrain.

Exemple Il n'existe pas de tableau radiologique absolument 'typique' de la tuberculose pulmonaire. Dans une étude, la même radiographie a été lue par les mêmes radiologues à quelque mois d'intervalle. Dans 19% à 24% des cas, le radiologiste a contredit le résultat de sa lecture précédente.

B. Mesurer la reproductibilité

On peut comparer les résultats obtenus de manière indépendante par différents observateurs (ou obtenus par le même observateur, à des moments différents)

1. Méthodes inadéquates • Une simple comparaison des totaux, ou proportions, peut induire en erreur, car même si

les totaux sont égaux, ils ne se réfèrent pas nécessairement aux mêmes observations. • La corrélation (par exemple, le coefficient de corrélation) entre différents résultats (par 2

méthodes, 2 observateurs) est également une méthode incorrecte (bien que fréquemment utilisée). La corrélation est différente de l'accord: Si 2 observateurs sont systématiquement en désaccord, il existe une corrélation élevée entre les 2, puisque qu'un résultat permet automatiquement de prédire l'autre!

• Pour la même raison, un test Chi2 est inadéquat (il teste l'association, pas l'agrément!) L’approche appropriée est de comparer le résultat des différentes observations pour chaque unité (ou chaque individu) testée et de les classifier pour quantifier l’accord.

Page 48: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 48 /158

2. Le coefficient de Kappa

Exemple. Lecture de 85 mammographies par 2 radiologistes

Lecteur B Lecteur A

Normal Tumeur bénigne

Suspicion de cancer

Cancer Total

Normal 21 12 0 0 33 Tumeur bénigne 4 17 1 0 22 Suspicion de cancer 3 9 15 2 29 Cancer 0 0 0 1 1 Total 28 38 16 3 85

On pourrait simplement compter le nombre d'observations concordantes: 21+17+15+1=54. Cela représente 54/85=64% des résultats concordants. Mais ce calcul ne tient pas compte du fait que certains résultats concordants sont peut être simplement dus au hasard! Si les 2 radiologues n'avaient même pas regardé les radiographies et inventé les résultats, il y aurait malgré tout une certaine proportion d'observations concordantes.

Si les résultats étaient distribués complètement au hasard dans la table, la fréquence attendue dans chaque cellule serait le produit du total de la colonne et du total de la rangée, divisé par le grand total. La fréquence attendue dans les cellules de la diagonale du tableau (accord) est donc la suivante:

Normal 33x28/85= 10,87 Tumeur bénigne 22x38/85= 9,84 Suspicion de cancer 29x16/85= 5,46 Cancer 1x3/85= 0,04 Total 26,20 (total attendu par hasard)

Donc 26,2/85 = 31% des observations peuvent être concordantes, du seul fait du hasard. Les radiologistes ont-ils fait beaucoup mieux que 31%?

L'accord maximum est 100%, ou 1. L'accord entre les radiologistes peut être exprimé par rapport à l'éventail des possibilités qui correspondent à 'mieux que le hasard', cad 1 – 0,31.

Proportion observée (Po) - proportion attendue (Pa) 1 - proportion attendue (Pa)

= coefficient Kappa Importance de la concordance =

0,64 – 0,31 1 – 0,31

= 0,48

Le coefficient (κ) Kappa est l'accord corrigé pour la chance. Une valeur de 0 indique que l'accord n'est pas meilleur que celui qu'on pourrait attendre simplement par hasard, une valeur de 1 indique un accord parfait, une valeur négative un accord pire que celui attendu par hasard (-1: désaccord parfait)

Page 49: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 49 /158

Pour les valeurs intermédiaires, la liste suivante est donnée à titre indicatif:

Valeur de Kappa Importance de l'accord <0,20 Faible

0,41-0,60 Satisfaisant 0,61-0,80 Bon

>0,80 Très bon 3. Kappa : points de discussion

1. La valeur de Kappa dépend de la proportion de sujets dans chaque catégorie. Comparer la valeur de Kappa entre des études dont ces proportions diffèrent, peut donc induire en erreur:

Exemple: comparaison du diagnostic de 2 observateurs - avec prévalences différentes de la caractéristique étudiée dans 2 études

Etude 1 Etude 2 Observateur 1 Observateur 2

+ - Total + - Total

Observateur 2 + 70 10 80 + 40 10 50

- 10 10 20 - 10 40 50

Total 80 20 100 Total 50 50 100

Kappa = 0.38 Kappa = 0,60

Ces 2 tables montrent la même proportion d'accord, (80/100), mais un coefficient Kappa très différent: en effet les fréquences attendues par chance (qui dépendent des totaux dans les lignes et les colonnes) sont différentes.

2. Un autre problème est que le Kappa dépend du nombre de catégories. Si on regroupe les données d'une manière différente (plus ou moins de catégories) le Kappa sera différent.

En dépit de ces inconvénients, le Kappa reste la meilleure approche à ce genre de problème, mais il est important de présenter les données brutes autant que possible.

Le degré d'accord 'acceptable' dépend des circonstances. Il n'y a pas de valeur de Kappa qui en toutes circonstances indique un 'bon accord'. Les statistiques ne peuvent jamais se substituer au jugement clinique.

Page 50: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 50 /158

Page 51: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 51 /158

Chapitre 3 : Types d'études épidémiologiques

OBJECTIFS POUR LE CHAPITRE 3 Après avoir lu ce chapitre, vous devriez être capable de: 1. Distinguer les différentes sortes d'études 2. Décrire les avantages et inconvénients des études expérimentales 3. Décrire les avantages et inconvénients des études d'observation (transversales,

longitudinales, cas-témoin et écologiques) 4. Reconnaître et évaluer le plan d'une étude dans un article scientifique

Page 52: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 52 /158

I. INTRODUCTION Comme nous allons le voir dans ce chapitre, le choix du type d'étude dépend :

- Des objectifs précis de l'étude - De la population étudiée - De la fréquence du phénomène étudié - Des types de facteurs de risque impliqués - Du budget et des moyens techniques disponibles (ressources)

Suivant leur nature, les études épidémiologiques peuvent être classées en études expérimentales ou d’observations (non-expérimentales). Le tableau suivant en donne un aperçu résumé.

Type d'étude Autre appellation

Études expérimentales Essais contrôlés randomisés Essais de terrain Essais communautaires

Essais cliniques Études d'intervention communautaire

Études d'observation Transversale Cas témoins De cohorte Écologique

Prévalence De suivi De corrélation

En fonction des objectifs, les études épidémiologiques peuvent être classées en:

- études descriptives - études analytiques

Page 53: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 53 /158

II. ETUDES EXPERIMENTALES A. Définition C'est un type d'étude qui vise à déterminer l'impact d'une intervention. Une série d'observations est menée de façon contrôlée et le chercheur organise les groupes d’étude d’une telle façon que quelques sont exposé au facteur d’intérêt, et des autres ne sont pas. Le chercheur agit à différents degrés sur les facteurs d'exposition en fonction de l'intérêt de la recherche.

Exemples: - essai clinique: essai contrôlé randomisé de différents traitements - essai de terrain: essai de vaccination, essai de changement de comportement - essai communautaire: essai pour voir l'impact d'un programme de prise en charge des

MST sur l'incidence du VIH. B. Principes 1. Les unités étudiées sont sélectionnées de manière aléatoire. 2. Différentes combinaisons de traitements sont attribuées aux unités de façon aléatoire.

Dans sa forme la plus simple, un groupe reçoit le traitement (l’intervention) et l'autre le placebo.

3. Les résultats finaux des différents groupes sont comparés et les différences observées sont considérées comme dues á l’intervention. Ceci est uniquement valide si la méthode utilisée est rigoureuse, si le protocole de l'étude et sa mise en œuvre n'ont comporté aucun biais et si la taille de l'échantillon est adéquate.

Exemple : étude de terrain sur la vaccination contre une leishmaniose cutanée du Nouveau Monde parmi des recrues de l'armée brésilienne.

Recrues de l'armée (1436) Exclusions (124) Randomisés (1312) Traitements Contrôle (vaccination) (placebo) Malades Oui Non Oui Non

32 635 37 608 En regardant la figure : La vaccination est-elle efficace contre la leishmaniose cutanée ?

Page 54: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 54 /158

Note:

- Une sélection aléatoire des individus dans chaque groupe (randomisation) garanti que tout biais de sélection est évitée lorsqu'on répartit les différents traitements au début de l'étude. Cependant, il y a toujours une possibilité de biais dans le cas de perte sélective pendant la période de suivi.

- Si la population étudiée est grande, les éventuels facteurs de confusion sont répartis de façon égale parmi les groupes traités grâce à la randomisation donc peu de biais de confusion. Mais si les groupes traités sont petits, le contrôle des éventuels facteurs de confusion reste nécessaire.

- Les biais d'observation peuvent être évités par l"aveuglement''. - Etude en simple aveugle: le patient ne connaît pas le traitement qu'il reçoit - Étude en double aveugle: ni le patient ni l'observateur ne connaissent le

traitement reçu - Étude en triple aveugle: ni le patient, ni l’observateur ni l’analyste (statisticien) ne

connaissent le traitement reçu - Dans un essai clinique, les sujets sont des patients. Un traitement curatif potentiel (ou la

prévention de complications et de séquelles) est évalué. - L'essai de terrain implique des sujets qui ne sont pas des patients et souvent qui ne

présentent pas la maladie étudiée (essai d’une méthode de prévention). Ils doivent être contactés de façon active et suivis sur le terrain. Si le risque de contracter la maladie est bas, un très grand nombre de sujets sera nécessaire pour un essai préventif sur le terrain.

- Dans les essais communautaires, la randomisation se fait au niveau de la communauté et non au niveau des individus. Ce genre d'essai est plus approprié pour les interventions à large échelle telles que le contrôle des vecteurs, l'amélioration de l'approvisionnement en eau, la fourniture de services de santé, etc. Cependant, il existe des problèmes de taille d'échantillon (petit nombre de communautés dans l'échantillonnage), de compliance et de possibilités d'application de la technique en aveugle.

- Signalons encore la possibilité d'études "quasi expérimentales" (par exemple comparaisons avant-après, interventions contrôlées dans un très petit nombre de communautés). Elles sont cependant conceptuellement des études d'observation (non-expérimentales).

C. Avantages et inconvénients Avantages

- Possibilité d'agir sur le facteur d'exposition (avantage principal) - Randomisation qui maximise la comparabilité entre les groupes et un contrôle sur les

facteurs de confusions connus et inconnus. - Possibilité de s'assurer que l'exposition précède bien l'effet constaté - Possibilité de reproduire l'expérimentation - C'est le type d'étude qui donne le plus d’évidence pour une relation causale

Les études épidémiologiques expérimentales sont des instruments puissants pour démontrer l'effet d'un traitement. Elles sont comparables à des expériences de laboratoire parce que le chercheur peut contrôler les niveaux d'exposition (moment, dose, durée de l'exposition, taille de l'échantillon et répartition de la population exposée).

Page 55: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 55 /158

Inconvénients

- Ces études sont coûteuses et difficiles. Elles exigent de la rigueur au niveau des protocoles et de la mise en œuvre.

- L'extrapolation du groupe étudié vers la population générale est souvent problématique. La population étudiée n'est pas nécessairement représentative de la population générale.

- Des problèmes éthiques rendent parfois l'expérimentation impossible. Il est parfois impossible de manipuler des variables d'exposition telles que le tabagisme. On ne peut pas refuser un traitement à ceux qui pourraient en bénéficier, si par exemple l'avantage de ce traitement est déjà établi ou s'il est standardisé et qu'il ne peut plus être testé, etc.

- Il subsiste toujours le problème de la non-compliance/ les perdus de vues, spécialement si la période de suivi est longue. Ceci peut amener un biais si les personnes perdues de vue ne sont pas comparable avec les autres personnes encore suivi par l’étude. A part de ce biais, cela va diminuer aussi la puissance statistique (power).

- Des problèmes pratiques peuvent rendre l'étude en aveugle impossible et ainsi réduire la validité de l'essai. On peut citer la diète, la chirurgie, l'entraînement physique, etc. Par exemple, que peut-on donner comme placebo au groupe contrôle lorsque l'on donne une carotte par jour au groupe sous traitement.

Page 56: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 56 /158

III. ETUDES D'OBSERVATION (NON EXPERIMENTALES) A. Définition Dans une étude d'observation, le facteur d'exposition ou d'intervention n'est pas contrôlé par le chercheur. Il observe mais n'intervient pas. Il arrive que les gens eux-mêmes soient exposés à diverses influences bonnes ou mauvaises en fonction du hasard. Le chercheur observe l'apparition de la maladie dans les groupes soumis à différents niveaux d'exposition. Mais si on observe, par exemple, des différences significatives dans les taux de cancer entre les fumeurs et les non-fumeurs, on ne peut pas immédiatement y rattacher une relation causale. En fait, il existe de nombreuses différences entre ces deux groupes telles que l'âge, le sexe, le statut socio-économique, le stress, les habitudes alimentaires, la boisson, etc. Et nombre de ces facteurs sont eux-mêmes associés au cancer. Ils sont potentiellement ce qu'on appelle des facteurs de confusion. Il est évident que l'interprétation d'une étude non-expérimentale est beaucoup plus difficile que l'interprétation d’une étude expérimentale. B. Objectif 1. Étude épidémiologique descriptive Elle décrit une situation en utilisant divers paramètres épidémiologiques

- Temps: saison, périodicité, tendances, etc. - Lieu: répartition géographique, rural/urbain, etc. - Personne: âge, sexe, tranche de revenus, race, etc.

Les études descriptives peuvent aussi bien être transversales (mesure de prévalence) ou longitudinales (mesure de l'incidence). Le résultat d'une étude descriptive donnera des taux (spécifiques), des graphiques et des cartes sur lesquelles on peut distinguer les caractéristiques et peut-être l'évolution d'un phénomène. Une étude descriptive ne répond pas à la question: "Pourquoi la maladie est-elle apparue", mais permet de générer des hypothèses sur les éventuels facteurs de risque.

Exemples:

- Lorsqu'on cartographie l'apparition des cas de typhoïde pendant une épidémie, on découvre qu'ils se regroupent autour des robinets du réseau municipal de distribution d'eau.

- Lorsqu'on cartographie la prévalence ou même l'incidence dune certaine maladie, pour laquelle un programme est instauré progressivement, on peut voir des taux décroissants dans les zones couvertes par le programme de prévention.

- Lorsqu'on enregistre tous les cas de la première manifestation d'une épidémie de gastro-entérites dans une communauté, on remarque qu’un groupe d'âge particulier (14-18 ans) est particulièrement touché.

Les études épidémiologiques descriptives sont très utiles pour la planification et peuvent permettre de générer des hypothèses qui devront être confirmées par des études analytiques.

Page 57: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 57 /158

2. Études épidémiologiques analytiques Essayent de trouver la réponse à la question: "Pourquoi tel événement est-il apparu ?".

Le plus simple exemple est l'analyse d'une épidémie où on essaye de trouver l'agent causal (par exemple quel est l'agent responsable d'une intoxication alimentaire?) Pour conclure à une causalité, il est important d'établir que l'exposition a bien eu lieu avant l'événement étudié. Certains types d'études (par exemple les longitudinales et les cas témoins) établissent plus précisément le moment de l'exposition que d'autres (comme les études transversales).

Les résumés statistiques de cette association sont le rapport des taux, le rapport de risques (RR) et le risque attribuable (RA), qui permet de mesurer l'impact d'un facteur X sur le résultat (voir chapitre 7). Dans les études analytiques, on essaie d'établir l'association entre un facteur X (= la cause présumée) et le résultat (= la maladie, l'effet) en faisant attention de bien contrôler tous les autres facteurs qui pourraient confondre l'association. Le problème ici réside dans les multiples facteurs autres que X qui peuvent influencer le phénomène de santé étudié.

Exemple Imaginons que l'on trouve plus de cancers du poumon dans le groupe des fumeurs que chez les non-fumeurs. On peut remarquer aussi que les fumeurs sont plus souvent de sexe masculin, qu'ils sont plus vieux, boivent plus, etc. Que peut-on conclure? Est-ce que le tabagisme est lié au cancer du poumon? Ou est-ce la boisson? Ou encore l'âge? Ou le sexe masculin? Tous ces traits sont ce qu'on appelle des facteurs confondants (ou de confusion). Le but de toute étude épidémiologique décente est de contrôler la confusion. Le niveau d’évidence produite par une étude non-expérimentale est moindre que pour une expérimentale. C. Les plans d'étude 1. Études transversales (En Anglais : Cross-sectional study) Dans ce genre d'étude, l'information sur les facteurs d'exposition et l'état de santé est récoltée en même temps parmi les individus d'une population bien définie à un moment donné. C'est un "instantané épidémiologique". Il fournit les taux de prévalence. Ces études sont souvent utilisées à des fins de planification en santé publique et fournissent des informations pour la formulation d'hypothèses étiologiques. On peut citer comme exemple les ‘enquêtes de santé’ qui - dans un but d'administration et de planification efficace- récoltent a l’échelle d’un pays des données sur:

- la prévalence des maladies aiguës et chroniques, - les invalidités, - l'utilisation des ressources des soins de santé et - des caractéristiques démographiques et personnelles.

Page 58: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 58 /158

Exemples: Dans une étude transversale, on a essayé de déterminer une association entre tabagisme et maladie coronarienne. La prévalence de la maladie coronarienne et du statut de fumeur (non-fumeur, fumeur régulier, ancien fumeur) furent mesurés à un moment donné chez des postiers volontaires. De façon très surprenante, la prévalence la plus élevée fut trouvée parmi les anciens fumeurs. Que peut-on conclure? Est-ce que le problème cardiaque précède ou suit l'arrêt du tabac? (Il est probable que les anciens fumeurs ont cessé de fumer à cause des problèmes cardiaques). Des données provenant de l'étude "Evans County" ont montré une prévalence plus basse de maladies chroniques cardiaques parmi la population noire que parmi la blanche. Cela veut-il dire que le développement des maladies chroniques cardiaques est plus bas chez les noirs que chez les blancs? Que se passerait-il si les premiers développent eux aussi la maladie et en meurent à un taux plus élevé que les seconds ? Ces exemples montrent la difficulté d'interpréter les données transversales. Dans une étude de prévalence, il est souvent difficile d'identifier correctement le temps séparant l'exposition de la survenue de la maladie. D'autres types d'études prennent en compte le problème du moment de l’exposition de façon plus valide.

a) Avantages

- Relativement rapide et bon marché - Concerne en général un échantillon de la population générale et pas seulement ceux

qui fréquentent les services de santé. - Utile lorsqu'on étudie des facteurs d'exposition qui ne changent pas avec le temps

comme les caractères génétiques (groupes sanguins, couleur des yeux, etc.).

b) Inconvénients

- Ne convient pas toujours pour les maladies rares ou de durée courte puisque peu de monde aura la maladie à un moment déterminé.

- Il est difficile de séparer les causes et les effets (dilemme de la "poule et de l'œuf"). Les études transversales ne peuvent en général pas tester les hypothèses étiologiques.

2. Études longitudinales (ou de suivi) (En Anglais : Longitudinal ou Follow-up Study) Deux groupes de personnes non-malades sont suivis pendant une certaine période de temps et observés en ce qui concerne l'apparition d'un problème de santé particulier. Un des deux groupes est exposé au facteur de risque et l'autre pas. Comme les données sur l'état de santé (avec aussi la possibilité d'étudier les facteurs d'exposition) sont collectées à des moments différents, l'étude de cohorte est longitudinale. Les taux d'incidence peuvent être calculés pour chaque groupe étudié.

Page 59: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 59 /158

Ce schéma est illustré dans la figure qui suit. Temps

Direction de l'enquête Maladie

Exposé Pas de maladie Non malade

Maladie Non exposé

Pas de maladie

Exemple: un groupe de fumeurs et un groupe de non fumeurs sont suivis pendant une période de temps. L'incidence du cancer du poumon est enregistrée dans chaque groupe (voir plus loin).

Les études de cohorte peuvent être prospectives ou rétrospectives, en fonction de la relation temporelle entre le début de l'étude et l'apparition de la maladie. Par définition, dans les 2 cas, on classe les sujets de l'étude sur la base de la présence ou de l'absence d'exposition. Ces groupes pourront être suivis de façon:

a) Prospective Une cohorte de gens exposés et non exposés est constituée. Le chercheur et le groupe étudié "vieillissent" ensemble. Le chercheur observe si la maladie apparaît dans les groupes. Ceci implique que le résultat apparaît après le début des investigations.

to = début de la période d'observation ... vieillissement de la population étudiée

temps to = début de l'étude ... vieillissement du chercheur

Exemple: Est-ce que la malnutrition est un facteur de risque pour la mortalité due à la rougeole? Le 1/6/84, on a pris une cohorte d'enfants bien nourris et une cohorte de mal nourris. Les deux groupes ont été suivis jusqu'au 31/5/85, en déterminant l'incidence des décès par rougeole au fur et à mesure de leur survenue pendant cette période d'un an.

Il y aura peu de biais de sélection et d'information puisque ce que l’on étudie (décès par rougeole) ne se passe pas avant le début de l'étude. Cependant, l'étude sera coûteuse et il y aura le risque que de nombreux enfants soient perdus durant la période de suivi.

Page 60: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 60 /158

b) Rétrospective Pour réaliser une étude rétrospective de cohorte, on regarde ce qui est arrivé à une cohorte pour laquelle son exposition passée à un facteur a pu être documentée. Ceci implique que l'exposition (et éventuellement le résultat) a déjà eu lieu lorsque l'enquête démarre. C'est seulement possible si la phase d'exposition passée (et éventuellement le résultat) a été enregistrée de façon fiable et peut être retrouvé.

t1 = début de l'étude ... vieillissement du chercheur

temps to = début de la période d'observation ... vieillissement de la population étudiée

Exemple: Voyons maintenant comment étudier la même association entre malnutrition et mortalité par rougeole vue plus haut. Tous les dossiers des enfants qui ont assisté à une consultation d’enfants sains un jour précis de mai 85 (31/5/85) seront examinés afin de déterminer leur niveau de nutrition une année auparavant le 1/6/84. Les données sur la mortalité par rougeole de la même cohorte d'enfants pourront être obtenues à partir des certificats de décès couvrant la période du 1/6/84 au 31/5/85.

L'étude rétrospective longitudinale est plus facile à conduire et coûte moins cher que la prospective. Cependant, il y a une sérieuse possibilité de rencontrer des biais de sélection et d'observation. Elle nécessite d'avoir des données fiables et constantes dans le temps pour tous les éléments de l'enquête. Ces deux types d'études permettent le calcul du rapport de risques ou des taux (RR). Dans une étude de cohorte, le rapport de risques d'une maladie associée à un facteur particulier peut être calculé directement parce que l'incidence ou le risque de maladie est connu.

Exemple: Un groupe de fumeurs et de non fumeurs ont été suivis dans une étude longitudinale. On y a enregistré le risque ultérieur de cancer du poumon. Les résultats sont présentés dans le tableau qui suit.

Cancer du poumon + - Fumeur Oui (+) Non (-) Oui (+) 10 a 150 b 160 a+b Non (-) 5 c 100 d 105 c+d 15 a+c 250 b+d 265 a+b+c+d

On détermine les chances d'attraper la maladie en étant exposé au facteur de risque par :

N° de cas de cancer du poumon chez les fumeurs N° Total de fumeurs

le risque d'attraper la maladie chez les personnes exposées . le risque d'attraper la maladie chez les non-exposés

N° des cas de cancer du poumon chez les fumeurs / N° total des fumeurs . N° de cas de cancer du poumon chez les non-fumeurs / N° total des non fumeurs

Le Risque Relatif (RR) =

=

Page 61: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 61 /158

RR = 1,3 (1,3125) Les fumeurs ont 30% plus de risque de développer un cancer du poumon comparé aux non-fumeurs.

c) Avantages des études longitudinales - Permettent la mesure directe du risque de développer la maladie. - Permettent la comparaison des groupes étudiés dès le début de l'enquête. - Permettent d'examiner une série de résultats (maladie) à partir d'une seule exposition. - Permettent d'enquêter sur les résultats d'expositions rares. - Permettent de faire la lumière sur des liens chronologiques entre exposition et maladie.

d) Inconvénients - Peuvent être long, fastidieux, coûteux et compliqué - Peuvent parfois nécessiter de longues périodes d'observation et de nombreux sujets.

Ce n'est pas toujours pratique pour les maladies rares comportant une longue période d'induction.

- Ne peuvent étudier que peu de facteurs d'exposition - La validité de l'étude peut être sérieusement affectée par les perdus de vue lors du suivi.

3. Études de cas témoins (En Anglais : Case-Control Study) Dans ce type d'étude, on compare un groupe de personnes présentant un phénomène de santé (les "cas") à un groupe qui ne présente pas ce trait particulier (les "témoins"). Il s'agit de mettre en évidence des différences d'exposition entre les deux groupes pour chercher d'éventuels facteurs causaux.

La tâche la plus difficile est d'identifier correctement les témoins. Ils doivent représenter les gens qui auraient été identifié et inclus dans le groupe des "cas" s'ils avaient développé la maladie. Souvent les témoins sont recrutés dans les établissements de soins et peuvent ne pas être représentatifs de la population dont sont originaires les "cas".

Idéalement les études de cas-témoins devraient utiliser de nouveaux cas (incidents) pour éviter la difficulté de devoir démêler des facteurs liés à l'apparition de la maladie et à la survie. Ce schéma d'étude est illustré dans la figure suivante. Temps Direction de l'investigation de l'exposition Exposés Cas Non exposés Exposés Témoins Non exposés

1055

16010

÷=+

÷+

=dc

cba

aRR

Page 62: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 62 /158

Exemple: Voyons le même exemple que plus haut, mais cette fois pour une étude de cas témoins. Des cas de cancer du poumon et des témoins sans cancer du poumon sont interviewés sur leurs habitudes tabagiques. Ceci est illustré dans le tableau suivant. Cancer du poumon + - Fumeur Oui (+) Cas Non (-) Témoins Oui (+) 10 a 150 b 160 a+b Non (-) 5 c 100 d 105 c+d 15 a+c 250 b+d 265 a+b+c+d

Dans une étude cas-témoin, le ratio des risques (RR) ne peut pas être calculé de manière directe, parce que le dénominateur de “tous les exposés” n’est pas connu. La totalité des 160 fumeurs dans l’exemple précédent ne constitue pas un dénominateur significatif. En 1951, un an après la première étude par Doll et Hill, le statisticien J. Cornfield a propose d’utiliser le “Odds Ratio” (OR) ou « rapport des cotes » pour estimer le risque relatif RR de la population dans des études cas-témoin.

Une cote est une autre façon de représenter la probabilité. L’origine se trouve dans le monde des jeux de pari, et représente les chances de gagner par rapport aux chances de perdre (ou la probabilité de succès par rapport à la probabilité d’échec)

Par exemple: Le cheval nommé « Flèche de Bretagne » a une probabilité de 20% de gagner la course. Cette probabilité peut également être exprimée en cote.

Cote = probabilité de gagner / probabilité de perdre = 0,2 / 0,8 = ¼ = 0,25 On dit que la cote de Flèche de Bretagne est 1 contre 4. Dans une étude cas-témoin, nous ne pouvons pas comparer des probabilités d’exposition, mais nous pouvons comparer les chances d’être exposé parmi les cas avec les chances parmi les témoins. Ceci nous donne un ratio de deux chances (odds), le fameux Odds ratio, ou rapport des cotes! La chance (cote) d'être exposé parmi les cas:

Nbre de fumeurs parmi les cas

Nbre de non-fumeurs parmi les cas donnée par Cote = a/c La chance (cote) d'être exposé parmi les témoins: Nbre de fumeurs parmi les témoins . Nbre de non-fumeurs parmi les témoins donnée par Cote = b/d

Page 63: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 63 /158

Le rapport des cotes (odds ratio) est le ratio de ces deux cotes et est donné par la formule :

Alors calculons la valeur du rapport des cotes pour l’exemple précédent : Que signifie ce chiffre de 1,33 ? Ceci signifie littéralement que dans notre étude, les cotes de fumer étaient 1,33 fois supérieures parmi les cas, comparées aux témoins. Le rapport des cotes mesure la force de l’association entre l’exposition et la maladie. 1. Notez que le ratio de deux cotes dans la formule précédente a été réarrangé pour obtenir ce qui est généralement appelé le « cross-product ratio » ad / bc, facile à calculer. 2. Notez également qu’un rapport des cotes est symétrique, dans le sens où elle ne montre pas uniquement comment la cote d’exposition parmi les cas se rapporte à celle parmi les témoins. La même valeur numérique s’applique également aux cotes d’être malade parmi les exposés comparés aux cotes d’être malade parmi les non-exposés.

C’est cette qualité qui rend le rapport des cotes tellement attractif, puisque nous avions entamé l’étude cas-témoin justement pour apprendre quelque chose sur le risque relatif dans la population. Notre rapport de cotes observé dans l’étude cas-témoin est l’estimation du rapport des cotes réel dans la population, et ce rapport de cotes réel nous dit quelque chose sur l’association entre exposition et maladie. Voilà pourquoi dans beaucoup de textes il est dit que l’interprétation d’un OR ou rapport des cotes est la même que celle d’un risque relatif. On peut en effet l’utiliser pour estimer la force de l’association entre l’exposition et la maladie dans une population. 3. Le OR est d’autant plus proche du Risque Relatif que la maladie est rare (< de 20%). Le OR exagérera toujours la taille de l’effet, comparé au Risque Relatif. Si le OR est moins que 1, il sera toujours plus petit que le RR. Si le OR >1, il sera toujours plus grand que le RR. Des grands décalages n’apparaissent que pour des tailles effet larges. Par ex. un OR de 0,2 correspond à un RR vrai de 0,4. Un tel décalage ne risque pas de changer notre appréciation, comme il exprime une large réduction de risque, peu importe la manière de le regarder. (Source : Okle Davies et al. BMJ 1998).

a) Avantages

- Assez bon marché et rapide - Permet d'enquêter sur un grand nombre de facteurs de risques possibles pour une

seule maladie - Utile pour les maladies rares ou à temps de latence longue entre exposition et maladie - Utile quand on veut tester ou générer diverses hypothèses plausibles, par exemple

lorsque les facteurs de risque ne sont pas connus. Exemple: Chercher à étudier les facteurs de risque de la maladie de Marburg.

- Lorsque la récolte d'information est difficile, coûteuse, douloureuse, etc. (exemple: de fréquents prélèvements sanguins). Même un petit nombre de sujets peut suffire à fournir l'information utile.

bcad

dbcaOR ==

//

33,1100/5150/10

100/1505/10

===OR

Page 64: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 64 /158

b) Inconvénients

- Cette technique favorise particulièrement les biais de sélection et d'observation (biais de mémorisation, ou de rappel : recala bais). Cela va dépendre de la source de données.

- Parfois, il est difficile de distinguer la relation chronologique entre le facteur d'exposition et la maladie (surtout lorsque des cas prévalents sont utilisés).

- Ne convient pas pour les recherches faites sur des expositions rares. - L'incidence ne peut pas être évaluée.

4. Études écologiques Dans une étude écologique, les unités d'analyse sont les populations ou des groupes de gens plutôt que les individus. Ceci implique que l'on ne peut pas déterminer les liens individuels entre facteur d'exposition et effet.

Exemple: Dans une étude écologique chinoise, on a enregistré les taux de cancer de l'œsophage dans des communautés avec différentes consommations de sel. De hauts taux de mortalité dans certains contés de la province de Henan apparaissaient être liés à une forte consommation de sel. (Lu & Qin, 1987). Cependant, il est difficile d'exclure d'autres facteurs possibles tels que l'augmentation de la consommation d'alcool dans des régions où il y a une grosse consommation de sel et où le cancer de l'œsophage est fréquent. On sait bien que l'alcool est un facteur de risque connu de développer la maladie.

Un biais ou erreur écologique se produira si des conclusions inappropriées sont tirées sur base de données écologiques. L'observation d'association entre variables à un niveau de groupe ne représente pas nécessairement ce que l'association qu’on pourrait observer au niveau individuel. Cependant, les études écologiques ont parfois été le point de départ d'études épidémiologiques plus élaborées.

Page 65: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 65 /158

5. Vue d'ensemble des différences entre les études longitudinales, et cas témoins Caractéristiques Longitudinale Cas Témoins

Sélection des participants Selon le facteur d'exposition (exposés/non exposés)

Selon la maladie (malade/non malade)

Observation de L'incidence de la maladie L'exposition passée

Durée de l'étude Longue Courte

Taille de l'échantillon Grande Petite

Faisabilité Opérationnelle Possible Facile

Non-répondants Beaucoup Peu

Coût Très cher Moins coûteux

Danger de biais de sélection au départ de l'étude

Non (prospective)

Oui (rétrospective) Oui

Perdus de vue (suivi) Fréquents Non

Biais d'observation Oui Oui (biais de mémorisation)

Besoin d'un contrôle des facteurs confondants Oui Oui

Test d'hypothèses Oui Oui

Résumés statistiques Taux, rapport des taux Pas de taux ! ! ! rapport des cotes

IV. CONCLUSION En général, la procédure commence par des rapports de cas, des séries de cas et des études transversales qui peuvent suggérer une association. Ensuite, on réalisera des études cas-témoins qui vont explorer l'association. Si l'on doit étudier les temps de latences, une étude de cohorte pourra être menée. Finalement, des essais (cliniques) seront exécutés pour répondre à des questions concernant l'efficacité thérapeutique.

Exemple: En fonction du déroulement de l'épidémie de SIDA, le plan d'étude a comporté la séquence suivante:

1) Des rapports ont été publiés à propos d'observations cliniques concernant un petit nombre de patients (séries de cas).

2) On a mené des études descriptives de la prévalence de la maladie dans diverses populations et groupes géographiques (études transversales, études écologiques)

3) Ensuite on a fait des études analytiques pour identifier les risques et les facteurs pronostiques (études cas-témoins et de cohortes)

4) Enfin, on a réalisé des évaluations du traitement et des mesures préventives (essais).

Page 66: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 66 /158

Page 67: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 67 /158

Chapitre 4: Organiser et visualiser des données. Statistique descriptive La première partie de ce chapitre s’est inspirée largement sur : Barbara Hazard Munro and Etlis Batten Ilage: STATISTICAL METHODS FOR HEALTH CARE RESEARCH, Chap.1 and 2. J.B Lippincott Company. 2nd ed. 1993

OBJECTIFS POUR LE CHAPITRE 4 Après avoir lu ce chapitre, vous devriez être capable de:

1. Discuter les échelles de mesures et leurs liens avec l’analyse statistique, 2. Interpréter une distribution de fréquence, 3. Organiser des données dans un tableau et interpréter des données présentées

dans une graphique, 4. Définir les mesures de tendance centrale et de dispersion, 5. Choisir les mesures appropriées pour un jeu de données, 6. Discuter les méthodes d’identification et de gestion des valeurs exceptionnelles, 7. Choisir les méthodes appropriées pour présenter et résumer les associations

entre deux variables

Page 68: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 68 /158

I. INTRODUCTION :

La statistique descriptive traite des procédures permettant d'énumérer, organiser, résumer et représenter graphiquement des données. Tout travail d’analyse de données doit commencer par cette étape descriptive, on « examine « l’information collectée de près, avant de se lancer dans des analyses et des interprétations poussées. En statistique descriptive, on distingue:

• La statistique descriptive univariée, décrivant une variable à la fois

• La statistique descriptive bivariée, décrivant les associations entre deux variables

Dans les deux cas de figure, l’approche qui est enseignée est celle de l’Analyse Exploratrice de Données (EDA, de "Exploratory Data Analysis"). EDA est une démarche qui permet d’explorer de façon structurée l’information contenue dans un jeu de données. Elle attache beaucoup d’importance à l’inspection visuelle de la distribution des données sur une représentation graphique comme point de départ de l’analyse. Voir Tableau 1. Tableau 1. La démarche de L’ANALYSE EXPLORATRICE DES DONNEES (AED) Phase 1. Evaluer le jeu de données en ce qui concerne:

a) le nombre de variables Les variables doivent-elles être étudiées séparément, ou y a-t-il une relation (à explorer) entre quelques variables ?

b) l'échelle de mesure de chaque variable

c) la forme des données Les données sont-elles brutes, groupées ou déjà réduites ?

Phase 2. Représenter graphiquement les séries de données. Analyser et interpréter les graphiques.

Phase 3. Résumer l’information contenue par la variable en choisissant des paramètres descriptifs pertinents.

Phase 4. Exécuter éventuellement les opérations mathématiques de réduction des données et interprétez la(les) réponse(s) numérique(s).

Page 69: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 69 /158

II. VARIABLES ET ECHELLES DE MESURE

Les chercheurs souhaitent mesurer les caractéristiques des gens, des choses ou des événements. Mesurer, au sens large, implique l’attribution d’une valeur aux objets ou aux événements, suivant certaines règles. Par exemple le poids d’une personne peut être mesuré grâce à une balance, qui donne une certaine valeur correspondant au concept de poids. Des concepts abstraits, intangibles, comme la satisfaction du patient, peuvent également être mesurés. Une variable est une caractéristique mesurée qui peut prendre différentes valeurs. Il existe 3 types d’échelles de mesure pour des variables : nominales, ordinales, et numériques. A. Echelles nominales (ou catégorielles, ou qualitatives)

Ici les caractéristiques (des gens, des choses, des événements) sont classées en catégories. Des valeurs numériques peuvent être données par exemple pour faciliter l’enregistrement dans un ordinateur – mais ces valeurs numériques ne sont alors que des ‘étiquettes’ dont le choix est arbitraire. Variable Valeur Sexe 1= masculin; 2= féminin Service de santé 1= public; 2= privé non lucratif

3= privé lucratif Les variables qui ne peuvent prendre que 2 valeurs possibles (par exemple sexe, ou bien présence ou absence d’une certaine caractéristique) sont appelées des variables dichotomiques. B. Echelles ordinales (qualitatives)

Dans ce cas les caractéristiques peuvent être classées en catégories, mais ces catégories possèdent un certain ordre 'naturel' : l’attribution d’une valeur chiffrée n’est pas arbitraire. Cependant la distance entre les catégories est inconnue. Par exemple si le statut socio-économique ‘moyen’ est noté 2, cela ne veut pas dire 2 fois plus élevé que le statut socio-économique ‘faible’ noté 1. Variable Valeur Statut socio-économique 1 = bas 2 = moyen 3 = élevé Adhésion aux recommandations cliniques

1 = mauvaise 2 = moyenne 3 = bonne

Echelle des salaires 1 = Senior (a) 3 = Moyen (a) 5 = Junior (a)

2 = Senior (b) 4 = Moyen (b) 6 = Junior (b)

Il peut exister une échelle numérique sous-jacente dans certaines échelles ordinales (échelle des salaires). Il est également possible de regrouper les valeurs : Echelle des salaires : 1 = senior; 2 = moyen ; 3 = junior.

Page 70: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 70 /158

C. Echelles numériques (quantitatives)

Pour ce type d’échelle les distances entre les valeurs sont égales parce qu’il y a une unité physique commune de mesure. Le poids de 20 kg est le double de 10 kg. Les variables numériques peuvent être continues (en théorie, il n’y a pas de ‘rupture de continuité’ entre les valeurs) ou elles peuvent être discrètes (il y a des ruptures de continuité entre les valeurs). Par exemple le poids est une variable continue uniquement parce que notre vue ou la qualité de l’instrument de mesure ne nous permet pas de lire une échelle plus finement graduée. La valeur du poids pourrait en théorie être 65,78521496321741…kg. A l’inverse, le nombre de grossesses d’une femme est une variable discrète parce que le nombre de grossesses est obtenu en comptant des unités indivisibles. D. Quelques remarques sur les échelles de mesure

Les valeurs que peuvent prendre les variables nominales ou ordinales doivent être définies de manière claire et explicite. Qu’entend-on exactement par ‘statut économique bas’ ? Est-il défini par le revenu ? Le niveau de scolarisation ? Quelles sont les limites de chaque valeur? Les valeurs proposées pour les variables nominales et ordinales doivent être exhaustives. Imaginez un questionnaire demandant le niveau de scolarisation, et offrant seulement ces valeurs possibles : primaire, secondaire, supérieur. Où placer les personnes qui n’ont pas terminé l’école primaire ? Parfois les valeurs proposées pour les variables nominales ne sont pas mutuellement exclusives. Soyez attentif à la possibilité de réponses multiples. Si vous demandez : quel type de services de santé avez-vous utilisé l’an passé ? Il est possible d’avoir utilisé plus d’un type de services. Les variables numériques peuvent être converties en variables ordinales ou nominales. Par exemple le statut nutritionnel, mesuré par l’index poids/taille, est une variable numérique. Cependant, à des fins opérationnelles ou de recherche, on pourrait classer les enfants, sur base de cet index, en "normal", malnutrition modérée, malnutrition sévère (variable ordinale). On pourrait aussi classer les enfants en "à admettre dans le centre de nutrition" ou "admission pas nécessaire" (variable catégorielle dichotomique). Un taux d’hémoglobine peut être converti en : pas d’anémie, anémie modérée, anémie sévère. Convertir des variables numériques en variables nominales ou ordinales n’est pas toujours indiqué si cela amène une perte d’information essentielle. Dans certains cas il existe une bonne raison (physiologique, ou opérationnelle) de réaliser une telle conversion, mais il n’est pas simple, ni sans conséquences de décider d’un seuil précis. Cela dépend également du contexte. Le seuil d’admission d’un enfant mal nourri dans un centre de récupération nutritionnelle peut dépendre de la situation (par exemple, surpopulation du centre). Le taux d’hémoglobine qui définit l’anémie est différent en Afrique ou en Europe, pour les gens vivant au niveau de la mer ou à la montagne, chez les femmes enceintes et chez les enfants, etc.

Page 71: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 71 /158

III. ORGANISER ET PRESENTER DES DONNEES UNIVARIEES La première étape de l’organisation des données consiste à examiner chaque variable séparément. Il peut être utile de commencer par les variables de temps, lieu et personnes. Des analyses univariées sont également nécessaires pour nettoyer les données et vérifier leur qualité, regarder leur variabilité, décrire l’échantillon, et vérifier les hypothèses statistiques avant de s’embarquer dans un travail plus complexe. Dans certains cas, l’approche descriptive est suffisante et l’analyse se termine là. A. Tableaux et distributions de fréquences

Quand les données sont organisées en valeurs ou catégories, et ensuite décrites avec titres et légendes, le résultat est un tableau statistique. Les données sont en premier lieu présentées sous la forme d’une distribution de fréquence, c’est à dire que l’on compte combien de fois chaque valeur apparaît dans ces données. Pour les variables ordinales ou nominales, il faut faire une liste (ordonnée si possible) et indiquer les fréquences pour chaque catégorie. Il est utile d’y ajouter le pourcentage. Cas de paralysie flasque aiguë, par sexe. Mbuji Mayi, Congo (ex-Zaïre), novembre 94- juin 95 Sexe Fréquence % Masculin 253 53,3 Féminin 221 46,5 Inconnu 1 0,2 Total 475 100

Source: Ministère de la santé - Épicentre

Enquête de couverture vaccinale. Enfants 12-23 mois. Mbuji Mayi, Congo (ex-Zaïre) 3-5/7/1995. Total des enquêtés : 230 dont 93 (40%) avec carte de vaccination. Antigène N (confirmé par carte sauf BCG) % BCG (cicatrice) 149 65 Polio 1 79 34 Polio 2 73 32 Polio 3 60 26 DTP 1 80 35 DTP 2 75 33 DTP 3 62 27 Rougeole 45 20 Source: Ministère de la santé - Épicentre Pour les variables numériques, organiser les valeurs est habituellement la première étape de la construction d’un tableau.

Page 72: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 72 /158

Age de 113 patientes hystérectomisées

Age Fréquence Age Fréq. Age Fréq. Age Fréq. Age Fréq. 29 1 38 2 46 5 54 2 63 1 30 2 39 5 47 8 56 3 66 1 32 1 40 4 48 7 57 2 69 1 33 1 41 2 49 4 58 1 70 1 34 2 42 12 50 3 59 1 71 2 35 1 43 7 51 1 60 3 73 1 36 2 44 6 52 1 61 1 75 1 37 2 45 6 53 3 62 1 77 1

Inconnu: 1 78 1 On peut souhaiter grouper les données en classes ou catégories avant de construire le tableau final (cela peut être vrai aussi pour certaines variables ordinales). Ici les données vont de 29 à 78 ans : regrouper les données les rendra plus compréhensibles. En général on préfère des classes de même largeur, mais il y a des exceptions. Par exemple l’âge se regroupe parfois selon des classes qui correspondent à des périodes biologiques de la vie : <1 an, 1-4 ans, 5-14 ans, 15-44 ans, etc. Distribution par âge d’un échantillon de patientes hystérectomisées.

Valeur Fréquence Pourcentage Fréquence cumulée (%) 25-29 1 0,9 0.9 30-34 6 5,3 6.2 35-39 12 10,6 16.8 40-44 31 27,4 44.2 45-49 30 26,5 70.8 50-54 10 8,8 79.6 55-59 7 6,2 85.8 60-64 6 5,3 91.1 65-69 2 1,8 92.9 70-74 4 3,5 96.4 75-79 3 2,7 99.1 Inconnue 1 0,9 100 Total 113 100.0 On perd toujours des détails quand on regroupe des valeurs, mais d’un autre côté on gagne de l’information sur les groupements de valeurs (« clustering ») et la forme de la distribution. Cependant, trop, ou pas assez de classes, risquent de masquer certaines caractéristiques importantes de la distribution. Trop d’information est perdue si on a trop peu de classes. Par contre si on a trop de classes, certaines seront vides ou contiendront trop peu d’informations, avec des solutions de continuité dans la distribution. La meilleure approche est souvent de commencer avec beaucoup de classes, puis de les réduire progressivement, en laissant les données vous guider.

Page 73: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 73 /158

Pour le choix des classes, il existe quelques règles:

• Le nombre optimal (n) de classes: n = 1+3log10 N (N = le nombre total d’observations)

OU

• Le nombre de classes ne devrait pas dépasser 8 - 10

p.ex.: 100 individus → log 100 = 2

n = 1 + (3×2) = 7 classes

10 individus log 10 = 1

n = 1 + (3×1) = 4 classes

• Les limites de chaque classe doivent correspondre au degré de précision des données.

p.ex: Si les classes sont de 1/2 kg et si on a des déterminations du poids des enfants correctes à 0,1kg près, il ne faut pas prendre comme limites: 3,500 - 3,999 kg mais: 3,5 - 3,9 kg

• L'amplitude de classe est la différence entre la limite inférieure de la classe et la limite inférieure de la classe suivante. Les classes d'amplitudes égales sont à préférer

p.ex. âge: 5 - 14 ans

15 - 24 ans

25 - 34 ans

35 - 44 ans

mais ceci n'est pas obligatoire

• Les classes doivent être mutuellement exclusives

p.ex.: 5 - 9 ans, 10 - 14 ans, 15 - 19 ans

et non 5 - 10 ans, 10 - 15 ans, 15 - 20 ans, car ces classes ne sont pas mutuellement exclusives

• Il faut éviter les intervalles sans limites:

p.ex.: 65+ ans

Page 74: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 74 /158

B. Suggestions pour la construction de tableaux pour des rapports

Utilisez les tableaux uniquement pour mettre en évidence des faits majeurs. La plupart des tableaux examinés pendant l’analyse des données ne doivent pas être présentés. S'il est possible de décrire une observation correctement avec des mots, un tableau n’est pas nécessaire. Trop de tableaux peuvent surcharger un rapport. Le tableau doit être aussi ‘auto-suffisant’ que possible (pas besoin de lire le texte pour comprendre de quoi il s’agit). Le titre doit mentionner la variable, où et quand ces données ont été collectées (si c'est pertinent), et la taille de l’échantillon (temps, lieu, personnes). Les titres doivent être brefs et clairs. C. Graphiques

Les graphiques sont la représentation visuelle des distributions de fréquence. Ils donnent une vision globale des données et aident à mieux les comprendre. Nous discutons ici des types de graphiques les plus utilisés pour l’analyse univariée.

1. Diagramme en bâtons Le diagramme en bâtons est le type de graphique qui convient pour la représentation des données nominales ou ordinales. Quand on construit de tels graphiques, les noms des catégories sont généralement alignés horizontalement suivant un ordre systématique, et les bâtons dessinés verticalement représentent la valeur absolue, ou relative dans chaque catégorie. Un espace sépare les bâtons, pour souligner la nature nominale ou ordinale de la variable. Le choix des espaces et de la largeur des bâtons est arbitraire, mais une fois choisis, tous les espaces et les largeurs doivent être similaires. Si le nom de la catégorie est trop long, il est parfois plus pratique d’aligner les catégories verticalement, et de dessiner les bâtons horizontalement (voir fig. 1). Les diagrammes en bâton facilitent aussi les comparaisons entre les distributions uni-variées. Deux distributions uni-variées ou plus peuvent être comparées en utilisant un diagramme en bâtons combiné.

CAUSES DES HANDICAPS MOTEURS (ENFANTS,<15a)

Province de Kandahar , Afghanistan, Juin 1996 .

0 5 10 15 20 25 30 35 Mines

Guerre, combat Inconnu

Medical Congenital

Autre trauma Polio

Nombre de casN = 90

Source : Handicap International

Page 75: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 75 /158

2. Diagrammes en cercle (‘’Camembert’’) Ceux-ci sont une alternative aux diagrammes en bâtons, pour des données qualitatives. Seules les fréquences relatives (%) peuvent être représentées graphiquement, bien que les valeurs absolues puissent apparaître en légende.

3. Histogrammes Les histogrammes sont appropriés pour les variables numériques continues et discrètes. Ils ressemblent aux diagrammes en bâtons, mais les bâtons sont côte à côte pour mettre en évidence le fait qu’il s'agit de valeurs mesurées sur une échelle continue. Quand la surface de chaque bâton représente une fréquence, ou un pourcentage, chaque histogramme a une surface totale de 100%. L’histogramme est le graphique de choix pour une courbe épidémique. La première décision dans la construction d'un histogramme consiste à choisir le nombre de bâtons, c.a.d. le nombre de classes. S’il y a trop peu de bâtons, les données vont être trop "tassées". S’il y a trop de bâtons, les données vont être trop détaillées. Une courbe épidémique présente le nombre de cas rapportés par jour, par semaine, par mois… Histogramme. Courbe épidémique.

0

20

40

60

80

100

120

140

160

nov déc janv févr mars avr mai juin

Mois

Nombre de

cas

POLiOMYELITE A MBUJI MAYI, ZAIRENovembre 1994 - Juin 1994

Source: Ministère de la Santé / Epicentre. n = 396 cas vivant à Mbuji Mayi

CAUSES D'INFIRMITES LOCOMOTRICES POUR LES MOINS DE 15 ANS

province de Kandahar, Afghanistan, Juin 1996.

Polio34%

Medical18%

Congenital19%

Autres trauma23%

Guerre, combats2%

inconnu3%

Mines1%

N = 90

Source : Handicap International

Page 76: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 76 /158

4. Polygone Le polygone est un graphique pour les variables numériques, équivalent à l'histogramme. De même que pour l'histogramme, le graphe des données aura une surface de 100%. On construit le polygone en reliant les médianes du sommet de chaque bâton de l'histogramme et en fermant le tracé sur la ligne de base à chaque extrémité, au milieu des classes vides adjacentes au graphique. Superposition d'un polygone sur un histogramme Poids à la naissance de 641 nouveau-nés. %

g

D. Que chercher dans un histogramme ou un polygone ?

Un graphique peut aider à voir rapidement la forme de la distribution. Les distributions de fréquence ont plusieurs formes possibles. Parfois elles ressemblent à une cloche. Elles peuvent aussi être asymétriques (‘skewed’), avec une ‘queue’ plus longue d’un côté. Parfois les données se regroupent en certains endroits. Ces graphiques peuvent être utiles pour repérer où les données se regroupent (‘cluster’), comment les données se répartissent autour des ‘clusters’ si on a des observations avec des valeurs extrêmes, et s'il existe des solutions de continuité dans les données. Ce sont ces sortes de caractéristiques que les chercheurs ont besoin de connaître. Elles deviennent immédiatement évidentes avec une simple représentation graphique.

Page 77: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 77 /158

E. Conseils pratiques pour construire un graphique

Comme pour les tableaux, les graphiques doivent être autant que possible "auto-suffisants". Le titre devrait présenter la variable et, si c'est pertinent, quand et où les données ont été collectées (temps, place, personne). La taille de l'échantillon doit apparaître clairement. Les axes doivent comporter des légendes et les unités utilisées. Le but du graphique est de faciliter la compréhension sans dénaturer les faits, vous devez vous assurer qu’il présente les choses honnêtement. Les cinq caractéristiques d'un bon graphique sont: 1. La précision: Le graphique ne doit pas tromper l'observateur ni être susceptible d'être

mal interprété. Le meilleur conseil est de le tester sur plusieurs personnes y compris certaines qui ne sont pas impliquées dans votre étude. Demandez-leur "que représente pour vous ce graphique?".

2. La simplicité: Le graphique doit être dépouillé. Les quadrillages et traits épais doivent être limités au minimum. Les inscriptions originales ou les motifs décoratifs doivent être évités.

3. La clarté: Le graphique ne peut pas être ambigu et doit être facilement compréhensible. Le titre et les axes doivent être clairement étiquetés (temps, place, personne et échelle de mesure).

4. L'apparence: Le graphique ne peut pas être bâclé mais doit être attractif. 5. Une structure bien équilibrée. Le graphique doit se conformer à certains principes de

base de perception. Les éléments les plus importants doivent être mis en évidence visuellement et les moins importants doivent rester en arrière-plan. Par exemple, s'il faut avoir un quadrillage, il doit être peu marqué en comparaison des autres éléments plus importants.

Page 78: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 78 /158

IV. RESUMER DES DONNEES UNIVARIEES A. Introduction

Les variables qualitatives (en échelle nominale et ordinale) sont résumées par la fréquence relative (la fréquence de cas par rapport à la totalité des cas) (Voir III.A) Les variables quantitatives : Après avoir organisé les données numériques, on calcule les mesures quantitatives pour saisir les caractéristiques de base de la distribution: la tendance centrale et la dispersion. Les caractéristiques des populations sont appelées des paramètres, celles des échantillons, des statistiques. D'habitude, on utilise une lettre grecque minuscule pour les paramètres et une lettre romane pour les statistiques. B. Mesure de tendance centrale

Trois mesures de tendance centrale vont être discutées ici : moyenne, médiane et mode. 1. La moyenne La moyenne situe le "centre de gravité" de la distribution. Cette mesure de tendance centrale n'implique pas nécessairement que 50% des données sont situées sous la moyenne, parce que le ‘centre de gravité’ de la distribution n'est pas toujours au milieu. La moyenne d'un échantillon est représentée symboliquement par Error! Objects cannot be created from editing field codes. qui est lu "X barre" (la moyenne de la population est représentée par la lettre grecque "mu", μ). Pour calculer la moyenne d'un échantillon, il faut additionner toutes les valeurs (∑Xi) et les diviser par leur nombre (n).

∑ indique la sommation

x i = indique une valeur quelconque de la variable X

n = nombre des observations n

XX

n

ii∑

== 1

indique que la sommation se fait sur n observations en commençant par la première.

Par exemple, la liste suivante des valeurs de durée de séjour à l'hôpital (en heures) pour un échantillon de naissances par césarienne comporte 10 entrées: 61, 70, 112, 74, 104, 97, 85, 132, 125, et 70. La moyenne est la somme de toutes ces valeurs (930) divisée par le nombre de toutes les valeurs (10), ce qui donne 93. Dans cet exemple, la moyenne est située près du milieu des 10 valeurs. Chaque valeur dans la distribution contribue à former la moyenne. Si la distribution comporte des valeurs extrêmes, cela peut fortement influencer la moyenne. Dans l'exemple précédent, supposons que l'on remplace la valeur de 132 par 702. La nouvelle moyenne sera donc 61 + 70 + 112 + 74 + 104 + 97 + 85 + 702 + 125 + 70 = 1500/10 = 150 heures. Cette moyenne ne sera donc plus située au milieu des 10 valeurs. Il n'y aura qu'un seul patient dont la valeur sera plus grande que la moyenne. La moyenne

∑=

n

iiX

1

Page 79: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 79 /158

n'est pas une mesure très "robuste" car elle peut être très sensible aux valeurs extrêmes (moins il y a de valeurs, plus elle est sensible). Dès lors, la moyenne donne les meilleurs résultats pour les distributions symétriques qui n’ont qu’un seul ‘pic’ (distributions unimodales). Avant de calculer la moyenne, il faut vérifier que c’est une mesure pertinente par rapport à la distribution des données. Lorsqu'on tire de façon répétée des échantillons aléatoires d'une même population, les moyennes obtenues dans les différents échantillons vont moins varier entre elles que les autres mesures de tendance centrale, et vont moins s’éloigner de la moyenne réelle de la population. Dès lors, la moyenne est la mesure la plus fiable pour réaliser des inférences d'un échantillon à une population. La moyenne est surtout destinée à être utilisée avec des variables numériques lorsque ces valeurs peuvent être additionnées. Cependant elle est assez souvent utilisée pour des variables ordinales. Les ordinateurs, bien sûr, ne savent pas si les variables sont numériques ou ordinales. Imaginez que la variable "sexe" est codée 1 pour masculin et 2 pour féminin. Si on le demande à l'ordinateur il va calculer la moyenne pour cette variable. Comment peut-on interpréter : moyenne de la variable sexe est 1,5? 2. La médiane La médiane est la valeur au milieu d'une série de nombres présentés dans l’ordre. Elle est le point, ou la valeur, en dessous de laquelle se trouvent 50% de la distribution. Cela veut dire que quelle que soit la forme de celle-ci, 50% de l'échantillon se trouveront en dessous de la médiane. On parle aussi du 50ème percentile (P50). La médiane n'est pas calculée mais localisée. Pour la déterminer, il faut: 1. Ranger les valeurs dans l'ordre. 2. Si le nombre total des valeurs est impair : Error! Objects cannot be created from editing field

codes. 3. Si le nombre total des valeurs est pair :

prendre la moyenne entre les valeurs situées à la position

Dans l'exemple précédent concernant la longueur du séjour après césarienne, les 10 valeurs arrangées dans l'ordre étaient 61, 70, 70, 74, 85, 97, 104, 112, 125, 132. Les deux valeurs du milieu sont les valeurs n°5 et n°6, càd 85 et 97. Dès lors la médiane est (85 + 97)/2 = 91. (la moyenne pour ces données était de 93 - assez proche de la médiane dans cet exemple). C'est seulement le nombre des valeurs et les valeurs adjacentes au point central de la distribution qui font l'objet de calcul. Si la valeur 132 est changée en 702 dans l'exemple précédent, la distribution est 61, 70, 70, 74, 85, 97, 104, 112, 125, 702. La médiane est alors toujours située entre 85 et 97 et reste 91 heures. Dès lors, la médiane n'est pas sensible aux valeurs extrêmes (elle est "robuste"). Elle peut être utilisée avec des distributions symétriques ou asymétriques, mais elle est particulièrement utile lorsque les données ont une distribution de forme asymétrique (« skewed »). La médiane convient bien pour les données numériques et ordinales mais pas pour les données nominales.

⎥⎦

⎤⎢⎣

⎡ +⎥⎦

⎤⎢⎣

⎡ 122netn

Page 80: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 80 /158

3. Le mode Le mode est la valeur ou la catégorie la plus fréquente. Dans l'exemple précédent, les 10 valeurs étaient 61, 70, 70, 74, 85, 97, 104, 112, 125, 132 heures. Le mode de cette distribution est 70 parce que c'est la valeur qui apparaît le plus souvent. Le mode n'est pas calculé mais simplement identifié par examen. C'est facile si les valeurs du graphique ou du tableau sont rangées dans l'ordre. Si toutes les valeurs sont différentes, il n’y a pas de mode. Si certaines valeurs apparaissent avec la même fréquence, il y a plusieurs modes. Si les valeurs d'une distribution se regroupent en plusieurs places mais pas aux mêmes fréquences, il y a un mode primaire et un mode secondaire. Le mode peut être utilisé avec des variables numériques ou ordinales comme moyen grossier d'estimer la tendance centrale. Lorsque les données sont groupées en classes, le mode devient en fait la classe modale (la classe modale dépend évidemment de la façon de grouper!) 4. Comparaison entre les mesures de tendance centrale La moyenne est la mesure de tendance centrale la plus commune. Elle est déterminée par une formule. En général les chercheurs préfèrent l'utiliser à moins d'avoir une bonne raison de ne pas le faire. C'est le cas le plus souvent quand la distribution a une forme très asymétrique. L'effet des valeurs extrêmes sur la moyenne diminue si la taille de l'échantillon augmente. Par conséquent, une autre raison de ne pas utiliser la moyenne est une petite taille d'échantillon avec quelques valeurs extrêmes. La moyenne trouve son meilleur emploi pour des distributions qui sont raisonnablement symétriques et qui n'ont qu'un seul mode. La médiane est facile à comprendre si on considère le 50ème percentile. Elle n'a pas de formule mais est localisée par une procédure de comptage. La médiane peut être utilisée pour des distributions unimodales mais elle est surtout utile avec les distributions de forme très asymétrique. Elle est peu sensible aux valeurs extrêmes. La principale utilité du mode est d'éveiller l'attention sur des distributions dans lesquelles les valeurs se regroupent à différents endroits. Elle est aussi utilisée pour faire des estimations grossières. Elle n'est pas sensible aux valeurs extrêmes. L'illustration suivante montre les positions relatives de ces trois mesures de tendances centrales pour un polygone qui a une forme très asymétrique. Le mode est la valeur située au plus haut point de la courbe. La moyenne est attirée vers la droite par les valeurs extrêmes dans la queue de la distribution. La médiane se trouve en général entre les deux. Croquis d'un polygone de fréquence pour une distribution étalée vers la droite, montrant les positions relatives de la moyenne, de la médiane et du mode. Mode

Médiane Moyenne

Page 81: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 81 /158

C. Mesures de dispersion

Ne rapporter que les mesures de tendance centrale, sans une mesure de dispersion risque d'induire le lecteur en erreur. Souvent les chercheurs se focalisent sur la mesure de tendance centrale et négligent comment les données sont dispersées alors que la dispersion est au moins aussi importante. Deux jeux de données peuvent avoir la même moyenne mais être très différents en ce qui concerne la dispersion des données. Les trois mesures de dispersion qui sont discutées ici sont :

1. l'écart type (utilisé avec la moyenne), 2. l'intervalle interquartile (utilisé avec la médiane), et 3. l'amplitude

Contrairement aux mesures de tendance centrale, qui représentent une valeur centrale, les mesures de la dispersion doivent être interprétées comme des distances sur une échelle de valeurs. Exemple de deux distributions de fréquence avec une même moyenne mais des dispersions différentes.

Moyenne

Page 82: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 82 /158

1. L'écart type Il est le plus largement utilisé pour mesurer la dispersion. L'écart type d'un échantillon (ET) est défini par

(L'écart type d'une population est représenté par la minuscule grecque sigma σ. La formule diffère par rapport à l'écart type d'un échantillon car le dénominateur est simplement n et non n – 1). La raison pour laquelle on divise par n-1 dans la formule de l’ET de l’échantillon, a à voir avec la notion théorique des degrés de liberté. Ceci est surtout important pour de petits échantillons. Le tableau suivant illustre le calcul de l'écart type pour les dix valeurs de durée de séjour pour césarienne. D'abord il faut calculer la moyenne, et ensuite la soustraire de chaque valeur et vérifier que la somme des écarts fait bien zéro. On porte ensuite ces écarts au carré. La somme de ces écarts au carré (ou la "somme des carrés") est ensuite divisée par (n – 1). La valeur obtenue est appelée la variance. Quoique ce soit une mesure de dispersion, la variance n'est pas utilisée comme mesure descriptive parce qu'elle n'a pas les mêmes unités que les données. Par exemple la variance des données du tableau est de 616,67 heures au carré. C'est pour cela que l'on utilise la racine carrée pour ramener cette statistique à l'échelle d'origine. La valeur résultante de 24,8 heures est l'écart type. Calcul de l'écart type pour un échantillon de durée d'hospitalisation (en heures) chez des femmes ayant subi une césarienne.

Xi Xi – X (Xi – X )2

61 61 – 93 = –32 (–32)2 = 1024 70 70 – 93 = –23 (–23)2 = 529

112 112 – 93 = +19 (+19)2 = 361 74 74 – 93 = –19 (–19)2 = 361

104 104 – 93 = +11 (+11)2 = 121 97 97 – 93 = +4 (+4)2 = 16 85 85 – 93 = –8 (– 8)2 = 64

132 132 – 93 = +39 (+39)2 = 1521 125 125 – 93 = +32 (+32)2 = 1024

70 70 – 93 = –23 (–23)2 = 529 ∑X=930X= 93

∑(X– X) = 0 ∑(Xi– X )2 = 5550 (somme des carrés)

Variance = 5550/9 = 616,67 heures au carré

Écart Type = √(5550/9) = 24,8 heures

( )1

2

1

−∑n

XX

Page 83: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 83 /158

L'écart type, comme la moyenne, est sensible aux valeurs extrêmes. Par exemple, si la valeur de 132 est changée en 702, le nouvel écart type est de 195,1, ce qui est une forte augmentation par rapport à la valeur originale de 24,8. En conséquence, l'écart type convient mieux à des distributions qui sont symétriques et ont un seul ‘pic’. En général, s'il est approprié de calculer la moyenne, il est aussi approprié de calculer l'écart type. 2. Coefficient de variation Lorsque l'on veut comparer des écarts type, le coefficient de variation (CV) est utile. Cette statistique est définie par: CV = (écart type / X ) x 100 CV : - Mesure la dispersion autour de la moyenne - Est utilisé pour comparer la dispersion entre plusieurs distributions - N'a pas d'unité. Cela permet des comparaisons entre des jeux de données qui utilisent des

unités de mesures différentes - Fait disparaître les effets de la taille de la mesure (parce qu'il représente l'écart type comme

un pourcentage de la moyenne). Un petit CV implique que les valeurs sont groupées autour de la moyenne. Des valeurs de CV élevées signifient de grandes variations autour de la moyenne.

3. L'intervalle interquartile (IIQ) L'IIQ est défini comme l’ensemble des valeurs allant du 25ème percentile (P25, premier quartile, Q1) au 75ème percentile (P75, 3ème quartile, Q3). Cette statistique permet de voir comment les 50% de la partie centrale de la distribution sont dispersés. Il y a deux méthodes pour calculer l' IIQ. Nous allons les appliquer toutes les deux à l'exemple des 10 valeurs de durée de séjour vu plus haut (61, 70, 70, 74, 85, 97, 104, 112, 125 et 132).

a) Approche classique (méthode exacte) - Position de Q1: (n+1) / 4 - Position de Q3: [(n+1) × 3] / 4

Dans l'exemple:

- Q1 se trouve entre la 2ème et la 3ème valeur. La valeur de Q1 = (70+70)/2 = 70. - Q3 se trouve entre la 8ème et la 9ème valeur. La valeur de Q3 = (112+125)/2 = 118 - IIQ = 118 – 70 = 48

b) Approche alternative (Tukey) Elle est plus facile à calculer. Pour localiser le premier quartile, il faut d'abord localiser la médiane de la distribution. On déterminera Q1 comme la valeur du milieu de toutes les données sous la médiane et Q3 comme la valeur du milieu de toutes les données au-dessus de la médiane. Voici la formule de Tukey :

Page 84: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 84 /158

- Position de Q1:

- Pos (mé) : position de la médiane, arrondie vers le bas (sans

chiffre après la virgule) - en partant de la première des valeurs rangées dans l'ordre.

- Position de Q3: idem, - en partant de la dernière des valeurs rangées dans l'ordre.

Cela donne dans notre exemple:

- médiane = 91, à la position 5,5. On laisse tomber le chiffre après la virgule. - Q1: (5 + 1)/2 = 3. Q1 se trouve en troisième position en partant de la première valeur

des valeurs rangées dans l’ordre. Valeur de Q1 = 70 - Q3: (5 + 1)/2 = 3. Q3 se trouve en troisième position en partant de la dernière des

valeurs rangées dans l’ordre. Valeur de Q3 = 112 - IIQ = 112 – 70 = 42.

4. L'amplitude (ou étendue) L'amplitude est la plus simple des mesures de dispersion. C'est la différence entre la valeur maximale de la distribution et la valeur minimale. Dans l'exemple des 10 valeurs (voir Tableau 2), l'amplitude est (132 – 61) = 71. L’utilisation principale de l'amplitude est de donner une estimation rapide de la dispersion. L'amplitude peut aussi donner une information utile dans certaines situations où il est important de connaître précisément les valeurs extrêmes. 5. Comparaison des mesures de dispersion L'écart type est la mesure de dispersion la plus utilisée. Il est calculé à partir d'une formule et est l'estimation la plus fiable de la dispersion de la population. En général, les chercheurs préfèrent utiliser l'écart type à moins d'avoir une bonne raison de ne pas le faire. Comme pour la moyenne, on se gardera d'utiliser l'écart type si la distribution possède des valeurs extrêmes et comporte plusieurs modes. Il convient le mieux avec des distributions qui sont raisonnablement symétriques et n'ont qu'un mode. L'intervalle interquartile (IIQ) est facile à comprendre. L' IIQ, allant de P25 (Q1) à P75 (Q3), délimite les 50% de la partie centrale de la distribution. Ces mesures n'ont pas de formules mais sont localisées par une procédure de comptage. Elles peuvent être utilisées pour des distributions unimodales mais sont particulièrement utiles avec les distributions très asymétriques. On va utiliser principalement l'amplitude pour attirer l'attention sur les valeurs extrêmes et faire une estimation rapide et grossière de la dispersion. Afin de choisir le type de mesure de façon appropriée, il faut avant tout connaître la forme de la distribution. Toutes les mesures dont on a parlé sont surtout destinées à des variables

21)()1( +

=méPosquartilePos

Page 85: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 85 /158

numériques, mais sont souvent utilisées avec des valeurs ordinales. Il n'y a pas de mesures de variabilité couramment utilisées pour les données nominales. 6. Les valeurs extrêmes (‘outliers’) Les valeurs extrêmes sont des valeurs qui dévient fortement du gros de la distribution. Elles ne ‘cadrent’ pas avec le reste des données. L'origine de ces données peut être : 1. Une erreur dans l'enregistrement des données 2. Une défaillance dans la collecte des données, comme le fait de ne pas avoir respecté un

critère dans le choix de l'échantillon, un sujet qui n'a pas suivi les instructions du questionnaire ou la défaillance du matériel.

3. Une valeur extrême réelle venant d'un sujet non ordinaire. La première étape est d'identifier les valeurs extrêmes par une méthode objective. Les raisons d'adopter une méthode objective plutôt qu'un jugement isolé est de prévenir les manipulations peu justifiées (peut-être malhonnêtes) de données telles que l'élagage des très hautes et très basses valeurs qui ne sont pas réellement des valeurs extrêmes. Une des méthodes possibles est de décider que les valeurs qui sont plus de 3 IIQ sous P25 (Q1) ou au-dessus de P75 (Q3) sont des valeurs extrêmes ‘majeures’ (major outliers). Les valeurs comprises entre 1,5 et 3 IIQ sous P25 ou au-dessus de P75 sont des valeurs extrêmes mineures (minor outliers). Une fois que les valeurs extrêmes ont été identifiées, l'étape suivante est d'essayer de les expliquer. S'ils représentent des erreurs dans l'encodage ou une défaillance dans la collecte des données, alors, ces observations sont habituellement écartées ou parfois corrigées. Si les valeurs extrêmes représentent des valeurs réelles, ou que l'explication est inconnue, un chercheur doit décider comment les traiter. Une des suggestions fréquentes est d'analyser les données de deux façons: avec les valeurs extrêmes de la distribution et sans elles. Si les résultats sont similaires, comme cela devrait être la tendance si l'échantillon est grand, alors les valeurs extrêmes éventuelles peuvent être ignorées. Sinon, il faudra utiliser une analyse statistique résistante aux valeurs extrêmes (par exemple la médiane et l'IIQ). 7. Annexe: résultat d'un traitement informatique (EpiInfo) décrivant une distribution Enquête nutritionnelle au Zaïre (actuellement Congo). Variable: "POIDS" POIDS (en kg) Total1 Sum Mean Variance Std Dev 438 5371 12,262 9,737 3,120 Minimum 25%ile Median 75%ile Maximum Mode 4,000 10,100 12,300 14,500 20,100 10,900 1 Nombre total des observations. Il faut noter que dans cet exemple, le nombre de décimales est au-dessus de la précision de la mesure (qui n'est pas connue par l'ordinateur). Seulement une seule décimale devrait se trouver sur le rapport.

Page 86: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 86 /158

L'ordinateur fournit ici automatiquement toutes les mesures descriptives, même celles qui ne sont pas pertinentes, étant donnés le type de variable ou la distribution. Le jugement du chercheur est fondamental et ne peut être remplacé par les logiciels les plus sophistiqués.

D. REPRESENTATION GRAPHIQUE DES STATISTIQUES DESCRIPTIVES 1. Graphique branche et feuilles Le graphique branche-et-feuilles offre une façon rapide de présenter la forme d'une distribution, et ce en incluant les valeurs numériques réelles dans le graphique. Il fonctionne le mieux avec de petits nombres d'observations qui sont toutes plus grandes que 0. Pour construire un graphique branche-et-feuilles:

1. Séparer chaque observation en branche (le premier chiffre) et en feuille (le second chiffre). En général, les branches peuvent avoir autant de chiffres que ce qui est nécessaire mais chaque feuille ne peut contenir qu'un seul chiffre.

2. Inscrire les branches verticalement dans le sens croissant du haut vers le bas. Tracer une ligne verticale à droite des branches et ajouter les feuilles à droite de la ligne.

3. Arranger les données des lignes en ordre croissant de la gauche vers la droite. Voici les poids (kgs) de 25 étudiants de l'IMT : 21, 45, 45, 45, 47, 47, 47, 50, 50, 50, 51, 51, 51, 55, 60, 60, 60, 62, 62, 65, 65, 70, 70, 75, 80.

Appliquons la méthode décrite plus haut: 2 1 3 4 5, 5, 5, 7, 7, 7 5 0, 0, 0, 1, 1, 1, 5 6 0, 0, 0, 2, 2, 5, 5 7 0, 0, 5 8 0 Une fois que la distribution a été visualisée de cette manière, on peut voir ses caractéristiques importantes comme suit: 4. Localiser le centre de la distribution en comptant à partir de chaque extrémité jusqu'à la

moitié des observations (médiane = 51kg) 5. Examiner la forme générale de la distribution: un ou plusieurs sommets? Symétrie? Dans ce

cas-ci, la distribution a un sommet et n'est pas symétrique mais plutôt étalée vers la droite. 6. Chercher les déviations importantes de la forme générale. Il peut y avoir des "trous" dans la

distribution ou des valeurs extrêmes. Ici, la valeur de "21 kg" semble suspecte. De combien de IQ est-ce sous Q1? Voyons avec la méthode exacte:

7. Pos. Q1 = (n+1)/4 = 26/4= 6,5 => Q1 est situé entre la 6ème et la 7ème valeur. Q1 = 47

8. Pos. Q3 = (n+1) × 3/4 = 78/4= 19,75 => Q3 est situé entre la 19ème valeur (62) et la 20ème

valeur (65). Q3 = (62+65) / 2 = 63,5.

9. IIQ = Q3 – Q1 = 16,5.

Page 87: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 87 /158

10. Q1 (47) – la valeur extrême (21) = 26. Divisée par IIQ on obtient: 26/16,5 = 1,6. Cette valeur extrême (21) est une valeur extrême mineure parce qu'elle est située à 1,6 IIQ sous Q1.

2. Histogramme (polygone de fréquence)

La manière classique de présenter graphiquement les données numériques continues ou discrètes (comme vu plus haut) 3. Diagramme en boîte (diagramme en moustaches, « box plot » ou « box and whisker plot ») Un diagramme en boîte est une représentation graphique qui utilise les statistiques descriptives basées sur les percentiles. La longueur de la boite correspond à IQ (P25-P75, ou Q1 – Q3). Une marque sur la boite indique la position de la médiane ou 50ème percentile. En conséquence, la boîte fourni les informations sur la tendance centrale et la dispersion des 50% de la partie centrale de la distribution. Les "moustaches" de la boîte vont s'étendre jusqu'aux plus petites et plus grandes valeurs à l'exclusion des valeurs extrêmes mineures ou majeures. Ainsi donc les moustaches et les valeurs aberrantes fournissent plus de détails sur la façon dont les 25% supérieurs et inférieurs de la distribution sont répartis.

Les valeurs extrêmes sont représentées par des points individualisés.

La moyenne peut être représentée par une croix, pour visualiser où elle se positionne par rapport à la médiane.

Exemple : Appliquons cette technique au jeu de données des 25 étudiants IMT : Q1 Q2 Q3

45 50 60 70 80 Il n’y a pas de valeurs extrêmes (>1,5 x IIQ). Pour « lire » un diagramme en boîte, on analyse les points suivants:

• La symétrie par rapport à la médiane

• La position de la moyenne

• La concentration des valeurs entre Q1 et Q3

• L’étalement des données vers les deux extrêmes

• Les valeurs extrêmes (majeures et mineures)

45 47 51 65

80

+

Page 88: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 88 /158

Exemple :

Distribution du poids de naissance, n = 641 nouveau-nés. (importé du logiciel Stata) Il y a une valeur extrême dans les valeurs supérieures et plusieurs valeurs extrêmes dans les valeurs inférieures.

0

2000

4000

6000 Poids de naissance (gramme)

Page 89: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 89 /158

V. REDUCTION DES DONNEES En épidémiologie on préfère souvent changer l'échelle de mesure des données numériques en données ordinales ou même nominales. La description des données quantitatives, transformées en échelle ordinale, suit les principes de description des données ordinales. Pour transformer les données numériques en ordinales/nominales, il s'agira de définir le seuil ("le cut-off point") à l'aide a) des valeurs basées sur la littérature, l'opinion d'experts, etc. b) de l'information intrinsèque des données. Dans ce cas on laisse guider par le mode, la

médiane ou un des quartiles. Ce seuil est la valeur de la variable autour de laquelle on définit les classes.

Les avantages de cette réduction sont: 1) une facilité de résumer 2) une facilité des tests statistiques (p.ex. X2 ) 3) une facilité de communiquer les résultats au public. Les désavantages d'une telle réduction sont: 1) les problèmes de sensibilité et de spécificité 2) la perte d'information 3) les caractéristiques propres de la distribution statistique sous-jacente se perdent

Page 90: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 90 /158

VI. VISUALISER ET RESUMER DES DONNEES BIVARIEES En épidémiologie, on porte un intérêt particulier aux interactions entre variables. Une association est une relation entre 2 variables telle que l'une varie en fonction de l'autre. Deux événements sont indépendants s'il n'y a aucune association statistique entre eux. Dans ce contexte, il y a 2 sortes de variables: - Les variables dépendantes (ou variables de "réponse"): essayent de mesurer des

résultats d'une étude. - Les variables indépendantes (aussi appelées variables explicatives): Elles vont servir à

expliquer les résultats obtenus. Exemples

La taille en fonction de l'âge (taille = variable dépendante) Le poids en fonction de la taille (taille = variable indépendante)

NB: ASSOCIATION NE VEUT PAS DIRE CAUSALITÉ !!!!! Le concept d'association statistique significative sera expliqué plus tard. Les méthodes utilisées pour explorer les associations dépendent des types de variables impliquées. Trois combinaisons sont possibles:

Association entre 2 variables quantitatives Association entre une variable qualitative et une variable quantitative Association entre 2 variables qualitatives

Page 91: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 91 /158

A. Association entre 2 variables quantitatives Un diagramme de dispersion est utilisé pour représenter graphiquement une relation entre 2 variables quantitatives. Poids à la naissance (variable dépendante) en fonction de la durée de grossesse (variable indépendante). N = 641 Dans un diagramme de dispersion, il faut noter :

- Le type de relation: linéaire ou pas? - La direction de la relation: positive ou négative? - La force de la relation.

Si (et seulement si) la relation apparaît linéaire, le coefficient de corrélation de Pearson peut être utilisé pour mesurer la direction et la force de l'association. La corrélation peut être considérée comme une mesure du degré avec lequel 2 variables varient ensemble. La force de cette association est exprimée par le coefficient de corrélation. Différents types de coefficients de corrélation sont fréquemment utilisés dans les études épidémiologiques. Ils ont tous une échelle de valeurs située entre –1 (corrélation négative parfaite) et +1 (corrélation positive parfaite). Le 0 indique l'absence de corrélation.

25 30 35 40 45 0

2000

4000

6000 Poids à la naissance (grammes)

Durée de la grossesse (semaines)

Page 92: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 92 /158

Le coefficient de corrélation de Pearson ( r ) mesure le degré de linéarité de la relation entre 2 variables. Si la corrélation est parfaitement linéaire, toutes les valeurs observées vont se trouver sur une ligne droite et r = -1 ou +1. La formule pour les variables x et y est:

Le diagramme de dispersion dans l'exemple plus haut montre une association linéaire, positive et relativement forte entre le poids à la naissance et la durée de la grossesse. Le coefficient de corrélation de Pearson (calculé par le logiciel Stata dans cet exemple) est de + 0,74. Il est important de souligner que le coefficient de corrélation de Pearson mesure seulement le degré de la relation linéaire. Deux variables peuvent avoir un coefficient de corrélation très bas et malgré tout être hautement liées dans une relation non-linéaire. C'est la raison pour laquelle une représentation graphique est si importante. B. Association entre une variable qualitative et une variable quantitative.

Dans le cas d'une variable dépendante quantitative et d'une variable indépendante qualitative, la variable quantitative peut être résumée pour les différentes catégories (valeurs) de la variable qualitative. Un diagramme en boite peut être utilisé pour la représentation graphique. Dans ce cas, la dispersion et les mesures de la tendance centrale sont comparées pour chaque catégorie de la variable qualitative.

[ ][ ]∑∑∑

−−

−−=

22 )()(

)()(

yyxx

yyxxr

Page 93: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 93 /158

Poids à la naissance (variable dépendante), par sexe (variable indépendante). N = 641 Nnés.

=> sexe = masculin. (n=326) => sexe = féminin. (n=315) Plus petit: Plus grand: Percentiles

25% 50% 75%

Moyenne Écart Type

700 4650 2900 3290 3610 3211,279 665,9798

Plus petit: Plus grand: Percentiles

25% 50% 75%

Moyenne Écart Type

630 4416 2800 3120 3400 3044,127 628,6603

Le diagramme indique une faible association entre sexe et poids de naissance: en moyenne, les garçons sont légèrement plus lourds que les filles à la naissance.

0

2000

4000

6000 Poids à la naissance (grammes)

Garçons Filles

Page 94: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 94 /158

On peut transformer une variable quantitative en une variable catégorielle. Poids à la naissance (variable dépendante) et durée de gestation (variable indépendante) n = 641.

< 32 semaines (n=18) 32-35 semaines (n=44) >=35 semaines (n=579) Le plus petit: 360 Le plus grand: 2100

Le plus petit: 1200 Le plus grand: 3010

Le plus petit: 1520 Le plus grand: 4650

Percentiles: Percentiles: Percentiles: 25 % : 50 % : 75 % :

860 1061 1590

25 % : 50 % : 75 % :

171023002600

25 % : 50 % : 75 % :

2970 3260 3580

Écart Type 448,7092 Écart Type 513,9528 Écart Type 494,0508 Moyenne 1203,722 Moyenne 2175,773 Moyenne 3261,444 Il existe une association forte entre le poids à la naissance et la durée de la grossesse. (Étonnant?)

0

2000

4000

6000 Poids à la naissance (grammes)

< 32 semaines 32-35 semaines >= 36 semaines

Durée de gestation

Page 95: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 95 /158

femmes les chez prévalencehommes les chez prévalence

C. Association entre 2 variables qualitatives

Les données sont disposées dans un tableau. Les proportions sont comparées et le rapport des proportions (ou des prévalences) est calculé. Enquête de prévalence des handicaps. Personnes handicapées, par âge et par sexe. Province de Kandahar, Afghanistan, 1996 Catégorie (variable indépendante)

Handicap (variable dépendante) Total étudiés

Oui Non Enfants (< 15 ans.) 90 6.211 6.301 Hommes (>=15 ans) 143 2.705 2.848 Femmes (>=15 ans) 42 2.874 2.916 Total 275 11.790 12.065 Prévalence des handicaps chez les moins de 15 ans: (90/6.301)x1000= 14/1000 Prévalence des handicaps chez les hommes adultes : (143/2.848)x1000= 50/1000 Prévalence des handicaps chez les femmes adultes: (42/2.916)x1000= 14/1000 Prévalence totale des handicaps (275/12.065)x1000=23/1000 Chaque catégorie peut être comparée aux autres en calculant un rapport des prévalences.

= 100014100050

//

= 3,6

La prévalence des handicaps 3,6 fois plus élevée chez les hommes que chez les femmes. Il existe une association entre le sexe et la prévalence des handicaps. Personnes handicapées adultes, par sexe et cause du handicap. Province de Kandahar, Afghanistan, 1996. Cause du handicap (variable dépendante)

Sexe (variable indépendante)

Total

Masculin Féminin Liée à la guerre (combat, torture ou mine).

42 3 45

Autres causes 101 39 140 Total 143 42 185 * adultes: 15 ans et plus Y a-t-il une association entre le sexe et la cause de l'infirmité? Le rapport des prévalences est de (42/143) / (3/42) = 4,1. Les handicaps liés à la guerre sont 4 fois plus fréquents chez les personnes handicapées de sexe masculin, que chez les personnes handicapées de sexe féminin.

Page 96: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 96 /158

Page 97: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 97/158

Chapitre 5 : Inférence

OBJECTIFS POUR LE CHAPITRE 5 Après avoir lu ce chapitre, vous devriez être capable de: 1 Expliquer le concept d'inférence 2 Expliquer les caractéristiques de la distribution normale 3 Standardiser une distribution normale 4 Dessiner une distribution d'échantillonnage 5 Enumérer les différentes étapes d'un test statistique 6 Expliquer la logique d'un intervalle de confiance 7 Choisir les outils appropriés pour l'inférence statistique à partir de la (les)

moyenne(s), médiane(s) et proportion(s) de 1 ou 2 échantillons

Page 98: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 98/158

I. INTRODUCTION: LE CONCEPT D'INFERENCE On ne va presque jamais étudier en totalité la population à laquelle on s'intéresse. Le plus souvent on n'examinera qu'un échantillon de la population. Les résultats obtenus à partir de cet échantillon sont extrapolés à la population tout entière. Ce chapitre traite de la façon dont on peut extrapoler à une population les résultats obtenus à partir d'un échantillon issu de celle-ci. Il faut bien savoir que personne n'est intéressé par les résultats obtenus à partir d'un échantillon particulier. Ce que l'on recherche, c'est de savoir ce qui se passe dans la population. L'extrapolation d'un échantillon à une population est conditionnée par deux questions essentielles : quelle est la précision et quelle est la validité des résultats obtenus sur l'échantillon? L'histoire du chasseur de lion peut expliquer ceci. Un mauvais chasseur est celui qui rate à cause d'un mauvais tir (manque de précision). Cependant, un tir très précis ne sera pas non plus satisfaisant s'il vise une mauvaise cible, tuant une gazelle à la place d'un lion. Dans ce chapitre, on va étudier les règles de l'inférence statistique. Cela nous donnera une idée de la précision de notre estimation sur la population. Le chapitre suivant, traitant de la validité, nous aidera à apprécier si nous avons effectivement mesuré ce que nous voulions mesurer, le "lion et non la gazelle". A. Remarques préliminaires Deux procédures peuvent être suivies dans l'inférence statistique: le test statistique et l'intervalle de confiance (I.C.). Les deux seront abordées dans ce cours parce qu'il est important de comprendre la logique qui les sous-tend. Cependant, on vous recommande d'utiliser l'I.C. dans la mesure du possible.

En étudiant ce chapitre, vous devez toujours garder à l'esprit la distinction entre l'échantillon et la population (dont l'échantillon a été tiré). Les statisticiens ont l'habitude d'utiliser le terme général "statistique" pour toutes les mesures calculées sur l'échantillon (comme la moyenne la médiane, une proportion). Lorsqu'ils parlent d'une moyenne, d'une médiane ou d'une proportion au niveau d'une population, ils utilisent le terme de "paramètre". Donc nous nous occuperons de statistiques d'échantillons et de paramètres de population.

Nous attirons votre attention sur les annotations utilisées qui peuvent être différentes de celles que l'on trouve dans certains livres. On utilisera les lettres grecques pour les paramètres de la population (par exemple π (lire PI) pour les proportions dans la population) et les lettres latines pour les statistiques des échantillons (par exemple "p" pour les proportions dans les échantillons). B. Symboles utilisés

µ

(lire mu)

Moyenne de la population

m Moyenne de l'échantillon σ (lire sigma) Ecart Type de la population s Ecart Type de l'échantillon π (lire pi) proportion dans la population p proportion dans l'échantillon q = (1-p) Complément de la proportion dans l'échantillon Xi Toute valeur de x dans une distribution

Page 99: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 99/158

II. LA DISTRIBUTION NORMALE

A. Une courbe très utile en biologie : la distribution normale

Allons-nous promener! N’êtes-vous pas étonnés par la riche diversité de la Nature? Regardez les êtres humains, ils sont tellement hétérogènes, depuis le très mince jusqu'à l'obèse, du très petit au très grand. Pourtant il semble y avoir une certaine structure, un modèle dans toute cette variété. Il est sûr que des "règles" existent dans cette apparente diversité biologique. Une de ces règles est la fameuse distribution normale.

Lorsqu'on mesure la taille d'un groupe d'adultes suffisamment grand, on peut voir qu'elle est distribuée d'une manière particulière. Certains sont très petits, d'autres sont grands et beaucoup de personnes sont proches d'une hauteur moyenne par exemple de 1m65. Si on représente graphiquement les valeurs de la taille, on va observer une courbe typique en forme de cloche connue sous le nom de "courbe de distribution normale » ou encore courbe de Gauss. Cette courbe est très commune en biologie. La figure 1, par exemple, montre la distribution des poids de naissance des bébés de sexe féminin en Belgique.

La distribution normale est complètement définie par deux paramètres: la moyenne de la population et son écart type (ET). Ceci signifie que l'on est capable de dessiner la courbe en connaissant seulement ces deux paramètres. Une autre caractéristique importante est que la surface située sous la courbe correspond à une probabilité. La "cloche" comprend tous les individus soit 100 %. Il faut se rappeler que 95 % de la population est contenue entre +/- 2 ET (exactement 1,96). Deux tiers (67%) de la population sont compris entre –1 et +1 ET.

Exemple

La moyenne du poids de naissance des filles en Belgique est de 3.300 g et l'ET est de 500 g. Comme le poids de naissance est distribué normalement, on sait que 95 % des poids sont situés entre 2.300 et 4.300 g. (3.300 +/- 2 ET) Quel pourcentage des filles a un poids de naissance supérieur à 3.800 g?

μ = 3300 g ; σ = 500g

Figure 1 : la distribution du poids de naissance chez les filles

Page 100: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 100/158

B. La distribution normale standardisée Les statisticiens ont conçu une plus simple version de la courbe normale, la courbe normale standardisée, montrée figure 2. Il s'agit d'une distribution normale dont la moyenne = 0 et l'écart type = 1. Cet ET équivaut à 1 unité que l'on appelle Ecart-réduit (ou Z-score). Il correspond à 1 ET de la distribution originale. Dans notre exemple, un écart réduit correspond à 500 g du poids de naissance, 2,5 écarts réduits correspondent à 1250g, etc. Chaque point de la distribution standardisée est identifié par le nombre d'écarts réduits le séparant de la moyenne. Comme la courbe de distribution standardisée n'a plus les dimensions de la distribution d'origine (kg, g, litre, etc.), il est aisé de comparer plusieurs courbes différentes.

L'écart réduit est une mesure de la distance séparant chaque observation de la moyenne de la population, dans une distribution normale standardisée.

Exemple : Dans une population ayant une taille moyenne de 1 m 65 et un écart type de 10 cm, une personne de 2 mètres de haut est située à + 3,5 écarts réduits de la moyenne. Cette taille est située dans l'extrémité droite de la distribution et parait plutôt extrême. Comme pour la distribution normale, la surface sous la courbe montre la proportion des individus situés entre deux valeurs. De ce qui a été vu plus haut, on peut déduire que 95 % de la population sont situés entre –2 et +2 écarts réduits et que les deux tiers se trouvent entre –1 et +1 écarts réduits. Les statisticiens ont calculé des tables très détaillées, qui nous donnent, pour toutes les valeurs possibles de l'écart réduit, les proportions correspondantes (probabilité) d'observation au-dessus et en dessous de cette valeur (voir tableau 1). Par exemple, un écart réduit de 2,00 correspond dans la table 1 à la probabilité de 0,023. Ceci signifie que 2,3% de la population a un écart réduit ≥ 2,00. Notez qu'il y a deux sortes de tables: les tables bilatérales montrant la probabilité d'être "aussi bien à l'extrême gauche qu'à l'extrême droite" et les tables unilatérales qui donnent la probabilité d'être à une seule des deux extrémités (pas inclus dans ce syllabus). Essayez de découvrir la probabilité d'avoir un poids au-dessus de 1,47 écart réduit de la moyenne en utilisant la table A1 (à la fin de ce chapître).

Figure 2

Page 101: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 101/158

Comment standardiser une distribution normale? Quel est le lien entre la distribution normale et la distribution normale standardisée? Pour aller de la première à la seconde, il faut transformer chaque valeur de la première distribution en une valeur standardisée. On calcule alors l'écart réduit (z). La formule est simple:

xi = toute observation de la distribution originale μ = la moyenne de la population σ = l'écart type de la population.

Exemple En utilisant cette formule, (xi - μ) / σ , on peut standardiser les courbes de poids à la naissance en Belgique. Pour une fille avec un poids de 4.300 g, on va trouver (4.300 – 3.300) / 500 = 2 écarts réduits. Un bébé de 2.680 g est situé à (2.680 – 3.300) / 500 = - 1,24 écarts réduits de la moyenne. Il est important de connaître et de comprendre en profondeur les caractéristiques de la distribution normale et de sa version standardisée. Ce sera crucial lorsqu'il faudra comprendre la théorie de l'inférence statistique. Essayez par exemple de répondre aux questions suivantes et d'exercer un peu plus votre pratique sur ce sujet avec le logiciel EPITROP:

1. Quelle est en Belgique la proportion des bébés filles qui ont un poids à la naissance inférieur à 2.300 g?

2. Quelle est la probabilité de voir naître en Belgique une petite fille de plus de 3.800 g ?

3. En utilisant le tableau 1, quelle est la proportion des hommes belges de plus de 2

mètres? (μ = 1,65 m et σ = 10 cm)

σμ−

= ix z

Page 102: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 102/158

C. Une courbe très utile en statistique

Le hasard est capable de tout D. Schwartz

1. La distribution d’échantillonnage Maintenant que vous avez compris toutes les caractéristiques de la distribution normale, nous allons revenir à notre problème original : l'inférence statistique. Comment tirer des conclusions sur une population si nous avons seulement l'échantillon à notre disposition?

Imaginons que l'on veut étudier le poids des hommes belges en considérant un échantillon de 50 individus. Essayons cette expérience. Supposons que l'on tire tous les échantillons possibles de 50 hommes de cette population, qu'obtiendra-t-on comme résultat? Pour chaque échantillon, on calcule le poids moyen. Ceux-ci seront différents d'un échantillon à l'autre. Le premier échantillon a, par exemple, un poids moyen de 84 kg, le second de 70 kg, le troisième de 62 kg, etc. La même chose se passe lorsqu'on calcule les écarts types de ces échantillons: 12 kg, 7 kg, 9 kg, etc. On va se demander lesquels parmi les échantillons donnent une idée correcte des paramètres dans la population.

Lorsqu'on tire beaucoup d'échantillons de même taille dans une population (avec remise dans la population de tout individu tiré avant d'effectuer le tirage de l'échantillon suivant), on verra que les résultats obtenus (moyenne, écart type, médiane, quartiles) sont différents d'un échantillon à l'autre. Quelle est la mesure de cette différence? La variation trouvée va dépendre à la fois de la variabilité du phénomène que l'on étudie ainsi que de la taille de l'échantillon.

Mais il semble que la distribution des résultats de ces échantillons présente une forme familière. Si on dessine une distribution de fréquence de toutes les moyennes de poids provenant des milliers d'échantillons tirés, on obtient la courbe familière en forme de cloche, la distribution normale.

Une des lois fondamentales en statistique est que, même si les paramètres que l'on étudie dans une population ne sont pas normalement distribués, les moyennes de tous les échantillons possibles que l'on peut tirer de cette population seront normalement distribuées (à la condition que n, la taille de l'échantillon, soit supérieure à 30). Cette distribution théorique est appelée "la distribution d'échantillonnage".

Si la distribution de tous les résultats des échantillons est normale, quels seront la moyenne et l'écart type de cette distribution?

La moyenne de cette distribution d'échantillonnage correspond à la moyenne du paramètre que l'on étudie dans la population. (Oui, la moyenne réelle du poids des hommes belges!). L'écart type de cette distribution est appelé l'erreur standard (ES = σ/√n). Il dépend à la fois de la taille de l'échantillon et de la variabilité dans les données.

Si la taille (n) de l'échantillon augmente, l'erreur standard diminue et notre estimation sera plus précise. Si la variabilité dans la population augmente (σ), l'erreur standard augmente aussi et une estimation sera moins précise. L'erreur standard est calculée en divisant l'écart type de la population par la racine carrée de la taille de l'échantillon. (Dans notre exemple, l'ET du poids des hommes belges /√ 50)

Page 103: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 103/158

Pour résumer: L'écart type σ mesure la dispersion des valeurs individuelles (xi) dans la population, tandis que l'erreur standard σ/√n mesure la dispersion de moyennes d'échantillons (mi).

La distribution d'échantillonnage est une distribution normale si la taille des échantillons est suffisamment grande (n > 30). Sa moyenne vaut μ, (la moyenne de la population) et son écart type ou erreur standard est σ / √n. Cette loi statistique va nous aider à déterminer la probabilité d'observer une statistique particulière d'échantillon pour un paramètre de population donné. C'est justement ce que l'on recherche, puisqu'on ne peut pas se permettre le luxe de tirer tous les échantillons possibles dans une population. On travaille avec le résultat d'un seul échantillon. En le "standardisant", on peut jeter un coup d'œil à sa position sur la courbe normale standardisée, et voir à quel point il est probable ou improbable, étant donnée la moyenne de la population. Il faut transformer le résultat de l'échantillon pour obtenir son écart réduit correspondant. 2. Transformation des résultats d'échantillons en écart réduit

a. Pour une moyenne En substituant les valeurs de la moyenne de la population et de l'erreur standard dans la formule précédente, on peut calculer l'écart réduit pour tout résultat d'échantillon mI (en respectant toujours la condition n > 30). Très souvent, on ne connaît pas la valeur exacte de µ, la moyenne de la population. Il faut alors calculer l'écart réduit avec un μ hypothétique, "µ sous l'hypothèse nulle" (voir plus loin). Si on ne connaît pas σ, on le remplace par l'ET de l'échantillon, " s ".

n

-m Z i

σμ

=

Figure 3

Page 104: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 104/158

Exemple.

Dans un échantillon de 38 enfants hospitalisés, la durée moyenne de séjour est de 12 jours. La durée moyenne de séjour en pédiatrie est de 7 jours avec un ET de 1 jour. Quel est l'écart réduit correspondant à cet échantillon de 38 enfants?

Cette moyenne d'échantillon (m = 12 jours) est située à + 30 écarts réduits de μ (= 7 jours) ce qui est extrême.

b. Pour une proportion On peut appliquer la formule ci dessous à la condition que (n x p) et (n x q) soient tous les deux ≥ 5. Dans le cas où on ne connaîtrait pas π, on le substitue par π tel qu'il est donné dans l'hypothèse nulle.

En ce qui concerne l'erreur standard, on peut la remplacer par l'écart type de l'échantillon: ou

Exemple. La couverture vaccinale contre la rougeole est étudiée en prenant un échantillon de 50 enfants hospitalisés en pédiatrie. 26 (52 %) étaient correctement immunisés. Dans la population du district, la couverture est de 80 %. Quel est l'écart réduit du résultat de l'échantillon?

La proportion de l'échantillon a un écart réduit de – 5. La probabilité que cet échantillon provient d’une population dont la couverture est identique à celle de la population du district (80%), est très très petite. La couverture dans le service de pédiatrie est statistiquement différente de la couverture dans la population du district. (voir plus loin).

3038/1712 Z =

−=

n)1(

-p Zππ

π−

=

0,52 - 0,80

0,8 0,2 = - 0,28

0,056 = - 5

∗50

n)1( ππ −

np)-(1p×

np q×

Page 105: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 105/158

3. Probabilité et écart réduit En calculant l'écart réduit des statistiques d'échantillons, on peut localiser le résultat de cet échantillon très précisément à l'intérieur de la distribution d'échantillonnage. Les écarts réduits de faible valeur signifient que le résultat de l'échantillon se trouve près de la moyenne de la distribution d'échantillonnage, et donc également près de la moyenne de la population, μ. De hautes valeurs d'écarts réduits signifient que le résultat de l'échantillon se trouve aux extrémités de la distribution d'échantillonnage, et donc très loin de la moyenne de la population. Comme dans n'importe quelle distribution normale, 67 % de tous les résultats possibles d'échantillons sont situés entre –1 et +1 écart réduit de la moyenne. De même, 95% de tous les résultats possibles d'échantillons se trouvent entre –2 et +2 écarts réduits de la moyenne μ de la population. En dessous de –2 écarts réduits on va trouver 2,5 % de tous les résultats possibles d'échantillons et au-dessus de +2 écarts réduits, on va en trouver aussi 2,5%. De cette façon, on est capable de donner, pour tout résultat d'échantillon, la probabilité d'observer ce résultat en fonction d'une certaine moyenne de la population. On va utiliser la table de l'écart réduit (table 1) parce qu'elle est plus précise que simplement jeter un coup d'œil à la courbe en forme de cloche.

Exemple Un échantillon aléatoire simple de 100 écoliers vivants près d'une aire industrielle a montré un niveau moyen de plomb dans le sang de 95 microgrammes/litre. La concentration du plomb sanguin dans la population générale a une distribution normale avec une moyenne de 90 et un écart type de 10. Est-ce que les enfants de cette école sont intoxiqués?

La première étape est de déterminer la probabilité d'obtenir un échantillon avec une moyenne de 95 étant donné que la moyenne de la population est de 90 microgrammes/litre. Calculons l'écart réduit:

Ainsi, notre exemple provient de l'extrémité droite de la courbe de distribution d'échantillonnage de tous les échantillons possibles (n=100) provenant de cette population avec une moyenne de 90. La probabilité de tirer un échantillon avec une moyenne de 95 (n=100) n'est pas 0 mais est très petite. La chance que notre échantillon provienne en fait de cette population particulière avec une moyenne de 90 est donc très petite, il y a une assez bonne chance qu'il provienne d'une population différente, avec une plombémie plus élevée.

515

100/109095

+==−

=Z

Page 106: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 106/158

III. LA LOGIQUE DES TESTS D'INFERENCE Un test d'inférence statistique suit toujours la même procédure de base. En voici les étapes:

1. Formuler une hypothèse de travail, Ho 2. Déterminer le seuil de décision, α 3. Choisir le test approprié 4. Calculer la valeur du test 5. Déterminer la probabilité (p) d'observer la valeur sous Ho 6. Interpréter le test, c'est à dire rejeter ou accepter Ho

A. Comment formuler une hypothèse? Lorsque quelqu'un doit comparaître devant la justice, il a toujours droit au bénéfice du doute. Il est présumé innocent jusqu'à ce qu'il soit déclaré coupable. En réalité, cette personne est soit coupable, soit innocente. Sans connaître la vérité, le juge doit donner son verdict à la fin du procès. Il a seulement deux options et elles sont mutuellement exclusives, coupable ou non coupable. Comment le juge peut-il arriver à un verdict de culpabilité? Si et seulement si il a suffisamment d'arguments pour douter de l'innocence de la personne. Si non, le juge continuera à douter et déclarera l'accusé non coupable. Si, cependant, il a assez d'arguments, il rejettera l'hypothèse d'innocence et déclarera la personne coupable. Le risque d'erreurs judiciaires est double parce que:

- Le juge peut penser qu'il a assez d'arguments pour douter très sérieusement de l'innocence et, en conséquence, il déclare l'accusé coupable alors qu'il/elle est innocent.

- Le juge peut considérer la preuve comme insuffisante et déclare l'accusé non coupable alors qu'il/elle est réellement coupable.

La logique d'un test statistique est semblable à la logique d'une prise de décision judiciaire. Le chercheur formule une hypothèse, semblable à la présomption d'innocence du tribunal, et il cherchera alors à la réfuter. Son hypothèse de travail est appelée l'hypothèse nulle, Ho. Au tribunal, on présume que l'accusé est innocent tant qu'il n'y a pas assez de preuve de culpabilité. De la même manière on suppose, en réalisant un test statistique, que l'Ho prévaut, à moins que l'on réunisse suffisamment de preuves pour la rejeter. En général l'énoncé de l'Ho suppose que la différence que l'on observe entre une statistique d'un échantillon et un paramètre d'une population est entièrement due au hasard. En retournant l'énoncé, on pourrait dire que la différence observée est due à la variabilité dans la distribution d'échantillonnage. L'échantillon vient tout juste d'une extrémité de la distribution, mais il a bien été tiré de cette population particulière avec cette moyenne particulière. Les objectifs de toutes les réflexions qui vont suivre seront de vérifier si on a assez d'arguments pour rejeter l'hypothèse Ho. Si oui, on va prononcer le verdict de différence, c'est à dire rejeter Ho et accepter l'autre hypothèse, Ha.

Page 107: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 107/158

Exemple:

Un chercheur suspecte les enfants de la région d'Antigua d'être plus atteints par la malnutrition que la moyenne nationale (la dernière étude nationale donnait 20% de malnutrition chez les enfants). Pour prouver ceci, il constitue un échantillon de 450 enfants à Antigua. Le résultat montre que 34% des enfants de l'échantillon sont malnourris. On ne peut pas conclure, parce qu'un second échantillon de 450 enfants tirés au hasard aurait pu donner 18% ou 25% ("la chance est capable de tout"). En fait, A Antigua, on peut prendre différents échantillons de 450 enfants et les résultats de chacun seront différents des précédents. Si on avait les ressources de tirer tous les échantillons possibles de 450 enfants, on observerait que les résultats de l'échantillon sont normalement distribués. Cela serait une façon plutôt inefficiente d'en savoir plus à propos de la réelle proportion de la malnutrition à Antigua! Ce que l'on recherche, c'est de pouvoir tirer une conclusion à partir d'un seul échantillon! C'est pourquoi on formule une hypothèse de travail, construite sur les résultats d'un échantillon particulier et on essaie de la réfuter.

Dans l'exemple, si on suspecte que la malnutrition est plus élevée à Antigua que dans la moyenne nationale, l'hypothèse de travail sera: "il n'y a pas de différence" au niveau de la population. "Dans la population d'Antigua, le niveau de malnutrition est identique à celui de la population nationale". Notre hypothèse nulle peut aussi être écrite comme ceci:

Ho : π Antigua = π nationale = 20% Suivant l'Ho, il n'y a pas de différence entre la proportion réelle de la malnutrition parmi les enfants d'Antigua et les enfants du reste du pays malgré la différence observée entre l'échantillon pris à Antigua (34%) et les chiffres nationaux (20%). Il faut maintenant déterminer si le résultat de 34% obtenu à partir d'un échantillon est compatible avec le π de l'hypothèse nulle. Cela se fait par un test. Si ce test ne parvient pas à fournir assez de preuves du contraire, on gardera l'Ho. Si le test offre assez d'arguments, on rejettera l'hypothèse nulle et acceptera l'hypothèse alternative (Ha).

Ha : πAntigua ≠ π nationale ou πAntigua ≠ 20%

REMARQUE: L'Ha est formulée ici de façon bilatérale ce qui veut dire que la π Antigua peut être supérieure ou inférieure à la π nationale. Dans des cas exceptionnels, une hypothèse alternative peut être formulée d’une façon unilatérale, en optant pour Ha : πAntigua > πnationale ou πAntigua > 20%, mais ceci est à éviter. Ce n’est pas de bonne pratique statistique de postuler que l’erreur aléatoire de statistique d’échantillonnage ne soit possible d’une coté du vrai paramètre de population.

Page 108: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 108/158

B. Comment déterminer le seuil de décision?

L’étape suivante est de décider entre H0 et Ha. Avant de faire ça, il faut apprendre certaines choses sur les erreurs. En statistique, il n’existe pas de décision « parfaite », c.à.d. juste, 100% garantie ; il y aura toujours des risques d’erreurs α et β à en tenir compte. Au tribunal, les juges peuvent commettre deux types d'erreurs judiciaires : condamner l’innocent, et innocenter le coupable. Dans l'inférence statistique, c'est la même chose. Dans certains cas, on conclut à tort qu'il y a une différence avec le niveau de la population, et on commet une erreurα. On a rejeté l'hypothèse nulle alors que c'était la bonne affirmation.

Exemple Si le chercheur à Antigua conclut qu'il y a une différence entre les enfants d'Antigua et la population nationale, alors qu'il n'y a pas de différence, il commet une erreur α.

L'erreur β est faite quand on ne rejette pas l'hypothèse nulle par manque d'arguments ("puissance"), alors qu'en réalité, cette hypothèse nulle est fausse et il existe une différence avec le niveau de la population.

Exemple: Si le chercheur à Antigua conclut qu'il n'y a pas de différence entre les populations alors qu'en réalité il y en a une, il commet une erreur β.

Ceci est résumé dans le tableau suivant

Ho est vrai Ho est faux

Le test rejette Ho

(p<0.05) Erreur α ou erreur de

type I Décision correcte

Le test manque de rejeter Ho (p>=0.05)

Décision correcte Erreur β ou erreur de type II

Le statisticien doit décider au préalable de la taille de l'erreur α qu'il est prêt à accepter. Ceci constitue le seuil pour la décision. On l'appelle l'α critique. Par convention, les statisticiens prennent très souvent un seuil de 5% parce qu'ils savent qu'à chaque fois qu'ils rejettent l'hypothèse nulle, ils prennent un risque de 5% (dans ce cas Ho est vrai mais ils la rejettent). Il y a cependant des circonstances dans lesquelles on est plus exigeant et on met l'α critique à des valeurs plus basses telles que 1%. L’erreur β devient très importante dans des études lorsqu’on compare deux échantillons, comme dans les essais cliniques qui comparent la proportion de guérison dans deux groupes de patients, l’un traité avec un médicament expérimental, l’autre avec le courant. Voire annexe 1 pour en savoir plus sur l’erreur β et le concept de pouvoir.

Page 109: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 109/158

34 - 20

20 80 450 = +7,4

∗ /

C. Comment choisir le test approprié? On présentera plus tard un tableau qui vous aidera à choisir le test correct (voir chapitre IV). Vous remarquerez que l'on vous oriente vers l'utilisation de l'intervalle de confiance (IC) plutôt que le test statistique. Cependant, vous avez déjà appris un test, le test de l'écart réduit (Z-test). Ce test est utilisé pour extrapoler la moyenne d'un échantillon (d'une taille minimum de 30) vers la population d'origine.

Exemple: Notre chercheur à Antigua ne peut pas utiliser la même formule parce que le paramètre de la population qu'il étudie est une proportion et non une moyenne. Dans ce cas, il doit utiliser la formule de l'écart réduit vue plus haut.

D. Comment calculer la valeur d'un test? À Antigua, le chercheur a calculé: Ecarts-réduits Essayez de vérifier le test de l'écart réduit qui a été calculé pour l'exemple suivant: La moyenne d'hospitalisation du département de chirurgie de l'unité ‘santé de l'enfant’ de Mondésir a toujours été de neuf jours. Cette année, le chef du service a fait une étude sur un échantillon de 45 patients. Leur durée d'hospitalisation a été respectivement: 19 4 9 3 12 7 43 25 8 6 2 5 17 21 3 8 27 5 3 6 12 10 18 4 31 8 14 6 5 5 31 3 8 12 7 11 10 20 8 6 2 14 7 5 et 11 jours. Le test de l'écart réduit vaut 1,6 pour une Ho qu'il n'y a pas de différence entre la durée d'hospitalisation cette année en comparaison des années précédentes.

Z = m -

/ n

μ

σ

Z = p -

(1 - n

π

π π) /

Page 110: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 110/158

E. A propos des probabilités liées aux valeurs du test La signification statistique d'un test s'exprime par la valeur-p (p-value). La valeur-p donne la probabilité d'observer une différence entre la statistique de l'échantillon et le paramètre de la population, si Ho est vraie. La valeur p a des valeurs comprises entre 0 et 1 et peut aussi être exprimée en pourcentage. Comment déterminer la valeur p? Les statisticiens utilisent des tables qui indiquent la probabilité pour une valeur de test donnée. Notez qu'il y a des tables bilatérales et unilatérales. Une hypothèse bilatérale correspond à une table bilatérale et une hypothèse unilatérale correspond à une table unilatérale. Actuellement, des logiciels de statistique affichent les valeurs p directement liées au résultat du test. Cependant, on ne devrait jamais oublier la signification de "p"! Cette valeur p nous dit quelque chose au sujet de la probabilité de Ho. Elle donne la probabilité d'observer la valeur dans l'échantillon statistique, si Ho est vraie.

Exemple 1: Le chercheur d'Antigua, jette un coup d'œil à la table unilatérale (en annexe). Sous les conditions spécifiées par Ho (que la malnutrition dans la population d'Antigua est égale ou inférieure à 20%), il trouve un écart réduit de 7,4 avec une probabilité qui lui est liée beaucoup plus basse que 0,001 (la table n'atteint pas des valeurs aussi basses, elle s'arrête à un écart réduit de 3!).

Exemple 2: Le médecin de l'hôpital de Mondésir trouve un écart réduit de 1,6 correspondant à une probabilité de 5,5% dans la même table unilatérale.

F. Comment interpréter le test? Si p est petit, cela signifie que des différences au moins aussi importantes que celles observées ne devraient pas être attribuées à la chance (quoique cette différence puisse être due à la chance pour une petite proportion des échantillons possibles). En conséquence, on peut considérer improbable, quoique théoriquement possible, que les résultats observés soient dus à la chance (variation aléatoire). Si la valeur-p est très basse (par exemple p < 0,001), Ho n'est pas plausible et Ha devient l'hypothèse la plus crédible. Si p est élevé (par exemple p = 0,50), il y a alors trop peu d'arguments pour rejeter Ho, sans que l'on soit capable de prouver formellement que Ho est vraie. Cependant, où est le seuil? Quand a-t-on suffisamment d'arguments pour rejeter l'Ho? Nous avons déjà déterminé cette limite! Dans le chapitre 3, on a vu que l'on a choisi une valeur critique pour α de 5% comme la limite de l'erreur que l'on peut accepter. Maintenant, si le test statistique produit une valeur-p en dessous du seuil critique (p < 5%), on rejettera Ho, en reconnaissant une erreur α de 5%.

Dans le cas ou p > = 5%, nous n'avons pas assez d'arguments pour rejeter Ho.

Exemple 1: Si La valeur p < 0,001, on peut en conclure qu'il y a assez d'arguments pour rejeter l'Ho. Le niveau de malnutrition dans la population d'Antigua est supérieur au niveau national (α de 5%). On dit souvent que la différence est statistiquement significative.

Page 111: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 111/158

Exemple 2: Avec une valeur-p de 5,5%, le médecin de Mondésir n'a pas assez d'arguments pour rejeter l'Ho. Il conclut donc qu'il n'a pas assez de preuves d'un changement dans la durée d'hospitalisation. La différence entre la moyenne calculée sur l'échantillon et les chiffres des années précédentes n’est pas statistiquement significative.

Page 112: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 112/158

IV. LA LOGIQUE DES INTERVALLES DE CONFIANCE Une fois l'échantillon tiré, Il peut servir à estimer les caractéristiques de la population dont il est issu. Si l'on observe la courbe de distribution d'échantillonnage de la figure 3, il faut être conscient que la statistique de l'échantillon peut provenir de n'importe quel point de l'axe horizontal mais qu'il est plus probable qu'elle soit située plus près du centre que des extrémités. Dans 95 cas sur 100 (ou 95% de confiance), cette statistique est située à une distance inférieure à 2 écarts réduits du paramètre µ de la population. En d'autres termes, si beaucoup d'échantillons de la même dimension sont tirés d'une population et si l'on construit des intervalles autour des résultats de l'échantillon de cette manière:

statistique - 2 écarts types et statistique + 2 écarts types

95 de ces intervalles sur 100 vont contenir le paramètre de la population. Cet intervalle est appelé l'intervalle de confiance (IC) à 95%. En conséquence, on peut imaginer un intervalle autour de n'importe quelle statistique d'un échantillon, qui contienne, avec une chance de 95%, le paramètre de la population. Cette probabilité de 95% est appelée le niveau de confiance (on peut être plus exigeant et construire un IC de 99%). Si l'on veut calculer les limites de l'intervalle de confiance, il faut connaître:

1. Les statistiques de l'échantillon telles que moyenne, proportion, médiane ou taux 2. La mesure de l'échantillon comme l'écart type ou l'intervalle interquartile 3. La taille de l'échantillon 4. Le niveau de confiance que l'on souhaite Supposons que la population ait une distribution normale avec un écart-type σ, les formules donnant les limites de l'intervalle de confiance à 95% autour de la moyenne (m) sont:

95% I.C.: limite inférieure: m – 1,96 σ/√n limite supérieure: m + 1,96 σ/√n

Il est très important de comprendre que l'I.C. dépend de: 1. la taille de l'échantillon: plus celui-ci est grand, plus étroit est l'IC 2. la dispersion du phénomène étudié: plus elle est grande, plus large est l'IC 3. le niveau de confiance désiré: plus il est élevé, plus large est l'IC. Quels sont les avantages des IC par rapport aux tests statistiques? 1. Ils donnent une idée de toutes les valeurs probables pour les paramètres de la

population et, par là, contiennent beaucoup plus d'informations que la simple valeur-p 2. Ils donnent immédiatement une impression de la précision de l'estimation. En tant que

tels, ils permettent une appréciation qualitative de la puissance statistique possible (ou du manque de puissance). De très larges IC comportent un haut risque de faire une erreur β.

Page 113: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 113/158

V. LES OUTILS

1 échantillon 2 échantillons

Moyenne IC à 95%: moyenne ± 1,96 σ/√n (95% IC pour la différence

des moyennes)

(Test de Student)

Médiane IC à 95%: médiane ± 1,58 (q3-q1)/√n Est-ce que les IC à 95% se

chevauchent?

Proportion IC à 95%: p ± 1,96 (pq/n) χ2 = Σ{(0-E)2/E}

(95% IC Risque Relatif (RR))

(95% IC Différence des

risques (DR))

Taux χ² pour les taux

(IC Rapport des taux, IC

Différence des taux)

Les formules des IC sont données pour un degré de confiance de 95% (à titre d'exemple) Il n'est pas obligatoire de connaître ce qui se trouve entre parenthèses (italique). C'est réservé à ceux qui aiment vraiment l'inférence. A. Inférence pour un simple échantillon 1. Une moyenne Quand on veut faire une extrapolation d'une moyenne d'un échantillon à la population, il est conseillé de calculer l'intervalle de confiance à 95% en utilisant la formule suivante:

Où:

- m est la moyenne de l'échantillon - σ la déviation standard de la population mère, qui est en pratique souvent remplacée

par l'écart type de l'échantillon - n la taille de l'échantillon

Condition d'application: n > 30

pa dencas den1,96 taux= 95% à IC

°°

±

n/ 1,96m : 95% à IC σ±

Page 114: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 114/158

Exemple: Comme vous avez un doute concernant la qualité d'un lot de sirop de chloroquine que vous avez reçu du magasin central récemment, vous décidez d'envoyer un échantillon aléatoire de 35 bouteilles pour un contrôle de qualité. La réponse revient ainsi libellée: La moyenne de substance active est de 253 µU/ml (avec ET 45).

En conclusion: On sait, avec 95% de certitude que le contenu moyen du sirop est situé entre 267,9 et 238,1 µU/ml de substance active. Ceci constitue un problème puisque la norme d'efficacité est de minimum 300 µU/ml de substance active. On ne peut donc pas utiliser ce lot de sirop. 2. Une médiane Si l'on veut faire une extrapolation de la médiane d'un échantillon à la population mère, il est recommandé de construire un intervalle de confiance à 95% en utilisant la formule suivante.

Avec la médiane de l'échantillon q3 le quartile 3 de l'échantillon q1 le quartile 1 de l'échantillon n la taille de l'échantillon 1,58 le coefficient correspondant à un IC de 95%

Condition d'application: la distribution unimodale

Exemple: Un échantillon de 46 moules provenant d'un lot de "Nouvelle Zélande 1997" montre une longueur médiane de 23 mm (q1 de 22, q3 de 27 mm). Que peut-on dire au sujet de ce lot, sachant que la "véritable" moule de Nouvelle Zélande mesure en moyenne 38 mm. Y a-t-il eu tricherie sur les moules? I.C. à 95%: 23 ± 1,58 * ( 27-22) / √ 46

= 23 ± 1,16

Conclusion: On peut conclure avec une certitude de 95% que la longueur médiane de la variété "N.Z. 97" est située entre 21,84 et 24,16 mm. On peut rejeter l'hypothèse nulle de non-différence entre la taille de la NZ97 et la "véritable" moule de Zélande. Ces 46 moules ne peuvent pas avoir le label NZ97. Quelqu'un a triché avec l'étiquetage.

IC à 95% : 253 1,96 45 / 35± ∗

IC à 95% : 253 14,9±

n)/q-(q 1,58~ : 95% à IC 13±X

∼X

Page 115: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 115/158

3. Une proportion

Si l'on veut réaliser une extrapolation à partir d'une proportion d'un échantillon jusqu'à la population mère, on recommande de construire un intervalle de confiance à 95% en utilisant la formule suivante:

Condition d'application: n * p ≥ 5 et n * q ≥ 5

Exemple: Pour déterminer si le programme PEV a atteint l'objectif de 60% de couverture de la rougeole dans le district de Minitel, un échantillon aléatoire de 210 enfants a été choisi. La couverture de la rougeole dans l'échantillon se trouve être de 34%. Quelle conclusion peut-on tirer?

Conclusion: La couverture de la rougeole dans le district peut être estimée entre 27,6 et 40,4%, avec une certitude de 95%. Dès lors, on peut dire que l'objectif n'a pas été atteint. 4. Un taux

Si l'on veut faire une extrapolation d'un taux provenant d'un échantillon vers la population mère, on recommande de construire un intervalle de confiance à 95% en utilisant la formule suivante:

Exemple: 150 décès sont apparus dans un groupe de 20.000 personnes suivies pendant

1 an. Taux = 150 décès

20,000 personnes années

= 0.0075 décès par personne année = 7,5 / 1000 personnes années

Conclusion: On peut conclure avec une certitude de 95% que les vrais taux dans la population se situent entre 0,0063 et 0,0087 décès par personne année.

I.C. à 95% : 0,0075 / pa 1,96 15020.000 pa

± ∗

pq/n 1,96 p : 95% à I.C. ±

I.C. à 95% : 34% 6,4%±

I.C. à 95% : 34% 1,96 34% 66% / 210± ∗

I.C. à 95% : taux ± ° 1,96 (n de cas) n° de personnes - années

Avec p la proportion dans l'échantillon q = 1 – p n la taille de l'échantillon

Page 116: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 116/158

B. Inférence lorsqu'on compare deux échantillons 1. Comparaison de deux moyennes Dans le cas où vous devriez comparer deux moyennes d'échantillon, on vous réfère aux manuels statistiques. Vous allez trouver la formule du test de Student (t-test). Dans ce cours, on ne vous demande pas d'être capable de calculer ce test sans aide. Par contre, on vous demande de savoir interpréter les résultats d'un t-test que vous pourriez rencontrer dans une publication ou sur votre ordinateur. D'un autre côté, comparer deux IC n'est pas une solution et il vaut mieux ne pas l'utiliser car cela manque de "puissance". Pour de "gros échantillons", il vaut mieux utiliser à la place la formule suivante de l'IC autour de la différence entre les moyennes d'échantillons: 2. Comparaison de deux médianes Si on doit comparer deux ou plusieurs médianes d'échantillons, on vous recommande de construire l'intervalle de confiance à 95% pour chaque échantillon en utilisant la formule qui suit. Dans la suite, vous vérifiez si les (deux) intervalles de confiance se chevauchent. Si oui, vous pouvez conclure qu'il n'y a pas de différence significative entre les médianes des (deux) échantillons. Si non, vous concluez qu'il y a une différence significative.

Avec La médiane dans l'échantillon

q3 le quartile 3 dans l'échantillon q1 le quartile 1 dans l'échantillon n la taille de l'échantillon Condition d'application: distributions unimodales

Exemple: En 1976, l'IMC (Indice de Masse Corporelle) d'un échantillon de 46 étudiants en médecine était de 23 kg/m2 (q1 à 22, q3 à 27). En 1996, un échantillon de 102 étudiants a montré une médiane du IMC de 24 kg/m2 (q1 à 22, q3 à 26). Quelle conclusion peut-être tirée? Est-ce que les étudiants d'aujourd'hui ont un IMC plus élevé que les étudiants d'il y a 20 ans?

En 1976: IC à 95% = 23 ± 1,2 ou I.C. ( 21,8 – 24,2) En 1996: IC à 95% = 24 ± 0,6 ou I.C. ( 23,4 – 24,6)

Conclusion: Nous pouvons conclure avec une certitude de 95% que la médiane de l’IMC de la population des étudiants en médecine n'a pas changée entre 1976 et 1996.

n)q -(q

1,58 X~ :95% à I.C. 13±

I.C. à 95% : différence entre les moyennes 22

212

1 n / + n/ 1,96 σσ±

X~

Page 117: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 117/158

E = tl tctg

= total des lignes total des colonnestotal gé néral

∗ ∗

3. Comparaison de deux proportions

a) Le χ² de Pearson Si vous devez comparer deux proportions d'échantillons, on vous recommande de construire un tableau à 4 entrées et d'utiliser le test du χ² (Chi-carré) de Pearson. Le χ² est un test statistique, pour lequel il faut d'abord formuler une hypothèse nulle. Celle-ci affirme qu'il n'y a pas de différence entre les proportions au niveau de la population mère ou: Ho : π a = πb

χ2 = Σ{(0-A)2/A}

Avec O la valeur observée dans une cellule du tableau A la valeur attendue dans la même cellule du tableau, si Ho est vraie Condition d'application: Aucune valeur attendue ne peut être < 5!

Exemple: Le district de Minitel est comparé au district de Porvenir, qui a aussi réalisé une enquête de couverture vaccinale. Alors que l'échantillon de Minitel montrait 71/210 enfants vaccinés (34%), celui de Porvenir avait 288/480 enfants vaccinés (60%). Est-ce que les couvertures sont différentes?

PROCÉDURE 1°. Formulation de l'hypothèse nulle: Il n'y a pas de différence entre les couvertures vaccinales de la population de ces deux districts. 2°. Construction d'un tableau à 4 entrées

Minitel Porvenir Vaccinés 71 288 359 Non-vaccinés 139 192 331 210 480 690

3°. Calcul des valeurs attendues

Il faut calculer les valeurs attendues pour chaque cellule du tableau, sous les conditions de l'hypothèse nulle, c'est à dire qu'il n'y a pas de différence entre les proportions de vaccinés dans les populations mères. Ce calcul des valeurs attendues est fait selon la formule:

Page 118: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 118/158

χ22 2 2 27 1 1 0 9

1 0 91 3 9 1 0 1

1 0 12 8 8 2 5 0

2 5 01 9 2 2 3 0

2 3 04 0 1 5=

−+

−+

−+

−=

( ) ( ) ( ) ( ),

Tableau des valeurs attendues

Minitel Porvenir

Vaccinés Attendus 359*210/690 = 109 359*480/690 = 250 359

Non vaccinés Attendus

331*210/690 = 101 331*480/690 = 230 331

210 480 690

4°. Calcul de la valeur de χ² 5°. Utilisation de la table de χ²

Nous devons maintenant déterminer la probabilité correspondant à un χ² de 40,15 d'observer une telle différence entre les proportions dans les échantillons, étant donné que la couverture est identique dans les 2 districts (comme prévu par l'Ho). La probabilité est donnée par la table de χ². Pour lire cette table, il est nécessaire de spécifier le degré de liberté du tableau de contingence (Le χ² est utilisé aussi pour de grosses tables de contingence, avec plus de 2 colonnes et 2 lignes. Plus la table est grosse, plus il y a de degrés de liberté). Le nombre de degrés de liberté est déterminé de la façon qui suit: Les degrés de liberté (d.d.l.) = (nombre de colonnes – 1) x (nombre de lignes – 1). Dans un tableau à 4 entrées, qui est composé de 2 lignes et 2 colonnes, d.d.l.= (2 – 1 ) * (2 – 1) = 1 Dans la table de χ², on peut lire sur la ligne "d.d.l. = 1", que la probabilité d'observer un χ² égal ou supérieur à 10,827 est seulement de 0,001. Un χ² de 40,1 est encore plus à droite sur la courbe, ce qui correspond à des probabilités encore plus basses. Conclusion: On rejette l'hypothèse nulle car il existe une différence significative entre les couvertures vaccinales des populations des deux districts.

Page 119: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 119/158

(1) χ22

=−

+ + + +( ∗ ∗ ) ∗

( )( )( )( )a d b c T

a b c d a c b d

(2) χ22 2 1

=− + + −

+ + + +[ ( )( ) / ] ∗ ( )

( )( )( )( )a a b a c T T T

a b c d a c b d

( )[ ] [ ])(**** 22

2

bapapapapapabaa

ba

TTa

++−

b) Formules simplifiées pour χ²

Il existe une forme plus concise de χ² pour des tableaux de contingences à 4 entrées. Le résultat est le même que celui obtenu avec le χ² de Pearson. De petites différences peuvent apparaître à cause des arrondis. Pour: Maladie + - Exposition + a c a+c Exposition - b d b+d a+b c+d T

Deux formules simplifiées peuvent être utilisées: 4. Comparaison de deux taux Dans le but de comparer deux taux, une formule de χ² avec un ddl semblable à la formule (2) ci dessus peut être utilisée. Elle sera interprétée de la même manière. Pour:

Exposition + -

Cas a b (a+b) Pa paa pab paT

Page 120: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 120/158

b

b

a

a

nq

nq ba pp

* 1,96 DR :95% à I.C. +±

I.C. à 95%: 0,20 1,96 0,3 0,715

0,5 0,516

± +∗∗ ∗

I.C. à 95%: 0,20 1,96 0,014 + 0,016 0,20 0,34± ≈ ±∗

22 )()( * 1,96 DT : 95% à I.C.

b

b

a

a

pancasn

pancasn

°°

+°°

±

5. I.C. autour d'une différence de risque Autour d'une différence de risque (DR) entre deux proportions pa et pb, l'IC de 95% est calculé de la manière suivante:

Exemple: Soit un échantillon de 15 étudiants du PMSS dont 30% disent qu'ils ont souffert de gastro-entérite. On le compare à un autre échantillon de 16 étudiants du cours national dont 50% disent avoir souffert de la même maladie. La DR est de 20% entre les échantillons. Pouvons-nous conclure que les étudiants du cours national sont plus à risque de diarrhée que ceux du PMSS?

Interprétation : On peut être sûr à 95% que la différence réelle est située quelque part entre -14% et 54%. Comme cet intervalle inclus 0%, nous ne pouvons pas conclure que les étudiants du cours national sont plus à risque que ceux du CIPS. Il faut noter la petite taille de l'échantillon et le large intervalle de confiance! 6. I.C. autour d'une différence de taux

Page 121: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 121/158

7. I.C. autour d'un rapport de risques ou d'un rapport des taux (RR) Autour d'un RR, l'IC à 95% est calculé comme suit:

IC à 95%: limite inférieure:

limite supérieure:

RR exp (1 – 1,96/ √χ²)

RR exp (1 + 1,96/ √χ²)

(où χ² = la valeur du test χ² approprié)

Exemple de risque relatif: Revenons à notre échantillon de 15 étudiants du PMSS dont 30% disent qu'ils ont souffert de gastro-entérite. On le compare toujours à l'autre échantillon de 16 étudiants du cours national dont 50% disent avoir souffert de la même maladie. Le risque relatif RR est de 0,50/0,30 = 1,67 dans les échantillons. Pouvons-nous conclure que les étudiants du cours national sont plus à risque de diarrhée que ceux du PMSS?

PMSS C.NAT. + +

Diarrhée oui 5 8 13 Diarrhée non 10 8 18

15 16 31 χ² = 0.88 RR= 1.67

CI à 95% limite inférieure: 1,67 exp (1- 1,96/ √0,88)= 1,67 exp -1,132 = 0,56 CI à 95% limite supérieure: 1,67 exp (1 + 1,96/ √0,88)= 1,67 exp 3,132 = 4,98

On peut être sûr à 95% que le RR réel est situé quelque part entre 0,56 et 4,98. On ne peut pas conclure que les étudiants du cours national souffrent plus de diarrhée que ceux du PMSS.

Méthodes non paramétriques

Les méthodes non paramétriques forment un ensemble alternatif de techniques statistiques pour analyser des données numériques qui ne font pas d’hypothèse sur la distribution sous-jacente, par exemple la normalité des données. Les trois les plus connus sont le test de Wilcoxon rangs signés (signed ranks), le test de Wilcoxon somme des rangs (rank sum) et le test de corrélation de Spearman (Spearman’s rank correlation test).

Ces méthodes sont particulièrement utiles quand il y a une non-normalité évidente dans une base de données qui ne peut pas être corrigée par une transformation appropriée.

Les méthodes non paramétriques sont faciles à utiliser à condition que les données ne concernent pas plus de 50 cas. Elles ont deux inconvénients importants. Premièrement, elles font surtout un test de signifiance et, malgré qu’il est possible de dériver des intervalles de confiance, elles sont compliquées et difficiles dans l’exécution. Deuxièmement elles sont moins facilement extensibles à des situations plus complexes.

Page 122: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 122/158

ANNEXE. Plus de lecture sur l’erreur β et le concept de puissance.

La puissance est la possibilité d’un test statistique de détecter une différence d’une certaine grandeur. La puissance est définie par 1- β. Pour comprendre ce concept important de ‘puissance’, nous devons regarder les conséquences d’un test statistique comparant les statistiques de deux échantillons, par exemple la moyenne d’un groupe expérimental avec la moyenne d’un groupe de contrôle. Plus la différence entre le groupe expérimental et le groupe de contrôle est grande, moins de chevauchement il y aura entre les distributions d’échantillonnage des deux moyennes d’échantillons, et plus de puissance il y aura pour détecter la différence. Plus le chevauchement est grand, plus la puissance est faible. Il sera facile de détecter des grandes différences et il sera difficile de détecter les petites différences. Pour démontrer ceci plus en profondeur, nous montrons deux situations différentes – la première où il n’y a pas de chevauchement entre les distributions d’échantillonnage du groupe de contrôle et du groupe expérimental, et la seconde où les distributions d’échantillonnage des moyennes des deux groupes présentent un chevauchement.

Observez la ligne verticale qui correspond à un niveau alpha de 0,05 et qui découpe 5% de la queue de la distribution de contrôle. Dans ce cas-ci, ce n’est pas très pertinent puisqu’il n’y a pas de chevauchement entre les deux courbes des distributions d’échantillon, donc n’importe quelle moyenne d’échantillon tiré de la distribution du groupe expérimental sera toujours significativement différente du groupe de contrôle. Nous ne rejetterons jamais par erreur Ho, donc il n’y a pas de risque de faire une erreur α ou une erreur de Type I. De même, il ne devrait pas y avoir des erreurs de Type II ou β où nous accepterions une hypothèse nulle fausse, encore parce que les deux courbes sont distinctes. Il ne devrait pas

Page 123: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 123/158

y avoir des fausses acceptations de Ho. Parce que β est égale à 0,0, la puissance statistique devrait être égale à 1,0 (1-β = 1,00), qui signifie que la différence entre les deux groupes sera toujours détectée.

Si les distributions se chevauchent, comme montré ici, les caractéristiques de performance du test statistique dépendront de la quantité du chevauchement. Des erreurs de Type I et II ne seront pas égales à zéro et la puissance sera moins que l’idéal. Le choix de α affectera le nombre d’erreurs de Type II ou des erreurs beta et la puissance statistique du test. Dans cet exemple, le niveau alpha est de nouveau mis à 0,05. La probabilité d’une erreur de Type II ou d’une erreur beta représentée comme 0,15 ou le secteur de chevauchement entre les deux courbes, qui laisse la puissance statistique à 0,85,ç.à.d., le secteur de non-chevauchement. Ceci indique qu’il y a seulement une chance de 85% de détecter la différence entre les groupes, ou qu’il y a une chance de 15% que la différence entre les groupes est non détectée.

Regardez maintenant de nouveau la distribution d’échantillon du moyen du groupe expérimental. Regardez quelle partie du secteur de cette distribution se trouve au delà de la ligne verticale correspondant au niveau alpha 0,05. Dans la première figure, la distribution entière se trouve à droite de la ligne verticale, donc la puissance est maximale. Dans la seconde figure, seulement une partie de la distribution se trouve à droite de la ligne verticale. Evidemment, la puissance est réduite quand la différence entre les deux groupes est réduite.

Page 124: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 124/158

Table 1. Areas in two tails of the standard normal curve

Page 125: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 125/158

TABLE 2

Page 126: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 126/158

Page 127: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 127/158

Chapitre 6: Validité d'une étude épidémiologique OBJECTIFS POUR LE CHAPITRE 6 Après avoir lu ce chapitre, vous devriez être capable de: 1. Expliquer les principes de l'inférence et les concepts de validité et d'erreur aléatoire 2. Décrire les 3 principaux types de biais 3. Identifier les biais dans les études épidémiologiques 4. Décrire les techniques pour contrôler les biais de confusion

Page 128: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 128/158

I. CONCEPTS A. Principes de l'inférence Dans les études épidémiologiques, on étudie d'habitude un groupe limité de gens. Ce que l'on cherche à faire ensuite, c'est d'extrapoler les résultats obtenus à la population générale. On peut déterminer trois niveaux d'extrapolation: 1. L'extrapolation à partir de la population étudiée (l'échantillon) jusqu'à la population dont

elle est issue (la population que l'échantillon représente réellement). Ceci s'appelle "l'inférence statistique". La quantification de l'impact du hasard est essentielle ici. En pratique, cette extrapolation est réalisée par les tests statistiques et / ou en construisant les intervalles de confiance (voir chapitre 5).

2. L'extrapolation depuis le groupe étudié (l'échantillon) vers la population cible (la population au sujet de laquelle l'inférence est requise). C'est réalisé en suivant les règles de la validité interne.

3. L'extrapolation depuis le groupe étudié en direction d'une population externe (population avec des caractéristiques différentes de temps, lieu et personnes). On doit suivre pour cela les règles de la validité externe.

Population externe Validité externe Population cible Validité interne Population mère Inférence statistique

Population étudiée ( = échantillon)

Page 129: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 129/158

Exemple: On veut mesurer la prévalence du goitre dans un district parmi les enfants de 6 à 12 ans.

- La population cible: tous les enfants du district âgés de 6 à 12 ans - La population mère: tous les enfants qui vont à l'école primaire (enfants enregistrés):

plus faisable - La population étudiée: un échantillon aléatoire d'enfants suivant l'école primaire.

Extrapolation à tous les enfants enregistrés à l'école primaire: inférence statistique Extrapolation à tous les enfants du district: validité interne Extrapolation à tous les enfants d'autres districts, pays, périodes de temps: validité externe. B. Erreur aléatoire Une erreur aléatoire résulte d’un manque de précision, alors qu'un biais résulte d’un manque de validité d'une mesure. Une erreur aléatoire (random error) est la divergence, due au hasard, des estimations faites sur un échantillon, par rapport aux valeurs réelles de la population dont cet échantillon est issu. La conséquence est un manque de précision dans les estimations. La principale composante de l'erreur aléatoire dans les études épidémiologiques est due au processus de sélection des sujets d'étude. Ce processus est désigné sous le nom d'échantillonnage. La variation aléatoire l'accompagnant s'appelle l'erreur d'échantillonnage. Elle doit être réduite à un niveau acceptable dans les limites imposées par des ressources limitées. Un chercheur peut réduire l'erreur d'échantillonnage (et les probabilités d’erreurs de type α et β ) de différentes manières (voir plus loin pour les détails):

- En augmentant la taille de l'étude, par exemple en augmentant le rapport du nombre de témoins au nombre de cas dans les études cas témoins.

- En utilisant un échantillonnage stratifie.

Pour chaque type de plan d'étude, des formules standard et des tables existent pour calculer la taille minimum requise de l'échantillon nécessaire au test de l’hypothèse de recherche avec des probabilités acceptables d'erreurs de type α et β.

Page 130: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 130/158

C. Validité interne Une étude a une validité interne si ses résultats peuvent être extrapolés à partir du groupe étudié à la population cible. Cela implique qu'aucune erreur systématique n'a été faite pendant la conception, l'exécution ou l'analyse et l'interprétation de l'étude. Dans une étude idéale, la population cible doit correspondre autant que possible à la population mère. La validité est complètement assurée lorsque θ° = θ Dans ce cas, θ° est un estimateur correct de θ et les conclusions de l'étude sont valides. Dans le cas contraire on parlera de biais. Un biais peut être défini comme une erreur systématique dans une étude épidémiologique. Il provient de l'estimation incorrecte d’un paramètre ou d'une association entre exposition et risque de la maladie, en dehors des erreurs aléatoires. La prévention et / ou le contrôle des biais est la préoccupation majeure de tout travail en épidémiologie (beaucoup plus que les tests statistiques). Un BIAIS peut apparaître dans les circonstances suivantes:

- Il peut provenir de la sélection des sujets inclus dans l'étude (biais de sélection); - Il peut être introduit au moment où on recueille des informations sur les sujets inclus

dans l'étude (biais d'information); - Il est potentiellement présent dans les études d'observation, à cause du mélange des

effets des différents facteurs de risque (confusion).

Les biais de sélection et d'information sont introduits par ceux qui sont impliqués dans l'étude, tandis que la confusion est un aspect de la réalité. D. Validité externe Une étude a une validité externe (on dit qu'elle est généralisable) si son résultat peut être extrapolé à une autre population. Celle-ci peut être assez différente de la population cible par un certain nombre de caractéristiques (temps, lieu, personnes). La validité interne est une condition préalable à la validité externe. Cependant le processus de généralisation est par ailleurs différent des soucis de validité interne et de conception de l'étude. La généralisation exige une connaissance approfondie et un bon jugement tant des phénomènes de santé étudiés que des caractéristiques de la population externe elle-même.

Page 131: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 131/158

II. BIAIS DE SELECTION Si l'on utilise des critères différents pour sélectionner les sujets de l'étude, le résultat risque d'être biaisé parce que les groupes (cas et témoins, exposés et non-exposés) ne sont pas comparables. De cette façon, la véritable association entre l'exposition et la maladie ne sera pas correctement estimée à partir des données collectées dans l'étude. Si, dans une étude de cas témoins, la sélection des cas et des témoins est définie à partir de critères qui peuvent avoir des liens avec les facteurs d'exposition, des biais vont apparaître. De la même manière, dans une étude de cohorte, si la détermination du choix des individus exposés ou non-exposés est liée à leur risque de présenter le phénomène de santé que l’on étudie, des biais de sélection peuvent apparaître. Des biais de sélection peuvent apparaître dans les circonstances suivantes :

- échantillon non représentatif - Une couverture incomplète

- Les données proviennent d'une partie seulement de la population étudiée - Certains individus refusent de participer - Des pertes sélectives dans le suivi d'études longitudinales ou expérimentales

- Une admission sélective des sujets étudiés dans la population d'origine. Par exemple les études réalisées à l'hôpital

- Une migration sélective - Une survie sélective - Une auto sélection des participants - Une attention médicale sélective

Des biais de sélection peuvent apparaître dans tout plan d'étude avant, au moment ou après l'admission dans l'étude des groupes à comparer chaque fois qu'une différence existe au niveau de leur procédure de sélection. Par contre, dans une étude expérimentale, ces différences seront introduites seulement après l'enrôlement des sujets à cause d'une perte sélective dans le suivi. Dans une étude longitudinale prospective, il y a un peu plus de possibilités de voir apparaître des biais de sélection au départ de l'étude. Cependant, les biais vont être introduits plus souvent après l'enrôlement à cause de pertes sélectives dans le suivi. Dans une étude cas-témoins, le risque de biais de sélection réside en général dans le choix des témoins. Dans une étude transversale, une possibilité de biais peut apparaître à cause d'un échantillonnage défectueux ou d'une survie sélective.

Page 132: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 132/158

Exemples Des biais de sélection vont apparaître dans une étude de cas témoins sur l'étiologie du cancer du poumon si les témoins ont été sélectionnés à partir de patients souffrant de maladies non-malignes du système respiratoire. Le fait de fumer est une cause de bronchite et le choix de ces témoins aurait comme effet de surestimer les habitudes tabagiques de la population dont proviennent les cas de cancer du poumon. En conséquence, la force de l'association entre tabagisme et cancer du poumon sera sous-estimée. Imaginons une étude longitudinale prospective basée sur des examens réalisés dans un centre de santé sur une base ambulatoire. Si on n'organise pas de suivi des participants qui ne reviennent pas, des résultats biaisés peuvent être produits entre autres si des patients exposés sont plus gravement malades. Les patients les plus malades peuvent rester au lit à la maison ou être hospitalisés (et donc ne pas être inclus dans l’étude). Une étude transversale réalisée à l'hôpital sur la diarrhée va surestimer la sévérité de la maladie dans la population générale parce que les cas peu sévères ne demandent pas de soins médicaux. Une fois que des biais de sélection sont présents, l'analyse des données ne peut pas les corriger. Il faut donc les prévenir par:

- Un choix correct des techniques d'échantillonnage dans les études transversales - L'assurance de la qualité des données sur les expositions antérieures dans les études

longitudinales rétrospectives - De multiples méthodes de suivi, avec recherche intensive des perdus de vue dans les

études prospectives longitudinales et expérimentales - L'utilisation de témoins appropriés dans les études cas-témoins - L'utilisation de 2 ou plusieurs groupes contrôles indépendants dans les études cas

témoins de façon à comparer leurs conditions d'exposition respectives. Si l'on obtient les mêmes résultats avec des groupes différents, les biais sont moins probables.

Dans l'interprétation des résultats d'études, la présence de biais de sélection nécessite d'être soigneusement explorée. La direction des biais est également importante. Si une association a été détectée et que le biais a probablement comme effet de sous estimer la force d'une association, on peut être sûr que l'association existe. Au contraire, si les OR ou RR sont surestimés, une conclusion valide ne peut pas être faite. En plus de la présence et de la direction d'un biais, il est important d’estimer sa magnitude (ou impact) - bien que cela soit souvent difficile.

Page 133: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 133/158

III. BIAIS D'INFORMATION (OU D'OBSERVATION) Si des erreurs sont faites lors de la collecte des informations nécessaires pour comparer les 2 (ou plus) groupes sélectionnés pour l'étude, les associations observées entre la maladie et le facteur d'exposition peuvent être biaisées. Les biais d'information peuvent apparaître à cause de:

- La qualité du travail des enquêteurs par exemple s'ils recherchent plus activement un facteur d'exposition chez les cas ou une maladie dans les groupes exposés

- L'utilisation d'outils de recherche inadaptés tels que: - Des questionnaires inappropriés (mal formulés, mal administrés…) - De mauvaises techniques dues à: un manque de standardisation, des

différences de sensibilité, spécificité, reproductibilité - Les répondants, à cause de pertes de mémoire différentielles (biais de mémorisation)

Les biais d'information vont apparaître:

- Dans les études longitudinales et expérimentales, quand l'information sur les maladies est obtenue de façon non comparable entre les groupes exposés et non exposés.

- Dans les études de cas témoins, quand l'information sur l'exposition est obtenue de façon non comparable entre les cas et les témoins

- Dans les études transversales, lorsque l'information sur l'exposition est obtenue de façon non comparable pour les malades et les non malades et / ou lorsque l'information sur l'issue de la maladie est obtenue de manière différente chez les groupes exposés et non exposés.

Les biais d'information peuvent amener des erreurs de classification La mesure de l'exposition, ou du problème d’intérêt, par questionnaire ou tests cliniques ou de laboratoire, est souvent erronée. Ceci peut avoir de sérieuses conséquences. Les sujets de l'étude peuvent être mal classés par rapport a leur état de santé, leur d'exposition ou les deux à la fois. Cette classification erronée peut être aléatoire (non différentielle) ou non aléatoire (différentielle). Une erreur de classification non différentielle de la maladie est indépendante de l'exposition individuelle et vice versa. Ceci amène une sous estimation de la véritable association parce qu'une erreur de classification aléatoire augmente la similitude entre le groupe exposé et le groupe non-exposé. Ceci va diluer la véritable association entre l'exposition et la maladie. Le tableau suivant montre les effets d'une erreur de classification non-différentielle de la consommation d'alcool sur les taux d'incidence, la différence des taux et le risque relatif pour le cancer du larynx dans une étude longitudinale (données hypothétiques).

Page 134: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 134/158

Taux

d'incidence (x 100,000 an.)

Différence de taux

(x 100,000 an)

Risque Relatif

Pas d’erreur de classification. 1,000,000 buveurs

500,000 abstinents

50 10

40 5,0

La moitié des buveurs classés avec les abstinents.

500,000 buveurs 1,000,000 abstinents (50% sont en réalité buveurs)

50 30 20 1,7

La moitié des buveurs classés avec les abstinents et un tiers des abstinents classé avec les buveurs.

666,667 buveurs (25% sont en réalité des abstinents)

833,333 abstinents (60% sont en réalité des buveurs)

40

34

6 1,2

Source: K. J. Rothman, Modern Epidemiology Supposons que les 2/3 de la population étudiée sont constituée de buveurs, mais que seulement 50% d'entre eux le reconnaissent. Cela amènera une classification erronée non-différentielle de certains buveurs pris pour des non buveurs (RR de 5 à 1,7) engendrant un biais orienté vers la valeur nulle. Si la classification erronée se produit simultanément dans les deux directions, cela va presque complètement effacer la différence entre les groupes (RR = 1,2). Des erreurs de classification différentielles se produisent lorsque des erreurs de classement de la maladie dépendent des conditions d'exposition et inversement. Cela se voit dans des études cas-témoins, où les cas peuvent se souvenir de leur exposition au facteur de risque différemment des témoins. Ceci peut mener à une sous-estimation, une surestimation ou une estimation correcte de l'association ce qui devient très difficile à interpréter.

Exemple: Dans une étude cas-témoins sur les malformations congénitales, l'information étiologique peut être obtenue de l'interview des mamans. Celles dont les enfants ont une malformation vont se souvenir de facteurs d'exposition tels que des maladies infectieuses, des traumatismes, la prise de médicaments… beaucoup mieux que les mamans d'enfants sans malformation (biais de mémorisation, ou de rappel : recall bias). Le résultat sera une surestimation des associations possibles.

On ne peut pas contrôler les biais d'information. Il faut les empêcher par:

- La formation des enquêteurs et du personnel médical, en utilisant plus d'une source d'information et en réalisant les mesures les plus objectives possibles

- La détermination précise de tous les critères (définition de cas, facteur d'exposition) avant que l'étude ne démarre. La standardisation des techniques, des méthodes et des critères de test doit d'abord être testée (étude pilote ou pré-enquête).

- La dissimulation aux enquêteurs de l'état malade ou exposé (cela dépendra du type de plan d'étude). Dans les études expérimentales, on peut obtenir cela par des procédures en double ou triple aveugle. Dans les études non-expérimentales, ceci est beaucoup plus difficile à obtenir.

- La dissimulation des hypothèses de l'étude aux enquêteurs et enquêtés et en noyant les questions dans le contexte plus général d'une étude de santé.

Page 135: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 135/158

IV. LA CONFUSION S'il existe des facteurs de risque ne faisant pas l'objet de l'étude mais qui sont associés simultanément à l'exposition et à la maladie, la relation brute que l'on pourrait observer entre ceux-ci risque d'être faussée à cause du mélange (confusion) des effets. La distorsion introduite par un facteur de confusion peut être importante. Elle peut mener à une sur ou sous-estimation d'un effet, dépendant de la direction des associations que le facteur confondant a avec l'exposition et la maladie. La confusion peut même changer la direction apparente d'un effet. La figure suivante est une illustration des relations liant l'exposition (E), le facteur de confusion (FC) et la maladie (M). E M FC Comme illustré dans la figure, un facteur de confusion est une variable qui est associée au facteur d'exposition et, indépendamment de ceci, est un facteur de risque pour la maladie. Exemple 1: le fait de boire du café semble associé aux maladies coronariennes

E = le fait de boire du café

M = la maladie cardiaque

FC = le tabagisme Est-ce que FC est un facteur de risque indépendant pour M? Oui Est-ce que FC est associé à E? Oui Donc FC est un facteur confondant. Il est donc possible que la relation entre la consommation de café et la maladie coronarienne reflète simplement l'association connue entre le tabagisme et la maladie cardiaque. Dès lors, fumer confond l'apparente relation entre la consommation du café et la maladie coronarienne. Exemple 2: au début de l'épidémie du SIDA, une étude s'est intéressée au comportement de personnes de sexe masculin avec et sans l’infection. Une association a été trouvée entre l'inhalation de nitrite d'amyle, un vasodilatant utilisée comme excitant sexuel, et le SIDA. E = ? M = ? Quels pourraient être les facteurs de confusion potentiels? Est-ce que FC est un facteur de risque indépendant pour D? … Est-ce que FC est associé à E? … Peut-on conclure que l'utilisation de nitrite d'amyle est associée au SIDA?

Page 136: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 136/158

A. Conditions pour la confusion Si une variable n'est pas associée, soit avec l'exposition, soit avec la maladie, elle n'est pas un facteur de confusion. Fig.1 Fig.2

E D E D

FC ? Non ! FC ? Non !

Exemple: - Si on regarde l'association entre l'alcool et le cancer du poumon, on pourrait trouver

quantité de facteurs de confusion possibles tels que le tabac, l'âge, le statut matrimonial, l'exposition professionnelle aux radiations, le sexe, etc.

- Le statut matrimonial est un facteur associé à l'alcool (exposition) mais n'est pas un facteur de risque du cancer du poumon (la maladie). Il n'est donc pas un facteur de confusion. (figure 1)

- L'exposition professionnelle aux radiations pourrait être un facteur de risque du cancer du poumon mais il n'est pas associé à l'alcool. Il n'est donc pas un facteur de confusion. (figure 2)

Les variables qui représentent une étape intermédiaire dans le chemin qui sépare l'exposition étudiée et la maladie ne sont pas des facteurs de confusion. E pas FC M

Exemple: Si on accepte qu’un faible poids de naissance soit une étape intermédiaire dans la chaine causale qui lie le tabagisme maternel à la mortalité infantile, alors, le faible poids de naissance n'est pas un facteur de confusion de cette association.

La confusion est minimale dans les études expérimentales grâce à la randomisation. Elle est toujours présente dans les études non-expérimentales. A la différence des autres biais, elle n'est pas une erreur du chercheur de l'étude mais le résultat des interactions complexes entre divers facteurs d'exposition et la maladie (multicausalité). La confusion doit toujours être considérée comme une explication possible de chaque association observée dans les données. Une façon de tester si un facteur de confusion potentiel en est un réellement, c'est de voir si le risque relatif change lorsqu'on le contrôle (Est-ce que boire de l'alcool est toujours associé aux risques de maladie cardiaque lorsqu'on étudie des populations dont le statut tabagique est identique ?)

Page 137: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 137/158

Exemple

Cancer du poumon + - Total

+ 73 927 1.000Alcoolisme - 37 963 1.000

110 1.890 2.000

RR = (73/1.000) / (37/1.000) = 2,0

On peut voir une association positive plutôt surprenante entre la consommation d'alcool et le cancer du poumon. Pourrait-il y avoir une confusion par le tabac? Dans le groupe étudié, il y a des fumeurs et des non fumeurs. Fumer est une cause possible de confusion : 1) Il y a une association entre l'alcoolisme et le tabagisme 2) Fumer est un facteur de risque indépendant pour le cancer du poumon. Maintenant, les mêmes données vont être analysées en fonction du statut tabagique Fumeurs

Cancer du poumon + - Total

+ 70 630 700Alcoolisme - 30 270 300

100 900 1.000

RR = (70/700) / (30/300) = 1.0 Non-fumeurs

Cancer du poumon + - Total

+ 300Alcoolisme -

3 7

297 693 700

10 990 1.000

RR = (3/300) / (7/700) = 1.0 A l'intérieur de chaque strate, il n’y a pas d’association entre alcoolisme et cancer du poumon (RR = 1), ce qui est différent du RR brut. Nous pouvons conclure que l'association entre l'alcool et le cancer du poumon était un artéfact produit par le facteur confondant tabagisme. L'importance de la confusion est évaluée en observant le degré de désaccord entre les valeurs brutes et ajustées. La compréhension de la confusion est essentielle pour la conception et l'analyse des études épidémiologiques analytiques. Le facteur de confusion est en pratique le seul biais qui peut être corrigé! Il existe différentes procédures pour contrôler (ou minimiser) les facteurs de confusion à la fois lors de la conception de l'étude et pendant l'analyse des données.

Page 138: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 138/158

B. Méthodes pour contrôler la confusion dans le plan d'étude

- La randomisation: Il s'agit de la répartition aléatoire des sujets dans les groupes exposés et non exposés. Le but est de contrôler les facteurs de confusion connus et inconnus en rendant les groupes exposés et non exposés semblables en tout point à l'exception de l'exposition. Cette méthode n'est efficace que si l'échantillon est de grande taille.

- La restriction: accepter dans l'étude seulement les sujets qui tombent dans la catégorie d'un facteur de confusion potentiel. Par exemple, si sexe et groupe ethnique sont des facteurs de confusion potentiels, l'étude pourrait être limitée par exemple aux femmes noires seulement. La restriction est bon marché, simple et efficace. Elle a cependant des limitations: réduction du nombre de sujets éligibles pour participer à l'étude, limitation de la généralisation (validité externe) et contrôle incomplet de la confusion (confusion résiduelle). La confusion résiduelle est un risque en particulier si les données sont classées dans des catégories trop larges, par exemple, des tranches de 10 ans d'âge.

- Assortiment (matching) des sujets sélectionnés de telle façon que les facteurs de confusion potentiels soient répartis de façon identique parmi chacun des groupes étudiés. Dans l'exemple vu plus haut, des cas et témoins auraient pu être assortis pour le sexe et la race. L'assortiment est difficile, coûteux et prend du temps. Les possibilités de généralisation sont p réservées. Cela garanti la comparabilité entre les groupes mais seulement pour les facteurs de matching. La confusion reste toujours possible du fait d'autres facteurs. De plus on ne peut pas étudier les effets de la (ou des) variable(s) de matching sur le problème de santé étudié. Le matching est le plus souvent réalisé dans les études cas-témoins et s'il est fait au niveau individuel des méthodes d’analyse spécifiques doivent être utilisées (analyse de données assorties).

C. Méthodes pour contrôler la confusion pendant l'analyse

- La stratification: Il s'agit de l'analyse de l'association entre l'exposition et la maladie dans des strates (catégories) de la variable confondante (voir plus haut l'exemple dans lequel le tabac est un facteur de confusion entre l'alcoolisme et le cancer du poumon). Il existe un certain nombre de méthodes statistiques qui permettent de combiner l’ensemble des résultats dans chaque strate en une mesure unique dénuée de confusion (par la variable de stratification). Un problème fondamental des analyses stratifiées est leur incapacité a contrôler en même temps pour un certain nombre, même modéré, de facteurs confondants potentiels.

- La standardisation: Elle est souvent utilisée pour comparer des populations (voir chapitre 1). Par une standardisation directe ou indirecte, l'effet du facteur de confusion est neutralisé. L'importance de la confusion est évaluée par l'observation du degré de désaccord entre les estimations brutes et standardisées.

- L'analyse multivariée: Elle implique la construction de modèles mathématiques pour décrire de la façon la plus efficace l'association entre une 'exposition et la maladie tout en contrôlant simultanément pour l’effet de plusieurs autres variables qui peuvent être confondantes ou modifier l'effet de l'exposition. Il existe un éventail de techniques statistiques et de programmes d'ordinateur accessibles permettant de faire ces analyses.

Page 139: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 139/158

Chapitre 6bis : Analyse stratifié : une technique pour contrôler les biais de confusion

I. DEFINITION Un facteur de confusion déforme la réalité de l'association entre un facteur d'exposition et une maladie (les facteurs de confusion créent la confusion). L'association peut ainsi paraître plus forte qu’elle ne le soit, ou elle peut apparaître comme plus faible qu’elle ne l’est en réalité. A cause du facteur confondant, la réelle association sera donc sur- ou sous-estimée. Cette déformation est due à une distribution différente du tiers facteur entre les groupes exposés et non exposés (ou bien entre les cas et témoins). Pour être un facteur de confusion potentiel une variable doit être: 1. associée à l'exposition dans la population d’étude 2. associée à la maladie indépendamment de l'exposition, c'est à dire même chez les sujets

non exposés 3. ne pas être la conséquence de l’exposition, car il s’agit alors d’une cause intermédiaire

de la maladie et non d’un facteur confondant. (c.à.d. que facteur d’exposition agit à travers ce facteur pour causer la maladie).

Exemple : dans la relation tabagisme pendant la grossesse et mortalité périnatale, le petit poids de naissance ne peut pas être considéré comme un facteur confondant, c’est une cause intermédiaire Quelques exemples • Les travailleurs dans une usine sont exposés à un produit chimique qui est un facteur de

risque pour le cancer du poumon. Ils fument plus que les hommes du même âge dans la population générale.

exposition au produit chimique cancer du poumon

tabagisme Si on ne corrige pas la confusion: l'association entre l'exposition au produit chimique et le cancer du poumon est exagéré par le tabagisme, qui est un facteur de confusion. • La prise d'estrogènes pour les symptômes de la ménopause est un facteur de risque

pour le cancer du sein. La ménopause précoce diminue le risque de la survenue d'un cancer du sein. Les femmes en ménopause précoce prennent plus souvent les estrogènes.

prise d'estrogènes cancer du sein âge à la ménopause Résultat si on ne corrige pas la confusion: l'association entre la prise des estrogènes et le cancer du sein est plus faible qu'elle ne l'est réalité

Page 140: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 140/158

II. QUE FAIRE EN CAS DE SUSPICION DE CONFUSION?

Exemple Une étude cas-témoins sur la relation entre la prise de contraceptifs oraux et le risque d'infarctus du myocarde, concernait 153 cas et 178 témoins (n=331). Contraceptifs Pas de contraceptifs

Infarctus du myocarde Témoins

39

24

114

154

OR = 2,2 Dans cette étude, l'âge est suspecté être un facteur de confusion, puisque le risque d’infarctus augmente avec l’âge. Comment peut-on vérifier que l'âge est en effet un facteur de confusion ? Il y a deux manières de procéder : 1. Première méthode: (vérifier les conditions formelles de confusion)

Selon cette méthode, on vérifie les 3 conditions de confusion, c.à.d. est-ce que l'âge est-il associé à la prise des contraceptifs ? et est-ce que l’âge est associé à l'infarctus du myocarde ? Et est-ce que l’âge n’est pas une étape intermédiaire ?

Parmi les témoins l'utilisation des contraceptifs est plus fréquente chez les femmes jeunes que chez les femmes plus âgées. L'âge ne peut pas être un facteur dans la chaîne causale entre contraceptifs oraux et infarctus du myocarde. On sait également que l'âge est un facteur de risque de l'infarctus du myocarde.

Conclusion : Oui, l’âge est un facteur de confusion dans cette étude.

2. Deuxième méthode : analyse stratifié (plus élégante et moins compliquée):

On divise les données en sous-groupes d’âge, afin de regarder l’association entre la contraception et l’infarctus du myocarde dans chaque catégorie d’âge. Ce qu’on appelle « stratifier » les données.

Age < 40 ans Age > 40 ans Co Pas de Co Co Pas de Co

Infarctus du myocarde Témoins

21

17

26

59

18

7

88

95

OR = 2,8 OR = 2,8

On mesure ensuite la force de l'association dans chaque strate. Dans chacune des strates (âge < 40 ans, âge > 40 ans) le OR est plus élevé que dans l'analyse brute. On peut donc conclure que l'âge est un facteur de confusion.

Page 141: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 141/158

III. LA MODIFICATION DE L'EFFET Dans l’exemple précédent, les OR qu’on a observés dans les deux strates d’âge étaient identiques, mais dans la réalité ceci est plutôt rare. D’habitude, les RR (ou les OR) des sous-strates diffèrent dans l’analyse stratifiée. Même si elles sont identiques au niveau de la population, elles finiront légèrement différentes dans l’analyse, due au hasard de l’échantillonnage. D’une autre coté, il est tout à fait possible que les vrais RR (OR) dans les différentes sous-strates, ne soient pas identiques au niveau de la population, et qu’ils diffèrent clairement entre les strates. Dans ces cas il s’agit du phénomène de la modification de l'effet. On parle de modification de l’effet si la force de l’association entre un facteur d’exposition et une maladie diffère d’un sous-groupe à l’autre de la population étudiée, c’est-à-dire lorsque le risque relatif ou le odds ratio diffère d’une strate à l’autre. La modification d’effet n’est pas un biais, c’est une information utile, et il n’y a pas d’intérêt à essayer de le contrôler. La question qui en suit, est alors comment juger si on a à faire à une variation aléatoire d’un seul et identique RR (OR) ou par contre à des vraies différences, indicatives pour une modification d’effet ? Il existe un test statistique, notamment le test d’hétérogénéité, qui vérifie l’hypothèse nulle que le RR (OR) est homogène au niveau de la population. Si ce test est significatif (p<0.05), on rejette l’hypothèse nulle, et on conclue que la modification de l’effet est présente.

Exemple: L'efficacité vaccinale selon l'âge. Age Total Vaccination Cas Cas / 1000 RR

< 1 an 35.625 oui 38 1,07 0,87

24.375 non 30 1,23

1 - 4 ans 44.220 oui 34 0,77 0,42

46.780 non 86 1,84

5 - 9 ans 78.200 oui 50 0,64 0,19

75.000 non 250 3,33

10 - 24 ans 83.400 oui 18 0,22 0,15

82.600 non 120 1,45

Total 241.445 oui 140 0,6 0,29

La valeur du RR varie d'une strate à l'autre. Par exemple le RR dans la strate 10-24 ans est beaucoup plus petite que dans la strate < 1 an. Le test de l’hétérogénéité des RR spécifiques aux strates donne p<0,05. On peut donc conclure que l’'âge est un facteur modificateur de l’effet. Une mesure pondérée de la force de l'association entre le vaccin et la maladie est inappropriée et il faut présenter les résultats propres à chaque strate.

Page 142: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 142/158

IV. PROCEDURE DE L’ANALYSE STRATIFIEE

1. Examiner l’association entre l’exposition et la maladie

On calcule le RR (OR) brute entre facteur d’exposition et maladie, avec Intervalle de Confiance

2. Stratifier les données

On crée des strates homogènes, c'est à dire que tous les sujets inclus dans une même strate sont semblables en ce qui concerne le tiers facteur. Dans chaque strate on mesure la force de l'association entre le facteur d'exposition et la maladie en calculant des RR (ou OR) spécifiqes par strate.

3. Rechercher une éventuelle modification d’effet

On vérifié que les RR (OR) dans les différentes strates sont homogènes (si ils sont consistent avec le RR du niveau de population). Si le test statistique pour l’hétérogéneité est significatif (il y a de grandes variations du RR (OR) dans les différentes strates), le tiers facteur est un modificateur de l'effet et on présente les données par strate.

4. Rechercher un éventuel facteur de confusion

Si la variable de stratification n’est pas un facteur modificateur d’effet, on recherche alors si elle est un facteur de confusion. Puisque les RR (OR) sont semblables, on pourra calculer une mesure pondérée de l'association entre le facteur de risque et la maladie (RR ou OR pondéré). Si le RR brute et ponderé sont identique, il n’y a pas de confusion et on peut rapporter avec certitude le RR brute. S’ils diffèrent plus que 10%, on conclue que le RR brute a été influencé par le facteur de confusion, et on rapporte le RR ponderé.

Page 143: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 143/158

V. CALCUL DE LA MESURE PONDEREE DE L'ASSOCIATION ENTRE FACTEUR DE RISQUE ET MALADIE SELON LA METHODE DE MANTEL-HAENSZEL Organisation du tableau de contingence pour chaque strate (i allant de 1 à ... ):

Malades Non malades Total

Exposés ai bi L1i Non exposés ci di LOi

C1i C0i Ti Enquête de cohorte: risque relatif pondéré RRM-H = Etude cas-témoins: odds ratio pondéré ORM-H = Le RRM-H et le ORM-H sont des moyennes pondérées des RR (OR) de la différente strate. La formule donne plus de poids aux strates où il y a plus de données. Intervalle de confiance du OR pondéré D'abord on calcule le X2

selon la méthode de Mantel-Haenszel: Puis on calcule l'intervalle de confiance:

IC à 95% = ORM-H

[ ]( ))ΣVar(a

,ΣE(aΣax

i

i)iHM

22 50−−

=−

iIIi T/C*L)a(E 11=

)T(*T)CO*C*LO*L()a(Var

ii

IIIIi 1

112 −

=

[ ]29611 X/,(±

Σ( ai * LOi) / Ti )

Σ ( ci * Lli) / Ti )

Σ ( ai * di) / Ti )

Σ ( bi * ci) / Ti )

Page 144: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 144/158

VI. RESUME E = variable d’exposition D = variable de résultat (maladie) V = facteur de confusion potentiel A. Identifiez tous les facteurs de confusion potentiels

1) V est associé à E et

2) V est associé à D et 3) V n’est pas présent dans l’enchainement causal de E à D

B. Vérifiez la présence de la modification d’effet (interaction) et de la confusion, et, si nécessaire, contrôlez la confusion.

E ↔ D Calcul RR brut

Stratifier sur V Calcul RR strate-spécifique pour E ↔ D,

Sont-ils homogènes ?

RR homogènes dans strate, Test Woolf p > 0,05

RR hétérogènes dans strate, Test Woolf p < 0,05

Calcul Mantel-Haenszel RR ajusté V = modificateur d’effet Interaction entre E et V!

Donne le RR strate-spécifique

Si RR brut ≈ RR ajusté

Pas de confusion : Donne le RR brut

V = facteur de confusion: Donne le RR Mantel-Haenszel ajusté

V est un facteur de confusion potentiel

Si RR brut ≠ RR ajusté

Page 145: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 145/158

Chapitre 7 : Le concept de risque OBJECTIFS DU CHAPITRE 7 Après avoir étudié les notes de cours, et assisté au cours, les participants doivent être capables de: 1. comprendre le concept de risque et de facteur de risque, 2. comprendre l'importance du plan d'étude dans l'évaluation du risque, 3. mesurer les risques absolus, relatifs et attribuables.

Page 146: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 146/158

INTRODUCTION

En santé publique, la connaissance de la prévalence, ç.-à.-d. le nombre de cas existants d’une maladie à un moment donné, et l’incidence, ç.-à.-d. le nombre de nouveaux cas qui se produisent durant un intervalle de temps déterminé sont des notions très importantes pour déterminer les priorités et mettre en place les programmes de santé. Néanmoins, ces mesures ne donnent pas de renseignements sur la possibilité qu'a un individu ou un groupe d'individus de développer un phénomène de santé donné. Nous les appelons des « groupes à haut risque » et si nous voulons planifier des interventions de santé d’une façon adéquate, nous devons être capables d’identifier ces groupes clairement. Par ex., si nous ne pouvons pas demander à chaque femme de venir à l’hôpital pour l’accouchement, nous pourrions vouloir identifier les femmes avec le plus haut risque de complications obstétriques, et demander uniquement les femmes « à haut risque » d’entreprendre le voyage pour venir accoucher à l’hôpital.

Les taux de prévalence et d’incidence ne nous donnent pas de perspectives directes dans les chances si un individu ou une strate de population développe un résultat de santé défavorable. La chance de développer un résultat de santé défavorable est appelé le risque, et les déterminants de ce risque sont appelés « les facteurs de risque ». L’étude ainsi que la dérivation des estimations de risque (ou les mesures de risque) forment le but de ce chapitre. Quelques définitions :

Risque Le risque est la probabilité qu’un individu développe un résultat de santé donné durant un intervalle de temps déterminé. Par ex., le risque indique la probabilité qu’un individu tombera malade ou décèdera endéans une certaine période. Le risque est une probabilité sans dimensions et varie ainsi entre 0 et 1.

"Risque 0" : l'individu ne subira aucun changement spécifique de son état de santé pendant la durée de l'observation. "Risque 1 " : l’'individu présentera certainement un changement spécifique de son état de santé pendant la durée de l'observation.

La façon la plus simple de mesurer le risque est de diviser le nombre de nouveaux cas durant un intervalle de temps déterminé par le nombre de sujets en bonne santé au début de la période de suivi. Ceci correspond au concept d’incidence cumulative comme défini en chapitre 1.

Le risque requiert une notion de temps d'observation : sans cette notion le risque n'a pas de sens.

Exemple

Le risque de mourir avant le premier anniversaire, étant donné que l’enfant est vivant à la naissance, s’élève toujours à 10% dans de nombreux pays ; tandis que le risque de décès s’élève à 100% s’il est calculé sur la durée d’une vie entière.

Page 147: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 147/158

Facteur de risque Un facteur de risque est un attribut d’un individu qui est associé avec une probabilité augmentée d’un résultat spécifique, comme l’occurrence d’une maladie. Cet «attribut» peut être un aspect dans le comportement ou le style de vie de l’individu, ou peut être une exposition environnementale, ou un caractéristique inné ou hérité, qui à la base de l’évidence épidémiologique est connu d’être associé avec des conditions de santé.

Le terme « facteur de risque » est utilisé par différents auteurs avec des significations différentes, selon le genre d’association qui le lie à la maladie :

1. Le marqueur de risque. Quand l’attribut ou l’exposition est associé au résultat de santé mais n’en est pas la cause. Ce type de marqueurs peut aider dans l’identification des personnes à risque élevé mais il est inutile de changer le marqueur dans ce but. Par ex., la stature courte et la dystocie. Mesurer 1m40 ne cause pas de problèmes obstétriques immédiatement, mais est surement associé à un risque plus élevé de les avoir dans l’avenir.

2. Le déterminant. Un attribut ou une exposition qui augmente la probabilité d’occurrence d’une maladie ou un autre résultat spécifique, à cause d’un lien causal établi entre l’attribut et le résultat de santé. Par ex., un facteur de risque génétique pour le cancer du poumon est un déterminant, parce qu’il est clairement causal (bien qu’il ne soit pas favorable à l’intervention à ce titre, voir ci-dessous).

3. Le facteur de risque modifiable. Un déterminant qui peut être modifié par une intervention et ainsi diminuer (ou augmenter) la probabilité d’occurrence d’une maladie ou d’un autre résultat spécifique. Par ex. le nombre de cigarettes fumées est un facteur de risque modifiable pour le cancer du poumon.

Voir aussi Last, A dictionary of Epidemiology

Page 148: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 148/158

I. LE RISQUE ABSOLU Le risque absolu est le risque qu’un individu a de développer un phénomène de santé (non désiré) durant un intervalle de temps déterminé. Les mesures de risque absolu sont des outils importants pour déterminer les priorités et pour l’évaluation. Il y a différentes méthodes d’estimation. La méthode la plus simple et la plus répandue est celle de l'incidence cumulative, qui est le rapport du nombre de nouveaux cas, développés pendant une période donnée, sur le total des personnes à risque au début de la période d'observation.

Exemple : Récemment une enquête épidémiologique a été faite à Aceh en Indonésie pour déterminer le risque absolu du tétanos néonatal; une cohorte de 4836 nouveaux nés a été suivie pendant les 28 premiers jours, 101 cas mortels de tétanos néonatal ont été détectés. L’incidence cumulative s’élevait à 2.1%.

%1,2021,04836101

==

Interprétation : Dans cette cohorte, un nouveau né court un risque de 2,1% de développer un tétanos néonatal. Pour faire l'inférence statistique à l'ensemble de la population, on place des intervalles de confiance autour du risque absolu.

En cas d'épidémie, lorsque la durée d'observation représente la durée totale de l'épidémie, alors l'incidence cumulative est appelée le taux d'attaque. Relation entre le taux d'incidence (TI) et le risque: Quand le taux d'incidence est constant et qu'à la fois le TI et la période d'observation (∆t) sont peu élevés alors:

Risque = TI x ∆t Exemple : Dans l'état du Connecticut (USA) en 1970, 1300 femmes sur un total de 1.558.000 femmes ont développé un cancer du sein.

TI en 1970 = PAPA

000.100/83000.558.1300.1

=

Le risque de développer un cancer du sein dans le Connecticut pendant une période de quatre ans:

= 83/100.000 PA x 4 a = 000.100

332

ou 0,33% sur une période de 4 ans.

Page 149: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 149/158

II. LES MESURES D’ASSOCIATION Les mesures d’association reflètent la force du lien entre un facteur d’étude et la maladie. Ils sont très importants à juger si ce lien est « causal » ou pas.

A. MESURES DE RAPPORT

Il existe 3 mesures de rapport d’association : le rapport de risque, le rapport des taux et le rapport des cotes (odds ratio). Tous indiquent la force d’une association entre le facteur de risque et le résultat. La force d’une association est une indication de la probabilité qu’un lien causal existe entre le facteur de risque et le résultat. 1. Rapport de risque

Le rapport de risque est estimé dans les études de cohorte. C’est le rapport du risque de la maladie ou du décès parmi les personnes exposées divisé par le risque parmi les personnes non-exposés.

Exemple

Tableau 1 – Association entre l’incidence cumulative de tétanos néo-natal dans 4836 nouveau-nés à Aceh, suivi pendant 28 jours, avec les instruments utilisés pour couper le cordon ombilical.

Exposition Population à risque Nombre de cas Incidence cumulative

Tige de bambou 1158 38 3,28%

Ciseaux 3678 63 1,71%

Total 4836 101 2,09%

Rapport de risque, RR = 92,1%71,1%28,3

3678/631158/38

==

Interprétation: Le risque de mourir du tétanos néonatal dans l'échantillon d’Aceh, est presque 2 fois plus élevé dans le groupe des enfants dont le cordon ombilical a été coupé par une tige de bambou, que dans le groupe dont le cordon a été coupé par des ciseaux.

Incidence cumulative parmi les exposés . .Incidence cumulative parmi les non-exposés

Risque parmi les exposés . Risque parmi les non-exposés

OR

Page 150: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 150/158

2. Le rapport des taux Le rapport des taux est également estimé dans les études cohortes, comme le taux d’incidence parmi les exposés divisé par le taux d’incidence parmi les non-exposés.

Exemple

Tableau 2 – Données d’une étude cohorte prospective sur l’usage d’hormones après la ménopause et les maladies coronaires parmi des infirmières post-ménopausées

Usage d’hormones après la ménopause Maladie coronaire Personne-années

d’exposition

OUI 30 54.308,7

NON 60 51.477,5

TOTAL 90 105.786,2

Données de M.J. Stampfer et al., A prospective study of post-menopausal hormones and coronary heart disease. N Engl J Med 313 :1044, 1985.

Le rapport des taux = PAPA

5,477.51/607,308.54/30

= 0,5

Une valeur de 1 indique que le taux d’incidence de la maladie dans les groupes exposés et non-exposés est identique et qu’il n’y a donc pas d’association entre l’exposition et la maladie.

Une valeur au-dessus de 1,0 indique un risque augmenté parmi ceux qui sont exposés à un facteur ou une association positive.

Une valeur en-dessous de 1,0 indique qu’il y a une association inverse ou un risque diminué parmi les exposés ; dans l’exemple ci-dessus les femmes qui ont utilisé des hormones après la ménopause avaient 0.5 fois, ou la moitié, de risque de développer une maladie coronaire comparé aux femmes non-exposées.

Taux d’incidence parmi les exposés . Taux d’incidence parmi les non-exposés

Page 151: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 151/158

3. Le rapport des cotes (Odds ratio) Le rapport des cotes est estimé dans les études de cas-témoins. Dans le concept, le taux de risque ne peut pas être estimé directement, et doit être estimé par le taux des produits croisés (TPC) ou le rapport des cotes (OR).

Le rapport des cotes est le plus utilisé dans des études cas-témoins. Mais peut être calculé aussi pour des études transversales et de cohorte, dans le cas que tous les participants ont le même période de suivi. Pour les études cas-témoins, seulement le OR est correcte. Exemple Supposons qu’à Aceh une étude de cas-témoins a été faite comprenant tous les cas et seulement 5% de témoins. Tableau 3 – Etude cas-témoins, Aceh, pour évaluer l’association entre les instruments utilisés pour couper le cordon et le Tétanos Néonatal

Exposition Cas Témoins Total

Bambou 38 56 94

Ciseaux 63 181 244

Total 101 237 338

OR = 181/5663/38

ou TPC = 95,15663

18138=

××

Note : le terme Risque Relatif est utilisé pour différents taux, et vient du fait que pour les maladies rares toutes les mesures de taux sont approximatives (par ex. le rapport des cotes = le rapport des taux = taux de risque). Pour des maladies communes (par ex. la mortalité néonatale dans les enfants ayant un poids de naissance en-dessous de 1500 g), ces approximations ne comptent pas. Les mesures de rapport sont souvent utilisées pour indiquer la force d’une association.

Cependant, une association n’indique pas nécessairement une causalité.

Ce n’est pas une bonne mesure de l’impact sur la santé publique.

Peut être estimé dans les études de cohorte (rapport de risques ou rapport des taux) et dans les études de cas-témoins (rapport des cotes).

Cote d’exposition parmi les cas . Cote d’exposition parmi les témoins

Page 152: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 152/158

B. MESURES DE DIFFERENCE

1) a) La différence de risque ou le risque attribuable La différence de risque ou le risque attribuable est une mesure qui donne de l’information sur l’effet absolu qui peut être attribué à l’exposition. C’est le risque excessif de la maladie dans les personnes exposées comparé aux personnes non-exposées. L’incidence de risque peut être calculée avec des taux d’incidence ou avec des incidences cumulatives. Par conséquent, une différence de risque peut être estimée dans les études de cohorte mais pas directement dans les études de cas-témoins.

Différence des taux = taux d’incidence dans les exposés – taux d’incidence dans les non-exposés

DT = TIe - TIn

Exemple Données d’une étude de cohorte prospective sur l’usage d’hormone après la ménopause et les maladies coronaires dans les infirmières post-ménopausées.

Différence des taux = 30/54.308,7 PA – 60/51.477,5 PA = - 65/100.000 PA

Le taux « d’excès » des maladies coronaires dans les utilisateurs d’hormone après la ménopause attribuable à l’usage d’hormone est de – 65 par 100.000 PA. Autrement dit, l’usage d’hormone après la ménopause diminue le taux des maladies coronaires avec 65 par 100.000 PA.

Différence de risque = risque dans les exposés – risque dans les non-exposés

DR = Re - Rn

Exemple de l’association du tétanos néo-natal/instrument pour couper le cordon ombilical, Voir tableau 1

Différence de risque = Re – Rn = ICe - ICn

DR = %57,10157,03678

631158

38==−

Alternativement, la différence de risque peut aussi être estimée comme :

DR = Rn (RR – 1)

DR = Rn (RR – 1) = 63/3678 (1,92 – 1) = 1,57% Interprétation : l’usage d’une tige de bambou pour couper le cordon ombilical est associé avec un risque excessif de 1,6% pour développer le tétanos néo-natal dans les personnes exposées comparé aux personnes non-exposées pour qui des ciseaux ont été utilisés.

Page 153: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 153/158

1) b) Le pourcentage de risque attribuable dans les personnes exposées

RA % dans les personnes exposées = RR

RRouR

RRe

ne 1−−

Le pourcentage de risque attribuable dans les personnes exposées (parfois appelé la fraction étiologique du risque chez les exposées FER) mesure la magnitude d’un problème produit par un facteur de risque spécifique dans ceux qui y sont exposés.

Exemple du Tableau 1

RA % dans les personnes exposées = %9,4792,1

192,1=

Interprétation : Parmi les personnes exposées 47,9% des cas de tétanos néo-natal sont dus au fait que le cordon ombilical a été coupé avec une tige de bambou.

2) a) Risque attribuable dans la population (RAP) Le Risque Attribuable dans la Population, aussi appelé le Taux en Excès dans la Population, est une mesure de la quantité de la maladie liée à l’exposition à une cause putative de la maladie dans la population. C’est la différence entre le taux d’incidence (ou l’incidence cumulative) de la maladie dans toute la population et le taux d’incidence (ou incidence cumulative) parmi les personnes non-exposées de la population. Il mesure l’effet que la suppression du déterminant aurait sur le taux d’incidence dans la population. RAP = Taux d’incidence dans la population – Taux d’incidence dans les personnes non-exposées

RAP = (TI pop – Ti n)

Le RAP peut aussi être calculé du taux de différence entre les personnes exposés et les personnes non-exposés multiplié par la prévalence d’exposition

RAP = (TI e – Ti n) . P e

P e = prévalence d’exposition dans la population TI e = taux d’incidence dans les personnes exposés Ti n = taux d’incidence dans les personnes non-exposés

Page 154: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 154/158

RAP = Risque dans la population – Risque dans les personnes non-exposées

RAP = (R pop – R n)

ou

Différence de risque entre les personnes exposées et les personnes non-exposées x prévalence d’exposition

RAP = (R e – R n). P e

Exemple d’association de tétanos néo-natal/instrument pour couper le cordon ombilical – voir Tableau 1

Le Risque Attribuable dans la Population pour le tétanos néo-natal est RAP = 2,09% - 1,71% = 0,38%

Interprétation : la différence de risque entre la population entière et les personnes non-exposées du à l’usage de la tige de bambou pour couper le cordon ombilical est de 0,38%.

Alternativement le RAP peut être calculé comme P e (R e – R n) = 1158/4836 (3,28% - 1,71%) = 0,38%

Page 155: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 155/158

2) b) La Fraction de risque Attribuable dans la Population (FAP) La FAP mesure la fraction de l’incidence totale de la maladie (ou risque) dans une population attribuable à l’exposition à un facteur de risque donné.

FAP = R

RRpopulationladansRisque

populationladanseattribuablRisquepop

npop −=

Une fraction de risque attribuable dans la population ne dépend pas uniquement des taux d’exposition spécifiques, mais également de la prévalence du déterminant dans la population. La FAP peut être calculée du rapport de risque, si nous connaissons la proportion de la population qui est exposée au facteur de risque (P e)

[ ] 1)1()1(+−

−RRP

RRP

e

e

Dans une étude de cas- témoins la FAP peut être estimée en utilisant la formule ci-dessus, par la substitution du RR par OR, et en utilisant pour Pe = la proportion des témoins exposés, si cette proportion est une estimation valable de la fréquence du facteur de risque dans la population. Sinon, il faudra chercher de l’information sur Pe dans d’autres études publiées. !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! Dans toutes les formules mentionnées dessus le RR peut être remplacé par le OR venant d’une étude cas témoins, seulement si la maladie est rare. !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

Exemple Quel serait l’impact de changer l’instrument pour couper le cordon ombilical à Aceh et d’utiliser des ciseaux au lieu d’une tige de bambou ?

FAP = 1)192,1(

48361158

)192,1(48361158

+−

− = 0,180= 18.0%

Interprétation : 18% de tous les cas de tétanos néo-natal dans l’étude à Aceh sont dus à l’usage d’une tige de bambou comme instrument pour couper. L’importance de l’estimation de la FAP est assez évidente pour la planification : la suppression de la tige de bambou pourrait réduire le risque de 18%, mais le résiduel 82% n’est pas vulnérable, puisqu’il ne dépend pas de l’usage de la tige de bambou.

où Pe = la prévalence d’exposition Re = le risque dans les personnes exposées Rn = le risque dans les personnes non-exposées Rpop = le risque dans la population totale

Page 156: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 156/158

Note : « Fraction évitable », « Fraction prévenue » Dans une situation dans laquelle l’exposition à un facteur donné est censée protéger contre une maladie ou d’autres résultats (par ex. une vaccination), la fraction évitable dans la population est la proportion de la maladie (dans la population) qui serait évitée si la population entière serait exposée à ce facteur. Exemple Le Tableau 4 montre les résultats d’une étude de vaccination contre la coqueluche en Angleterre dans les années ’40 quand le vaccin était encore nouveau. Les enfants étaient alloués au hasard dans le groupe des « vaccinés » ou des « non-vaccinés », et ils ont été suivis pendant 2 à 3 ans (Hill, 1962).

Tableau 4 – Incidence de la coqueluche par 100 enfants années

Group Taux d’incidence

Vaccinés 1,74

Non-vaccinés 8,07

Quelle proportion du taux d’incidence a été évitée dans les enfants qui ont été vaccinés ? Ceci est « la fraction prévenue chez les exposés » (par ex. dans les personnes exposées au facteur de protection).

%7807,8

74,107,8=

−=

IncidenceIncidenceIncidence

vaccinésnon

vaccinésvaccinésnon

Ceci est aussi appelé l’efficacité du vaccin Quelle est la fraction évitable dans les non-vaccinés ? Ceci est, bien sur, égale à l’efficacité du vaccin dans le group des enfants vaccinés. Quel serait l’impact d’un programme de vaccination contre la coqueluche sur l’incidence dans la population ? Dans toute l’Angleterre, le taux d’incidence de la coqueluche était de 6 par 100 enfants années. L’utilisation du vaccin était inégale dans le pays, et le nombre d’enfants vaccinés était inconnu. Assumons que les données en Tableau 4 réfèrent à des échantillons représentatives des enfants vaccinés et non-vaccinés en Angleterre. En utilisant ces chiffres, quel est l’impact de la vaccination sur l’incidence dans la population totale des enfants ? Autrement dit, quelle proportion de l’incidence potentielle de la coqueluche était évitée par la vaccination ?

Page 157: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 157/158

Ceci est la fraction prévenue dans la population.

%2607,8

607,8=

−=

IncidenceIncidenceIncidence

vaccinésnon

Populationvaccinésnon

La fraction prévenue dans la population grâce à la vaccination est de 26%. En utilisant les mêmes chiffres, quel proportion de l’incidence réelle de la coqueluche dans la population d’enfants aurait pu être évitée si tous les enfants avaient été vaccinés ? (Ceci est la fraction évitable dans la population).

%716

74,16=

−=

IncidenceIncidenceIncidencePopulation

nVaccinatioPopulation

Page 158: Syllabus Epistat 1 F 2010 Version NN

Dernière mise à jour : 07-08-2009 (NN) 158/158