Résumés de mémoires de Master Recherche. Université Paris-XI, 2008-2009

5
Résumés de mémoires de Master Recherche § Université Paris-XI, 2008–2009 § Analyse coût-efficacité de deux stratégies de dépistage du cancer médullaire sporadique de la thyroïde chez les patients porteurs d’un nodule L. Benjamin Mémoire Master 2 recherche santé publique, université Paris-Sud-XI ; directeur de stage : Dr Gwenaëlle Vidal-Trécan, hôpital Cochin, faculté de médecine, université Paris-Descartes ; laboratoire d’accueil : unité de santé publique, gestion des risques et qualité, hôpital Cochin, 27, rue du Faubourg-Saint-Jacques, 75014 Paris État de la question.– Le nodule thyroïdien est une anomalie endocrinienne fréquente mais bénigne dans la majorité des cas. La difficulté pour le praticien est d’adopter une attitude diagnostique ni trop invasive, en opérant des nodules bénins, ni trop laxiste, en laissant évoluer des tumeurs malignes. La prise en charge diagnostique du cancer médullaire sporadique de la thyroïde (CMST) divise encore les praticiens. La Haute Autorité de santé (HAS) limite le dosage du marqueur tumoral, la calcitonine (CT), aux patients devant être opérés sur des signes cliniques ou cytologiques de cancer tandis que d’autres préconisent un dosage systématique de la CT chez tous les patients porteurs d’un nodule palpable. Le but de ce travail a été d’identifier la stratégie de dépistage du CMST la plus efficiente. Matériel et méthodes.– Un modèle de Markov a été développé pour comparer deux scénarios de dépistage à l’aide du logiciel Decision Maker 1 : dosage de CT limité aux patients devant être opérés versus dosage de CT systématique dans une population fictive de patients âgés de 50 ans porteurs d’un nodule palpable (cas de base). Les données épidémiologiques du modèle sont issues d’une revue de la littérature ayant permis d’estimer la valeur prédictive positive des tests diagnostiques, les probabilités de complications chirurgicales, les taux de survie par grade histologique et type de cancer et les ajustements sur la qualité de vie pour les états de santé considérés. L’analyse économique a été menée du point de vue de l’Assurance maladie. Les coûts (2008 s), actualisés à un taux de 3 % par an, ont été estimés à partir des données du Programme médicalisé des systèmes d’information (PMSI), de l’Assurance maladie et de la base de données Vidal. Les résultats sont exprimés en ratio coût (s)/efficacité [QALE (Quality Adjusted Life Expectancy)]. Des analyses de sensibilité ont été menées sur chaque paramètre. Résultats.– L’analyse du cas de base démontre une efficacité quasiment similaire des deux stratégies. En revanche, le coût moyen par QALE du dépistage systématique (2103 s/19,60 QALE) est supérieur de 9 % au coût de la stratégie recommandée par la HAS (1920 s/19,59 QALE). Les analyses de sensibilité suggèrent une robustesse du modèle. Le dosage de CT en routine est toujours coût-efficace et devient dominé lorsque la probabilité d’hypoparathyroïdie post-chirurgicale est inférieure à 0,0025 %. Les résultats de la modélisation sont également sensibles au coût mensuel de suivi du nodule dans l’hypothèse où l’on multiplierait inutilement les examens de suivi (TSH, échographie, cytoponction...), à la fréquence des patients à CT basale élevée (> 10 pg/ ml) et à la prévalence des signes cliniques parmi les nodules palpables. Conclusion.– Le dosage systématique de CT semble pouvoir être considéré comme une stratégie de dépistage coût-efficace avec un ratio coût-efficacité marginal acceptable (17 254 s/QALE) du point de vue de la société selon le critère < 50 000 s/QALY. Si l’efficacité du dosage préopératoire de la CT dans l’indication du geste chirurgical à effectuer a déjà été démontrée, cette étude préliminaire a permis de préciser la population cible pour laquelle un dosage de CT peut être pratiqué à un coût acceptable. Ces premiers résultats devront toutefois être encore affinés et enrichis par d’autres stratégies recouvrant des réalités de dépistage plus complexes. Une extrapolation du coût de ces stratégies à un échelon national permettrait également d’éclairer la décision en matière de choix de santé publique. Méta-analyses en réseau d’essais randomisés. Application aux cancers ORL localement avancés P. Blanchard Mémoire Master 2 recherche santé publique, option biostatistiques, université Paris- Sud-XI ; directeur de stage : Dr Jean-Pierre Pignon, service de biostatistiques, institut Gustave-Roussy, Villejuif État de la question.– L’augmentation des options thérapeutiques et des essais cliniques complique l’analyse et le choix des meilleurs traitements pour une situation donnée. Il n’est pas rare que plusieurs traitements puissent prétendre au titre de standard. Une méta-analyse classique permet de faire la synthèse d’essais comparant les deux mêmes traitements. Quand n traitements co- existent, on peut définir un véritable réseau thérapeutique. Une analyse groupée de tous ces essais permet d’utiliser au mieux les informations directes et indirectes disponibles pour déterminer l’efficacité relative des traitements et les classer en fonction de celle-ci. Matériel et méthodes.– Le matériel comprend les données individuelles de plus de 24 000 patients inclus dans 102 essais randomisés de cancérologie oto-rhino- laryngologique (ORL) recueillies par l’institut Gustave-Roussy. Des techniques de méta-analyses bayésiennes en réseau adaptées aux données de survie ont été développées. Elles reposent sur un modèle hiérarchique. Le réseau comprend l’essentiel des thérapeutiques étudiées dans les cancers ORL localement avancés dans des essais randomisés. Elles sont regroupées en six catégories, Revue d’Épidémiologie et de Santé Publique 58 (2010) 74–78 § Dans cette rubrique de RESP Informations, nous vous présentons les résumés d’une sélection de mémoires, soutenus pour l’obtention d’un Master Recherche, en provenance de Bordeaux (Master Épidémiologie et biostatis- tique), de Nancy (Master Sciences de la vie et de la santé), et de Paris-XI et Paris-XII (Master Santé publique). Cette présentation se fait avec l’agrément de l’étudiant et du directeur de mémoire. Le résumé est préparé par l’auteur du mémoire, puis soumis par le responsable du Master à la Revue, dont la Rédaction se réserve le droit de ne pas retenir les résumés qu’elle jugerait hors de son domaine. 0398-7620/$ see front matter doi:10.1016/j.respe.2009.12.001 RESP

Transcript of Résumés de mémoires de Master Recherche. Université Paris-XI, 2008-2009

Page 1: Résumés de mémoires de Master Recherche. Université Paris-XI, 2008-2009

§ Dans cette rubriquerésumés d’une sélectionRecherche, en provenantique), de Nancy (MasteParis-XII (Master Santé pl’étudiant et du directeumémoire, puis soumisRédaction se réserve lehors de son domaine.

0398-7620/$ see front m

doi:10.1016/j.respe.2009

RESP

Résumés de mémoires de Master Recherche§

Université Paris-XI, 2008–2009§

Revue d’Épidémiologie et de Santé Publique 58 (2010) 74–78

Analyse coût-efficacité de deux stratégies de dépistagedu cancer médullaire sporadique de la thyroïde chezles patients porteurs d’un noduleL. BenjaminMémoire Master 2 recherche santé publique, université Paris-Sud-XI ; directeur destage : Dr Gwenaëlle Vidal-Trécan, hôpital Cochin, faculté de médecine, universitéParis-Descartes ; laboratoire d’accueil : unité de santé publique, gestion des risques etqualité, hôpital Cochin, 27, rue du Faubourg-Saint-Jacques, 75014 Paris

État de la question.– Le nodule thyroïdien est une anomalie endocriniennefréquente mais bénigne dans la majorité des cas. La difficulté pour le praticienest d’adopter une attitude diagnostique ni trop invasive, en opérant des nodulesbénins, ni trop laxiste, en laissant évoluer des tumeurs malignes. La prise encharge diagnostique du cancer médullaire sporadique de la thyroïde (CMST)divise encore les praticiens. La Haute Autorité de santé (HAS) limite le dosagedu marqueur tumoral, la calcitonine (CT), aux patients devant être opérés surdes signes cliniques ou cytologiques de cancer tandis que d’autres préconisentun dosage systématique de la CT chez tous les patients porteurs d’un nodulepalpable. Le but de ce travail a été d’identifier la stratégie de dépistage du CMSTla plus efficiente.Matériel et méthodes.– Un modèle de Markov a été développé pour comparerdeux scénarios de dépistage à l’aide du logiciel Decision Maker1 : dosage de CTlimité aux patients devant être opérés versus dosage de CT systématique dansune population fictive de patients âgés de 50 ans porteurs d’un nodule palpable(cas de base). Les données épidémiologiques du modèle sont issues d’une revuede la littérature ayant permis d’estimer la valeur prédictive positive des testsdiagnostiques, les probabilités de complications chirurgicales, les taux de surviepar grade histologique et type de cancer et les ajustements sur la qualité de viepour les états de santé considérés. L’analyse économique a été menée du pointde vue de l’Assurance maladie. Les coûts (2008 s), actualisés à un taux de 3 %par an, ont été estimés à partir des données du Programme médicalisé dessystèmes d’information (PMSI), de l’Assurance maladie et de la base de donnéesVidal. Les résultats sont exprimés en ratio coût (s)/efficacité [QALE (QualityAdjusted Life Expectancy)]. Des analyses de sensibilité ont été menées surchaque paramètre.

de RESP Informations, nous vous présentons lesde mémoires, soutenus pour l’obtention d’un Masterce de Bordeaux (Master Épidémiologie et biostatis-r Sciences de la vie et de la santé), et de Paris-XI etublique). Cette présentation se fait avec l’agrément der de mémoire. Le résumé est préparé par l’auteur dupar le responsable du Master à la Revue, dont ladroit de ne pas retenir les résumés qu’elle jugerait

atter

.12.001

Résultats.– L’analyse du cas de base démontre une efficacité quasiment similairedes deux stratégies. En revanche, le coût moyen par QALE du dépistagesystématique (2103 s/19,60 QALE) est supérieur de 9 % au coût de la stratégierecommandée par la HAS (1920 s/19,59 QALE). Les analyses de sensibilitésuggèrent une robustesse du modèle. Le dosage de CT en routine est toujourscoût-efficace et devient dominé lorsque la probabilité d’hypoparathyroïdiepost-chirurgicale est inférieure à 0,0025 %. Les résultats de la modélisationsont également sensibles au coût mensuel de suivi du nodule dans l’hypothèseoù l’on multiplierait inutilement les examens de suivi (TSH, échographie,cytoponction. . .), à la fréquence des patients à CT basale élevée (> 10 pg/ml) et à la prévalence des signes cliniques parmi les nodules palpables.Conclusion.– Le dosage systématique de CT semble pouvoir être considérécomme une stratégie de dépistage coût-efficace avec un ratio coût-efficacitémarginal acceptable (17 254 s/QALE) du point de vue de la société selon lecritère < 50 000 s/QALY. Si l’efficacité du dosage préopératoire de la CT dansl’indication du geste chirurgical à effectuer a déjà été démontrée, cette étudepréliminaire a permis de préciser la population cible pour laquelle un dosage deCT peut être pratiqué à un coût acceptable. Ces premiers résultats devronttoutefois être encore affinés et enrichis par d’autres stratégies recouvrant desréalités de dépistage plus complexes. Une extrapolation du coût de cesstratégies à un échelon national permettrait également d’éclairer la décisionen matière de choix de santé publique.

Méta-analyses en réseau d’essais randomisés.Application aux cancers ORL localement avancésP. BlanchardMémoire Master 2 recherche santé publique, option biostatistiques, université Paris-Sud-XI ; directeur de stage : Dr Jean-Pierre Pignon, service de biostatistiques, institutGustave-Roussy, Villejuif

État de la question.– L’augmentation des options thérapeutiques et des essaiscliniques complique l’analyse et le choix des meilleurs traitements pour unesituation donnée. Il n’est pas rare que plusieurs traitements puissent prétendreau titre de standard. Une méta-analyse classique permet de faire la synthèsed’essais comparant les deux mêmes traitements. Quand n traitements co-existent, on peut définir un véritable réseau thérapeutique. Une analysegroupée de tous ces essais permet d’utiliser au mieux les informations directeset indirectes disponibles pour déterminer l’efficacité relative des traitements etles classer en fonction de celle-ci.Matériel et méthodes.– Le matériel comprend les données individuelles de plusde 24 000 patients inclus dans 102 essais randomisés de cancérologie oto-rhino-laryngologique (ORL) recueillies par l’institut Gustave-Roussy. Des techniquesde méta-analyses bayésiennes en réseau adaptées aux données de survie ont étédéveloppées. Elles reposent sur un modèle hiérarchique. Le réseau comprendl’essentiel des thérapeutiques étudiées dans les cancers ORL localementavancés dans des essais randomisés. Elles sont regroupées en six catégories,

Page 2: Résumés de mémoires de Master Recherche. Université Paris-XI, 2008-2009

Résumés de mémoires de Master Recherche / Revue d’Épidémiologie et de Santé Publique 58 (2010) 74–78 75

RESP

la première (radiothérapie standard � chirurgie) servant de référence. Lemodèle repose sur la transitivité des logarithmes des hazard-ratios (HR).Différents modèles sont développés : effet fixe, effet aléatoire sans ou avecmétarégression, modèle spécifique aux essais multibras, modèle avec termesd’incohérence. L’incohérence correspond à l’existence d’une contradictionentre les informations directes et indirectes. Elle est quantifiée et prise encompte dans les résultats.Résultats.– L’association de chimiothérapie concomitante et de radiothérapiehyperfractionnée apparaît être le traitement le plus efficace. Son HR parrapport à la radiothérapie standard est d’environ 0,70 pour tous les modèles.La probabilité a posteriori qu’elle soit le meilleur traitement oscille entre 84 et99 %. Le réseau est majoritairement cohérent. Les résultats des comparaisonspertinentes en clinique mais peu ou pas testées dans des essais randomisés sontestimés. Les biais potentiels sont discutés et mis en perspective par rapport àceux inhérents à toute méta-analyse. Les analyses de sensibilité réalisées nemontrent pas de modification significative des résultats.Conclusion.– Les méta-analyses bayésiennes en réseau sont une méthodeinnovante de traitement des données en cas de co-existence de plusieursstandards thérapeutiques dans une situation clinique. Leur application permetd’identifier les meilleurs traitements et de proposer de nouveaux essais. Ilconvient cependant de rester prudent et critique face à ces approchespotentiellement biaisées. Leur exploitation ne saurait se substituer à descomparaisons directes par des essais randomisés de puissance suffisante.

Pathologies cardiaques à long terme après un cancerde l’enfant : le rôle des traitements anticancéreuxS. DialloMémoire Master 2 recherche santé publique, université Paris-Sud-XI ; directeurs destage : Florent de Vathaire et Nadia Haddy ; laboratoire d’accueil : unité 605 Inserm,épidémiologie des cancers

État de la question.– Grâce à l’amélioration des outils de diagnostic et destraitements anticancéreux, le taux de survie des enfants atteint d’un cancer abeaucoup progressé au cours des dernières décennies. Ceci a permis d’obser-ver plus de séquelles à moyen et à long terme chez les adultes survivants d’uncancer de l’enfant notamment l’augmentation de l’incidence des secondscancers et des pathologies de toxicité viscérale en particulier cardiaque ;celles-ci sont secondaires à l’effet cytotoxique de la radiothérapie et de lachimiothérapie sur le système cardiovasculaire La cardiotoxicité des anthra-cyclines est bien connue. Quelques études ont montré sur de petits échantil-lons, une relation entre la radiothérapie et le risque de certaines pathologiescardiaques, mais aucune n’a étudié la relation dose effet entre ce risque et ladose de radiation reçue au cœur. Seule une étude récente sur une cohorte de4122 patients a montré qu’une dose au cœur entre 5 et 15 Gy multipliait par15 le risque de décès par pathologie cardiaque, comparé aux patients n’ayantpas reçu de radiothérapie, mais cette étude n’a étudié que la mortalité et pas lamorbidité cardiaque. L’objectif de la présente étude est de quantifier le risquede développer une cardiopathie ischémique ou une insuffisance cardiaque à longterme après un cancer de l’enfant, en fonction des traitements anticancéreuxreçus, en particulier selon les classes de molécules anticancéreuses et selon ladose de radiations au cœur.Matériel et méthodes.– La population étudiée est une cohorte de 3073 patientsayant survécu au moins cinq ans à un cancer de l’enfant, diagnostiquésconsécutivement dans cinq centres en France entre 1942 et 1985. Les donnéesconcernant les traitements reçus ont été recueillies rétrospectivement dans lesannées 1990, puis une actualisation des données cliniques a été réalisée à partirde 2002. La dose cumulée de radiations reçue au cœur par chaque patient, quelque soit le volume cible, a été estimée par le logiciel Dose_EG. Les causes dedécès ont été obtenues auprès du centre d’épidémiologie des causes médicalesde décès. Les patients vivants en 2006 ont été interrogés par autoquestionnaire.Les pathologies cardiaques autodéclarées ont été validées auprès du médecintraitant ou du cardiologue de chaque patient. Les risques relatifs associés àchaque variable décrivant le traitement ont été calculés à l’aide d’un modèle deCox, selon un modèle bivarié, étudiant le rôle de chaque facteur ajusté sur l’âgeau diagnostic puis selon un modèle multivarié. L’événement d’intérêt était soit ledécès par cardiopathie ischémique ou par insuffisance cardiaque, soit lediagnostic de ces pathologies chez les patients vivants en 2006.

Résultats.– L’analyse bivariée a montré un risque relatif d’événement cardiaquesignificativement augmenté pour les patients ayant reçu une dose moyennecumulée de radiations au cœur comprise entre 5 et 30 Gy (2,93 ;IC 95 % = 1,36–6,32), ou supérieure à 30 Gy (7,4 ; IC 95 % = 2,88–19,06),pour ceux ayant reçu une dose cumulée d’anthracyclines comprise entre 240 et360 mg/m2 (4,83 ; IC 95 % = 2,06–11,35) ou supérieure à 360 mg/m2 (7,92 ;IC 95 % = 4,04–15,53) et pour ceux ayant reçu des vinca-alcaloïdes (5,29 ;IC 95 % = 2,69–10,40). Le modèle multivarié prenant en compte l’âge audiagnostic, le sexe, la dose moyenne cumulée de radiations au cœur, la dosecumulée d’anthracyclines et la prise ou non de vinca-alcaloïdes, confirme cestrois facteurs de risques, avec un risque relatif de 1,08 par Gy pour la dose deradiations au cœur (IC 95 % = 1,06–1,10). Enfin, nous avons mis en évidenceune interaction négative significative entre une dose moyenne cumulée deradiations au cœur supérieure à 5 Gy et une dose cumulée d’anthracyclinessupérieure à 240 mg/m2 ; le risque relatif des patients cumulant ces deuxfacteurs atteint néanmoins 54,68 (IC 95 % = 16,41–182,16).Conclusion.– Cette étude confirme la cardiotoxicité des anthracyclines à longterme et met en évidence une potentielle cardiotoxicité des vinca-alcaloïdes,qui devra être étudiée plus précisément. D’autre part, elle a permis, pour lapremière fois, la quantification du risque de pathologie cardiaque en fonction dela dose de rayonnement ionisant reçue au cœur durant le traitement parradiothérapie dans l’enfance. Ces résultats devraient permettre d’identifier lesenfants les plus à risque de pathologie cardiaque et de leur proposer un suivicardiologique spécifique.

Évaluation et comparaison des règles de décisiond’arrêt précoce pour survenue d’événementsindésirables graves dans les essais cliniquesJ. Djadi-PratMémoire Master 2 recherche santé publique, option recherche clinique, universitéParis-Sud-XI ; directeur de stage : Dr Bernard Asselain, unité de biostatistique, institutCurie, Paris

État de la question.– Les événements indésirables graves (EIG) sont une forme detoxicité particulière. Ils justifient à ce titre d’une surveillance attentive spéci-fique. Actuellement, les méthodes de surveillance de ce type de toxicité,indépendamment du critère d’efficacité sont peu nombreuses et très peuutilisées.Matériel et méthodes.– Ce travail étudie donc cinq méthodes différentes quiévaluent la toxicité indépendamment du critère de jugement principal. Lesméthodes étudiées sont la méthode de Wald et la méthode de Fleming,adaptées à un critère de toxicité, les méthodes de Goldman et de Kramar,développées spécifiquement pour ce type de surveillance, et enfin une méthodeempirique basée sur le calcul des intervalles de confiance des proportionsobservées de toxicité, lors de la survenue de chaque EIG. Les méthodes deWald et de Fleming s’appuient sur la surveillance des sujets inclus. La décisiond’interruption repose sur le nombre d’EIG observés à chaque étape d’analyse.Les autres méthodes réalisent une surveillance des EIG, où lors de la survenuede chaque EIG, on évalue le nombre de sujets inclus, afin de juger del’opportunité d’interrompre l’essai. La comparaison de ces méthodes reposesur des calculs par simulations. Les méthodes ont été ainsi analysées en termesde risque de 1ere espèce, de fonction de dépense de celui-ci, de puissance, et desnombres moyens de sujets inclus et d’EIG survenus. Une application à un essaiclinique achevé a été par la suite réalisée.Résultats.– Les résultats montrent que ces méthodes ont chacune leurs avan-tages et leurs limites. Elles ne semblent pas présenter les mêmes caractéris-tiques selon les situations : la méthode de Goldman qui n’est pas toujoursréalisable semble particulièrement adaptée aux essais de petite taille avec unetoxicité supposée rare. La méthode de Wald, quant à elle, semble performantepour les essais de grande taille, et/ou pour les toxicités de fréquence plus élevée.La méthode des intervalles de confiance ne peut raisonnablement pas êtreutilisée avec un seuil a’ choisi petit et constant a priori (0,001), pour le calcul desintervalles successifs. En revanche, les seuils a’ peuvent être fixés selon laméthode de Pocock, en considérant que le nombre d’analyses correspond àl’espérance du nombre d’EIG attendu sous l’hypothèse nulle. Dans ce cas, cetteméthode peut être envisagée pour les effectifs faibles et les toxicités pas troprares. La méthode de Fleming peut être utilisée dans les cas où l’on souhaite

Page 3: Résumés de mémoires de Master Recherche. Université Paris-XI, 2008-2009

Résumés de mémoires de Master Recherche / Revue d’Épidémiologie et de Santé Publique 58 (2010) 74–7876

RESP

avoir une meilleure puissance de décision. Enfin la méthode de Kramar présentel’intérêt majeur de permettre d’imposer initialement une fonction de dépensechoisie du risque a.Conclusion.– Chaque méthode présente ses avantages et contraintes propres quipermettent d’orienter vers l’une d’entre elle selon chaque situation. L’utilisationde ces méthodes est limitée à un type de toxicité spécifique, analysé sur uncritère binaire, et ne permet pas la surveillance des EIG dans le temps. Ellesreprésentent malgré tout des outils d’aide à la décision pour les comités desurveillance des essais cliniques.

Essais de phase I de recherche de dose en oncologie,avec prise en compte de toxicités modérées et gradéesM. EzzalfaniMémoire Master 2 recherche santé publique, option biostatistiques, université Paris-Sud-XI ; directeurs de stage : Dr Marie-Cécile Le Deley et Dr Sarah Zohar, service debiostatistique et d’épidémiologie, institut Gustave-Roussy, Villejuif

État de la question.– Le but principal d’un essai de recherche de dose estd’identifier, parmi un nombre fini de doses, la dose à recommander pour lesévaluations ultérieures. Il est classiquement admis que l’efficacité des chimio-thérapies cytotoxiques suit une relation monotone et croissante avec la doseadministrée, de même que la toxicité. L’essai de phase I cherche à identifier ladose la plus élevée, donc potentiellement la plus efficace, associée à une toxicitéjugée acceptable. La toxicité est le critère de jugement principal des essais dephase I. La toxicité est multidimensionnelle puisqu’elle peut toucher différentsorganes. Pour chaque type de toxicité, elle est plus ou moins sévère. Le critèreconsidéré habituellement est un critère binaire tel que toxicité dose LIMIT-ANTE (TDL) ou non. La catégorie « pas de TDL » inclut l’absence complète detoxicité ainsi que les cas de toxicités minimes ou modérées, même si cestoxicités sont multiples.Matériel et méthodes.– L’objectif de ce travail a été de combiner la démarcheproposée par Bekele et Thall pour construire une mesure résumée de toxicité àpartir de l’ensemble des toxicités observées et la méthode proposée parIvanova et Kim, basée sur une régression isotonique, pour identifier la doseà recommander en fin d’essai à partir de mesures continues de toxicité. Nousavons proposé six autres estimateurs, paramétriques et non paramétriques. Laperformance des estimateurs a été évaluée à l’aide de simulations sousdifférentes hypothèses de relation entre la dose et la mesure de toxicité. Laméthode a été appliquée rétrospectivement à un essai pédiatrique de phase I. Ladémarche de construction d’une mesure résumée de toxicité dans le cadre del’essai étudié a été réalisée en collaboration avec trois experts et a permis dedéterminer une mesure de toxicité jugée acceptable. Cependant une grandediversité est apparue dans les réponses des cliniciens ; le processus doit doncêtre revu afin d’obtenir des réponses consensuelles, si cela est possible.Résultats.– Les simulations ont permis de conclure à la bonne performance del’estimateur basé sur une régression isotonique, proposé par Ivanova et Kim, pouridentifier la dose à recommander en fin d’essai. Dans la majorité des situationsétudiées, l’estimateur basé sur une régression linéaire s’avère très proche de cepremier estimateur. Cependant, il est nécessaire de confirmer ces qualités sousd’autres hypothèses de relation entre la dose et la mesure de toxicité.Conclusion.– Il est important de trouver une méthode adéquate pour lamodélisation de ce score de toxicité et son intégration dans un essai derecherche de dose, tant dans l’estimation de la dose à recommander en find’essai (méthode d’Ivanova et Kim ou méthode dérivée) que dans la phased’allocation séquentielle de dose, ce qui n’a pas encore été développé. Il seraitintéressant de développer une méthode d’escalade de dose dérivée de laméthode de réévaluation séquentielle (Continual Reassessment Method,CRM) pour une variable continue.

Coût-efficacité du paiement à la performance àl’hôpital dans le domaine cardiovasculaire :modélisation de différents schémasH. LeleuMémoire Master 2 recherche santé publique, option économie de la santé, universitéParis-Sud-XI ; directeur de stage : Dr Étienne Minvielle

État de la question.– Le paiement à la performance (P4P) dont le principe est decréer une incitation financière à l’amélioration de la qualité, est une desutilisations des indicateurs de qualité. De nombreuses initiatives internationalesde P4P existent aux États-Unis et au Royaume-Uni ; en France le développe-ment des indicateurs qualité et l’expérimentation des nouveaux modes derémunération rendent le contexte favorable. Dans le domaine hospitalier, unindicateur sur la prise en charge de l’infarctus du myocarde a été généralisé àl’ensemble des hôpitaux. L’objectif du mémoire est d’évaluer en termes decoût-efficacité la mise en place d’un programme de P4P dans ce domaine sur unéchantillon d’établissement.Matériel et méthodes.– L’efficacité du P4P à été modélisée à partir des résultatsde l’évaluation de l’indicateur sur la prise en charge de l’infarctus du myocardedans 61 établissements de médecine–chirurgie–obstétrique volontaires et desrésultats de l’efficacité du P4P sur la qualité de la prise en charge de l’infarctus dumyocarde. Le coût a été calculé pour le payeur selon 11 schémas incitatifsretrouvés dans la littérature à partir du coût des incitations financièresacquittées aux établissements.Résultats.– La modélisation a mis en évidence deux paramètres influant forte-ment le rapport coût-efficacité : la prise en compte de l’incertitude autour durésultat du score de qualité, lié à la construction de l’indicateur et le niveau dequalité initial des établissements. L’augmentation marginale du rapport coût-efficacité lors de l’augmentation de la qualité initiale comporte une phase decroissance quasi nulle et une phase de croissance exponentielle. Les établisse-ments de l’échantillon se situant en 2006 au début de la phase exponentielle, lamise en place du programme de P4P en 2009–2010 dans le domaine cardio-vasculaire à l’hôpital se traduirait par des rapports coût-efficacité supérieurs à40 000 s/QALY. La qualité de la prise en charge de l’infarctus du myocarde dansle contexte hospitalier se situe à un niveau trop élevé pour que le P4P ait unintérêt.Conclusion.– Le paiement à la performance devrait être appliqué en priorité auxdomaines cliniques dont le potentiel d’amélioration est important et où il existedes indicateurs de qualité fondés sur des recommandations de haut niveau depreuves, qui ont un impact important sur la mortalité.

Indice de masse corporelle et cancer des voiesaérodigestives supérieures chez les femmesL. RadoiMémoire Master 2 recherche santé publique, université Paris-Sud-XI ; directeur destage : Danièle Luce ; laboratoire d’accueil : Inserm U 687 (directrice : France Lert)

État de la question.– Contrairement à ce qui est observé pour la plupart descancers pour lesquels le surpoids est un facteur de risque, quelques étudesmettent en évidence une association négative entre indice de masse corporelle(IMC) et risque de cancer du larynx, de la cavité buccale et du pharynx, avec unrisque plus élevé chez les sujets les plus minces. Cette association négative peutrefléter une perte de poids dans une phase préclinique avant le diagnostic ouliée à des pathologies antérieures. L’alcool et le tabac, facteurs de risquemajeurs des cancers des voies aérodigestives supérieures (VADS), peuventégalement contribuer à une diminution du poids. De plus, les résultatsconcernant une éventuelle modification de l’effet de l’IMC par l’alcool et letabac sont ambigus. Par ailleurs, des différences entre hommes et femmesrelatives à la relation entre IMC et cancer des VADS ont été suggérées, mais lesdonnées sur les femmes sont parcellaires, ces cancers affectant très major-itairement les hommes. L’objectif est d’étudier l’association entre IMC et risquede cancer des VADS chez les femmes.Matériel et méthodes.– Dans le cadre d’une large étude cas-témoins réalisée enFrance entre 2002 et 2007 (l’étude ICARE), 350 femmes, cas incidents decancer des VADS, et 726 femmes témoins de population ont été interrogées.Les cas ont été identifiés dans dix départements couverts par un registre descancers, les témoins ont été sélectionnés par une procédure d’appels télépho-niques au hasard dans les mêmes départements. Le questionnaire comportaitnotamment les caractéristiques sociodémographiques, les antécédents médi-caux, des informations détaillées sur les consommations de tabac et d’alcool, lataille, le poids au moment du diagnostic, le poids deux ans avant le diagnostic etle poids à 30 ans. Les associations entre risque de cancer des VADS et IMC(poids/taille carré) à différents moments de la vie ont été étudiées. Les odds-ratios (OR) et leurs intervalles de confiance à 95 % (CI) ont été estimés à l’aide

Page 4: Résumés de mémoires de Master Recherche. Université Paris-XI, 2008-2009

Résumés de mémoires de Master Recherche / Revue d’Épidémiologie et de Santé Publique 58 (2010) 74–78 77

RESP

de modèles logistiques, après ajustement sur les facteurs de confusion poten-tiels (alcool et tabac notamment). Des analyses stratifiées, en fonction de laconsommation de tabac et d’alcool, ont été également réalisées. Des régres-sions logistiques polytomiques ont été utilisées pour comparer les différenteslocalisations de cancer.Résultats.– Une association inverse significative entre risque de cancer desVADS et IMC au diagnostic et carré ans avant le diagnostic a été observée(premier quartile versus dernier quartile : OR = 6,1 ; CI = 3,5–11,0 pour l’IMCau diagnostic ; OR = 2,2 ; CI = 1,4–3,7 pour l’IMC deux ans avant le diagnostic).En revanche, aucune association avec l’IMC à l’âge de 30 ans n’a été mise enévidence (OR = 1,2 ; CI = 0,8–1,9). Ces résultats se retrouvent chez lesfumeuses et les non fumeuses, chez les buveuses et les non buveuses, et pourles principales localisations de cancer des VADS (cavité buccale, pharynx,larynx).Conclusion.– L’association inverse entre IMC et risque de cancer des VADSreflète probablement à la fois la perte pondérale due à la maladie dans les étapesprécliniques et des déficiences nutritionnelles de plus longue date, indépen-dantes des consommations d’alcool et de tabac.

Modélisation de la transmission des infections àPapillomavirus humain avec prise en compte del’immunité procurée par la vaccinationL. Ribassin-MajedMémoire Master 2 recherche santé publique, option biostatistiques, université Paris-Sud-XI ; directeur de stage : Pr Jean Maccario, unité Inserm U780 (dirigée par ThierryMoreau)

État de la question.– Au cours de la vie, 70 % de la population sexuellement activeest infectée par le Papillomavirus humain (HPV). Les infections à HPV sontincriminées dans la quasi-totalité des cancers du col de l’utérus chez la femme.Chaque année, dans le monde, 500 000 femmes sont touchées par ce cancer, lamortalité s’élevait à 274 000 décès en 2002. Depuis la mise sur le marchérécente de deux vaccins contre l’HPV, une réduction de l’incidence desinfections à HPV et des cancers du col de l’utérus est attendue. Les stratégiesde vaccination envisagées ont pour objectif une utilisation efficiente de cesvaccins. L’utilisation de modèles mathématiques permet de les comparer et deretenir celles qui ont un rapport coût-efficacité optimal.Matériel et méthodes.– Nous avons développé un modèle dynamique de trans-mission hétérosexuelle des infections à HPV pour les sérotypes 6/11/16/18 quisont couverts par le vaccin quadrivalent. Un modèle déterministe de typesusceptible–infecté–susceptible (SIS) a été utilisé. Ce modèle est stratifié selonle genre et le sérotype (6/11 et 16/18). L’immunité procurée par la vaccinationest prise en compte. Le modèle a été calibré sur des données épidémiologiquesnord Américaines (prévalence de l’HPV). La sensibilité des prédictions dumodèle a été évaluée par rapport à l’incertitude des paramètres. Troisscénarios de vaccination ont été comparés en considérant les prévalencesdes infections à HPV obtenues.Résultats.– Lorsque la moitié des femmes qui entrent dans la vie sexuellementactive sont vaccinées, la modélisation de la transmission des infections à HPVmontre une éradication de l’infection en 60 ans chez les femmes et 100 ans chezles hommes. Une meilleure couverture vaccinale des femmes (90 %) permet deréduire la durée pour atteindre l’éradication à 40 ans. On retrouve ce délailorsque la moitié des hommes et des femmes sont vaccinés avant leur entréedans la population sexuellement active.Conclusion.– Dans le cadre de la poursuite de ce travail, le modèle intégrera unestructure d’âge et une stratification sur le comportement sexuel. Il prendraégalement en compte l’histoire naturelle de la maladie du cancer du col del’utérus. Ce qui nous permettra de calibrer ce modèle à partir des donnéesfrançaises d’incidences du cancer du col de l’utérus.

Nombre de sujets à inclure dans les études devalidation interne d’échelles de mesure en psychiatrieA. RouquetteMémoire Master 2 recherche santé publique, option biostatistiques, UFR médicale duKremlin-Bicêtre, université Paris-Sud ; directeur de stage : Pr Bruno Falissard ;laboratoire d’accueil : unité Inserm U669, PSIGIAM, Paris-Sud Innovation Group InAdolescent Mental Health

État de la question.– Les questionnaires, instruments permettant de quantifier lesphénomènes subjectifs, sont largement utilisés en psychiatrie. Comme toutinstrument de mesure, une étape de validation est nécessaire avant leurutilisation. Leur validité interne est évaluée par l’étude de leur consistanceinterne via le calcul du coefficient alpha de Cronbach et l’étude de leur structuredimensionnelle par analyse factorielle (classiquement par analyse en compo-santes principales [ACP] ou par analyse factorielle exploratoire [AFE]). Lenombre de sujets nécessaire (NSN) pour ces études de validation interne esttraditionnellement calculé à l’aide de la règle du ratio « nombre de sujets àinclure sur nombre d’items dans l’échelle (n/p) ». Cependant, aucune justifica-tion théorique ou empirique rigoureuse n’est retrouvée dans la littératureconcernant cette règle. L’objectif de ce travail était de développer un outil dedétermination du NSN pour ces études dans le domaine de la psychiatrie, afinde garantir l’obtention d’une solution correcte et stable par analyse factorielleet un niveau de précision souhaité pour le coefficient alpha de Cronbach.Matériel et méthodes.– Une première étape a eu pour but de déterminer lescaractéristiques des échelles utilisées en psychiatrie à l’aide d’une revue de lalittérature. Ensuite, un modèle de simulation a été développé permettant lagénération de données selon la structure dimensionnelle particulière retrouvéeen psychiatrie par cette revue de la littérature. La qualité des solutions obtenuespar ACP ou AFE avec rotation oblique sur des échantillons de tailles différentesa ainsi pu être étudiée. Les critères de jugement de la qualité de la solutionfactorielle concernaient la précision de l’estimation de la valeur des chargesprincipales et l’obtention d’une structure factorielle identique à celle déter-minée dans le modèle de simulation. Enfin, l’influence de l’effectif sur la précisiondu coefficient alpha de Cronbach a été examinée.Résultats.– Une solution factorielle correcte et stable était le plus souventobtenue avec un effectif minimum de 300 sujets. Cependant, cet effectif étaitsupérieur si le nombre d’items dans l’échelle était petit, si le nombre de facteursdans l’échelle était grand et si l’AFE était utilisée. Concernant la précision ducoefficient alpha de Cronbach, lorsque sa valeur attendue était 0,7, un effectif de300 sujets permettait d’obtenir une demi-amplitude de son intervalle deconfiance à 95 % inférieure à 0,05 quel que soit le nombre d’items dansl’échelle. Cet effectif diminuait lorsque la valeur attendue du coefficient alphaaugmentait. Un autre résultat notable concernait l’estimation des valeurs descharges principales par ACP ou AFE. Dans le cas de l’ACP, une surestimationdes charges principales était systématiquement observée, d’autant plus impor-tante que le nombre d’items dans l’échelle était petit. Aucune réduction de cebiais n’était observée lorsque l’effectif augmentait.Conclusions. La règle du ratio n/p ne trouve aucune justification dans cette étude :la validation d’échelles constituées d’un faible nombre d’items ne permet pasd’inclure moins de sujets. Son utilisation pour le calcul du NSN dans les étudesde validation interne d’échelle en psychiatrie devrait être abandonnée. Cetteétude montre qu’un effectif minimum de 300 sujets doit être la règle et qu’il doitêtre augmenté si le nombre attendu de facteurs dans l’échelle est grand. Enfin,pour plus d’exactitude, l’AFE devrait être la méthode de choix pour l’étude de lastructure dimensionnelle de l’échelle.

Élaboration d’un score prédictif de la masse tumoraleinterne au cours de la neurofibromatose 1 (NF1Score)E. SbidianMémoire Master 2 recherche santé publique, option recherche clinique, universitéParis-Sud-XI ; directeur de stage : Sylvie Bastuji-Garin, laboratoire d’investigationclinique : « épidémiologie clinique – évaluation médicoéconomique », LIC EA 4393,faculté de médecine, Paris-XII, Créteil

Introduction.– Une diminution de l’espérance de vie d’une quinzaine d’année estobservée chez les sujets atteints de neurofibromatose 1 (NF1). Les neurofi-bromes internes, notamment paravertébraux, sont associés à une morbimor-talité accrue liée à un risque de transformation maligne ou de compression desorganes voisins. Ils sont diagnostiqués en imagerie par résonance magnétique(IRM), examen qu’il n’est pas recommandé de répéter chez tous les patients.Notre objectif était d’élaborer un score prédictif de la masse tumorale internesur une population ayant bénéficiée d’une IRM et de le valider sur une secondepopulation indépendante afin d’identifier les malades à risque évolutif.Patients et méthodes.– Les données phénotypiques de 208 patients NF1 ont étéextraites d’une étude cas-témoins de recrutement multicentrique et prospectif

Page 5: Résumés de mémoires de Master Recherche. Université Paris-XI, 2008-2009

Résumés de mémoires de Master Recherche / Revue d’Épidémiologie et de Santé Publique 58 (2010) 74–7878

RESP

où la présence de neurofibromes internes à risque de complications étaitsystématiquement recherchée à l’aide d’une IRM du rachis complet. Les facteursassociés à l’existence de neurofibromes internes ont été analysés par desmodèles de régression logistique. Un score de risque a été élaboré par unecombinaison linéaire des coefficients des variables indépendamment associées àl’existence de neurofibromes internes. Les performances du score (adéquationet discrimination) ont été évaluées sur un échantillon indépendant de191 patients NF1 issus de la cohorte NF-France.Résultats.– Échantillon de construction : 122 femmes et 86 hommes âgés de41 ans (�13) ont été analysés ; 46 avaient des neurofibromes internes (22,1 %).En analyse multivariée, l’âge � 30 ans (OR = 3,1 ; 1,4–6,8), l’absence deneurofibromes cutanés (OR = 2,6 ; 0,9–7,5), moins de six tâches café-au-lait(OR = 2,0 ; 0,9–4,6), au moins deux neurofibromes sous-cutanés (OR = 4,7 ;2,1–10,5) étaient indépendamment associés à la masse tumorale. Le scoreobtenu à partir des coefficients pondérés et arrondis du modèle(NF1Score = 11,8 � 10,0, extrêmes de zéro à 40) a permis d’estimer le risquede masse tumorale interne à partir de l’équation suivante : p = exp(�2,9 + 0,1 � NF1Score) / [1 + exp (�2,9 + 0,1 � NF1Score)]. La probabilitéde neurofibromes internes était de 0,05 pour un score nul et de 0,79 pour unscore de 40. Les statistiques d’adéquation (test C d’Hosmer-Lemeshow = 12,32 avec 8 ddl, p = 0,20) et la capacité discriminante du score,évaluées sur le deuxième échantillon, étaient satisfaisantes (indice C deHarrell = 0,73).Conclusion.– Notre étude a permis d’élaborer un score prédictif de la massetumorale interne au cours de la NF1 et ainsi de cibler cliniquement les malades àrisque de complications, selon l’objectif, différents seuils pourront êtreconsidérés.

Assistance médicale à la procréation et cardiopathiescongénitales : une étude en populationK. TararbitMémoire Master 2 recherche santé publique, option épidémiologie, université Paris-Sud-XI ; directeur de stage : Pr François Goffinet, Inserm unité 953 « recherchesépidémiologiques en santé périnatale et santé des femmes et des enfants »

État de la question.– Les enfants conçus après assistance médicale à la procréa-tion (AMP) ont un risque plus élevé d’issues défavorables de grossesse (incluantles risques associés aux grossesses multiples, à la prématurité et au petit poidsde naissance). Le risque de malformations congénitales (MC) associé à l’AMP estplus controversé. La plupart des études évaluant le risque de MC associé àl’AMP avaient une puissance limitée pour évaluer le risque de MC spécifiques,c’est en particulier le cas des cardiopathies congénitales (CC). Les objectifs dece travail étaient d’évaluer le risque de CC associé à différentes méthodesd’AMP pour :– l’ensemble des CC ;– les CC sans anomalies chromosomiques ;– les CC sans anomalies chromosomiques ni communications interventricu-laires (CIV), et ;– des sous-groupes de CC définis sur le plan anatomoembryologique selon uneclassification développée par des cardiopédiatres.Matériel et méthodes.– Les données utilisées provenaient du Registre desmalformations congénitales de Paris sur la période 1987–2006 et concernaient5599 cas de CC et 3985 témoins malformés. Les malformations incluses commetémoins représentaient un groupe hétérogène de MC pour lesquelles aucuneassociation avec l’AMP n’a été décrite dans la littérature. La variable prédictiveprincipale, l’AMP, incluait quatre catégories : aucune, inducteurs de l’ovulationseuls (IO), fécondation in vitro (FIV), injection intracytoplasmique de sperma-tozoïde (ICSI). Les autres variables prédictives étaient l’année de naissance, l’âgede la mère (dont l’effet était modélisé par la méthode des polynômes frac-tionnels), sa profession et son origine géographique.Résultats.– L’exposition à l’AMP était plus fréquente chez les cas que chez lestémoins (4,7 % vs 3,6 % ; p = 0,008). La FIV et l’ICSI étaient associées à uneaugmentation de 40 % du risque de l’ensemble des CC (OR ajusté = 1,4 ;IC 95 % : 1,0–2,0 et OR ajusté = 1,4 ; IC 95 % : 0,7–2,7 respectivement). Engénéral, pour une méthode d’AMP donnée, les associations observées variaient

entre les différents sous-groupes de CC. Les IO étaient associés à un risque plusélevé d’anomalies de position du cœur (OR ajusté = 2,5 ; IC 95 % : 0,7–8,4). LaFIV était associée à une augmentation du risque de malformations des grosvaisseaux et des voies d’éjection (OR ajusté = 1,7 ; IC 95 % : 1,0–3,0) et l’ICSI àune augmentation du risque de CC conotroncales et ventricule droit à doubleissue (OR ajusté = 2,2 ; IC 95 % : 0,7–6,4).Conclusion.– Les enfants nés après AMP ont un risque plus élevé de CC. Lesassociations observées semblent varier selon la méthode d’AMP et le sous-groupe de CC. Ces associations peuvent être dues à la méthode d’AMP per seet/ou à l’infertilité sous-jacente.

Étude de la reproductibilité intra- et interobservateurde la mesure de l’élasticité hépatique chez les patientsinfectés par le virus de l’hépatite C en ÉgypteN. VignierMémoire Master 2 recherche santé publique, option épidémiologie, université Paris-Sud-XI ; directeur de stage : Muriel Vray, unité d’épidémiologie des maladiesémergentes, institut Pasteur, Paris (directeur : Arnaud Fontanet)

État de la question.– La mesure de l’élasticité hépatique est une nouvelleméthode non invasive d’évaluation de la fibrose hépatique qui pourrait êtrelargement utilisée chez les patients atteints d’hépatite C chronique en Égypte. Laperformance diagnostique de l’élastométrie semble satisfaisante mais peud’études ont étudié sa reproductibilité. L’objectif de l’étude était d’évaluer lareproductibilité inter et intraobservateur de l’élastométrie dans le contexteégyptien où l’on observe une forte prévalence de surpoids.Matériel et méthodes.– Une étude de reproductibilité a été mise en place auprèsd’une cohorte de patients atteints d’hépatite C chronique consultant un centrede traitement au Caire. Deux observateurs ont chacun réalisé deux mesures del’élastométrie à chaque patient. La reproductibilité intra et interobservateur del’élasticité a été étudiée par l’approche graphique de Bland et altman, lecoefficient de variation (CV), le coefficient de corrélation intraclasse (CCI)et le coefficient kappa (k). Des facteurs liés au défaut de reproductibilité ont étérecherchés à l’aide d’une régression linéaire multiple de la différence relativeentre les deux premières mesures.Résultats.– Cinquante-huit patients ont été inclus dans l’étude et 216 mesuresd’élasticité ont été réalisées avec une étendue de 3,4 à 69,1 kPa. Le taux d’échecde 7 % concernait des patients en situation de surpoids. Les graphiques de Blandet altman montrent une variabilité significative des mesures et un accroissementdes écarts proportionnel à la valeur de l’élastométrie, en intra comme eninterobservateur. Pour la valeur de 7,1 kPa retenue comme seuil de classifica-tion en stade de fibrose F2, les écarts pouvaient atteindre jusqu’à 3 kPa (limitede variation au risque alpha 5 %). La reproductibilité de la mesure de l’élasticitéhépatique d’une mesure à l’autre chez un même observateur (CV observateur1 = 11 %, CCI observateur 1 = 0,97 [0,95–0,99], CV observateur 2 = 15 % etCCI observateur 2 = 0,94 [0,91–0,97]) et d’un observateur à l’autre (CVmesure 1 = 15 %, CCI mesure 1 = 0,94 [0,86–0,97], CV mesure 2 = 14 % etCCI mesure 2 = 0,95 [0,89–0,97]) était moyenne à bonne. La concordanceentre les deux observateurs pour classer les malades en stade de fibrose < F2/� F2 est modérée avec le seuil de 7,1 kPa (k = 0,65 [0,44–0,86]) et bonne avecle seuil de 8,8 kPa (k = 0,86 [0,70–1,00]). Un rapport intervalle interquartile/médiane inférieur à 30 % est le seul facteur observé indépendamment lié à uneaugmentation de la différence relative entre deux mesures d’élastométrie( p = 0,03).Conclusion.– La reproductibilité de la mesure de l’élastométrie hépatique estmoyenne à bonne, aussi bien d’une mesure à l’autre pour un même observateurque d’un observateur à l’autre. Le défaut de reproductibilité ajouté à uneperformance moyenne de l’élastométrie pour identifier les patients au stadeF2 du score METAVIR laisse craindre le traitement par antiviraux d’un nombreimportant de patients qui n’en ont pas l’indication ou au contraire l’absence detraitement de patients qui en ont besoin. Des algorithmes de décisions reposantsur le recours additionnel aux autres marqueurs de fibrose non invasifs ou à labiopsie hépatique devraient être utilisés pour pallier aux limites de l’élastomé-trie aux stades intermédiaires de fibrose.