˙ ˆ˙ + + ˚ %˙ ˘ ˘˚ ˚ˆ˚+ ˚ *$ˆ ˙ % ! ˘˙ %˚ˆ ˙ %$ !0 ... · 4 La Segmentation de...
-
Upload
hoangquynh -
Category
Documents
-
view
230 -
download
0
Transcript of ˙ ˆ˙ + + ˚ %˙ ˘ ˘˚ ˚ˆ˚+ ˚ *$ˆ ˙ % ! ˘˙ %˚ˆ ˙ %$ !0 ... · 4 La Segmentation de...
THÈSEPour obtenir le grade de
DOCTEUR DE L’UNIVERSITÉ DE GRENOBLESpécialité : Signal, Image, Parole, Télécoms
Arrêté ministériel : 7 août 2006
Présentée par
« Maud / PASQUIER »
Thèse dirigée par Bernard/ESPIAU et codirigée par Christine/AZEVEDO-COSTE
préparée au sein du Laboratoire Inriadans l'École Doctorale EEATS
Segmentation de la locomotion humaine dans le domaine du sport et de la déficience à partir de capteurs embarqués
Thèse soutenue publiquement le lundi 16 septembre 2013,devant le jury composé de :
Monsieur, Pierre, BERTRANDProfesseur, Université Blaise-Pascal, Clermont-Ferrand, Rapporteur
Monsieur, Franck, MULTONProfesseur, Université Rennes 2, Rapporteur
Monsieur, Christian, JUTTENProfesseur, Université Joseph Fourier, Grenoble, (Président, Membre)
Monsieur, Paulo, GONCALVESChercheur, ENS-Lyon/Inria, rôle (Président, Membre)
Monsieur, Christian, GENYPraticien hospitalier, Hôpital Gui de Chauliac, (Président, Membre)
Table des matières
Introduction 3
1 Le contexte technologique 10
1 Des outils pour l’observation de la locomotion . . . . . . . . . . . . . . . . . . . . . . . 10
1.1 La capture de mouvement en salle : système VICON . . . . . . . . . . . . . . . 10
1.2 Une autre approche de la capture de mouvement . . . . . . . . . . . . . . . . . 11
1.2.1 Équiper un coureur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.2 Équiper un malade de la maladie de Parkinson . . . . . . . . . . . . . 13
2 Réseau de capteurs embarqués et IMU . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1 Le réseau et les nœuds . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1 Communication et autonomie . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2 Synchronisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Différents types de capteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.1 Accéléromètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.2 Gyromètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.3 Magnétomètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.4 FSR, capteurs de pression . . . . . . . . . . . . . . . . . . . . . . . . . 18
2 Outils et définitions 20
1 Stationnarité et Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.1 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2 Segmentation : détection de rupture . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.1 CUSUM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2.2 FDp-V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.3 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.3.1 Seuillage et barycentres . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.3.2 Partitionnement : K-means et algorithme EM . . . . . . . . . . . . . 26
1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2 Estimation de la cadence des foulées . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.1 Pourquoi estimer la cadence et la longueur des foulées . . . . . . . . . . . . . . 28
2.2 Contexte et objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3 Auto-corrélation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3 Estimation de la longueur de foulée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1
3.1 Deux méthodes existantes pour estimer la longueur des foulées . . . . . . . . . 37
3.1.1 Méthode utilisant un accéléromètre et un gyromètre (1 IMU) . . . . . 37
3.1.2 Méthode utilisant deux gyromètres (2 GYR) . . . . . . . . . . . . . . 39
3.2 Adaptation des méthodes existantes à nos applications . . . . . . . . . . . . . . 40
3.2.1 Orientation par rapport au plan sagittal . . . . . . . . . . . . . . . . . 40
3.2.2 Segmentation des foulées . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3 Comparaison des méthodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.1 Description de l’expérimentation . . . . . . . . . . . . . . . . . . . . . 47
3.3.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4 Perspectives d’amélioration et conclusion . . . . . . . . . . . . . . . . . . . . . 51
3 Segmentation automatique de la marche et de la course 52
1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
1.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
1.2 Le Marathon des Sables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1.3 L’acquisition des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
1.3.1 Conditions d’acquisitions . . . . . . . . . . . . . . . . . . . . . . . . . 55
1.3.2 Placement des capteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1.3.3 Vérité terrain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
1.4 Description des expérimentations . . . . . . . . . . . . . . . . . . . . . . . . . . 57
1.4.1 Expérimentation de préparation . . . . . . . . . . . . . . . . . . . . . 57
1.4.2 Le Marathon des Sables . . . . . . . . . . . . . . . . . . . . . . . . . . 58
1.4.3 Validation de l’estimation de la longueur de foulée . . . . . . . . . . . 58
1.4.4 Courses d’entrainement . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2 Traitement des données : analyse temporelle . . . . . . . . . . . . . . . . . . . . . . . . 60
2.1 Structure générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.1.1 Calibration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.1.2 Critères . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.1.3 Détection de rupture . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.1.4 Intervalles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.1.5 Détermination des classes . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.2.1 Conditions contrôlées . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.2.2 Le Marathon des Sables . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.2.3 Course d’entraînement . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3 Le temps de récupération . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.1 Détection des arrêts de récupération . . . . . . . . . . . . . . . . . . . . . . . . 74
3.1.1 Détection de la marche lente . . . . . . . . . . . . . . . . . . . . . . . 74
3.1.2 Vérification de la pente . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2 Test de récupération . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.3.1 La récupération physique pour chaque étape . . . . . . . . . . . . . . 76
3.3.2 Comparaison de la récupération sur quatre étapes . . . . . . . . . . . 76
4 Perspectives et conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2
4.1 Utilisation de données qualitatives . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.2 Vers un traitement en ligne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4 La Segmentation de données appliquée à l’analyse de la locomotion déficiente :
cas de la maladie de Parkinson 84
1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
1.1 Un syndrome de la maladie de Parkinson : « Freezing of Gait » . . . . . . . . . 84
1.2 L’instrumentation : un potentiel technologique pour mieux comprendre la ma-
ladie et pour une solution d’assistance . . . . . . . . . . . . . . . . . . . . . . . 86
1.2.1 L’aide au diagnostic . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
1.2.2 Détecter et réduire les épisodes de freezing . . . . . . . . . . . . . . . 87
1.3 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
1.4 Protocole d’expérimentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
1.4.1 Placement des capteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 89
1.4.2 Calibration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1.4.3 Le milieu clinique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
1.4.4 Vérité terrain et identification des FOG . . . . . . . . . . . . . . . . . 91
2 Trois approches différentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.1 Une approche temporelle : Coefficient de corrélation . . . . . . . . . . . . . . . 93
2.2 Une approche fréquentielle : fenêtre glissante et FFT . . . . . . . . . . . . . . . 93
2.2.1 Description de la méthode . . . . . . . . . . . . . . . . . . . . . . . . 93
2.2.2 Les limitations de la méthode . . . . . . . . . . . . . . . . . . . . . . . 95
2.3 Une approche temps-fréquence . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3 L’observation des variations de foulées appliquée à la détection des FOG . . . . . . . . 97
3.1 Présentation générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.2 Calcul du critère C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.3 Les données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.4 Résultats préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.5 Une évaluation sur-mesure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.6 Comparaison des méthodes et résultats . . . . . . . . . . . . . . . . . . . . . . 111
3.6.1 Choix de l’axe pour le calcul de FI . . . . . . . . . . . . . . . . . . . . 111
3.6.2 Résultats de l’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.7 Perspectives d’amélioration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
Conclusion 113
3
Introduction
L’analyse du mouvement humain s’appuie sur les développements technologiques et évolue avec
les possibilités techniques. Ainsi, au 19ème siècle E. Muybridge et J. Marey ont utilisé la photogra-
phie comme moyen d’observation qualitative des mouvements. La chronophotographie permet en
effet d’appréhender le déroulé des mouvements. Depuis les années 80, les techniques vidéo 3D se sont
développées. L’enregistrement des positions des marqueurs actifs (Polemus, Optotrak) ou passifs
rétrodiffusants (VICON, ELITE...) placés sur le corps de sujets permet de reconstruire les mouve-
ments 3D des marqueurs et des segments auxquels ils sont liés. Aujourd’hui les avancées en vision
permettent dans certains cas de s’affranchir de marqueurs et autorisent ainsi une capture vidéo en
extérieur. Ces observations quantitatives sont complétées par l’utilisation de données numériques re-
cueillies au moyen d’instrumentations diverses (plateformes de force, accéléromètres, goniomètres...)
.
Figure 1 – Étienne-Jules Marey, Homme qui marche, 1890 à 1891.
L’analyse du mouvement humain est utilisée en biomécanique et neurosciences afin de faire pro-
gresser les connaissances sur le contrôle sensori-moteur. Son application dans le champ des pathologies
permet de quantifier de manière fiable le mouvement, alors que l’analyse vidéo n’est pas toujours
suffisante. Plusieurs structures hospitalières et cliniques, comme par exemple le Centre de Médecine
Physique et de Réadaptation pour Enfants de Bois-Larris à Lamorlaye 1, ont recours à l’Analyse
Quantifiée de la Marche (AQM). En cas d’intervention chirurgicale, l’amélioration du diagnostic ap-
portée par cet examen permet de réaliser plusieurs gestes chirurgicaux en une seule fois et ainsi
de réduire l’impact psychologique des interventions multiples. L’analyse du mouvement permet éga-
lement l’évaluation des résultats d’un traitement (par exemple : reconstruction du ligament croisé
antérieur, chirurgie de la hanche, évaluation de l’alignement d’orthèses et de prothèses destinées aux
1. http://Analysedelamarche.fr
4
membres inférieurs, marche appareillée et évaluation des risques de chutes).
Les sportifs, professionnels ou amateurs, peuvent également avoir recours à l’analyse du mouve-
ment pour améliorer leurs performances ou prévenir le risque de blessures. Cette technique est déjà
utilisée dans de nombreux sports : course à pieds, sports de raquette et de lancer, cyclisme, natation...
Elle permet de vérifier que le mouvement est correctement réalisé et qu’il n’est pas traumatisant pour
le corps. Dans le cas d’une reprise après une blessure, elle permet de s’assurer que la blessure n’a pas
entraîné de compensations.
La danse peut également faire l’objet d’une analyse du mouvement. La biomécanique du mou-
vement peut être considérée seule ou prendre également en compte la dimension artistique du mou-
vement. Par exemple, c’est le cas dans des disciplines telles que « l’analyse fonctionnelle du corps
dans le mouvement dansé » qui favorise la compréhension et l’intégration des mouvements en danse.
Enfin, la capture de mouvement peut également être utilisée comme un outil d’expression artistique
sans aucun but d’analyse biomécanique. Des œuvres de danse ont été créées exclusivement avec des
interprètes numériques, comme en témoignent la vidéo-chorégraphie de n+n Corsino 2 (Captives 2nd
mouvement (2000), Topologies de l’instant (2001), Amorces intimes, Seule avec loup (2005), ...) et
celle de Martine Époque et Denis Poulin 3 (Tabula rasa : la suite (2003), NoBody danse, ...)
Les systèmes actuels de capture de mouvements dotés d’une technologie optique (tels que les
systèmes VICON) permettent de suivre de manière très précise n’importe quel type de mouvement.
Cependant, ils s’utilisent presque exclusivement en laboratoire. La technologie Kinect a permis d’in-
tégrer de la capture de mouvement à des applications grand public, car ce système se concentre
dans un seul boîtier et ne nécessite aucun marqueur. Mais les résultats ne sont pas comparables
à ceux d’un système "VICON" et les mouvements perçus restent très limités. Pour s’affranchir des
nombreuses caméras encore indispensables à la technologie optique, les avancées technologiques per-
mettent d’envisager de nouveaux outils pour l’évaluation des mouvements humains, notamment les
capteurs embarqués et en particulier les IMU (inertial measurement units, ou centrales inertielles
en français) qui regroupent généralement plusieurs types de capteurs pour mesurer un mouvement
(translations et rotations). La miniaturisation des capteurs et l’amélioration de leurs performances
(temps de réponse, précision, robustesse, consommation d’énergie...) autorisent l’embarquement de
nombreuses unités de mesures de différentes natures sur un individu. Ces capteurs sont générale-
ment interconnectés en réseau par radio-fréquences, on parlera alors de technologie BAN (Body Area
Network) dont il existe « une norme de communication optimisée pour les appareils à basse consom-
mation et qui fonctionnent sur, dans ou autour du corps humain (mais non limitée aux humains) ».
Par ailleurs, l’augmentation considérable des possibilités de traitement embarqué à volume constant
favorise la prolifération des applications grand public dotées de capteurs embarqués, notamment dans
les domaines de la santé, du sport et du jeu. De plus, la demande croissante de capteurs induit une
forte baisse des coûts.
Cela ouvre la voie vers une nouvelle vision de l’analyse du mouvement en conditions écologiques.
Dans le domaine du sport, il existe une forte demande d’outils de mesure des performances sportives
au niveau amateur comme professionnel. Les équipementiers Nike et Adidas proposent déjà au grand
public (coureurs ou joueurs de football amateurs) des chaussures équipées de capteurs permettant
d’enregistrer la vitesse, le nombre de sprints, la distance et le nombre de pas. Mais, dans le cadre
de la recherche et du développement, les capteurs sont généralement plus nombreux et variés, ce qui
2. http://www.nncorsino.com/fr
3. http://www.lartech.uqam.ca
5
Figure 2 – Guillaume Chelius lors d’une expérimentation de préparation au Marathon des Sables.
Dans le cadre du projet X-trem-log, nous l’avions équipé à la fois de marqueurs optiques (système
VICON) et d’un réseau de capteurs (IMU).
permet d’enregistrer également le rythme cardiaque, le déroulé du pied (pression dans la chaussure),
la répartition de la foulée (temps de vol et durée des appuis), l’altitude, la température...
Plusieurs expériences ont été menées pour valider la possibilité de porter des capteurs pendant
une course pour un traitement a posteriori. Par exemple en 2008, Philippe Fuchs a couru de Paris à
Pékin (8500km) en 160 jours, mais le matériel dont il disposait était trop imposant pour être porté
en permanence. Puis en 2010, dans le cadre du projet X-trem-log 4, Guillaume Chelius a participé au
25ème Sultan Marathon des Sables, il a couru les 250km équipé d’un réseau de capteurs (17 nœuds
contenant différents types de capteurs) développés par des chercheurs issus de l’Inria et de l’INSA de
Lyon. À la suite de ce projet la société HiKoB a été créée. Finalement, à l’occasion du Marathon de
Paris 2012, HiKoB a déployé un système de mesure sans fil et autonome pour capturer les paramètres
de la performance de l’ancien cycliste Laurent Jalabert. Le suivi des performances était alors réalisé
en « temps réel » et retransmis en direct et en incrustation sur l’écran TV du téléspectateur 5.
Une autre application possible pour la technologie BAN concerne l’évaluation des mouvements
de personnes présentant des déficiences motrices. La capture de mouvements réalisée en laboratoire
permet de mieux caractériser la déficience comme par exemple avec l’AQM. Cependant, seuls certains
centres hospitaliers ou cliniques peuvent proposer ce type d’examen car il requiert une structure très
lourde à mettre en place (matériel coûteux, salle dédiée, personnel qualifié). La technologie BAN
pourrait rendre cet examen plus accessible. D’ailleurs, les IMU font déjà partie de l’équipement de
certains cabinets de kinésithérapie. Par exemple, la société RM Ingénierie, basée à Rodez, propose
des systèmes composés d’une ou plusieurs IMU pour visualiser, quantifier et rééduquer le mouvement
des membres inférieurs ou supérieurs. Cette société propose également des plateformes baropodomé-
triques. Dans le domaine du jeu vidéo, Nintendo a doté ses consoles de salons d’un équipement du
même genre mais un peu plus simple : manettes dotées d’accéléromètres et balance pour suivre le
centre de gravité.
De plus, cette technologie BAN est une solution pour une utilisation à domicile et au quotidien.
Par exemple, la détection de chutes chez les personnes âgées peut être réalisée par un bracelet équipé
4. http://www.inrialpes.fr/Xtremlog, http://sensas.gforge.inria.fr/
5. http://www.hikob.com/news/blog/capturer-la-performance-sportive-en-direct
6
Figure 3 – Laurent Jalabert équipé d’un réseau de capteurs développé par HiKoB pour le Marathon
de Paris 2012.
d’un accéléromètre et relié à une base téléphonique capable de déclencher un appel d’urgence 6. Pour
améliorer la fiabilité de la détection, certains systèmes mesurent également le rythme cardiaque ou
la pression artérielle. Dans le domaine de la déficience motrice, d’autres outils basés sur ce type de
capteurs sont également envisagés. Par exemple, des expérimentations [6] sont menées pour améliorer
les systèmes d’assistance à la marche pour les patients souffrant du syndrome du pied tombant 7. La
stimulation électro-fonctionnelle (SEF) a démontré son efficacité pour la suppléance à ce déficit, mais
la méthode de contrôle de la stimulation pourrait être optimisée en remplaçant le capteur de pression
placé sous le talon par une IMU fixée à la cheville. Des travaux de recherche [30] ont également montré
que l’utilisation d’une IMU placée en haut du dos permettait d’aider un paraplégique à se lever et à
se rassoir en lui appliquant sur les jambes une stimulation électro-fonctionnelle synchronisée avec le
mouvement du tronc. Des travaux de recherche [30] ont également montré que l’utilisation d’une IMU
placée en haut du dos permettait de synchroniser, avec le mouvement du tronc, le déclenchement
d’une stimulation électro-fonctionnelle appliquée sur les jambes dans le but d’aider un paraplégique
à se lever et à se rassoir.
Nous avons vu que la technologie BAN et les IMU peuvent révolutionner la capture de mouvement,
mais pour répondre aux besoins spécifiques d’une application, le matériel doit pourvoir s’adapter à
certaines contraintes. Ces contraintes peuvent être de différentes natures : économiques, matérielles ou
logiciels. L’une des plus importantes concerne le traitement des données. En effet, la communication
entre les nœuds et le stockage des mesures seront différents si le traitement doit être réalisé en ligne
ou hors ligne. Si l’objectif est de réaliser une analyse du mouvement a posteriori, les données pourront
être stockées sur les nœuds et la communication très limitée. Cependant, si l’évaluation du mouvement
doit être réalisée en temps réel le fonctionnement du réseau sera différent. Ensuite il faut s’assurer
que les mesures ne seront pas perturbées par l’environnement extérieur. Dans certains bâtiments,
la communication par radio-fréquences peut être difficile à cause des réflexions, et la présence de
champs magnétiques peut perturber les magnétomètres. Finalement, le système doit respecter des
6. Vital Base (Intervox), Minifone, Azurveil, Senioralerte, ...
7. faiblesse de la commande du jambier antérieur qui induit une démarche où le pied de la jambe atteinte traîne sur
le sol
7
contraintes d’ergonomie, de poids, d’autonomie ou d’étanchéité liées aux conditions d’utilisation et
au sujet. Plus le système devra être porté longtemps, plus il devra être confortable et léger. Dans le
cas d’un sportif, le plus important est que ses performances ne soient pas dégradées, alors que dans
le cas d’un système d’assistance porté au quotidien l’esthétique sera aussi importante que le confort.
Les besoins d’une application déterminent les informations qui doivent être extraites des mesures.
Pour cela, différents niveaux de traitement peuvent être nécessaires. Au plus près du capteur et
des mesures, un traitement de signal basique permet d’améliorer la qualité des mesures (filtrage,
compensation des imperfections). Indispensable quelque soit l’application, cette étape du traitement
peut être réalisée directement par le capteur ou par le nœud avant même l’enregistrement de la
mesure. Dans le cas d’un traitement en ligne, toutes les opérations de calcul devant être réalisées
par les nœuds, les traitements doivent être choisis et optimisés par rapport à la puissance de calcul
disponible sur le réseau de capteurs. Dans le cas d’une analyse de données réalisée a posteriori (hors
ligne), il est possible d’utiliser des méthodes de traitement de données beaucoup plus lourdes en calcul.
Cependant, le volume de données à traiter doit être pris en compte lors du choix des méthodes de
traitement, car une telle technologie permet d’enregistrer plusieurs dizaines de millions de données par
heures. Compte-tenu du volume des données et de leurs natures variées, les traitements classiques
ne sont pas toujours adaptés. Effectivement, selon les besoins de l’application, la complexité du
traitement peut beaucoup varier. Il peut s’agir d’une simple extraction de paramètres à partir des
dernières mesures ou d’une étude statistique plus large sur un seul sujet ou une population plus
importante. L’origine variée des données peut également complexifier le traitement. La plus part
des données proviennent d’une quantification numérique, l’échantillonnage ou la précision peuvent
varier, mais les techniques classiques de traitement de données permettent d’utiliser simultanément
les mesures provenant de multiples capteurs. Cependant, des données de natures très différentes
peuvent parfois être disponibles (par exemple, le roadbook fourni aux coureurs du Marathon des
Sables avant le départ) sans que l’on puisse les utiliser en même temps que les données numériques.
Dans ce contexte l’objectif de la thèse est de concevoir des outils de traitement de données
pour la segmentation de la locomotion humaine à partir d’un réseau de capteurs embarqués et
appliquée à deux domaines différents : le domaine du sport avec la participation de Guillaume Chelius
au Marathon des Sables et le domaine de la déficience causée par un symptôme de la maladie de
Parkinson. Pour ces deux applications, le travail pour atteindre cet objectif concerne, d’une part, les
contraintes matérielles liées au réseau de capteurs utilisé pour obtenir des données, et, d’autre part,
les algorithmes utilisés pour réaliser le traitement des données obtenues.
La première partie de notre travail s’est déroulée dans le cadre du projet X-trem-log qui a permis
de recueillir une quantité importante de données en équipant un coureur lors du Marathon des Sables
2010. Notre objectif était de proposer un outil pour segmenter et classer de grandes quantités de
données multi-capteurs liées à la locomotion. Le principal objectif de la participation à cette course
était de confronter le réseau de capteurs à des conditions extrêmes, il a donc fallu s’adapter aux
problèmes techniques qui pouvaient dégrader la qualité des mesures. Dans un deuxième temps, nous
avons travaillé sur une application beaucoup plus spécifique : la détection du « freezing » (symptôme
perturbant la marche de certains malades atteints de la maladie de Parkinson).
Notre travail est exposé au travers de quatre chapitres. Le premier chapitre (1) concerne le
contexte technologique. La nouvelle approche de la capture de mouvement que peuvent apporter
les réseaux de capteurs embarqués y est présentée, ainsi que quelques capteurs et notamment ceux
constituant une IMU. Dans le deuxième chapitre (2), nous décrivons les outils mathématiques et
8
Figure 4 – Le docteur Geny accompagnant son patient équipé de trois centrales inertielles.
les méthodes d’estimation de paramètres de la marche utilisées dans les chapitres suivants. Nous
avons défini la stationnarité au sens où nous l’avons utilisée et nous avons décrit des outils de
segmentation et de partitionnement. Nous avons eu recours à l’autocorrélation pour réaliser une
estimation de la cadence des foulées et nous avons adapté aux contraintes de nos applications des
méthodes d’estimation de la longueur de foulée.
Nous présenterons nos algorithmes de traitements de données dans les deux derniers chapitres :
ceux qui permettent la segmentation automatique de données de marche et de course (application
à l’ultra-marathon), et ceux qui permettent la détection du « freezing ». Le troisième chapitre (3)
présente le contexte, c’est-à-dire la participation au Marathon des Sables de Guillaume Chelius équipé
d’un réseau de capteurs. Notre méthode de segmentation automatique est spécialement conçue pour
des données multi-capteurs de volume important. Nous l’avons appliquée sur des données de courses,
mais le principe de cette méthode peut être utilisé pour de multiples applications liées au mouvement.
Cette méthode a été conçue pour être appliquée a posteriori (hors ligne). Nous proposons ensuite un
algorithme de traitement hors ligne, spécifique à la course. Il permet de repérer les arrêts utiles à la
récupération et de calculer le coefficient de récupération.
Notre algorithme de détection du « freezing » fait l’objet du quatrième chapitre (4). Nous présen-
tons le symptôme « freezing » et l’intérêt d’un système de détection. Nous décrivons les approches
de différentes équipes de recherche et proposons un nouvelle méthode de détection du « freezing ».
Nous terminons par les résultats de notre détecteur appliqué sur des données obtenues en équipant
des patients de nœuds HiKoB.
9
Chapitre 1
Le contexte technologique
1 Des outils pour l’observation de la locomotion
La capture de mouvement est une technique permettant de suivre la trajectoire et l’orientation
d’un objet. Elle peut être utilisée pour enregistrer des mouvements humains : des applications existent
dans divers domaines tels que la santé, le sport ou encore le jeu vidéo.
La technologie optique est la plus répandue. Les systèmes dotés de cette technologie sont généra-
lement constitués de plusieurs caméras et le sujet doit être équipé de marqueurs. Nous verrons que
ces systèmes permettent d’enregistrer avec une grande précision n’importe quel type mouvement et
qu’ils s’adaptent à tous les sujets. Ils sont très utiles pour suivre les progrès d’un sportif, observer la
déformation de la marche dans le cas d’une déficience ou encore donner vie à un personnage de jeu
vidéo.
Cependant, ce type de matériel est encombrant, coûteux et complexe à utiliser ; il n’est donc
pas adapté à tous les environnements et à toutes les applications. Nous allons vous présenter une
autre approche de la capture de mouvement, permettant de réaliser l’acquisition d’un mouvement en
dehors d’un laboratoire de recherche.
1.1 La capture de mouvement en salle : système VICON
L’utilisation d’une technologie optique pour réaliser une capture de mouvement permet de suivre
la trajectoire d’un ou plusieurs objets avec une grande précision. Nous verrons dans les chapitres
suivants que pour réaliser des mesures précises nous avons utilisé un système "VICON" doté de ce
type de technologie. Ce genre de système est constitué de caméras infra-rouges et de marqueurs
réfléchissants, comme le montre la figure 1.1.
Les marqueurs sont de petites boules qui doivent être fixées sur l’objet ou le sujet à suivre. Leur
position (dans un référentiel lié aux caméras) pourra être obtenue par triangularisation à partir de
la réflexion infra-rouge mesurée par les caméras. Chaque marqueur est modélisé par un point dont la
position pourra être obtenue par triangularisation à partir de la réflexion des infra-rouges mesurée
par les caméras. En disposant trois marqueurs sur un objet rigide, on pourra alors obtenir sa position
et son orientation dans l’espace. Le mouvement de l’objet (translations et rotations) peut donc être
obtenu à partir de la trajectoire de ces marqueurs.
Il est également possible de suivre plusieurs objets en même temps. C’est d’ailleurs ce qui est fait
lors l’acquisition d’un mouvement humain, puisque le sujet est modélisé par une chaîne articulée,
c’est-à-dire un ensemble d’objets rigides reliés par des articulations. L’identification et le suivi de
10
Figure 1.1 – Exemple d’utilisation d’un système VICON : le sujet est équipé de marqueurs et ses
mouvements sont suivis par 8 caméras.
chaque marqueur est l’une des difficultés de cette technique, car les marqueurs, tous identiques, sont
nombreux et peuvent parfois être masqués par une partie du corps du sujet. Les caméras doivent
donc être disposées tout autour du sujet afin de minimiser le risque d’occlusion et ainsi pouvoir suivre
tous les marqueurs.
1.2 Une autre approche de la capture de mouvement
Les nouvelles technologies se développent très vite et les systèmes électroniques ont envahi notre
quotidien. Ils passent bien souvent inaperçus, mais les capteurs sont partout ; toujours plus petits et
plus performants, leur nombre ne cesse d’augmenter. Une partie de ces capteurs permet de suivre
nos mouvements. Il y a déjà longtemps que les portes s’ouvrent et les lumières s’allument sur notre
passage grâce à des capteurs, certains sont même appelés capteurs de mouvements. Mais nous sommes
bien loin des techniques de capture de mouvement que nous venons de décrire.
Pendant longtemps, la capture de mouvement est restée une technique pointue réservée à une
utilisation professionnelle. Mais depuis plusieurs années, les progrès réalisés dans le domaine du
traitement d’image ont été utilisés par les concepteurs de consoles de jeux vidéo pour tenter de
remplacer les manettes de jeu classiques par des caméras. Aujourd’hui la technologie Kinect permet
d’intégrer de la capture de mouvement à des applications grand public. Ce système se concentre
dans un seul boîtier et ne nécessite aucun marqueur. Il est bien évident que les résultats ne sont pas
comparables à ceux d’un système "VICON", mais cette technologie permet de répondre à des besoins
très différents : simplicité d’utilisation, faible coût et encombrement réduit.
De nombreuses équipes de recherche dans divers domaines ont déjà fait l’acquisition de ce nouvel
outil qui offre la possibilité de faire évoluer les interfaces homme-machine. Probablement que la
fiabilité et la précision de cette technique vont encore s’améliorer et qu’elle trouvera sa place dans de
nombreux systèmes, notamment dans l’assistance aux personnes. Cependant, tout comme le système
"VICON", la technologie Kinect a une zone d’action relativement réduite. Dans les trois chapitres qui
sont suivre nous allons présenter notre travail réalisé en observant les mouvements de sujets humains
en dehors des salles classiques de capture de mouvement. Nous parlerons allons d’enregistrement en
conditions réelles, par opposition à l’environnement contrôlé que représente ce type de salle. Dans
le cas du sportif, les conditions réelles correspondent à une course en pleine nature, et dans le cas
de la maladie de Parkinson, elles correspondent au quotidien d’un malade qui se déplace dans son
11
habitation ou dans la rue. Nous avions donc besoin d’un système embarqué suffisamment autonome
et confortable pour pouvoir en équiper un sujet pendant plusieurs heures.
Pour cela, il existe une autre méthode basée sur l’utilisation d’un réseau de capteurs constitué
de plusieurs petits boîtiers à fixer sur les différentes parties du corps du sujet. Les accéléromètres
équipent déjà de nombreux appareils portables (téléphones, tablettes, ordinateurs ...), ils permettent
de récupérer beaucoup d’informations sur le mouvement d’un objet. Cependant pour la capture de
mouvement, ce capteur est souvent complété par un gyromètre et/ou un magnétomètre. Nous verrons
plus loin (§2), que ces trois types de capteurs sont regroupés dans un même boîtier pour former ce
que l’on appellera une centrale inertielle ou encore une IMU (inertial measurement unit).
Figure 1.2 – Introduction d’un IMU dans son boîtier avant d’équiper un sujet. Sur cette version, le
boîtier contient également la batterie.
Nous avons donc choisi cette technologie. Les systèmes que nous avons utilisés ont été conçus
par l’Inria et HiKoB 1. D’autres sociétés commercialisent également ce type de système, un réseau de
capteurs est par exemple proposé par Xsens 2 avec un logiciel permettant de faire la reconstruction
du mouvement à partir des acquisitions des capteurs.
1.2.1 Équiper un coureur
Nous verrons au chapitre 3, que dans le cadre du projet X-trem-log, le chercheur et ultra-
marathonien, Guillaume Chelius, a participé au 25ème Sultan Marathon des Sables équipé d’un ré-
seau de capteurs. Ces 6 jours de course dans le désert marocain ont permis de confronter l’une des
premières versions d’un réseau constitué de multiples capteurs (IMU, capteurs de pression (FSR),
cardiofréquencemètre, altimètre, capteur de température et d’humidité).
Pour enregistrer les mouvements d’un sujet humain avec un réseau de capteurs, les IMU doivent
être placées sur les principaux segments que l’on souhaite observer (tibia, cuisse, pied, tronc, tête,
...). Les boîtiers des IMU doivent être fixés solidement et près du corps pour suivre au mieux les
mouvements de chaque segment. Cette contrainte est valable pour tous les sujets et tous les types
de mouvements, mais dans le cas du sportif, les fixations seront d’autant plus sollicitées que le
1. http://www.hikob.com/
2. http://www.xsens.com/
12
mouvement comportera de fortes accélérations.
Réduire l’impact sur le coureur Le système de capteurs ne doit pas influer sur les performances
du sportif. Il est donc évident que le poids embarqué doit être minimisé, mais les solutions retenues
pour fixer les capteurs ont également une grande importance. Un capteur mal fixé peut perturber
les données et être dommageable pour le coureur. Une petite gêne ou un léger frottement peuvent
rapidement devenir douloureux. L’idéal est que le coureur soit vêtu d’une tenue avec des emplacements
spécifiquement prévus pour y introduire les capteurs.
Cas du Marathon des Sables Les capteurs choisis pour équiper un coureur durant un trail vont
être soumis à beaucoup de vibrations et de chocs, principalement causés par les impacts des pieds
sur le sol. Les boîtiers doivent être suffisamment étanches pour résister aux éclaboussures d’eau, de
boue ou de sable. Dans le cas du Marathon des Sables, les capteurs ont du supporter le soleil du
désert marocain, soit parfois plus de 55°C durant plusieurs heures.
En plus de ces contraintes liées à un environnement difficile, le réseau de capteurs devait répondre à
des contraintes fortes d’autonomie. Effectivement, les 6 jours de course étant réalisés en autosuffisance,
les batteries ne pouvaient pas être rechargées entre les épreuves, le système devait donc avoir une
autonomie de plus de 30h, sans que le poids soit pénalisant pour le coureur.
1.2.2 Équiper un malade de la maladie de Parkinson
Nous verrons au chapitre 4, que la maladie de Parkinson peut causer une déficience motrice au
niveau de la marche. Lorsqu’un malade est touché par le symptôme appelé "freezing", sa qualité de
vie est fortement dégradée car il ne peut plus se déplacer librement.
Même si certaines situations favorisent l’apparition du symptôme, il est souvent imprévisible et
donc particulièrement difficile à observer même pour un spécialiste. Nous pensons que des outils
basés sur la capture de mouvement pourraient être utiles dans la lutte contre la maladie : pour le
diagnostic et le suivi de l’évolution de la maladie, mais aussi pour perfectionner les aides techniques
déjà existantes (cannes ou déambulateurs équipés d’un système optique ou mécanique) dont l’efficacité
est très limitée dans le temps.
Durant de longues périodes de la vie quotidienne Au chapitre 4, nous présenterons notre
travail sur la détection du "freezing". Cette méthode de détection a été réalisée dans le but de
commander le déclenchement d’un système d’indiçage (sonore ou visuel) qui devrait permettre de
réduire la durée des blocages causés par le "freezing". L’objectif final étant de mettre à disposition des
malades un dispositif d’aide à la marche qu’ils pourraient utiliser au quotidien, le système complet
devra donc être confortable et facile à mettre en place.
Nous verrons au paragraphe 1.2 du chapitre 4 que pour une utilisation au quotidien la solution
optimale serait d’avoir un détecteur composé d’un seul boîtier (IMU) à fixer à la cheville et relié
par une connexion sans fil au système d’indiçage. De plus, la phase de calibration ne doit pas être
contraignante, nous pensons même qu’il serait possible d’automatiser la procédure sur les premières
foulées pour ne pas augmenter la charge attentionnelle du malade.
Dans le cadre d’une expérimentation ponctuelle Dans le cadre d’une consultation, un sys-
tème basé sur la capture de mouvement pourrait être une aide au diagnostic. L’observation du mou-
13
Figure 1.3 – Le médecin et son patient durant une consultation. Nous avions équipé le patient de
deux IMU (à la cheville et au genou).
vement des jambes permet par exemple de mesurer la durée d’un épisode de freezing, on pourrait
également envisager de mesurer la fréquence des tremblements ou leur intensité.
Le médecin étant présent pour aider le patient à s’équiper, il est envisageable d’augmenter le
nombre d’IMU, le patient pourrait ainsi être équipé de deux IMU par jambe. Il serait également
possible de prévoir quelques mouvements à faire réaliser au patient pour la calibration et l’étalon-
nage. Nous savons qu’à un stade avancé réaliser quelques pas devient difficile pour certains malades.
Cependant, les repères au sol ou un rythme régulier réduisent le risque de blocage, il est donc possible
de prévoir des marques sur le sol ou un métronome pour leur faire réaliser des foulées de longueurs
fixes ou avec une cadence régulière pour réaliser l’étalonnage .
2 Réseau de capteurs embarqués et IMU
L’ensemble de notre travail est basé sur le traitement de données obtenues en équipant des sujets
humains de multiples capteurs. Tous les capteurs sont organisés en réseau. Le réseau est composé
de plusieurs nœuds autonomes. Chaque nœud est constitué d’un processeur, d’une batterie, d’un
ou plusieurs capteurs, d’un système de communication sans fil et parfois d’une carte SD pour le
stockage des mesures. Pour réaliser de la capture de mouvement, les centrales inertielles, que l’on
appelle aussi IMU (inertial measurement unit), sont les éléments principaux du réseau, mais des
capteurs physiologiques ou environnementaux peuvent également être utilisés. Ce genre de réseau est
appelé BAN ou WBAN (wireless body area network).
2.1 Le réseau et les nœuds
2.1.1 Communication et autonomie
Selon les besoins de l’expérimentation et les dernières améliorations du matériel dont nous dispo-
sions, nous avons utilisé différentes versions du réseau de capteurs, mais le principe de fonctionnement
était toujours identique. Plusieurs types de capteurs peuvent être regroupés dans un même boîtier, ils
forment alors un nœud qui est autonome en énergie grâce à sa batterie. Le système fonctionne donc
14
sans fil, ce qui facilite beaucoup la fixation des boîtiers sur le sujet et son confort. Effectivement,
lors du Marathon des Sables les quelques connexions filaires existantes ont posé des problèmes :
déconnexions intempestives des piles et frottements douloureux dans la chaussure.
La communication entre les nœuds est basée sur un modèle maître-esclave et se fait par signal
radio. Sur les premières versions du système, les données (acquisitions réalisées par tous les capteurs)
étaient envoyées par radio au maître pour être stockées, mais elles sont maintenant enregistrées
directement par chaque nœud sur sa propre carte SD. Ainsi elles ne risquent plus d’être perdues lors
de la transmission et le nombre de nœuds (de capteurs) n’est plus limité par le débit du signal radio
qui est maintenant utilisé uniquement pour synchroniser les nœuds.
De plus, minimiser les transmissions radio permet de réduire la consommation des nœuds. L’au-
tonomie énergétique a été une contrainte très importante lors du Marathon des Sables. D’une part, la
course comportant une épreuve longue, l’autonomie des capteurs devait être supérieure à la durée de
cette épreuve (pour Guillaume, elle a duré 12h). D’autre part, le Marathon des Sables est une course
réalisée en auto-suffisance, c’est-à-dire que le coureur devait transporter en permanence l’ensemble
des piles nécessaires pour les 6 jours, soit pour plus de 30h de fonctionnement.
2.1.2 Synchronisation
Dans le cas où les données sont stockées directement par le nœud, chaque acquisition est datée
par rapport à l’horloge interne du nœud. Les nœuds doivent donc être synchronisés entre eux, pour
que l’ensemble des acquisitions soient datées en utilisant la même base de temps.
Chaque nœud est doté d’une horloge. Dans les dernières versions des nœuds, cette horloge est
réalisée avec un système à quartz, nous avons donc considéré que la fréquence d’horloge de tous
les nœuds était parfaitement identique. Cependant pour réduire l’encombrement dans la version
utilisée lors du Marathon des Sables, les horloges étaient réalisées avec un système RC oscillant bien
moins précis, la fréquence d’horloge pouvait donc varier d’un nœud à l’autre. De plus avec ce genre de
système, la fréquence d’horloge d’un nœud peut varier dans le temps, mais nous avons fait l’hypothèse
que ces variations étaient négligeables pour un enregistrement de quelques minutes ou de quelques
heures.
Le signal radio est utilisé pour synchroniser les différents nœuds. Dans le cas où les horloges ont
des fréquences légèrement différentes, l’horloge du nœud maître est prise comme référence et pour
synchroniser chaque nœud avec cette référence nous avons besoin de deux paramètres :
– le top zéro (T0), c’est à dire le décalage entre les zéros des deux horloges à synchroniser,
– le coefficient noté α, correspondant à la différence de fréquence.
On notera tnint les dates des acquisitions réalisées par le nœud n lorsqu’elles sont données par
rapport à l’horloge interne du nœud. La transformation suivante permet de dater les acquisitions du
nœud n par rapport à l’horloge de référence :
tnref = αn.tn
int + T n0 (1.1)
Le nœud maître envoie des paquets numérotés, la date de réception de ces paquets est enregistrée
par chaque nœud. On considérera que ces paquets sont reçus au même instant par tous les nœuds,
c’est-à-dire que la durée de la transmission est identique pour tous les nœuds (émission, réception
et trajet des ondes). Pour un enregistrement de courte durée, les paramètres αn et T n0 sont estimés
en appliquant la méthode des moindres carrés sur tous les paquets. Mais pour un enregistrement de
15
plusieurs heures il est possible de n’utiliser que quelques paquets du début et quelques paquets de
la fin. Pour les dernières versions disposant d’une horloge à quartz, seul le paramètre T0 doit être
estimé, pour cela il suffit de calculer le décalage moyen pour quelques paquets.
2.2 Différents types de capteurs
Le réseau de capteurs que nous avons utilisé est constitué de plusieurs nœuds pouvant contenir
chacun différents types de capteurs. Comme nous venons de le présenter dans la section précédente,
notre principal objectif est de suivre les mouvements d’un sujet humain, nous avons donc utilisé
principalement des IMU. Ces IMU sont constituées de trois capteurs tri-axes : un accéléromètre, un
gyromètre et un magnétomètre. Pour obtenir des informations sur le déroulé du pied il est également
possible d’utiliser des semelles dotées de capteurs de pression (FSR).
Le coureur était également équipé d’un cardiofréquencemètre et d’un altimètre. Et dans le cas
du Marathon des Sables, son sac à dos était équipé de capteurs de température, de luminosité et
d’humidité.
2.2.1 Accéléromètres
Les MEMS (micro-electromechanical systems) sont en développement([16] 3). Le nombre de pro-
duits équipés avec ce type de capteur ne cesse d’augmenter. Les accéléromètres miniatures sont
présents dans les airbags de voitures ou dans les systèmes de protection des disques durs. Ils ont
également envahi les téléphones portables, tablettes et jeux vidéo.
Ce type d’accéléromètre est réalisé à partir de micro-structures en silicium. Le capteur est composé
d’un peigne mobile ancré au substrat (ou bâti) par des micro-poutres jouant un rôle de ressort. Ce
peigne est placé en regard avec deux peignes fixés au bâti. Le mouvement du peigne mobile selon l’axe
perpendiculaire aux dents engendre une modification de la distance entre les dents fixes et les dents
mobiles. Deux dents placées en regard constituent les armatures d’un condensateur dont la valeur
est inversement proportionnelle à cette distance. Cette structure permet d’obtenir une image de
l’accélération et de la gravité que subit le boîtier du capteur suivant l’axe de déplacement du peigne.
L’électronique intégrée dans les modèles d’accéléromètres utilisés fournit une sortie numérique.
Calibration Les capteurs que nous utilisons sont triaxiaux. La sensibilité et l’offset peuvent varier
différemment sur chaque axe. Dans les cas les plus défavorables l’orthogonalité entre les trois axes
peut varier de 3,5%, mais nous ne prendrons pas en compte ce défaut d’allignement.
Durant la phase de calibration, nous considèrerons que le capteur a une accélération nulle, c’est-
à-dire qu’il est soumis uniquement au champ gravitationnel. Nous considérons que la tension de
sortie de chaque axe du capteur est proportionnelle au produit scalaire entre le vecteur champ et
le vecteur capteur (linéarité de la relation entre la tension et la grandeur mesurée). Lorsque l’on
représente par des points dans un espace à 3 dimensions les valeurs mesurées par les 3 axes, ces
points se situent sur une ellipsoïde ayant des caractéristiques liées à l’offset et à la sensibilité de
chaque axe. Durant la phase d’acquisition nécessaire à la calibration, l’orientation du capteur devra
être modifiée de manière à répartir les points de mesure sur cette ellipsoïde. Nous recherchons alors la
transformation permettant d’obtenir des données dans un repère orthonormé dont l’unité correspond
à la norme du champ gravitationnel. C’est-à-dire qu’après cette transformation les points acquis
3. http://rose.eu.org/2010/wp-content/uploads/2010/03/MEMs.pdf
16
lors de la calibration seront placés sur une sphère centrée sur l’origine et de rayon 1. Une fois cette
transformation appliquée à la mesure, on obtient alors→a= −
→
g‖g‖ . La méthode utilisée pour trouver la
transformation optimale a été mise en place par Pierre-Brice Wieber. Cette méthode est basée sur
le principe d’ajustement d’ellipse présenté par Andrew Fitzgibbon [21]. Les modifications apportées
par Pierre-Brice Wieber sont principalement le passage de l’ellipse à l’ellipsoïde et la contrainte
d’alignement des axes de l’ellipsoïde avec ceux du capteur. La contrainte d’alignement peut être
utilisée car nous avons fait l’hypothèse d’orthogonalité entre les axes du capteur.
Après cette calibration électrique, nous pourrons considérer que l’offset a été supprimé, que la
sensibilité est parfaitement identique sur les 3 axes et que les signaux comportent un bruit blanc.
Nous ferons l’hypothèse que les dérives sont suffisamment faibles pour utiliser la même calibration
électrique sur toute une journée d’acquisition. De même les variations du champ gravitationnel sont
négligeables même lors d’un trail avec des dénivelés importants.
Selon la date et le type des expérimentations qui ont été réalisées, le modèle des capteurs utilisés
peut varier et l’étendue de mesure peut être trop faible. On parlera de saturation puisque la valeur
de l’accélération est supérieure à la valeur maximale mesurable.
Dans le cadre de la marche humaine, la valeur des accélérations ne dépasse jamais celle supportée
par le capteur. La bande passante de l’accéléromètre est toujours supérieure à celle du système
complet.
2.2.2 Gyromètres
La technologie MEMS ([16]) permet également la réalisation de gyromètres extrêmement légers
et compacts. Ce type de capteur permet de mesurer la vitesse de rotation autour de chacun des trois
axes d’un repère orthogonal lié au boîtier du capteur. Pour réaliser cette mesure, le capteur utilise
une structure de quartz vibrant. Lors d’un mouvement de rotation, cette structure vibre sous l’effet
de la force de Coriolis. Les constructeurs dévoilent beaucoup moins de détails sur les gyromètres que
sur les accéléromètres.
De part son principe de fonctionnement, ce type de capteur est très sensible aux vibrations.
Il est également sensible aux variations de températures. Dans les dernières versions du réseau de
capteurs que nous avons utilisé, les données que nous récupérons ont déjà subit un pré-traitement
(compensation et filtrage). Mais pour un enregistrement de courte durée (quelques minutes) il est
possible d’ajuster la compensation de l’offset. Dans le cas d’enregistrements plus longs tels que pour
les données de course, il est possible que la valeur de l’offset varie au cours de l’enregistrement. Le
plus souvent, nous avons conservé la compensation automatique.
De même que pour les accéléromètres, nous disposions de capteurs tri-axes et nous avons négligé
le défaut d’orthogonalité.
Même si les documentations n’y font pas référence, ce type de capteur semble sensible à la gravité.
Avant de constater l’influence de la gravité sur l’offset, nous posions les IMU quelques instants à
plat avant de les fixer sur le sujet et nous utilisions ces mesures pour déterminer la compensation
de l’offset. Cependant, une fois installés sur le sujet les capteurs se retrouvent dans une position
totalement différente, généralement ils sont tournés d’environ 90° par rapport à la position à plat,
l’influence de la gravité sur l’offset n’est donc plus la même. Par la suite, nous utilisions des données
correspondant à une position debout et immobile du sujet pour calculer la compensation de l’offset.
17
2.2.3 Magnétomètres
Un magnétomètre est un capteur qui mesure le champ magnétique dans lequel il est plongé.
Nous utiliserons ce type de capteur pour estimer l’orientation d’une centrale inertielle par rapport au
champ magnétique terrestre. Les capteurs utilisés sont des tri-axes dont nous avons négligé le défaut
d’orthogonalité.
Différentes technologies peuvent être utilisées pour mesurer un champ magnétique. Les principales
sont l’effet Hall, les bobines inductives, les matériaux magnétorésistifs et les portes à flux. Le choix
de la technologie dépend de l’application, pour des contraintes d’encombrement et d’autonomie telles
que les nôtres, ce sont les matériaux magnéto-résistifs qui sont classiquement utilisés. On en distingue
deux types : les magnétorésistances géantes et les magnétorésistances anisotropes. On peut également
s’attendre à ce que les portes à flux fassent leur apparition dans le domaine des microcapteurs pour
applications nomades (voir le microfluxgate développé par le CEA-Léti).
Les capteurs que nous utilisons sont dotés d’une technologie utilisant des magnétorésistances
anisotropes [46]. Ces magnétorésistances sont fabriquées à partir d’un matériau ferromagnétique.
Lorsque ce matériau, soumis à un champ magnétique, est traversé par un courant électrique, la
valeur de sa résistance électrique varie selon l’angle formé entre le flux de courant et l’orientation du
champ magnétique.
Ces résistances sont utilisées par quatre pour former un pont de Wheatstone, elles sont donc
orientées suivant la même direction, deux dans chaque sens. Ce conditionnement associé à la varia-
bilité des valeurs de résistances entraine une tension d’offset. Ce défaut étant dû à la géométrie des
composants, il a l’avantage de ne pas évoluer, ni lors des mises sous tension, ni avec le temps. Cette
tension d’offset pourra donc facilement être compensée lors de la calibration électrique.
Un défaut d’orthogonalité peut être causé par un défaut géométrique lors de la fabrication. De
même que pour tous les types de capteurs que nous utilisons, ce défaut d’orthogonalité sera négligé.
Pour le magnétomètre, il existe une autre source de variation de l’orthogonalité : avec le temps,
l’orientation magnétique des cellules constituant le matériau magnétorésistif se décale. Pour limiter
ce décalage le capteur peut être doté d’enroulements permettant de démagnétiser les résistances et
donc de réaligner l’axe de mesure.
Afin de ne pas perturber l’estimation de l’orientation du champ magnétique terrestre, il faut
tenir les magnétomètres éloignés de toute source magnétique telle qu’un moteur électrique et de tout
matériau ferromagnétique. Dans le cas où le capteur est alimenté par batterie, l’emplacement de la
batterie par rapport au capteur ne doit pas changer entre l’acquisition utilisée pour la calibration
et le reste de l’expérimentation. La méthode de calibration sera identique à celle utilisée pour les
accéléromètres.
2.2.4 FSR, capteurs de pression
Un capteur FSR (force-sensing resistor) permet de mesurer une force de pression. Le capteur
se présente sous la forme d’une pastille contenant un fil conducteur disposé en serpentin (voir la
figure 1.4). La résistance de ce conducteur peut être mesurée en faisant circuler un courant entre ses
deux extrémités.
Sous l’effet d’une pression la pastille se déforme en modifiant la longueur et la section du conduc-
teur qu’elle contient. Cette déformation entraine une variation de la résistance du conducteur que
l’on peut mesurer pour obtenir une image de la pression exercée sur la pastille.
18
Figure 1.4 – Capteurs de pression FSR placés dans une semelle et reliés à un nœud.
Dans notre cas, ces capteurs ne permettent pas de mesurer la pression avec précision, mais il
permettent de localiser temporellement les impacts entre le pied et le sol. Six points de mesure sont
répartis du talon jusqu’aux orteils, cela permet d’observer le déroulement du pied.
19
Chapitre 2
Outils et définitions
1 Stationnarité et Segmentation
1.1 Stationnarité
Très souvent, la notion de stationnarité est simplement associée à la définition d’un processus
stationnaire au second ordre, c’est-à-dire répondant aux conditions suivantes :
E(x(tk)) = µ
E(x(tk)x(tk−τ )) = c(τ)∀k(2.1)
avec µ et c(0) = σ2 constants.
Ainsi, en économétrie, on parlera de non stationnarité déterministe si c’est la condition sur la
moyenne qui n’est pas satisfaite et de non stationnarité stochastique si les moments du deuxième
ordre sont concernés. Ce domaine étant particulièrement intéressé par la présence de dérives ou de
variations saisonnières, les modèles considérés ont souvent la forme :
x(tk) = f(tk) + e(tk) (2.2)
où f(t) est une tendance, ou dérive, déterministe, et e un processus ARMA 1, pour les non station-
narités déterministes. Dans le cas des non stationnarités stochastiques, on considère généralement
dans ce domaine des modèles de processus intégrés d’ordre p, comme les marches aléatoires avec
dérive. Il existe de nombreuses méthodes de test associées, basées sur l’auto-corrélation, les tests de
racine unitaire (Dickey-Fuller, Phillips-Perron...).
Dans notre cas, le concept de stationnarité doit plutôt être relié à ce que l’application va considérer
comme étant un ensemble homogène de données. Ainsi, compte tenu de la nature des informations
recherchées sur la locomotion, la posture du coureur, sa performance, on aura tendance à considérer
comme homogène une séquence dans laquelle l’ensemble des paramètres représentant ces informations
présente une certaine stationnarité, qui n’est pas nécessairement la seule constance de la moyenne,
ou de la variance, mais par exemple la périodicité, et plus généralement certaines caractéristiques
spectrales 2, le tout selon plusieurs échelles jugées pertinentes. On se rapproche ainsi de ce qui est
considéré dans certains signaux physiologiques (EMG, ECG, EEG) ou autres (parole par exemple).
1. A(z−1)e = B(z−1)ε(tk)
2. Les propriétés du spectre accélérométrique ont déjà été exploitées à plusieurs reprises pour la classification de
mouvements de marche ; voir par exemple [27, 51, 12].
20
Mais à ce stade de l’analyse, on aimerait ne pas avoir à connaître de relation explicite (par exemple
analytique) entre ces paramètres et les signaux issus des capteurs.
Application aux accéléromètres En observant les signaux obtenus dans des conditions contrô-
lées, c’est à dire lorsque l’on peut fixer arbitrairement les paramètres de la locomotion, il apparaît que
la plupart d’entre eux présentent visuellement une "allure" différente selon les conditions de déplace-
ment. Ceci est normal car les signaux n’ont qu’un caractère partiellement aléatoire. Si l’on reprend
en temps continu l’équation (2.2), un modèle typique en temps continu d’un signal de capteur de
mouvement aura la forme :
x(t) = y(p, t) + e(t) (2.3)
où e(t) est un bruit de mesure non nécessairement blanc gaussien et y(p, t), qui porte une forte
information fréquentielle, est par exemple la sortie d’un système dynamique comme un oscillateur
non-linéaire, ou une fonction périodique explicite du temps, paramétrées par le vecteur p, qui pourra,
lui, être de nature aléatoire (par exemple une constante bruitée p = p0 + ε(t) ou un mouvement
brownien p = ε(t)).
Parmi les capteurs utilisés, les signaux accélérométriques sont particulièrement sensibles à la
dynamique des mouvements. Ainsi ([1]), dans le cas de la course, les accélérations de la cuisse peuvent
atteindre 300 rad/sec2. Les grandeurs relatives à l’énergie des signaux accélérométriques doivent donc
refléter cette dynamique et ses variations. Rappelons quelques définitions en la matière :
L’énergie d’un signal x(t) est E =∫
+∞−∞ ‖x(t)‖2dt 3. On appelle également
√E la norme L2
du signal. E n’étant pas nécessairement bornée, en particulier pour les processus stochastiques, on
préfère utiliser la puissance moyenne 4 du signal : Pm = 1
T
∫ T/2
−T/2‖x(t)‖2dt, qui s’écrit aussi en discret :
Pm = 1
N
∑N−1
k=0‖x(tk)‖2.
‖x(t)‖2 est alors, logiquement, la puissance instantanée du signal.
Finalement, observer la norme du vecteur dont les composantes sont mesurées par chacun des
accéléromètres sur les 3 axes nous donnera donc une image de la puissance instantanée du signal
tridimensionnel d’accélération et, par intégration éventuelle de son carré, son énergie sur une durée
finie.
Les vitesses de rotation mesurées par les gyromètres sont également sensibles à la dynamique des
mouvements. On parlera de stationnarité tant que les conditions de déplacement restent inchangées.
En équipant un sujet d’une ou plusieurs IMU sur les membres inférieurs, nous pourrons obtenir des
informations sur les conditions de déplacement en déterminant les moyennes et les fréquences des
normes des accéléromètres et gyromètres.
1.2 Segmentation : détection de rupture
Comme nous venons de le voir avec l’exemple des signaux accélérométriques, nous souhaitons
détecter les changements dans les conditions de déplacement d’un sujet équipé de capteurs. Cela
revient à segmenter ses mouvements en intervalles de temps contenant des phases homogènes, durant
lesquelles les conditions de déplacement restent inchangées. Notre hypothèse est que la stationnarité
des signaux mesurés par les capteurs de mouvements est liée à ces phases homogènes. Les méthodes
3. Grâce au théorème de Parseval, cette énergie est identique dans le domaine fréquentiel : Ef =∫
+∞
−∞‖X(f)‖2dt
où X(f) est la transformée de Fourier de x(t)
4. On appelle√
Pm la puissance RMS ("Round Mean Square")
21
de détection de rupture présentées ici, vont nous permettre de segmenter un signal en fonction des
variations de sa moyenne.
Stationnarité au 1er ordre de données multidimensionnelles : Nous considérerons qu’un
ensemble de données multidimensionnelles est stationnaire au premier ordre si chaque dimension
présente une stationnarité d’ordre 1 (au sens de la moyenne).
Phase homogène : Nous ferons l’hypothèse qu’il existe un ensemble de paramètres permettant
de décrire un mouvement de locomotion par une succession d’intervalles de temps présentant chacun
une stationnarité multidimensionnelle au premier ordre. Nous appellerons ces intervalles des phases
homogènes du mouvement. Dans le cadre de notre application sur le sportif, les paramètres utilisés
pour déterminer les phases homogènes sont généralement obtenus à partir de la norme ou de la
fréquence des accélérations ou des vitesses de rotation. De plus, nous utiliserons les capteurs placés
sur les membres inférieurs ou dans le bas du dos du sujet.
1.2.1 CUSUM
Nous nous intéresserons au 1er ordre et à un seul signal. Le modèle (2.3) se réduit alors à x(t) =
µ+e(t), où e(t) est centré. Il existe classiquement de nombreuses méthodes pour tester la stationnarité
au sens de la moyenne µ (cf par exemple les revues de [19],[9]). Pour des raisons de simplicité
d’implémentation, autorisant un éventuel traitement temps réel, et également pour leurs bonnes
propriétés théoriques, nous sélectionnons la classe des méthodes de type "cusum" (sommes cumulées),
basées sur le logarithme du rapport de vraisemblance, telle que par exemple la méthode étudiée, entre
autres, par Hinkley en 1971 5. Dans sa version la plus simple, l’algorithme de détection de ruptures
de moyennes pour un processus blanc gaussien de moyennes connues changeant brusquement et de
variance constante σ2, s’écrit de la façon suivante en temps discret, indicé par k = 1 . . . N , N étant
la longueur de la séquence de signal considérée. Soit µ = µ0, k < r et µ = µ1, k ≥ r les moyennes du
processus xk avant et après l’instant de rupture r. Les hypothèses à tester à chaque instant courant
sont simplement :{
H0 : r > k
H1 : r ≤ k(2.4)
En notant ν = µ1−µ0 l’amplitude du saut, on observe alors la statistique sk = µ1 −µ0
σ2 (xk−µ0− ν2).
La fonction de décision est Sk =∑i=k
i=1 si et le test, avec le seuil λ (idéalement, proportionnel à l’écart-
type), est :
gk = Sk(µ0, ν) − mini≤k
Si(µ0, ν) > λ ? (2.5)
L’instant de rupture estimé est alors celui correspondant au minimum. Une version avec oubli
exponentiel, qui privilégie les données les plus récentes, a également été proposée (cf [10]).
Ce test s’étend aisément au cas de moyennes inconnues, qui est le plus fréquent en pratique, en
remplaçant µ0 par son estimation courante µ0(k), ν par une amplitude minimale de saut détectable
νm et en activant en parallèle deux détecteurs, l’un pour les sauts vers le "haut", l’autre pour les
sauts vers le "bas". L’estimateur de moyenne classiquement utilisé a la forme µ0(k) = µ0(k − 1) +
5. Celles-ci peuvent d’ailleurs s’étendre au cas de rupture paramétrique dans des modèles plus complexes, voire
multidimensionnels, en travaillant par exemple sur les résidus d’un estimateur.
22
Kk(xk − µ0(k −1)), où le gain Kk peut être le classique 1/k ou un gain ne tendant pas vers zéro, pour
oublier exponentiellement les données anciennes et suivre ainsi d’éventuelles lentes variations non
considérées comme des modifications significatives de moyenne. Le test est réinitialisé après chaque
rupture détectée, ce qui implique de lancer alors une estimation de la nouvelle moyenne, conduisant
ainsi à l’existence d’une période "aveugle", correspondant au temps nécessaire à l’estimateur pour se
stabiliser. Lorsque l’on travaille hors-ligne, une façon de traiter ce problème et d’affiner les détections
sur toute la séquence considérée, en "symétrisant" temporellement le traitement, consiste à appliquer
également l’algorithme au processus yk = xN−k+1.
Une fois le processus segmenté en portions de moyenne constante séparées par des ruptures
abruptes, un deuxième niveau peut être considéré, lorsque le signal est susceptible de présenter
des sauts de variance à moyenne µ constante (fait sans doute assez rare pour le signal "norme des
accélérations", mais qui peut se produire pour d’autres types de capteurs). Alors, les mêmes classes
de méthodes peuvent s’appliquer, en changeant la statistique à observer pour le test (cf [10], chapitre
2), qui devient par exemple dans le cas de variances connues σ0 et σ1 :
sk = lnσ0
σ1
+ (1σ2
0
− 1σ2
1
)(xk − µ)2
2(2.6)
Méthode optimale Dans le cas d’un traitement réalisé hors ligne, le même principe peut être
utilisé pour déterminer les instants de rupture. Nous travaillerons toujours avec un processus blanc
gaussien de moyennes changeant brusquement et de variance constante. Cependant, les moyennes
sont maintenant inconnues et nous supposerons que le nombre de ruptures est connu.
Commençons avec le cas d’un jeu de données indicées par k = 1 . . . N dont le processus xk
contient un seul instant de rupture r que l’on souhaite estimer. Soit µ = µ0, k < r et µ = µ1,
k ≥ r les moyennes du processus xk avant et après l’instant de rupture r. Sachant que 2 ≤ r ≤ N ,
il y a N − 1 valeurs possibles pour l’instant de rupture r. Nous allons donc comparer les N − 1
hypothèses correspondantes en calculant leurs vraisemblances. Pour cela nous aurons besoin, pour
chaque hypothèse Hj : r = j, d’estimer les valeurs des moyennes du processus, ces valeurs seront
notées µj0 et µj
1 et correspondront à la moyenne des échantillons situés respectivement avant et après
la rupture, comme ci-dessous :
µj0 =
1j − 1
j−1∑
i=1
xi (2.7)
µj1 =
1N − j + 1
N∑
i=j
xi (2.8)
La vraisemblance de l’hypothèse Hj est donnée ci-dessous, avec θj le vecteur regroupant les
paramètres µj0, µj
1 et r = j.
L (X|θj) =N∏
i=1
1
σ√
2π
k−1∏
i=1
exp
−12
(
xi − µj0
σ
)2
N∏
i=k
exp
−12
(
xi − µj1
σ
)2
(2.9)
Afin déterminer l’hypothèse la plus vraisemblable, nous chercherons à maximiser le logarithme de
la vraisemblance et, la variance σ2 et le nombre d’échantillons N étant constants, cela est équivalent
23
à minimiser l’equation suivante :
j−1∑
i=1
(xi − µ0)2 +N∑
i=j
(xi − µ1)2 (2.10)
Ce principe peut facilement être étendu à plusieurs instants de rupture, on notera R le nombre
de ruptures. Cependant le nombre d’hypothèses étant égal à R parmi N (CRN ), il croit très vite avec
le nombre de d’échantillons du signal (N). Même en utilisant optimisant la recherche du minimum
pour réduire le nombre de calcul cette méthode reste très coûteuse en temps de calcul lorsqu’elle est
appliquée sur des signaux très longs. Mais l’inconvénient majeur de cette méthode par rapport à nos
applications est que le nombre de ruptures doit être connu à l’avance. Il serait possible de contourner
ce problème en calculant la solution optimale en faisant également varier le nombre de ruptures, mais
dans le problème serait alors le temps de calcul.
1.2.2 FDp-V
La méthode FDp-V (Filtered Derivative with p-value), proposée par Pierre Bertrand et al. [11],
est une méthode de segmentation permettant de détecter les changements de moyenne ou de pente,
grâce à une dérivée filtrée complétée par une élimination des fausses alarmes. Seule la détection des
changements de moyenne est présentée ici.
Tout comme la méthode de type "cusum" présentée ci-dessus, il n’est pas nécessaire de connaître
le nombre de ruptures à l’avance, mais elle ne peut pas être utilisée pour réaliser un traitement en
ligne. Cependant, pour un traitement hors ligne, elle a l’avantage d’être plus rapide que la méthode
de type "cusum". Ce traitement est composé de deux étapes : la première repère les changements
potentiels de la moyenne et la seconde permet d’éliminer les faux positifs.
Lors de la première étape, une dérivée filtrée est calculée dans le but de détecter les instants
correspondant potentiellement à des changements de moyenne. Comme le montre l’équation 2.11,
cette dérivée D (k, A) est définie comme la différence entre les estimations de la moyenne sur deux
fenêtres situées de part et d’autre de l’échantillon k et de largeur A.
D (k, A) = µ (k, A) − µ (k − A, A) (2.11)
Au voisinage d’un changement de moyenne (rupture), la norme de D possède un maximum local.
Seuls les maxima locaux de |D| supérieurs à C1 seront considérés comme des points de changements
potentiels, et ils seront notés (τ1, ..., τmax) (dans l’ordre croissants). La valeur du seuil C1 permet de
régler la sensibilité de la détection des changements potentiels.
|D (τj , A)| > C1 (2.12)
La seconde étape consiste à vérifier que les changements de moyenne aux instants (τ1, ..., τmax)
sont suffisamment importants par aux attentes de l’utilisateur. La moyenne doit donc être estimée
sur les intervalles de temps délimités par les (τ1, ..., τmax). Pour que τj soit considéré comme un point
de changement, il faut que µj− et µj+ (définis dans l’équation 2.13) soient suffisamment différents.
Une variation relative minimale peut, par exemple, être imposée (voir le seuil C2 de l’équation 2.14).
µj− = µ (τj−1 + 1, τj)
µj+ = µ (τj + 1, τj+1)(2.13)
24
∣
∣
∣µj− − µj+
∣
∣
∣
µj− + µj+
> C2 (2.14)
1.3 Classification
Les méthodes de détection de rupture présentées ci-dessus, seront utilisées pour segmenter tem-
porellement les données en phases homogènes. Cette étape permet de réduire considérablement le
nombre de données à manipuler, car elle permet de travailler par la suite avec des intervalles de
temps et non plus avec des échantillons. Ces intervalles de temps contiennent des phases homogènes
du mouvement que nous souhaitons regrouper en fonction de leurs ressemblances : nous souhaitons
donc les classer.
La classification se divise généralement en deux sous-problèmes distincts : la classification super-
visée, appelée également analyse discriminante, et la classification non supervisée. Dans le cadre de
certaines applications, il peut être très contraignant d’obtenir un jeu de données utilisable pour l’ap-
prentissage. Nous utiliserons donc principalement de la classification non supervisée. Les méthodes
d’analyse de données permettant de résoudre des problèmes de classification non supervisée sont
également appelées classification automatique.
Pour les problèmes de classification les plus simples, ne requérant pas l’utilisation d’une méthode
de classification automatique, nous utiliserons une méthode de seuillage ou des barycentres. Mais,
comme nous le verrons au chapitre 3, pour réaliser la classification automatique de la marche et de
la course, nous utilisons principalement l’algorithme des K-moyennes (ou K-means en anglais) que
nous présenterons dans cette partie. Cet algorithme est le résultat de l’utilisation de l’algorithme EM
(Expectation-Maximization) avec une fonction coût basée sur la distance euclidienne. Nous verrons
également que l’algorithme EM peut être utilisé avec des mélanges de lois gaussiennes.
1.3.1 Seuillage et barycentres
Dans le cas très simple où nous souhaitons répartir des données à une seule dimension entre deux
classes déjà identifiées, nous réalisons un seuillage. La valeur du seuil utilisé correspond alors à la
frontière entre les deux classes. Si cette frontière ne peut pas être définie à partir d’informations a
priori dépendantes de l’application, nous ferons appel à une méthode de classification pour la définir.
Si nous disposons d’un jeu d’apprentissage (jeu de données déjà classées), nous sommes dans un
cas de problème de classification supervisée. Pour classer une nouvelle donnée, nous allons chercher la
classe dont elle est la plus proche. Pour cela nous devons choisir une manière de définir les classes qui
va nous permettre de calculer la distance entre cette nouvelle donnée et chaque classe : une solution
est de définir une classe par son centre. En représentant les données comme des points, on pourra
alors choisir de définir le centre de chaque classe par le barycentre des données (ou points) qui lui
sont associées dans le jeu d’apprentissage. Dans le cas de données à une seule dimension et pour
deux classes, cela est équivalent à un seuillage qui utiliserait comme valeur de seuil le milieu des deux
centres.
On remarquera que cette méthode peut être généralisée pour résoudre des problèmes avec un
nombre de classes et de dimensions plus importants. Nous avons présenté cette méthode avec une
approche géométrique en définissant les classes par leur barycentre, on pourra également parler de
moyenne que l’on notera µ.
25
1.3.2 Partitionnement : K-means et algorithme EM
La maximisation de la log-vraisemblance d’un modèle de mélange dans le cas non-supervisé
conduit en général à des équations de vraisemblance qui ne possèdent pas de solutions analytiques. Il
existe toutefois différents algorithmes permettant de maximiser la log-vraisemblance quand les labels
sont inconnus. Le plus utilisé d’entre eux est l’algorithme itératif Expectation-Maximization (EM) de
Dempster, Laird et Rubin [15].
Dans cette partie, nous allons vous présenter l’algorithme des K-moyennes (K-means en anglais)
qui est le résultat de l’utilisation de l’algorithme EM avec une fonction coût basée sur la distance
euclidienne. L’objectif de cet algorithme est de décomposer un jeu de données en K groupes, chacun
représenté par un centre noté µk. Pour résumer en des termes simples le principe de cet algorithme,
nous dirons que l’algorithme EM étant itératif, nous devrons partir d’une répartition initiale, pour
ensuite la faire évoluer tout en cherchant à satisfaire au mieux toutes les données. Pour quantifier cela,
nous utiliserons une fonction coût basée sur la distance euclidienne, c’est-à-dire que nous souhaitons
minimiser la somme des distances entre les données et le centre de leur groupe.
En pratique, l’initialisation sera réalisée en déterminant aléatoirement K centres de groupes :
une technique utilisée est de choisir aléatoirement K données distinctes qui seront utilisées comme
les centres des groupes de l’initialisation. Partant de cette solution initiale, l’algorithme EM évolue
par itérations, et plus précisément il alterne entre les deux étapes E et M (E pour expectation et
M pour maximisation). L’étape E consiste à affecter chaque donnée au groupe dont le centre est le
plus proche. Et l’étape M consiste à déterminer le nouveau centre de chaque groupe en calculant la
moyenne (ou barycentre) des données qui lui ont été affectées durant l’étape E. Enfin, l’algorithme
est arrêté lorsque l’étape E n’entraine plus aucun changement d’affectation.
Cette méthode a l’avantage d’être facile à utiliser mais le choix de la valeur de K peut parfois
s’avérer difficile. La convergence est garantie car les affectations ne peuvent prendre qu’un nombre
fini de valeurs, mais elle n’est pas absolue. Dans la pratique, l’algorithme pourra donc être utilisé
plusieurs fois avec des solutions initiales différentes. Autre inconvénient, cette méthode réalise des
affectations dites dures, ce qui implique qu’une très légère variation sur une donnée peut entrainer
un changement de son affectation.
K-means pondéré Comme nous le disons en introduction de cette section 1.3, nous travaillons
avec des données résultant de l’échantillonnage d’un signal temporel et l’utilisation d’une méthode
de détection de rupture va nous permettre de regrouper les échantillons de même phase homogène
en une seule donnée. Nous devrons donc prendre en compte l’intervalle de temps associé à chaque
donnée lors de la classification. Pour cela, nous avons choisi de modifier l’algorithme K-means pour
pouvoir associer une pondération à chaque donnée. La modification s’applique donc au calcul des
moyennes durant l’étape M, c’est-à-dire que le nouveau centre de chaque groupe sera déterminé en
calculant la moyenne des données qui lui sont affectées en utilisant la durée des intervalles associés
comme coefficient de pondération.
Mélange de gaussiennes Nous verrons dans ce paragraphe que l’algorithme EM peut également
être utilisé avec des mélanges de gaussiennes. Plutôt que d’utiliser une fonction coût basée sur la
distance euclidienne, il est possible d’utiliser des lois de probabilité gaussiennes. Lors de l’étape E,
les affectations réalisées seront dites floues car elles seront décrites avec des probabilités d’affectation
par rapport à chaque groupe. Chaque donnée pourra alors appartenir à plusieurs groupes mais avec
26
des probabilités différentes. Ensuite, lors de l’étape M, au lieu de calculer simplement la moyenne
d’un groupe, on identifiera la loi gaussienne associée à partir de la moyenne et de la covariance des
données pondérées par leur probabilité d’affectation au groupe.
1.4 Conclusion
Dans le cas d’un traitement hors ligne (voir la figure 2.1, nous avons donc choisi d’utiliser la
méthode FDpV pour réaliser la détection de rupture car elle est plus rapide que la méthode CUSUM.
La détection de rupture va nous permettre de représenter chaque dimension des données par une
fonction continue par morceaux. Dans notre cas, ces "morceaux" correspondent à des intervalles de
temps durant lesquels les données peuvent être représentées par une valeur constante. Si besoin, ces
intervalles seront subdivisés pour pouvoir représenter toutes les dimensions sur une base de temps
commune (voir §2.1.4 chapitre 3). On notera Im l’intervalle de temps correspondant au morceau m
et Cm le vecteur regroupant les valeurs constantes représentant toutes les dimensions.
Les données ainsi représentées par {Im; Cm} pourront alors être classées. Dans le cas où les classes
ne sont pas connues apriori, nous avons choisi d’utiliser l’algorithme K-means sur les vecteurs Cm
pondérés par la longueur de l’intervalle associé (tmmax−tm
min). Le partitionnement est fait sur P classes,
numérotées de 1 à P , chaque couple de {Im, Cm} est assigné à une classe dont le numéro est noté
pm.
K means
segmentation et classification
barycentres des classes
Segmentation et Classification
intervalles
FDp-V
FDp-Vdonnées
multidimensionnelles
{ Im, Cm}
[ B1 ; ... ; BP]
{ Im, Cm, pm}
Figure 2.1 – Description de la partie segmentation et classification dans le cas d’un traitement
réalisé hors ligne
Dans le cas d’un traitement en ligne (voir la figure 2.2, la détection de rupture et la classification
ne peuvent pas être réalisées avec les mêmes méthodes. Nous utiliserons donc la méthode CUSUM
pour réaliser la détection de rupture. Les classes devront avoir été définies au préalable, par exemple
avec l’utilisation du traitement hors ligne sur un jeu de données d’apprentissage.
L’utilisation d’une méthode de classification par rapport aux barycentres du jeu d’apprentissage
permet de classer une donnée même sa dimension est réduite, comme par exemple lorsqu’un capteur
est défaillant. Il est également possible d’utiliser cette méthode même dans le cas d’un traitement
hors ligne, et dans ce cas nous conseillerions d’utiliser la méthode FDp-V pour réaliser la détection
de rupture.
27
barycentressegmentation et classification
centres des classes
Segmentation et Classification
intervalles
CUSUM
CUSUMdonnées
multidimensionnelles
{ Im, Cm}
[ B1 ; ... ; BP]
{ Im, Cm, pm}
Figure 2.2 – Description de la partie segmentation et classification dans le cas d’un traitement
réalisé en ligne
2 Estimation de la cadence des foulées
2.1 Pourquoi estimer la cadence et la longueur des foulées
Notre travail est centré sur l’observation de la locomotion grâce au réseau de capteurs présenté
dans le chapitre précédent, et il touche deux domaines d’application différents. Il s’agit, d’une part,
d’équiper un ultra-marathonien et, d’autre part, d’équiper un malade de la maladie de Parkinson. Le
point commun est de suivre les déplacements des sujets équipés, et plus précisément, les changements
dans la manière dont ils se déplacent. Nous avons donc commencé par chercher une méthode permet-
tant d’estimer la vitesse, mais finalement, une observation séparée de la cadence et de la longueur
des foulées apporte plus d’informations.
Dans le cas de la marche ou de la course, la vitesse du sujet est liée à la cadence et à la longueur
de ses foulées. Lorsque le sujet veut augmenter sa vitesse, il augmente d’abord la longueur de ses
foulées tout en gardant une cadence constante. C’est seulement lorsque ses foulées ne peuvent plus
être allongées que le sujet va augmenter sa cadence afin de continuer à augmenter sa vitesse. Ce
phénomène est observable pour des foulées de course et de marche.
Le plus souvent, les estimations de cadence et de longueur seront faites par rapport à une jambe,
ce sont donc la cadence et la longueur des foulées de cette jambe qui sont obtenues et non celles des
pas. Nous rappelons qu’une foulée correspond à un cycle complet de marche ou de course, c’est-à-
dire que la configuration des jambes est identique en début et en fin de foulée. La configuration est
également identique au début et à la fin d’un pas, mais avec une inversion des jambes (si au début
du pas la jambe droite est devant, elle sera derrière à la fin du pas).
Par exemple, si les impacts des talons avec le sol sont utilisés pour délimiter les foulées ou les pas,
une foulée sera délimitée par deux impacts de talons successifs du même pied, alors qu’un pas sera
délimité par deux impacts de talons successifs de pieds différents (droit et gauche). La durée d’une
foulée correspond donc à la durée de deux pas.
Nous rappelons également que la cadence correspond à l’inverse de la durée d’une foulée (ou d’un
pas). Le plus souvent nous utilisons la cadence des foulées, mais nous verrons que, selon la position
du capteur sur le sujet, la cadence des pas peut également être obtenue.
Des méthodes permettant de réaliser l’estimation des ces deux paramètres à partir des capteurs
dont nous disposons existent, mais elles ne sont pas directement transposables à nos applications. Le
plus souvent les résultats attendus sont loin d’être atteints, car les méthodes sont peu robustes et ne
28
s’adaptent pas directement à nos conditions d’acquisition. De nombreux paramètres peuvent être en
cause :
– les capteurs,
– la fréquence d’acquisition,
– la façon de marcher du sujet,
– la fixation du capteur,
– l’amorti des chaussures,
– le type de terrain,
– ...
Nous présentons donc, dans cette section (2) et la suivante (3), les méthodes que nous utiliserons
pour estimer la cadence et la longueur des foulées.
2.2 Contexte et objectifs
Les premières données de course que nous avons enregistrées, ont été obtenues en équipant un sujet
de plusieurs type de capteurs, dont des semelles dotées de capteurs de pression qui sont présentées
dans le premier chapitre (FSR : force sensitive resistor). Le signal enregistré par chaque FSR augmente
lorsque le pied exerce une force sur le sol, chaque impact correspond donc à un pic sur le signal, un
exemple est présenté sur la figure 2.3. L’amplitude de ces pics est liée à la pression exercée sur
la semelle et donc à l’intensité des impacts entre le pied et le sol. Compte-tenu de l’imprécision
du système, nous n’utiliserons pas l’information contenue par l’amplitude. Cependant, elle pourrait
peut-être être utilisée pour quantifier grossièrement les impacts (par exemple : faibles, moyens ou
importants).
L’amplitude n’apportant que peu d’informations, nous avons préféré nous intéresser à la localisa-
tion temporelle de ces pics. Dans un cas idéal de marche ou de course régulière, le signal obtenu pour
chaque FSR est périodique. Une simple recherche des maxima locaux peut alors être utilisée pour
localiser temporellement les impacts et même observer le déroulé du pied en comparant les signaux
des différents points de mesures (avant du pied ou talon).
213 214 215 216 217 218 2190
500
1000
1500
2000
2500
3000
temps (s)
FS
R
Figure 2.3 – Signal enregistré avec un capteur FSR dans une semelle lors de foulées de marche sur
un tapis roulant (expérimentation de préparation, guillaume Chelius). Cas idéal pour la détection
des impacts. Le capteur est placé à la base du gros orteil.
29
Cependant il n’est pas envisageable d’utiliser cette technique dans le cadre d’un traitement auto-
matique d’enregistrements de longues durées. Effectivement, les impacts sont facilement repérables
lorsque la forme du signal est régulière, mais des déformations de ces pics sont fréquentes (change-
ment de rythme, de direction ou de terrain). Et comme cela rend difficile la détection des pics, une
méthode plus robuste est nécessaire.
De plus, les signaux obtenus avec les premières versions du système de capteurs, notamment ceux
du Marathon des Sables, sont dégradés : plusieurs échantillons successifs peuvent être manquants,
nous parlerons de trous. Un pic peut être entièrement masqué par un trou et, dans ce cas, si la
cadence des foulées est obtenue à partir d’une détection des pics, deux foulées seront comptabilisées
comme une seule. Un signal avec des échantillons manquants est présenté sur la figure 2.4, les échan-
tillons enregistrés sont représentés par un point bleu et des cercles rouges signalent les échantillons
manquants.
262 262.5 263 263.5 264 264.5 265 265.5 266 266.5 267
0
500
1000
1500
2000
2500
temps (s)
FS
R
Figure 2.4 – Signal enregistré avec un capteur FSR dans une semelle lors de foulées de marche (ex-
périmentation de préparation, Guillaume Chelius). Exemple de quelques foulées avec des échantillons
manquants qui sont encerclées en rouge. Capteur placé sous le talon.
Nous avons donc choisi d’utiliser un calcul d’auto-corrélation dans une fenêtre glissante qui permet
une estimation de la cadence plus robuste qu’une simple détection des pics. Si le signal contenu dans
la fenêtre glissante est périodique, le résultat de l’auto-corrélation sera un signal pseudo-périodique
de même période. Une simple détection des maxima locaux pourra alors être utilisée puisque le signal
ainsi obtenu est bien plus régulier que le signal de départ.
Cependant, cette méthode ne permet ni de localiser temporellement chacune des foulées ni d’en
déterminer la durée individuellement. De plus, l’estimation requiert que la portion du signal, conte-
nue dans la fenêtre utilisée pour le calcul d’auto-corrélation, contienne plusieurs foulées de même
cadence. Nous verrons également qu’il est préférable de pouvoir borner les valeurs attendues pour
la périodicité. Cette méthode permet donc d’extraire une quantité d’information limitée mais elle
est particulièrement adaptée en cas de signaux dégradés et elle nous a été très utile pour traiter les
données enregistrées durant de la première étape du Marathon des Sables : même si ces données
contiennent beaucoup de foulées régulières de marche et de course (voir la figure 2.5), les phases
de transition lors des arrêts ou des changements de terrain, peuvent être très irrégulières (voir la
30
2944 2945 2946 2947 2948 2949 2950 2951
0
200
400
600
800
1000
1200
1400
1600
1800
temps (s)
FS
R
Figure 2.5 – Exemple de signal contenant des foulées régulières de course. Ce signal est extrait de
l’enregistrement obtenu avec un capteur FSR dans une semelle lors de la première étape du Marathon
des Sables.
figure 2.6).
520 525 530 535 540 545−200
0
200
400
600
800
1000
1200
1400
1600
temps (s)
FS
R
Figure 2.6 – Exemple de signal contenant des foulées irrégulières. Ce signal est extrait de l’enregis-
trement obtenu avec un capteur FSR dans une semelle lors de la première étape du Marathon des
Sables.
2.3 Auto-corrélation
Nous utilisons une fenêtre glissante pour sélectionner une portion du signal. La longueur de cette
fenêtre sera fixe et notée N ; selon la qualité des mesures et les valeurs de cadences attendues, cette
longueur pourra correspondre à une durée comprise entre 2 et 6 secondes. L’utilisation de cette
31
fenêtre sur le signal départ va nous permettre d’en extraire une portion que l’on notera x(k) avec
k ∈ [1 . . . N ] et sa moyenne x =∑N
k=1 xk.
Nous utiliserons alors pour calculer l’auto-corrélation de x(k) la formule suivante :
Corr(m) =N−m∑
k=1
(xk − x).(xk+m − x)N
(2.15)
Le premier terme de l’auto-corrélation Corr(1) renseigne sur la puissance du signal x et nous
utiliserons cette valeur pour déterminer si le sujet est à l’arrêt. Si le sujet est à l’arrêt, la puissance
du signal est faible et il est inutile de recherche une périodicité. Nous considérerons que le sujet est
à l’arrêt dès que Corr(1) < Pmin avec Pmin un seuil définit empiriquement. Ceci est la première
étape de notre méthode d’estimation de la cadence dont les différentes étapes sont représentées sur
le schéma de la figure 2.8.
0 50 100 150−1
−0.5
0
0.5
1x 10
6
m (échantillons)
Cor
r (m
)
213 214 215 216 217 218 219 2200
1000
2000
3000
temps (s)
FS
R
Figure 2.7 – Signal enregistré avec un capteur FSR dans une semelle durant une marche régulière
(expérimentation de préparation, Guillaume Chelius) et, en dessous, le résultat de l’auto-corrélation.
La figure 2.7 reprend, sur le graphique du haut, le signal de la figure 2.3 qui a été donné comme
exemple de signal idéal pour la détection de pic, et, en dessous, se trouve le résultat de son auto-
corrélation. Si comme sur cet exemple, le résultat de l’auto-corrélation contient une pseudo-oscillation,
cela indique la présence de ressemblances entre le signal de départ x(k) et ce même signal décalé
x(k + m). Nous rechercherons donc les maxima locaux du résultat de l’auto-corrélation et, s’il existe,
on notera Corr(M1) le plus grand (sur la figure les maxima locaux sont représentés par des étoiles
noires et le plus grand par une étoile rose). Sa position (m = M1) va nous permettre de définir la
valeur d’une possible périodicité de x et donc une estimation de la cadence :
C =1
M1.T e(2.16)
avec Te la période d’échantillonnage du signal x.
On rappelle que Corr(M1) sera toujours inférieure à Corr(1) et que plus la ressemblance entre
x(k) et x(k + M1) est importante, plus Corr(M1) sera proche de Corr(1). Si cette ressemblance
est suffisamment importante, c’est-à-dire si Corr(M1) est suffisamment proche de Corr(1), nous
32
considérerons que x est bien périodique et que l’estimation de la cadence est fiable. L’estimation de
la cadence sera donc fiable si la condition suivante est respectée :
Corr(M1)Corr(1)
>= ρmin (2.17)
arrêt
pas d'estimation
de la cadenceM1 existe
estimation
non fiable
estimation fiable
oui
oui
oui
non
non
non
Figure 2.8 – Schéma décrivant la méthode d’estimation de la cadence.
2.4 Résultats
La figure 2.9 montre les résultats de notre méthode d’estimation de la cadence à partir un signal
obtenu avec une semelle dotée des capteurs FSR lors de foulées de marche et de course sur tapis
roulant. Cet enregistrement a eu lieu lors de l’expérimentation de préparation au Marathon des
Sables (voir le chapitre 3), la vitesse du tapis a été augmentée progressivement, faisant passer l’allure
du sujet d’une marche lente à une course soutenue. Le signal FSR sur lequel est appliqué la méthode
est représenté en haut. Au milieu, sont représentés, les résultats de l’estimation de la cadence en
utilisant une fenêtre glissante de 2.5s. Et en dessus, ceux obtenus avec une fenêtre de 6s. Dans les
deux cas, l’estimation de la cadence est réalisée avec un pas de 1s (décalage de la fenêtre glissante).
Le résultat de chaque estimation est représenté par un point de couleur dont l’ordonnée correspond
à l’estimation de la cadence :
– un point vert indique un arrêt (cadence = 0),
– un point rose indique que l’estimation est fiable,
– un point bleu indique que l’estimation n’est pas fiable.
Ces points sont placés à la fin de la fenêtre glissante correspondante. C’est-à-dire que pour chaque
estimation de la cadence, le résultat est représenté par un point dont l’abscisse est le même que celui
du dernier échantillon utilisé.
L’enregistrement contient les signaux correspondant à 6 points de mesures sous chaque pied et le
signal présenté sur la figure 2.9 correspond à celui placé à la base du gros orteil du pied droit. Mise à
part dans un cas de déficience de la marche, le choix du pied (droite ou gauche) n’aura pas d’influence
sur les performances de notre méthode. Cependant, le choix du point de mesure (position du FSR
dans la semelle) peut avoir de l’importance. Effectivement, la forme d’onde d’un signal enregistré
avec un capteur FSR varie selon la position du capteur dans la semelle. On obtient par exemple des
33
150 200 250 300 350 4000
1000
2000
temps (s)
FS
R
150 200 250 300 350 4000
50
100
150
temps (s)
cade
nce
(fou
lées
par
min
utes
) taille fenêtre : 2.5 s
150 200 250 300 350 4000
50
100
150
temps (s)
cade
nce
(fou
lées
par
min
utes
) taille fenêtre : 6 s
Figure 2.9 – Résultats de l’estimation de la cadence et influence de la taille de fenêtre glissante. En
haut le signal enregistré par un FSR durant un enregistrement sur tapis roulant. Au milieu et en bas
les estimations de la cadence avec, respectivement, une largeur de fenêtre de 2,5s et de 6s.
pics plus étroits si le capteur est placé sous le talon (voir la figure 2.4). Nous avons choisi d’utiliser
le capteur placé à l’avant du pied à la base du gros orteil, la valeur étant moins longtemps autour de
zéro durant chaque période (voir la figure 2.3), cela permet, en cas de trous, de réduire le risque que
le maximum local Corr(M2) (voire Corr(M3)) soit plus grand que Corr(M1) et donc d’estimer une
période 2 ou 3 fois trop grande.
Au début de l’enregistrement (voir la figure 2.9) la vitesse du tapis est si faible qu’elle contraint
le sujet à marcher avec une cadence inférieure à sa cadence de confort (soit environ 58 foulées par
minutes). Une fois la vitesse suffisante atteinte, le sujet va conserver un cadence régulière (entre 63
et 64 foulées par minutes) malgré l’augmentation de la vitesse du tapis (c’est la longueur des foulées
qui augmente). La transition entre la marche et la course a lieu vers 243 secondes. Les premières
foulées de course sont effectuées avec une cadence d’environ 97 foulées par minutes, puis la cadence
se stabilise autour de 103 foulées par minutes. Une nouvelle augmentation sera observée vers 338s,
durant laquelle la cadence va atteindre 111 foulées par minutes.
Dans le cas de cet enregistrement de courte durée, la cadence est suffisamment régulière pour
qu’une cadence de référence puisse être obtenue à la main en relevant la position des pics du signal
FSR. Nous rappelons que les résultats que nous présentons attestent des performances de notre
méthode à extraire une information du signal FSR et non des performances du système complet
(semelle, capteur, réseau). Nous utilisons donc comme référence une information contenue par le
signal FSR et non la vérité terrain. Effectivement, cette cadence de référence peut être différente de
34
la vérité terrain qui pourrait être obtenue avec précision par un système de caméras (VICON), mais
cette différence n’est pas liée à notre méthode.
Seules les foulées dont la position du maximum est clairement identifiée sur le signal FSR, seront
utilisées pour calculer la vérité terrain. En supposant que chaque pic est localisé avec une erreur
inférieure à 2 échantillons, l’erreur sur la période est donc inférieure à 4 échantillons (soit 40ms). On
peut donc en déduire une précision de 4 foulées par minute pour la cadence de référence. Or l’écart
entre la cadence de référence et l’estimation obtenue avec une fenêtre de 2,5s (graphique du milieu
de la figure 2.9) ne dépasse pas 4 foulées par minutes. Nous pouvons donc considérer que, pour ce
type de données, l’utilisation de l’autocorrélation permet d’obtenir une estimation de la cadence aussi
précise qu’avec une détection des pics. Cependant notre méthode introduit un retard dont la valeur
est liée à la taille de la fenêtre glissante.
La figure 2.10 est un zoom de la figure 2.9 autour de la transition entre la marche et la course,
c’est-à-dire lors d’une rupture de la cadence. La courbe noire, qui représente la cadence de référence,
a été ajoutée pour visualiser le retard de notre méthode.
Par rapport à la cadence de référence, on observe un retard d’environ 1s pour une estimation
avec un fenêtre de 2,5s et un retard inférieur à 3s avec une fenêtre de 6s. Dans un cas d’une rupture
de la cadence, les deux valeurs de la cadence vont chacune être responsables d’un minimum local sur
Corr(m). Dans notre cas le basculement se fait lorsque la rupture se trouve à peu près au milieu de la
fenêtre. Mais on remarquera que durant la transition, les estimations sont représentées en bleu, cela
montre l’influence que le choix du seuil ρmin (voir l’équation 2.17) peut avoir sur le retard. Durant la
transition l’amplitude des maxima locaux sera donc plus faible car répartie entre les deux cadences.
Donc le plus souvent avec cette méthode, on pourra observer un retard environ égal à la moitié de
la largeur de la fenêtre glissante. Cependant, à l’initiation du pas le retard est presque inexistant et
la nouvelle cadence est prise en compte dès que la fenêtre contient plus d’une foulée. Effectivement,
le maximum local induit par l’apparition d’une périodicité sera rapidement détecté car il ne sera
masqué par aucun autre maximum local.
2.5 Conclusion
Cette méthode est très robuste aux trous et ses résultats sont particulièrement satisfaisants sur
les données obtenues durant le Marathon des Sables. Cependant, nous montrerons dans le chapitre 3
qu’il est préférable de détecter les arrêts en observant la puissance des signaux accélérométriques car
les arrêts courts ou le piétinement (en attendant le début de la course) ne sont pas bien reconnus.
En dehors de ces périodes d’arrêt ou de piétinement, les résultats sont très satisfaisants. De plus,
l’utilisation d’une fenêtre longue (10 secondes) permet de lisser les résultats.
Dans le cas de données moins bruitées (moins de trous et terrain moins accidenté), une fenêtre
courte permet de réduire le retard et d’obtenir un résultat s’approchant d’une estimation foulée par
foulée. Cependant, le calcul d’autocorrélation étant réalisé sur peu de périodes (parfois moins de
deux périodes) le risque de faire une estimation égale à 2 ou 3 fois la cadence réel augmente. Ceci
est un inconvénient important de la méthode mais, dans le cas du marathon des Sables, les périodes
recherchées se trouvent dans une plage de valeurs suffisamment restreinte pour éviter facilement ce
genre d’erreurs. Lors des enregistrements sur tapis roulant, de marche très lente et de course rapide,
nous avons pu observer que la durée des foulées de notre sujet (Guillaume Chelius) était toujours
comprise entre 0, 5s et 1, 2s. Mais dans les conditions difficiles du Marathon des Sables le coureur ne
35
240 241 242 243 244 245 246 247 2480
1000
2000
temps (s)
FS
R
240 241 242 243 244 245 246 247 2480
50
100
150
temps (s)
cade
nce
(fou
lées
par
min
utes
) taille fenêtre : 2.5 s
240 241 242 243 244 245 246 247 2480
50
100
150
temps (s)
cade
nce
(fou
lées
par
min
utes
) taille fenêtre : 6 s
Figure 2.10 – Influence de la taille de fenêtre glissante lors d’un changement de cadence sur l’esti-
mation de la cadence. (Zoom de la figure 2.9)
peut pas aller aussi vite que sur un tapis roulant, nous avons donc fait l’hypothèse que la durée des
foulées était comprise entre 0, 6s et 1, 2s pour éviter de détecter le maximum local correspondant au
double de la période réelle.
3 Estimation de la longueur de foulée
Comme nous l’avons précisé dans la section précédente, afin de suivre les déplacements d’un sujet
équipé de centrales inertielles, nous avons du mettre en place une estimation de la longueur des
foulées. Nous verrons au chapitre 4 que, dans le cadre de la recherche de solutions d’assistance en cas
de déficiences de la marche dues à la maladie de Parkinson, cette estimation constitue la base de la
méthode que nous proposons pour détecter les perturbations de la marche. Cependant, dans le cadre
de la segmentation des données de course du chapitre 3, nous avons préféré utiliser directement la
norme des accéléromètres et gyromètres, car l’estimation de la longueur des foulées durant la course
et sur terrain accidenté n’était pas assez fiable.
Tout comme pour l’estimation de la cadence, l’estimation de la longueur de foulée sera faite par
rapport à un côté (droite ou gauche). La longueur d’une foulée correspond à la distance séparant
deux empreintes successives laissées par le même pied.
Différentes méthodes ([3], [42], [34]) sont déjà proposées dans la littérature pour faire cette es-
timation à partir de capteurs du même type que ceux que nous avons utilisés (accéléromètres et
gyromètres). Mais nous n’avons pas pu utiliser directement ces méthodes car de nombreuses adap-
tations se sont révélées nécessaires.
La segmentation a été le premier obstacle auquel nous avons été confronté. Avant de pouvoir
estimer la longueur d’une foulée avec des calculs d’intégration ou géométriques, il est nécessaire
d’identifier la portion du signal qui correspond à cette foulée. Lors de l’estimation de la cadence,
36
cette contrainte sur le repérage du début et de la fin d’une foulée a été contournée en réalisant une
estimation moyenne de la cadence durant une fenêtre de temps. Mais cette astuce ne peut pas être
utilisée pour l’estimation de la longueur de foulée, car certains instants particuliers du mouvement
de la marche doivent donc être utilisés et donc repérés.
Ces méthodes réalisent toutes une intégration des signaux mesurés, mais ces signaux étant bruités
le résultat ne peut être utilisé tel quel à cause de la dérive. Un recalage est donc nécessaire à chaque
foulée. Par exemple, on sait que lorsque le pied est posé à plat sur le sol, sa vitesse est nulle et le
tibia a un mouvement de rotation autour de la cheville.
Ces méthodes d’estimation de la longueur de foulée nécessitent de placer les capteurs dans le plan
sagittal (plan vertical et séparant le côté droit et le côté gauche), car l’hypothèse d’un mouvement plan
est utilisée. Cela étant très contraignant et comme nous disposions de capteurs tri-axes, nous avons
choisi de ne pas imposer de contrainte sur l’orientation des capteurs mais de réaliser un changement
de repère pour obtenir les mesures correspondant au plan sagittal.
Nous commencerons par vous décrire les deux méthodes d’estimation de la longueur des foulées
que nous avons choisies d’utiliser ([3] et [34]). Ensuite nous vous présenterons les deux outils que
nous avons du mettre en place pour adapter ces méthodes à nos applications : la recherche du plan
sagittal, puis les algorithmes de segmentation des foulées.
3.1 Deux méthodes existantes pour estimer la longueur des foulées
3.1.1 Méthode utilisant un accéléromètre et un gyromètre (1 IMU)
Dans l’article [34], Laudanski propose une méthode pour estimer la vitesse du tibia ou du pied
pendant la marche à partir d’une centrale inertielle. Connaissant également la durée de la foulée nous
pourrons facilement en déduire sa longueur. Nous verrons dans les chapitres suivants que, dans le
cadre de nos applications, il est plus simple de fixer un capteur à la cheville plutôt que sur le pied (la
chaussure). Nous décrirons donc cette méthode pour un capteur placé à la cheville, c’est-à-dire que
nous chercherons la vitesse du tibia. Cette méthode requiert de mesurer l’accélération et la vitesse de
rotation du tibia dans le plan sagittal, donc elle peut être utilisée avec l’une des centrales inertielles
dont nous disposons (voir le chapitre 1). Nous utiliserons également la recherche du plan sagittal
présentée dans la section précédente (3.2.1) pour ne pas imposer de contrainte sur l’orientation des
capteurs lors de leur fixation.
Le principe est d’obtenir la vitesse du capteur en intégrant son accélération. Le schéma de la
figure 2.11 permet de résumer la description de la méthode qui est présenté dans cette section.
Habituellement avec ce type de capteurs, l’intégration de l’accélération n’est pas utilisée pour
obtenir la vitesse à cause de la dérive engendrée par l’intégration du bruit présent dans la mesure.
Cette dérive introduit une erreur qui va augmenter dans le temps, l’idée est donc de réduire au
maximum la durée d’intégration : des particularités de la trajectoire propre à la marche peuvent être
utilisées pour tenter de remettre cette erreur à zéro à chaque foulée. Mathématiquement cela revient
à réaliser un nouveau calcul d’intégration à chaque foulée et cela implique de connaître les conditions
initiales. En faisant l’hypothèse d’un mouvement plan, l’accélération peut être décrite par seulement
deux dimensions, la condition initiale nécessaire au calcul de l’intégration est donc une vitesse à deux
dimensions.
La mesure fournie par l’accéléromètre est une superposition de l’accélération propre du capteur
et de la gravité g exprimées dans un repère lié au capteur. Il faut donc éliminer la graviter avant de
37
Figure 2.11 – Description de l’estimation de la vitesse du tibia
faire l’intégration de l’accélération. La gravité est connue dans le repère lié au sol (voir le repère R de
la figure 2.12), mais l’orientation θ(t) du capteur est nécessaire pour pouvoir exprimer la gravité dans
le repère du capteur (R’ sur la figure 2.12). L’orientation du capteur sera déterminée en intégrant la
vitesse de rotation fournie par le gyromètre.
g
θ
x
y
x’
y’
Figure 2.12 – Vecteur de gravité g et orientation du capteur θ. Le repère R est fixe par rapport au
sol et le repère R’ est lié au capteur.
Dans le cas où le capteur est placé à la cheville, les conditions initiales utilisées pour ces deux inté-
grations seront déterminées durant la phase d’appui lorsque le tibia passe par une position verticale.
La méthode de segmentation présentée en 3.2.2 a pour objectif de repérer cet instant.
Durant la phase d’appui, lorsque le tibia passe par la position verticale, il est en rotation autour
de la cheville. En connaissant, la distance entre le capteur et la cheville (L), la vitesse du capteur peut
alors être déterminée à partir de la vitesse de rotation mesurée par le gyromètre (ω). L’accélération
peut alors être intégrée pour obtenir la vitesse du capteur durant chaque foulée et ainsi permettre de
calculer la longueur des foulées. Nous avons remarqué que la mesure de la distance L n’a pas besoin
d’être précise. Généralement la valeur de ω est suffisamment petite pour qu’une erreur importante
sur L n’est que très peut d’impact sur l’estimation de la longueur de foulée. On pourra par exemple
fixer L = 10cm.
Une version améliorée de cette méthode est également proposée dans l’article. Cette améliora-
tion a pour but de compenser la dérive de l’intégration en utilisant également en fin de foulées les
informations qui sont actuellement utilisées en début de foulées comme conditions initiales de l’inté-
gration. La vitesse du tibia en fin de foulée peut être estimée car le tibia est de nouveau dans une
position vertical, donc l’erreur entre cette valeur et le résultat de l’intégration de l’accélération peut
être quantifiée. Ce qui est proposé dans l’article pour compenser cette erreur est de la soustraire au
résultat de l’intégration en la répartissant linéairement sur toute la durée de la foulée. Cependant,
38
nous considérerons cette modification comme une variante et non comme une amélioration, car selon
les tests que nous avons réalisés, elle peut aussi bien améliorer que dégrader les résultats. L’utilisation
de cette information également en fin de foulée pourrait être intéressante si on dispose d’une segmen-
tation fiable et que la qualité de cette information est avérée, ce qui n’est pas le cas actuellement.
Cependant, la répartition linéaire de cette erreur n’est peut-être pas l’idéal car on peut penser que
cette dérive est plus importante lors des impacts.
3.1.2 Méthode utilisant deux gyromètres (2 GYR)
La seconde méthode d’estimation de la longueur des foulées que nous avons utilisée a été présentée
dans un article d’Aminian [3]. Afin d’estimer la longueur des foulées d’une jambe, cette méthode
requiert l’utilisation de deux gyromètres pour suivre la rotation du tibia et de la cuisse. Le principe
est de faire des hypothèses sur des particularités géométriques du mouvement des jambes durant la
marche pour être capable de reconstruire la configuration d’une jambe entre les phases de balancement
et d’appui. Toute la méthode est résumée sur la figure 2.13 qui a été extraite de l’article. On peut
voir, sur le schéma du haut, la représentation d’une foulée complète vue comme un mouvement plan
et avec une modélisation des membres inférieurs réduites à deux segments par jambe. Sur cette figure
la longueur de la foulée est représentée par la distance entre la position du pied droit en début et en
fin de foulée.
Figure 2.13 – Figure extraite de l’article d’Aminian [3], représentant le modèle utilisé pour déter-
miner la longueur d’une foulée à partir du mouvement angulaire dans le plan sagittal de la cuisse et
du tibia.
39
Le schéma du bas de la figure [3] représente, à gauche, la différence de position de la jambe droite
entre le début et la fin de la phase de balancement, et, à droite, la différence de position de la jambe
droite entre le début et la fin de la phase d’appui. Dans les deux cas, la progression de la cuisse est
représentée par l’angle formé entre sa position au début et à la fin d’une phase, cet angle est noté
α. De même pour le tibia avec l’angle β. Les valeurs des angles α et β seront obtenues en intégrant,
respectivement, les vitesses de rotation de la cuisse et du tibia mesurées avec les gyromètres.
Cette figure montre que la distance correspondant à la longueur de la foulée sera obtenue en deux
étapes. La première étape correspondra à la phase de balancement et la seconde à la phase d’appui.
La longueur de la foulée correspond au déplacement du pied droit et ce déplacement peut être vu
comme la somme du déplacement du pied par rapport à la hanche (d1 + d2) et du déplacement de la
hanche (d3).
L’intégration des vitesses de rotation dans le plan sagittal durant la phase de balancement permet
d’obtenir la distance entre la position de départ et d’arrivée du pied droit relativement à la hanche,
cette distance est représenté par d1 + d2 sur la figure. Pour obtenir cette distance à partir de ces
deux angles, une hypothèse a du être posée : la jambe est tendue entre la phase de basculement et
la phase d’appui (le tibia et la cuisse sont alignés).
La seconde étape correspond à la phase d’appui de la jambe droite et l’intégration des vitesses
de rotation durant cette phase va permettre d’obtenir le déplacement de la hanche (d3). Dans ce cas,
l’hypothèse utilisée est que le déplacement de la hanche durant le balancement de la jambe droite
est identique au déplacement de la hanche durant la phase d’appui de la jambe droite. Ces deux
distances sont notées d3 sur la figure 2.13. Cette hypothèse revient à considérer que les foulées sont
de longueurs identiques à droite et à gauche et à négliger le déplacement de la hanche pendant la
phase de double appui. Cette hypothèse pourrait être évitée en calculant le déplacement de la hanche
à partir des mesures obtenues sur la jambe gauche durant la phase de balancement de la jambe droite
(ou pendant la phase d’appui de la jambe gauche), Mais cela imposerait d’équiper les deux jambes.
3.2 Adaptation des méthodes existantes à nos applications
3.2.1 Orientation par rapport au plan sagittal
La recherche du plan sagittal n’est pas indispensable pour l’application des méthodes présentées
par Laudanski [34] et Aminian [3] puisque la solution proposée par ces auteurs est d’aligner les
capteurs par rapport au plan sagittal et à la vertical au moment de les fixer sur le sujet. Cependant,
nous trouvons cette manipulation trop contraignante et nous avons cherché un alternative. Tout
d’abord, il est particulièrement difficile d’aligner à la main un boîtier de quelques centimètres avec
un plan sagittal qu’il faut imaginer car rien ne le matérialise. Ensuite, pour que le capteur suive
au mieux les mouvements du segment qu’il équipe, il est préférable de privilégier une zone plate et
éloignée des muscles les plus bombés et cela n’est pas compatible avec une orientation du capteur
par rapport au plan sagittal.
Nous souhaitions donc mettre en place une alternative à cette contrainte d’orientation. Notre
principal problème était alors de déterminer l’orientation des capteurs par rapport au plan sagittal.
Car une fois cette orientation connue, un simple changement de repère permet d’aligner virtuellement
le capteur avec le plan sagittal du sujet. Cette transformation devra ensuite être appliquée à chaque
acquisition des capteurs tri-axes du nœud, mais cette opération est très rapide et peut facilement
être réalisée en ligne.
40
Plan sagittal
Plan horiz
ontal
Plan frontal
Figure 2.14 – Représentation des 3 plans utilisés pour l’analyse du mouvement humain.
Nous n’avions pas comme objectif de réaliser une localisation précise du plan sagittal qui aurait
permis de gagner en précision sur l’orientation des capteurs. Nous souhaitions simplement trouver
une astuce pour se libérer de cette contrainte d’orientation. Donc la méthode que nous proposons ici
simplifie la fixation des capteurs mais elle n’a pas d’impact sur les performances de l’estimation de
la longueur des foulées.
Cette méthode peut être vue comme une calibration géométrique extrêmement simplifiée. Les
résultats sont donc peu précis mais la procédure de calibration est très simple, aussi bien pour le
sujet que pour les calculs. La simplicité de cette procédure est indispensable pour une utilisation par
un sportif dans des conditions extrêmes ou par un malade atteint de la maladie de Parkinson (voir
les chapitres 3 et 4). Pour le sujet, la procédure se résumera donc à rester quelques instants debout
immobile puis à faire quelques foulées de marche en ligne droite.
Pour l’estimation de la longueur des foulées nous avons besoin des mesures de l’accéléromètre
et du gyromètre dans le plan sagittal et l’un des axes doit être vertical. Nous avons donc choisi de
définir le nouveau repère du capteur ainsi :
– les axes x et y appartiennent au plan sagittal,
– l’axe y est aligné au tibia et orienté vers le haut,
– l’axe x est pointé dans le sens de la marche,
– le repère est direct.
Les échantillons correspondant à la posture debout seront utilisés pour déterminer l’orientation de
la gravité par rapport au repère du capteur. Nous avons choisi de faire l’hypothèse que dans le cas de
cette posture debout, le tibia est vertical. Nous pourrons alors réaliser une transformation homogène
sur les données pour effectuer virtuellement une rotation du repère de notre capteur permettant de
placer l’axe y vertical et vers le haut. Nous appellerons T1 cette transformation.
Ensuite nous devrons encore réaliser une rotation d’angle α autour de l’axe y pour aligner l’axe
41
x avec le sens de progression de la marche. Pour cela nous nous appuierons sur l’idée que durant la
marche en ligne droite les mouvements se situent principalement dans le plan sagittal. Nous poserons
alors l’hypothèse que la puissance des accélérations est minimale sur la composante normale au plan
sagittal. L’angle α pourra ainsi être obtenu par optimisation, en minimisant la puissance du signal
mesuré sur le nouvel axe z de l’accéléromètre durant la marche. De la même manière, une hypothèse
équivalente peut être utilisée pour les vitesses de rotation : l’angle α pourra alors être obtenu par
optimisation, en maximisant la puissance du signal mesuré sur le nouvel axe z du gyromètre durant
la marche.
L’angle α pourra donc être déterminé en utilisant l’une de ces deux hypothèses. Nous appellerons
T2 la rotation autour de l’axe y et d’angle α. La composition des transformations T1 et T2 permet
d’obtenir un changement de repère tel que les axes x et y ainsi obtenus appartiennent au plan sagittal
et que y soit aligné avec tibia. Cependant, nous ne sommes pas assurés que l’axe x soit bien dirigé
vers l’avant (dans le sens de la progression de la marche). Dans le cas où le sens de x ne serait pas
correction, il suffit d’ajouter un demi-tour autour de l’axe y et cela revient à ajouter π2
à l’angle α
de la transformation T2.
Nous avons choisi d’utiliser la vitesse de rotation du tibia dans le plan sagittal pour déterminer
le sens de la marche. Cela revient à observer la forme du signal correspondant à l’axe z du gyromètre
du tibia après la rotation d’angle α, un exemple de ce type de signal est présenté sur la figure 2.17.
On remarquera que les valeurs maximales atteintes par le signal sont plus grandes en valeur absolue
que les valeurs minimales.
Actuellement cette étape n’a pas été automatisée et le sens de la marche est déterminé par une
simple observation des signaux. Nous avons vu que le sens de la vitesse de rotation du tibia est
facilement reconnaissable et on remarquera que la vitesse de rotation de la cuisse est décroissante
durant la phase de balancement qui est décrite dans la section 3.2.2. Dans une optique d’automatisa-
tion complète de ce changement de repère, la comparaison des valeurs maximales et minimales de la
vitesse de rotation du tibia pourrait être réalisée facilement, cependant pour déterminer le sens de la
marche par rapport au repère du capteur de la cuisse, nous pensons qu’il serait plus simple d’utiliser
les données du magnétomètre en les comparant à celles du capteur du tibia.
Résultats Afin de vérifier que les hypothèses que nous venons de poser permettent bien d’obtenir
une orientation proche du plan sagittal, nous avons réalisé une expérimentation simple. Cette ex-
périmentation a été réalisée avec différents types de marche mais avec un seul sujet. Nous sommes
conscients que ces résultats n’ont pas de valeur statistique, mais cela nous a permis de valider notre
approche avant de réaliser les acquisitions des jeux de données qui ont été utilisés pour l’élaboration
des autres algorithmes.
Lors de cette expérimentation nous avons utilisé trois centrales inertielles. Deux ont été utilisées
pour équiper un sujet valide : cheville (tibia) et genou (cuisse) de la jambe droite, comme le montre
la figure 2.15. Et la troisième a servi pour obtenir une localisation de référence du plan sagittal en
utilisant les magnétomètres. Cette expérience a donc été réalisée en extérieur pour réduire les risques
de perturbation magnétique. Le capteur de référence a été placé à plat au sol et l’un de ces axes a été
aligné avec la direction de la marche qui était matérialisée par deux bornes distantes de 20 mètres.
Ce placement était relativement approximatif puisqu’il a été ajusté à l’œil, mais cela reste bien plus
précis que le placement d’un capteur dans le plan sagittal directement lorsque l’on équipe le sujet.
La procédure permettant la recherche du plan sagittal était composée de quelques secondes d’une
42
Figure 2.15 – Position des IMU sur le sujet durant l’expérimentation concernant le plan sagittal.
posture immobile debout et de quelques foulées de marche. Le sujet a réalisé 8 fois cette procédure
en faisant varier son type de marche, la description de ces séquences est proposée dans le tableau 2.1.
Cette méthode étant initialement destinée à être utilisée sur des sujets sportifs ou atteints de la
maladie de Parkinson, nous l’avons testée sur différents types de marche afin de se faire une première
idée de la souplesse de la procédure par rapport à nos applications. Par exemple, le piétinement au
milieu de la marche des séquences 4 et 5 a été ajouté pour représenter les perturbations de la marche
qui peuvent être causées par la maladie de Parkinson.
Séquence Type de marche
0 marche naturelle
1 marche naturelle
2 marche à grands pas
3 marche à petits pas
4 marche incluant un piétinement lent
5 marche incluant un piétinement rapide
6 course lente
7 course rapide
Table 2.1 –
Afin de comparer le plan sagittal localisé par notre méthode avec celui déterminé par le capteur
de référence, nous avons comparé l’orientation des repères qui leur sont associés. Pour cela nous
avons calculé l’angle entre les vecteurs représentant le champ magnétique terrestre exprimé dans ces
différents repères. Les résultats sont présentés sur la figure 2.16, la valeur des angles en ordonnée est
en degrés et le numéro de la séquence se trouve en abscisse tel qu’il est donnée dans le tableau 2.1. Les
résultats pour le capteur du tibia sont tracés sur le graphique du haut et ceux du capteur de la cuisse
sur celui du bas. Les résultats obtenus en utilisant l’hypothèse que la puissance de l’accélération est
minimale sur l’axe normal au plan sagittal sont représentés par des points bleus. Et ceux obtenus
en cherchant à maximiser la vitesse de rotation sont représentés par des croix vertes. On peut voir
que, quelque soit le capteur ou l’hypothèse utilisée, l’écart est toujours inférieur à 5° pour la marche
naturelle ou à petits pas. Même si un écart de plus de 11° a été obtenu en utilisant des foulées de
course, globalement l’écart ne dépasse pas les 6°.
D’autres tests seraient nécessaires pour s’assurer de la fiabilité de notre méthode, notamment avec
un plus grand nombre de sujets. Mais ces premiers résultats sont satisfaisants et ils nous ont confortés
dans notre choix d’utiliser cette méthode pour simplifier la fixation des capteurs sur les sujets. De
43
0 1 2 3 4 5 6 70
2
4
6
8
10
12
numéro de la séquence
angle entre le champ magnétique de référence et celui vu par le capteur du tibia
écar
t en
degr
és
minimisation de l’accélérationmaximisation de la vitesse de rotation
0 1 2 3 4 5 6 70
2
4
6
8
10
12
numéro de la séquence
angle entre le champ magnétique de référence et celui vu par le capteur de la cuisse
écar
t en
degr
és
minimisation de l’accélérationmaximisation de la vitesse de rotation
Figure 2.16 – Résultats de la recherche du plan sagittal : écart en degrés entre le champ magnétique
vu par le capteur de référence et le champ magnétique vu par un capteur placé sur le sujet après le
changement de repère (selon les deux hypothèses d’optimisation). En haut le capteur du tibia et en
dessous le capteur de la cuisse.
plus, ces premiers tests laissent présager une grande souplesse de la procédure par rapport à nos
applications, il serait même envisageable de réduire cette procédure à une posture debout uniquement
et de réaliser l’optimisation directement sur les premières foulées de marche ou de course.
3.2.2 Segmentation des foulées
Pour la segmentation des foulées qui consiste à reconnaître le début et la fin de chaque foulée nous
utilisons le signal correspondant à la vitesse de rotation du tibia. Cette mesure est donc obtenue grâce
au gyromètre tri-axes de l’IMU placée à la cheville. Selon la méthode utilisée pour l’estimation de la
longueur des foulées, la segmentation nécessaire est différente. Dans un cas, nous devons reconnaître
les alternances entre les phases de balancement de la jambe et les phases d’appui. Et dans l’autre
cas, nous devons identifier les passages du tibia par la verticale durant la phase d’appui.
Le signal bleu tracé sur la figure 2.17 est un exemple de signal utilisé pour réaliser la segmentation
des foulées, il correspond à la vitesse de rotation du tibia dans le plan sagittal d’un sujet valide durant
quelques foulées de marche. Il a été obtenu à partir des acquisitions d’un gyromètre tri-axe placé à la
cheville. Tout d’abord un changement de repère a permis d’obtenir la composante correspondant au
plan sagittal (voir la section précédente 3.2.1). Puis la vitesse obtenue a été lissée avec une moyenne
glissante pour faciliter la recherche des principaux maxima et minima locaux. Dans cet exemple la
fréquence de coupure correspondant au lissage est d’environ 4Hz.
Lors d’une foulée de marche ou de course, la vitesse de rotation du tibia atteint son maximum
durant la phase de balancement de la jambe. Ces maxima se distinguent très facilement et sont
représentés par des losanges bleus sur l’exemple de la figure 2.17. Les quatre plus grands pics du
signal bleu correspondent donc à quatre mouvements de balancement de la jambe équipée du capteur.
44
Pour automatiser la recherche de ces maxima nous avons choisi de conserver uniquement les maxima
locaux dépassant les 100°/s dans le cas d’un sujet valide et les 60°/s dans un cas de déficience.
3047 3048 3049 3050 3051 3052 3053 3054 3055 3056−200
−150
−100
−50
0
50
100
150
200
250
300
temps (s)
GY
R s
agitt
al (
°/s)
tibia gauche
vitesse max lors du balancementdécollement du pied (orteils)pose du talon au soltibia vertical
Figure 2.17 – Vitesse de rotation du tibia de la jambe gauche pendant des foulées de marche. Signal
obtenu après un filtrage et un changement de repère sur les données enregistrées par une IMU placée
à la cheville (sujet valide).
Balancement et appui : En réalisant des mesures de pression sous le gros orteil et sous le talon,
il a été montré par l’équipe d’Aminian [3] que la phase de balancement correspond bien au grand
pic. C’est-à-dire que la rupture de contact entre le pied et le sol correspond au minimum local
qui précède le maximum de la foulée (voir les ronds rouges de la figure 2.17), et également, que
l’impact du talon correspond au minimum local qui suit ce maximum (voir les croix rouges de la
figure 2.17). Il est donc facile de trouver la phase de balancement lorsque les maxima (grands pics)
sont connus. Par déduction, les phases d’appui correspondent aux intervalles de temps compris entre
deux balancements.
Cette méthode est très simple à mettre en place et permet une détection du début de la foulée
avant la fin de la phase de balancement. La détection ainsi réalisée est très sensible, même dans un
cas de déficience, toutes les phases de balancement sont reconnues grâce à un seuil réglable (100°/s ou
60°/s). Cependant, le nombre de faux positifs est très important car en dehors des phases de marche
ou de course la vitesse de rotation du tibia comporte de nombreux pics d’amplitude équivalente à celle
d’un balancement. La simplicité, la sensibilité et la rapidité de cette méthode basique de segmentation
la rendent donc particulièrement adaptée à des données expérimentales contenant exclusivement des
mouvements de marche, de course ou des arrêts. Mais pour une utilisation dans des conditions
réelles, une segmentation plus robuste serait nécessaire, ce problème sera également évoqué dans les
perspectives du chapitre 4.
Dans l’article d’Aminian [3], une méthode de segmentation utilisant une décomposition en on-
delette est proposée. Cette solution semble performante mais elle requiert une mesure de la vitesse
45
de rotation plus précise que celle dont nous disposons. Effectivement, les oscillations qui semblent
caractéristiques de la pose du talon et du décollement des orteils ne sont que rarement présentes sur
les données dont nous disposons. Il est probable que la qualité des gyromètres utilisés par Aminian
soit supérieure à celle de ceux qui équipent nos IMU. Ils disposent par exemple d’une fréquence
d’échantillonnage deux fois supérieure. De plus, cette méthode risque de ne pas nous convenir car
l’amortie de la chaussure et le type de terrain risque de dégrader fortement les résultats.
Tibia vertical : L’estimation de la longueur des foulées proposée dans un article de Laudanski [34]
nécessite un découpage différent des foulées. La phase de balancement appartient toujours à une
même foulée, mais le découpage utilisé pour l’intégration se fera durant la phase d’appui, lorsque le
tibia passe par une position verticale. Nous avons donc mis en place une méthode de segmentation
permettant de détecter les foulées grâce aux balancements et d’estimer les passages du tibia par la
verticale. D’après ce qui est montré dans cet article [34], lors du passage du tibia par une position
verticale, sa vitesse de rotation atteint un maximum local dont l’amplitude est proche de zéro. Le
résultat de notre méthode de segmentation est représenté par les étoiles vertes placées sur le signal
de la figure 2.17, celles-ci indiquent le passage du tibia par la vertical durant la phase d’appui.
Normalement la méthode implique que la vitesse de rotation du tibia soit lissée avec un filtre ayant
un fréquence de coupure de 2, 4Hz. Dans un cas idéal, ce filtrage avec une fréquence très basse
permet d’éliminer toutes les petites oscillations du signal et les seuls maxima locaux qui subsistent
correspondent au pics de la phase de balancement et aux passages du tibia par la vertical. Cependant,
le filtrage n’est pas toujours suffisant pour éliminer certaines oscillations parasites (irrégularités dans
le mouvement, bruit, vibrations) et certains maxima correspondant à la position verticale du tibia ne
sont pas reconnus. Nous avons donc adapté notre algorithme en fonction de différentes irrégularités
que nous avons rencontrées. Par exemple, nous avons ajouté une contrainte sur la durée entre deux
phases de balancement et cela permet de réduire considérablement les faux positifs. Dans le cas où
plusieurs maxima locaux sont trouvés entre deux pics de balancement, nous avons fait le choix de
considérer que le plus grand correspond au passage du tibia par la verticale.
L’avantage de cette méthode de segmentation par rapport à la simple détection des pics de ba-
lancement est d’avoir une meilleur spécificité. Effectivement, l’ajout de la contrainte sur la durée
entre deux balancements permet de supprimer de nombreux faux positifs. Cependant, la détermi-
nation de l’instant de passage du tibia par la verticale n’est pas toujours fiable. Des modifications
pourraient être apportées pour améliorer la précision et cette méthode pourrait être utilisée pour
améliorer la spécificité de la segmentation précédente (phase de balancement). Mais l’idéal serait
d’utiliser le travail de Rodolphe Héliot [28] qui permet de retrouver la phase du cycle de marche à
partir d’une estimation de l’inclinaison de la cuisse (utilisation de l’accéléromètre et du magnétomètre
d’une centrale inertielle placée au dessus du genou). Le principe étant de modéliser la marche par
un oscillateur et d’en estimer la phase grâce à un observateur. De plus, dans le cadre des travaux de
Christine Azevedo [6], cette méthode a été appliquée et élargie pour une utilisation avec un capteur
placé à la cheville.
3.3 Comparaison des méthodes
Nous avons réalisé une expérimentation pour comparer les résultats des deux méthodes d’estima-
tion de la longueur des foulées que nous venons de présenter. Nous n’avons pas cherché à reproduire
les conditions d’expérimentation décrites dans les articles ([34] et [3]), car nous souhaitions confron-
46
ter ces méthodes aux conditions particulières liées à nos applications pour le sport et la déficience.
Nous verrons au chapitre 4 que l’estimation de la longueur des foulées est un élément essentiel de la
méthode que nous proposons pour la détection d’un syndrome de la maladie de Parkinson (« Freezing
of Gait »). Cependant, cette estimation doit être réalisée dans des conditions bien particulières car la
maladie cause une déformation de la marche. Nous pensons que ces conditions sont particulièrement
défavorables à la méthode utilisant deux gyromètres ([3]) car les hypothèses sur la symétrie latérale
du mouvement et sur la jambe tendue seront loin d’être respectées.
3.3.1 Description de l’expérimentation
L’expérimentation a été réalisée en équipant un sujet valide avec des IMU sur les quatre segments
principaux des membres inférieurs (tibias et cuisses). Les boîtiers de ces IMU étaient fixés à la cheville
ou juste au dessus du genou, tel que le montre la figure 2.18. Pour évaluer les résultats des deux
méthodes d’estimation de la longueur des foulées, nous devions connaître avec précision la longueur
réelle de chaque foulée, l’expérimentation s’est donc déroulée dans une salle dotée d’un système de
capture de mouvements de type VICON, dont les mesures seront utilisées comme référence.
Figure 2.18 – Position des IMU sur le sujet durant l’expérimentation concernant la comparaison
des méthodes d’estimation de la longueur des foulées.
L’enregistrement ainsi obtenu est constitué de 10 séquences correspondant chacune à quelques
foulées de marche réalisées en ligne droite au centre des caméras du système VICON, comme le
montre la photographie de la figure 2.19. Différents types de marche ont été enregistrés, chaque
séquence contient un type de marche particulier :
– marche lente (2 séquences),
– marche naturelle (2 séquences),
– marche à petits pas (1 séquence),
– marche rapide (2 séquences),
– marche sur des marques avec un espacement irrégulier (3 séquences).
Pour la moitié des séquences, à cause d’une erreur de manipulation, les données de l’IMU de la cuisse
gauche ne sont pas disponibles.
3.3.2 Résultats
Le tableau 2.2 résume les résultats de cette expérimentation. Il indique, pour chaque type de
marche et pour chaque méthode, l’erreur moyenne en centimètres (moyenne de la valeur absolue des
erreurs) et le nombre de points utilisés pour calculer cette erreur moyenne (nombre de foulées dont
la longueur a été estimée). Il contient également les résultats obtenus en réalisant la moyenne des
47
Figure 2.19 – Expérimentation permettant la comparaison des méthodes d’estimation de la longueur
des foulées. Le sujet réalise quelques foulées de marche au milieu des caméras du VICON.
deux méthodes. Le nombre de points est généralement plus petit pour la méthode utilisant deux
gyromètres (2 GYR) car les données de l’IMU de la cuisse gauche ne sont pas disponibles pour toutes
les séquences.
1 IMU 2 GYR moyenne
erreur nombre erreur nombre erreur nombre
Type de marche (cm) de points (cm) de points (cm) de points
lente 35,9 7 32,6 4 4,5 4
à petits pas 11,1 10 7,8 10 4,6 10
naturelle 12,2 4 6,9 3 6,1 3
rapide 11,8 4 24,1 2 13,4 2
sur les marques 18,1 12 7,0 8 11,5 8
toutes les marches 18,3 37 12,3 27 7,4 27
Table 2.2 –
Les résultats sont également présentés sous la forme de graphiques, la figure 2.20 représente les
résultats de la méthode utilisant une seule IMU (1 IMU), la figure 2.21 ceux de la méthode utilisant
deux gyromètres (2 GYR) et la figure 2.22 correspond à l’utilisation simultanée des deux méthodes
en faisant la moyenne des longueurs estimées. Sur chacune de ces trois figures, le résultat de chaque
estimation est indiqué par un symbole ayant pour ordonné la longueur de référence donnée par
le VICON et pour abscisse le résultat de l’estimation. Le symbole utilisé permet de différencier les
foulées de la jambe droite et celles de la jambe gauche. De plus l’équation de la droite directrice tracée
en rose est indiquée sur le graphique ainsi que le coefficient de corrélation permettant de quantifier
l’éloignement des mesures par rapport à cette droite. Nous verrons dans les chapitres suivants que
nous ne recherchons pas particulièrement une estimation précise de la longueur des foulées mais
plutôt une estimation fiable, car nous sommes plus intéressés par les variations de cette longueur que
48
par sa valeur. Le coefficient de corrélation a donc plus d’importance pour nous que les paramètres de
la droite directrice. La droite en pointillés noirs représente l’égalité entre l’estimation et la référence
Lref = Lest.
0 20 40 60 80 100 120 140 1600
20
40
60
80
100
120
140
160
Lest
: Longueur de foulée estimée (cm)
L ref :
Long
ueur
de
foul
ée V
ICO
N (
cm)
méthode utilisée : 1 IMU
Lref
= 1.05 Lest
+ −5.94
r = 0.71345
foulées droitesfoulées gauches
Figure 2.20 – Résultats de l’estimation de la longueur des foulées en utilisant la méthode avec une
seule IMU (accéléromètre et gyromètre). Les données utilisées ont été enregistrées sur un sujet valide
équipé d’une IMU sur chaque cheville.
Le nombre de foulées enregistrées est trop faible pour faire une étude statistique mais cela permet
de donner un ordre de grandeur de la précision des méthodes et de faire quelques remarques quali-
tatives. Par exemple, on remarquera dans le tableau 2.2 que les résultats obtenus pour une marche
lente sont particulièrement mauvais : pour certaines mesures l’erreur dépasse les 50% (car les foulées
de la marche lente mesurent environ 85cm). Mais cela est en accord avec nos prévisions, car plus
la foulée dure longtemps et plus la dérive due aux intégrations est pénalisante. On notera que ces
foulées ont été enregistrées pour tester les méthodes dans un cas très défavorable, c’est-à-dire avec
des mouvements particulièrement lents. Cela est d’ailleur confirmé par les mesures obtenues avec le
système VICON qui indiquent des durées comprises entre 2, 9s et 3, 4s pour les foulées de la marche
lente alors que les autres foulées durent en moyenne 1, 2s. Ces résultats confirment l’existance d’une
limitation pour les deux méthodes mais cela s’applique à des conditions qui sortent du cadre d’une
utilisation classique telle que nous l’envisageons pour le sport ou la déficience (sur plus de 451 foulées
enregistrées sur un sujet souffrant du syndrôme de freezing de la maldie de Parkin seulement 4 ont
durées plus de 1, 5s) .
Toujours dans le tableau 2.2, on peut voir que les résultats obtenus avec la méthode utilisant
deux gyromètres (2 GYR) sont généralement meilleurs que ceux obtenus avec la méthode utilisant
seulement une centrale inertielle (1 IMU). Les résultats de la méthode utilisant deux gyromètres sont
moins bons pour la marche rapide mais cela n’est peut-être pas significatif car seulement deux foulées
ont pu être testées.
On peut également constater dans le tableau 2.2, que l’utilisation simultanée des deux méthodes
en faisant la moyenne des longueurs estimées permet d’améliorer les résultats. Effectivement, en
regardant les figures 2.20 et 2.21, on peut voir que la méthode utilisant 1 IMU aura tendance à
sous-estimer la longueur des foulées moyennes et sur-estimer la longueur des foulées les plus grandes
49
0 20 40 60 80 100 120 140 1600
20
40
60
80
100
120
140
160
Lest
: Longueur de foulée estimée (cm)
L ref :
Long
ueur
de
foul
ée V
ICO
N (
cm)
méthode utilisée : 2 GYRO
Lref
= 0.872 Lest
+ 17.2
r = 0.82725
foulées droitesfoulées gauches
Figure 2.21 – Résultats de l’estimation de la longueur des foulées en utilisant la méthode avec deux
gyromètres. Les données utilisées ont été enregistrées sur un sujet valide équipé de 4 IMU (chevilles
et cuisses).
alors que l’autre méthode semble avoir la tendance inverse. Nous n’expliquons pas que les erreurs
des deux méthodes semblent se compenser, mais le nombre de points étant limité, il s’agit peut-être
d’une coïncidence.
0 20 40 60 80 100 120 140 1600
20
40
60
80
100
120
140
160
Lest
: Longueur de foulée estimée (cm)
L ref :
Long
ueur
de
foul
ée V
ICO
N (
cm)
moyenne des deux méthodes
Lref
= 0.967 Lest
+ 6.01
r = 0.93831
foulées droitesfoulées gauches
Figure 2.22 – Résultats de l’estimation de la longueur des foulées en réalisant la moyenne des deux
méthodes déjà présentées.
Comme nous l’avons vu, l’erreur sur l’estimation de la longueur des foulées est très importante
lors de la marche lente. Les résultats sont donc meilleurs lorsque les deux séquences de marche lente
sont ignorées : pour la méthode utilisant une IMU le coefficient de corrélation passe de 0, 805 à
0, 852 et pour la méthode utilisant deux gyromètres ce coefficient passe de 0, 917 à 0, 936. Cette
dernière méthode peut même atteindre 0, 97 si les deux foulées de marche rapide sont également
50
supprimées, mais, encore une fois, le nombre de mesures dont nous disposons est limité et ces résultats
ne permettent pas de caractériser correctement les méthodes.
3.4 Perspectives d’amélioration et conclusion
Comme nous avons pu le voir à la section 3.2.2, la première amélioration à apporter à l’estimation
de la longueur des foulées est de réaliser une segmentation robuste et fiable afin de réduire le nombre
de faux positifs (détection d’une foulée en dehors de la marche) et d’améliorer l’estimation des
conditions initiales associés aux calculs d’intégration. Cependant, la détection du plan sagittal qui
peut sembler assez imprécise n’est pas une priorité. Nous pensons que les quelques degrés en précision
qui pourraient être gagnés sur la localisation du plan sagittal ne peuvent pas aider à améliorer la
fiabilité de l’estimation de la longueur des foulées. Par contre, un travail d’automatisation de la
procédure devra être réalisé avant de pouvoir porter l’une de ces méthode sur un système embarqué
facile à utiliser, voire de rendre invisible la procédure de détection du plan sagittal pour l’utilisateur.
Nous avons montré que les résultats de la méthode utilisant deux gyromètres sont généralement
meilleurs, il ne faut pas oublier que cette méthode est bien plus contraignante car elle requiert
l’utilisation de deux IMU et le réglage de deux paramètres (longueur du tibia et de la cuisse du sujet).
La méthode proposée par Aminian semble donc adaptée à une utilisation dans un environnement
de recherche, elle permet d’obtenir des mesures précises et une grande souplesse d’utilisation. Bien
entendu cette méthode ne rivalisera pas en précision avec les systèmes complexes de capture de
mouvement, mais elle requiert un équipement bien moins coûteux et plus facile à utiliser. Cependant,
la méthode proposée par Laudanski a l’avantage de pouvoir être utilisée avec une seule IMU et de ne
pas nécessiter de réglage. Pour certaines applications, ces avantages peuvent être plus importants que
la précision, c’est d’ailleurs ce que nous verrons au chapitre 4 avec la problématique de la détection
du freezing.
51
Chapitre 3
Segmentation automatique de la
marche et de la course
1 Contexte
Le travail présenté dans ce chapitre a été réalisé dans le cadre du projet X-trem-log. À la fois
chercheur Inria et ultra-marathonien, Guillaume Chelius a participé au 25ème Sultan Marathon des
Sables en avril 2010. Sa passion sportive et son activité de recherche se sont rencontrées dans le désert
marocain. En s’équipant d’un réseau de capteurs pour participer à cette course, il a permis de relever
un défi à la fois technologique et scientifique. Un défi technologique par l’enregistrement temps-
réel de données multiples (mouvement, physiologie, environnement) dans des conditions difficiles qui
ont imposées des contraintes sur l’autonomie, l’ergonomie, le poids et l’encombrement du système
embarqué. Mais également un défi scientifique par la mise au point de méthodes de traitement et
analyse automatique de grandes quantités de données.
Les sportifs sont de plus en plus nombreux à vouloir repousser leurs limites et à particuper à des
des ultra-marathons, où l’endurance est poussée à l’extrême. Cela peut être une source de données
très riches pour les études sur la fatigue ou la récupération physique (par exemple [37]). Certains
passionnés de la pratique intense de la marche ou de la course sont même allés plus loin et cela a
permis à des chercheurs de recueillir des données dans des conditions uniques. Philippe Fuchs a couru
de Paris à Pékin (8500km) en 160 jours [36]. Et un homme de 62 ans a réalisé un périple de 1300km
en 3 mois de marche dans les Alpes [5]. Grâce à de nombreuses mesures physiologiques sur ces deux
sujets, les chercheurs ont pu observer les impacts d’une activité physique aussi intense et prolongée.
Dans le cas de ces études réalisées dans des conditions difficiles, les données obtenues sont gé-
néralement limitées à des acquisitions ponctuelles (tous les 15 jours dans le cas du marcheur dans
les Alpes). Classiquement pour observer les effets d’un entrainement ou d’une course longue, aucune
mesure n’est réalisée pendant l’épreuve (une série de mesures juste avant et les suivantes réparties sur
les quelques jours ou semaines qui suivent). Les moyens techniques utilisés sont nombreux et variés
([31, 29]), mais ils sont généralement inadaptés pour réaliser une acquisition en continue sur un sujet.
Des expérimentations ont déjà été réalisées avec le suivi régulier d’un coureur, mais les conditions
d’acquisitions sont extrêmement limitées. Généralement le matériel de mesure ne permet pas de faire
de la mesure embarquée et cela impose de travailler en salle, sur tapis roulant par exemple (24h de
course sur tapis roulant [40]). Il existe des expérimentations réalisées en extérieur (par exemple une
étude sur 100km de course [33]), mais ces études sont généralement confrontées à un autre type de
52
problème lié à interprétation des données. Effectivement, dans des conditions réelles telles que durant
un marathon ou un trail, les informations concernant les conditions de course sont parfois limitées
ou peu fiables (voir à la section 1.3.3 la description de la vérité terrain) et cela complexifie l’interpré-
tation des données. L’étude sur 100km a été judicieusement réalisée sur un parcours constitué de la
répétition d’une même boucle de 10km. Des informations sur les conditions de course peuvent être
obtenues avec des mesures spécifiques (gps, altimètre, ...) et/ou déduites des données de mouvement,
mais cela peut être extrêmement complexe et fastidieux si on ne dispose pas d’outils adaptés pour
réaliser le traitement de ces données.
Grâce à la technologie MEMs, la miniaturisation de nombreux types de capteurs progresse et il
est actuellement possible d’équiper des humains ou des animaux avec des capteurs de mouvements
extrêmement légers et ayant de très longues durées d’autonomie. Il n’est donc pas rare de recueillir de
grandes quantités de données comme lors du Marathon des Sables. Sur de tels volumes, il est difficile
d’extraire les moments importants et des outils pour segmenter et classer ces données sont nécessaires.
L’idéal serait d’avoir des outils qui puissent s’adapter à l’application et non l’inverse. C’est ce que
nous avons cherché à faire en sélectionnant et associant des méthodes simples de traitement de signal
et de traitement de données.
Notre travail a permis de concevoir des outils pouvant s’adapter à de nombreuses applications
qui utilisent des capteurs multiples et, en même temps, il répond à des besoins plus spécifiques au
domaine du sport et de la course. D’une part, nos outils sont génériques car notre méthode réalise
un découpage temporel des données qui est le résultat de la recherche de phases stationnaires (voir
§1.1, chapitre 2). Effectivement, ce principe pourrait être utilisé pour de nombreuses applications,
puisque les données résultant de l’observation du comportement humain ou animal sont souvent
des signaux pseudo-périodiques (essentiellement des données physiologiques ou liés au mouvement).
D’autre part, l’estimation de certains paramètres tels que la cadence, la longueur de foulée ou le
coefficient de récupération, permet de répondre à des besoins propre à l’étude de la course.
1.1 Objectifs
L’objectif principal du traitement que nous avons mis en place est de segmenter des enregistre-
ments de longues durées en périodes plus courtes qui pourront ensuite être classées par groupes en
fonction de leurs ressemblances. Afin que le résultat de cette classification soit utilisable pour l’étude
de la course, nous avons utilisé des paramètres ayant une signification physique et, dès que possible,
ceux utilisés en biomécanique.
Le sujet abordé dans ce chapitre est le traitement de données recueillies sur un coureur pendant
des épreuves longues (plusieurs heures ou plusieurs jours). L’ensemble des données utilisées pour
cette étude a été enregistré à l’aide d’un réseau de capteurs embarqué sur un sujet sportif. Les enre-
gistrements comportent des périodes de marche ou de course et de petits arrêts. Selon les conditions
de l’expérimentation, le nombre, le type et la position des capteurs peuvent varier.
Notre travail ne s’inscrit pas directement dans une perspective d’amélioration des performances
sportives et il n’apportera aucune explication ou interprétation concernant le comportement ou les
performances du sportif. Contrairement aux expérimentations classiques de biomécanique, notre ob-
jectif n’est pas d’analyser le comportement ou les mouvements d’un sportif lors d’une épreuve longue.
Il n’y a donc pas d’intérêt à confronter les résultats de plusieurs sujets. La validation des résultats
de notre traitement se fera en observant ses capacités à segmenter et classer de grandes quantités de
53
données, et ce, pour des conditions expérimentales variées.
1.2 Le Marathon des Sables
Les épreuves du marathon des Sables se sont déroulées sur 6 jours en auto-suffisance alimentaire
dans le désert marocain.
Figure 3.1 – Guillaume Chelius lors du Marathon des Sables 2010
Spécialement pour le Marathon des Sables, l’équipementier Salomon a réalisé une tenue complète
pour Guillaume. Des emplacements pour les capteurs avaient été prévus et les semelles des chaussures
étaient dotées de capteurs de pressions (FSR). Le réseau de capteur était constitué de :
– 13 centrales inertielles,
– 2 semelles dotées de capteurs de pression (FSR),
– cardiofréquencemètre,
– altimètre,
– température et humidité (extérieures).
Les sondes de température et d’humidité étaient placées sur le sac à dos. Une description des différents
types de capteurs a été faite dans le chapitre 1. Les centrales inertielles étaient réparties sur les
principaux segments du corps du coureur, voir la figure 3.2.
Figure 3.2 – Positionnement des nœuds sur le coureur
54
Après 6 jours de course, 250km dans le sable et avec des températures pouvant atteindre 50°C,
Guillaume termine 66ème au classement général en 32h10. Par contre les capteurs ont été moins
résistants devant ces conditions extrêmes et une grosse quantité de données a été perdue. Le bilan
sera présenté dans le tableau 3.3.
1.3 L’acquisition des données
L’acquisition des données passe par une expérimentation préalablement décrite dans un protocole
expérimental. La rédaction de ce protocole constitue une part importante du travail. Le protocole doit
contenir les objectifs de l’expérimentation et le cheminement à suivre pour les atteindre. Il contient
également la liste des personnes présentes, le matériel utilisé, les conditions et le programme détaillé
de l’expérimentation.
Lors des expérimentations, l’élaboration à l’avance d’un programme détaillé et de la liste du
matériel nécessaire permet de réduire l’impact d’un éventuel problème technique. Le relevé des in-
formations permettant d’établir la vérité terrain est aussi important que les données elles-mêmes.
Une expérimentation mobilise donc plusieurs personnes pour pouvoir effectuer différentes mesures
simultanément, la répartition des tâches peut également être anticipée.
Concernant les expérimentations en milieu contrôlé, chaque détail a son importance et doit être
noté. Les conditions d’expérimentation étant relevées avec soin, l’utilité de certains détails peut
apparaitre plus tard dans l’avancement du travail ou si les données sont utilisés pour d’autres projets.
1.3.1 Conditions d’acquisitions
Les données utilisées dans ce chapitre ont été enregistrées dans des conditions presque toutes
différentes. Trois situations types se dégagent.
– La première situation correspond aux enregistrements effectués dans un environnement contrôlé
(laboratoire). Le coureur est alors équipé de nombreux capteurs dont le positionnement et le
fonctionnement sont validés par les personnes qui encadrent l’expérimentation. Les données
obtenues dans ce type de situation sont de durées plutôt courtes (quelques minutes) et sont
utilisées pour valider les critères correspondant à des paramètres mesurés.
– Dans la seconde situation, le coureur est également équipé de nombreux capteurs mais il se
trouve en conditions réelles. Il devra donc s’équiper seul et les informations sur la vérité terrain
sont quasi-nulles. Les durées d’enregistrement sont longues (plusieurs heures). Cette situation
correspond au marathon des Sables.
– La troisième situation correspond à une course d’entrainement, le coureur s’équipe seul mais le
nombre de capteurs est réduit. Les durées d’enregistrement varient entre une et deux heures.
Les données obtenues dans des situations différentes permettent de valider, différentes étapes
du traitement que nous avons mis en place. Pour cela des informations de qualité sur la vérité
terrain sont nécessaires (voir §1.3.3). La validation de l’estimation de certains paramètres est simple
à réaliser, il suffit de comparer la valeur de ces estimations avec la vérité terrain des expérimentations
en environnement contrôlé. Le plus souvent cela revient à utiliser la vitesse du tapis roulant, à
compter le nombre de pas ou chrono métrer durant un tour de piste. Concernant la segmentation,
une première vérification a pu être réalisée en confrontant les résultats de la segmentation pour les
données en environnement contrôlé aux variations prévues par le protocole expérimental. Mais une
dernière expérimentation a du être réalisée pour valider le traitement sur des données en conditions
55
réelles, c’est la course d’entrainement présenté au paragraphe 1.4.4.
1.3.2 Placement des capteurs
La position des capteurs est tout d’abord contrainte par le matériel (communication, connectique,
visibilité des témoins lumineux). Ensuite une position particulière ou une zone est déterminée, mais
la position finale varie en fonction des difficultés rencontrées lors de la fixation. Une fois le capteur
fixé, sa position et son orientation sont notées.
Pour le Marathon des Sables, les centrales inertielles étaient placées sur les principaux segments
du corps (bras, avant-bras, tibias, cuisses, pieds, tête, dos, tronc), de manière à ne pas gêner le
coureur et de préférence sur des zones plates pour suivre au mieux les mouvements du corps. La
combinaison et les chaussures réalisées par Salomon étaient dotées d’emplacements pour accueillir
les capteurs (figure 3.3), ce qui a permis de réduire les manipulations et les risques d’erreurs lors de
la mise en place des capteurs avant chaque épreuve du Marathon des Sables. Cela n’a pas épargné au
coureur de devoir suivre une procédure pour s’équiper des capteurs. Avant chaque épreuve il devait
allumer le système, effectuer les mouvements de calibration puis introduire chaque capteur dans son
emplacement.
Le nombre important de capteurs embarqués lors du Marathon des Sables avait pour objectif
d’illustrer les capacités d’autonomie et de résistance aux conditions extrêmes du réseau. Les données
obtenues nous ont également permis de déterminer quels segments du corps étaient les plus utiles
pour réaliser la segmentation. Les expérimentations suivantes ont pu être réalisées avec une version
améliorée des capteurs et un nombre de capteurs moins important.
Figure 3.3 – Guillaume Chelius lors du Marathon des Sables 2010 : intégration des capteurs à la
tenue (bras, avant-bras, tête, sac à dos).
56
1.3.3 Vérité terrain
Lors des expérimentations en milieu contrôlé, la vérité terrain est aussi importante que les données.
Elle regroupe toutes les informations concernant les conditions de l’expérimentation : le sujet, ses
mouvements, le positionnement des capteurs et l’environnement (sol, pente). Ces informations doivent
pouvoir servir de référence pour valider les résultats obtenus avec le réseau de capteurs.
Il y a deux types d’informations, d’une part, celles qui sont mesurables et dont la précision peut
être estimée (durée, vitesse, longueur de foulée...), et d’autre part, celles qui sont qualitatives et qui
résultent d’observations humaines (marche/course, fatigue, bonne fixation des capteurs).
La précision des mesures constituants la vérité terrain doit être suffisante pour comparer les
résultats obtenus avec le réseau de capteurs à nos attentes. Notre objectif n’est pas de réaliser un
système extrêmement précis et nous avons utilisé principalement des instruments de mesure basiques
(chronomètre, décamètre). Cependant, certains paramètres étant plus complexes à mesurer, nous
avons dû utiliser un système de capture de mouvements (VICON, voir §1.1 du chapitre 1).
Concernant les informations qualitatives, elles ne sont pas soumises à la notion de précision de
la même manière que les mesures quantitatives, mais elles peuvent dépendre de la subjectivité de
l’observateur. Dans le cas du sportif, nous avons considéré ces informations comme parfaitement
fiables, car les observations ne comportent aucune ambigüité. Il s’agit par exemple de différencier la
marche de la course ou le type de terrain (stade, tapis, sable). Nous verrons au chapitre 4 que la
vérité terrain n’est pas toujours aussi simple à obtenir.
1.4 Description des expérimentations
1.4.1 Expérimentation de préparation
Préalablement au Marathon des Sables nous avions réalisé une expérimentation en milieu contrôlé,
qui s’est déroulée à Montpellier sur deux jours en janvier 2010. Les objectifs de cette expérimentation
étaient, d’une part, de valider le bon fonctionnement du réseau de capteurs et de mettre en évidence
ses faiblesses, et d’autre part, d’obtenir des données permettant d’élaborer des pré-traitements et
des algorithmes de segmentation et de classification. L’expérimentation a donc permis d’obtenir des
données dans des conditions très variées et avec une vérité terrain détaillée.
Deux types de mesures ont été réalisés. Dans un premier temps, nous avions besoin de faire des
acquisitions dans des conditions parfaitement déterminées pour valider les estimations des critères
correspondant à des paramètres physiques. Ensuite nous avons cherché à reproduire différentes si-
tuations dans lesquelles peut se trouver un coureur et plus particulièrement lors du Marathon des
Sables.
Nous avons donc réalisé l’expérimentation dans différentes conditions : sur un tapis roulant, sur
une piste d’athlétisme et sur du sable. Le tapis roulant permet de réaliser des variations de pente et de
vitesse quantifiées. Sur piste, le coureur peut fixer lui même sa vitesse et les acquisitions comportent
des virages. Enfin les acquisitions sur le sable permettent de faire varier le type de terrain avec du
sable mou et du sable dur.
L’expérimentation s’est déroulée sur 2 jours et en trois phases. Les trois phases sont constituées
d’enchainements de marches et de courses. Le coureur était équipé de 12 centrales inertielles sur les
principaux segments du corps (bras, avant-bras, tibias, cuisses, pieds, dos, tronc) et de 2 semelles
dotées de FSR. Les contenu des trois phases est décrit dans le tableau 3.1.
57
Phase Conditions Paramètres Vérité terrain
1 en salle,
tapis roulant
vitesse,
inclinaison
capture de mouvement VICON,
indications du tapis roulant (vitesse
et pente)
2 en salle,
piste d’athlétisme
marche,
3 vitesses de course
longueur de piste 200m,
chronométrage des tours de piste,
comptage manuel du nombre de pas
3 sable marche naturelle,
2 vitesses de course,
sac à dos,
course libre sur sable mou
et dur
ligne droite 40m,
chronomètre,
sac de 7kg
Table 3.1 – Description du déroulement des trois phases de l’expérimentation de préparation
1.4.2 Le Marathon des Sables
Le Marathon des Sables s’est déroulé en conditions réelles, donc la connaissance de la vérité terrain
est très réduite. Le positionnement des capteurs a été présenté sur la figure 3.2 et la description des
étapes se trouve dans le tableau 3.3. Nous disposons également du roadbook fournit aux concurrents,
il s’agit d’une liste d’instructions et d’un croquis de chaque étape. Voir l’exemple de la première étape
sur le tableau 3.2 et la figure 3.4.
Malgré des problèmes de connectique entre les nœuds et les batteries, ce qui a réduit le nombre de
données utilisables, l’expérience du Marathon des Sables nous a beaucoup apporté, aussi bien pour
l’amélioration des capteurs que pour l’amélioration des algorithmes de segmentation. Le récapitulatif
des données obtenues se trouve dans le tableau 3.3.
1.4.3 Validation de l’estimation de la longueur de foulée
Ayant pour but de valider l’estimation d’un seul critère, les expérimentations sont moins lourdes
à mettre en place. Les mesures pour la vérité terrain et le nombre de capteurs sont minimisés.
Nous avons réalisé plusieurs expérimentations pour valider l’estimation de la longueur de foulée.
Dans tous les cas le sujet est équipé d’au minimum 2 centrales inertielles, placées sur le tibia et la
cuisse de la même jambe. Ces expérimentations se sont déroulées sur un tapis d’effort avec et en
extérieur. Nous avons estimé la longueur moyenne des foulées sur différents types de marche et de
course (petits pas, grand pas). Les résultats sont présentés au paragraphe 3.3.1 du chapitre 2.
1.4.4 Courses d’entrainement
Nous disposons d’une série de données correspondant à 40 min de course d’entrainement. Le
coureur était équipé de 2 IMU (cheville et genou), ainsi que d’un système GPS. La vérité terrain
est constituée du tracé GPS et des observations du coureur. Les conditions de course étant variées
(route, herbe, terre, montée, descente...), ces données nous ont permis de valider les résultats de
segmentation et de classification.
58
Km 0 : Prendre direction Sud (cap197°) jusqu’au Km 2,2. Peu vallonné.
Km 2,2 : Passe dans Jebel Mech Irdane. Virer à gauche dans la vallée direction S/E (cap135°).
Km 3,9 : Franchir la passe caillouteuse puis suivre E/SE (cap 116°) jusqu’à la passe suivante.
Km 5,1 : Passe sablonneuse.
Km 5,5 : Sortie de passe. Prendre direction Sud (cap177°) jusqu’au groupe de palmiers.
Km 7,3 : Groupe de palmiers. Rejoindre le pied du jebel.
Km 7,8 : Petite montée dans le jebel.
Km 8,5 : Pont Rheris. Virer à droite à la sortie puis direction Sud (172°) jusqu’au CP1.
Km 9,1 : Terrain accidenté, crevasses du lit de l’oued Rheris.
Km 9,7 : Sortie d’oued. Bien suivre balisage pour éviter les failles profondes du bord d’oued.
Km 11,3 : Crevasses.
Km 12,8 : Entrée des dunettes.
Km 13,4 : CP 1. Prendre direction S/SO (cap 198°) pour sortir du champs de dunettes.
Km 15,1 : Pointe de relief à main gauche. Même direction (cap 196°) à travers bosses de sable
et herbes à chameaux.
Km 16,7 : Passage dans petit amas rocheux. Traversée la vallée direction Sud (cap192°)
Km 18 : Reliefs vallonnés. Suivre sentier pour atteindre le plateau.
Km 19,4 : Sommet du plateau. Descendre vers la passe sablonneuse direction Sud (174°)
Km 22,2 : CP2 avant les dunes. Traverser champs de dunes cap 194°.
Km 24,3 : Fin des dunes de l’erg Aitoulhetan.
Km 26 : Passage sablonneux dans petit relief. Prendre direction Sud (176°)
Km 29 : Arrivée B2 après le lit d’oued.
Table 3.2 – roadbook : ETAPE N°1 : 04/04/2010 - IRHS / KHERMOU - 29 Km
59
Figure 3.4 – roadbook : schéma de l’étape N°1
Étape Distance Durée Nœuds opérationnels
1 29km 3h30 1, 3, 8, 9, 10, 12, 19, 14, 15
2 35km 4h54 1, 3, 9, 10, 12
3 40km 5h08 12
4 82km 11h58 7, 12, 19
5 42km 4h43 3, 7, 12, 19
6 22km 2h 12
Table 3.3 – Description des étapes de course et récapitulatif des enregistrements valides
2 Traitement des données : analyse temporelle
Le traitement est élaboré spécifiquement pour notre application, c’est-à-dire pour des données
multi-capteurs en quantité importante et enregistrées sur un coureur. Il a également été conçu dans
la perspective d’être utilisé pour d’autres applications. Un changement d’application ou de type de
capteurs nécessite l’intervention de l’utilisateur, mais l’adaptation est relativement simple à mettre
en place et ne nécessite que très peu d’apriori sur les nouveaux signaux. Lors du traitement des
données, un pré-traitement va être appliqué indépendamment sur chaque signal avant de regrouper
les signaux issus de tous les capteurs, voir la figure 3.5. C’est ici que l’utilisateur doit intervenir, les
pré-traitements doivent être adaptés à l’application et seront choisis en fonction des capteurs utilisés
et des formes d’ondes attendues.
Ces pré-traitements peuvent être plus ou moins complexes, allant d’une moyenne glissante à un
estimateur de longueur de foulée. Pour cette application particulière avec un coureur, nous avons
60
calibration
+
synchronisation
segmentation
classification
pré-traitement
pré-traitement
données
brutes
segementation
classes
Traitement
Figure 3.5 – Description du traitement appliqué sur les données brutes
choisi d’utiliser des critères ayant une signification physique. Cela a deux avantages : d’une part,
permettre au sportif de visualiser un paramètre concret qu’il connait bien, et, d’autre part, garantir
que le critère soit porteur d’information. Selon les capteurs utilisés, différents paramètres pourront
être estimés : la cadence de marche ou de course, la longueur des foulées, l’amplitude des accélérations,
le temps de vol ...
Dans le domaine du sport, cette méthode de segmentation pourrait servir à l’analyse de la course
et de la marche. Différentes utilisations peuvent être envisagées, telles que l’amélioration des perfor-
mances sportives ou le suivi d’une rééducation. L’utilisation de cette méthode pourrait également
être étendue à d’autres domaines comme par exemple l’éthologie.
2.1 Structure générale
Cette partie décrit les différentes étapes permettant d’obtenir un découpage des données en inter-
valles de temps qui seront ensuite classés par groupes. Ces étapes sont représentées sur la figure 3.5.
Les données brutes devront tout d’abord être calibrées et synchronisées comme décrit dans le cha-
pitre 1. Ensuite, les pré-traitements choisis en fonction des capteurs et de l’application permettent
d’obtenir plusieurs critères. Chaque critère possède une valeur (une dimension) qui évolue en fonction
du temps. Le bloc segmentation-classification de la figure 3.5 est détaillé sur la figure 3.6. Une dé-
tection de rupture permet de transformer le critère en une fonction continue par morceaux, voir §1.2
chapitre 2. Le bloc intervalles représenté sur la figure 3.6 permet d’exprimer les différents critères
sur une base de temps commune avant de les regrouper par classes avec le bloc classification. Si la
valeur d’un critère ne peut pas être déterminée sur un intervalle de temps, cet intervalle ne pourra
pas être classé dans un groupe.
2.1.1 Calibration
Nous avions envisagé deux types de calibrations : la calibration électrique et la calibration géo-
métrique. La calibration électrique est indispensable, les méthodes utilisées sont décrites lors de la
présentation des capteurs au §2.2 du chapitre 1. Les nouvelles centrales inertielles fournissent des
données accélérométriques déjà calibrées. Une acquisition spécifique est toujours nécessaire pour la
calibration des magnétomètres, mais les manipulations sont moins contraignantes.
D’autre part, nous avions envisagé d’utiliser une calibration géométrique. Ce type de calibration
permet de corriger les erreurs d’orientation des centrales inertielles. Quelque soit le mode de fixation
du capteur (expérimental ou intégré à la tenue), son orientation ne peut pas être déterminée précisé-
61
classificationsegmentation
(intervalles)
classes
Segmentation et Classification
intervalles
détection
rupture
détection
rupturecritères
Figure 3.6 – Description de la partie segmentation et classification du traitement
ment. De plus, les axes de mesure ne sont pas parfaitement alignés avec le boitier. Cette technique est
utilisée en robotique pour la calibration de bras articulés dotés d’effecteur et de caméra (en anglais :
hand-eye calibration [4]). Elle a été appliquée à la reconstruction du mouvement humain à partir de
centrales inertielles par Fabien Jammes et Pierre-Brice Wieber.
Un enchainement de postures simples est nécessaire pour cette calibration. Le coureur a bien
réalisé ces postures après chaque épreuve du Marathon des Sables mais les données correspondantes
ont été perdues à cause des problèmes de connectique.
Compte-tenu des algorithmes utilisés pour réaliser la segmentation, nous avons choisi de ne pas
utiliser de calibration géométrique. La majorité des pré-traitements n’utilise pas de modèle géomé-
trique du coureur et des capteurs, il n’est donc pas utile de connaître l’orientation des capteurs.
Seul le pré-traitement permettant d’estimer la longueur des foulées utilise un modèle géométrique
et nécessite de connaître l’orientation des capteurs par rapport au plan sagittal. Mais une alternative
à la méthode de calibration hand-eye a été mise en place. L’estimation de l’orientation du capteur par
rapport au plan sagittal, obtenue avec notre méthode, est peu précise mais suffisante. Cette alternative
a pour avantage d’être moins contraignante pour les expérimentations, surtout pour l’application du
chapitre 4.
2.1.2 Critères
Cadence des foulées Les capteurs de pression placés dans les semelles des chaussures du coureur
permettent d’obtenir des pics lors des impacts du pied avec le sol. L’amplitude d’un pic est fonction
de l’intensité de l’impact mais l’imprécision due au capteur et à son intégration dans la semelle est
très importante. Nous n’utilisons pas cette information. Le critère obtenu à partir des données FSR
est la cadence des foulées.
La cadence des foulées correspond à la fréquence des pics sur les données FSR, c’est-à-dire à
la fréquence des impacts sur un pied. La localisation précise de chaque pic est difficile à cause de
l’amplitude qui n’est pas constante et de la présence possible d’un rebond. Nous utilisons donc une
autocorrélation du signal dans une fenêtre glissante, voir au paragraphe 2 du chapitre 2. Lorsque
plusieurs points de mesure sont disponibles sur une même semelle, la cadence est obtenue en faisant
la moyenne des résultats de l’autocorrélation pour tous les points de mesure.
Lorsque le coureur n’est pas équipé de capteurs FSR, la même technique peut être utilisée sur les
signaux des accéléromètres ou des gyromètres. Pour cela, les données peuvent provenir d’un nœud
placé sur un membre inférieur, mais également dans le bas du dos. C’est ainsi que la cadence est
62
obtenue dans le cas des courses d’entrainement avec un seul nœud. Si le nœud est placé dans le bas
du dos, on obtient la cadence des pas qui est le double de la cadence des foulées.
Il faut savoir que la cadence n’augmente pas en même temps que la vitesse de marche ou de
course. Pour augmenter sa vitesse, le coureur (ou le marcheur) va d’abord augmenter la longueur de
ses foulées. Et c’est seulement lorsque la longueur maximale de foulée est atteinte que le coureur va
augmenter sa cadence pour continuer à augmenter sa vitesse. Par contre la cadence est très différente
entre la marche et la course. La figure 3.7 est un exemple de transition entre une marche et une
course, la courbe du haut montre le signal obtenu par un capteur FSR et les points de la courbe du
bas représentent le résultat du calcul de la période des foulées (inverse de la cadence) en utilisant la
méthode présentée au §2 du chapitre 2.
0
500
1000
1500
2000
2500
3000
220 225 230 235 240 245 250 255 260 265 270
FSR left
time (s)
0.60
0.65
0.70
0.75
0.80
0.85
0.90
0.95
220 225 230 235 240 245 250 255 260
time (s)
période des foulées (s)
temps (s)
temps (s)
Figure 3.7 – Résultat de l’autocorrélation à partir du signal FSR de la chaussure gauche lors d’une
transition entre marche et course (expérimentation sur piste)
Utilisation de la norme des accéléromètres Le calcul de la norme des signaux accéléromé-
triques a une signification physique. Les trois axes du capteur étant orthonormés la norme euclidienne
du signal correspond à la norme géométrique du vecteur accélération (gravité et accélération propre
au capteur).
Dans le cas de l’expérimentation de préparation et du Marathon des Sables, nous utilisons les
accéléromètres placés sur les segments des membres inférieurs. L’amplitude et la moyenne de la
norme des signaux accélérométriques varient selon le type de marche ou de course. Les informations
apportées par les variations de la moyenne sont suffisantes pour réaliser la segmentation.
La valeur de la moyenne est obtenue directement sous la forme d’une fonction constante par
morceaux grâce aux algorithmes de détection de rupture présentés au paragraphe 1.2 du chapitre 2.
Ce pré-traitement peut être utilisé exactement de la même manière avec les gyromètres.
2.1.3 Détection de rupture
La détection de rupture a pour objectif de représenter les critères sous la forme de fonctions
constantes par morceaux. Il permet donc de filtrer le critère et contrairement à un simple filtre
passe-bas, il permet de conserver les ruptures.
63
Pour les données de l’expérimentation de préparation et du Marathon des Sables, nous utilisons
la méthode de type CUSUM (chapitre 2, §1.2), pour rechercher les phases stationnaires au sens de la
moyenne. Cette méthode permet de réaliser la détection de rupture en ligne, même si après chaque
rupture l’estimation de la nouvelle moyenne conduit à l’existence d’une période "aveugle". Dans notre
cas la segmentation étant réalisée hors ligne, l’algorithme CUSUM peut être appliqué dans les deux
sens (en symétrisant temporellement le traitement). En général, les résultats obtenus sont légèrement
différents (instants de rupture et estimation des moyennes différents). En faisant la moyenne des deux
fonctions continues par morceaux ainsi obtenues, nous obtenons une troisième fonction continue
par morceaux. Les instants de rupture des deux premières fonctions étant légèrement différents, la
troisième fonction contient donc des morceaux très courts, bornés par ces ruptures. Les intervalles
de temps inférieurs à 5 secondes seront donc considérés comme étant des transitions entre les phases
stationnaires et ne seront pas utilisés pour la classification.
Pour les données de la course d’entrainement, c’est l’algorithme de Pierre Bertrand qui a été utilisé
(FDp-V). Car cette méthode a l’avantage d’être plus rapide et évite les intervalles de transitions.
Cependant elle ne peut pas être utilisée en ligne.
2.1.4 Intervalles
Chaque critère est maintenant exprimé sous la forme d’une fonction constante par morceaux. Le
bloc intervalles représenté sur la figure 3.6 prépare ces fonctions pour qu’elles puissent être parti-
tionnées avec l’algorithme des k-moyennes contenu dans le bloc classification. L’algorithme ne sera
pas appliqué directement sur tous les échantillons, mais sur des intervalles de temps. Ce type de
partitionnement pondéré a été présenté au paragraphe 1.3.2 du chapitre 2, nous avons apporté cette
modification à l’algorithme des k-moyennes pour réduire le temps de calcul nécessaire au partition-
nement.
Pour pouvoir partitionner nos critères en manipulant des intervalles, ils doivent tous être exprimés
sur le même ensemble d’intervalles disjoints. A l’entrée du bloc intervalles, chaque critère est décrit sur
son propre ensemble d’intervalles. Un nouvel ensemble d’intervalles doit donc être créé en projetant
sur la même base de temps, ceux de tous les critères. Ce nouvel ensemble sera constitué de M
intervalles notés Im (tmmin, tm
max). A chaque intervalle Im sera associé un vecteur Cm contenant la
valeur des critères durant Im.
Les intervalles Im sont disjoints, voir l’équation 3.1. Et il peut y avoir des trous par rapport à
la durée d’enregistrement, voir l’équation 3.2. Dans certains cas la valeur d’un critère ne peut pas
être déterminée, soit parce que le pré-traitement n’a pas trouvé de solution, soit parce qu’il manque
des données (problème matériel). Si un critère n’est pas déterminé sur un intervalle, cet intervalle ne
pourra être pris en compte lors du partitionnement et aucune classe ne lui sera attribuée.
⋂
m
Im = ∅ (3.1)
⋃
m
Im 6= Iacqui (3.2)
2.1.5 Détermination des classes
Les classes peuvent maintenant être définies en utilisant l’algorithme des k-moyennes sur les
vecteurs Cm pondérés par la longueur de l’intervalle associé (tmmax − tm
min). Cet algorithme est décrit
64
au paragraphe 1.3.2 du chapitre 2. Le partitionnement est fait sur P classes, numérotées de 1 à P ,
chaque couple de {Im, Cm} est assigné à une classe dont le numéro est noté pm.
Dans le cas du Marathon des Sables, nous avons choisi de partitionner séparément la marche et la
course. L’algorithme des k-moyennes doit donc être utilisé 3 fois. Une première fois pour différentier
les intervalles de marche et de course, puis séparément sur les intervalles de marche et de courses.
Pour la différentiation entre la marche et la course, l’algorithme est appliqué uniquement sur
la cadence et pour 2 classes. On obtient alors deux groupes d’intervalles qui seront séparés avant
d’appliquer l’algorithme de nouveau sur l’ensemble des critères et le nombre de classes souhaité pour
la marche et pour la course. Pour l’étape 1 du Marathon des Sables, le partitionnement est fait sur
2 classes pour la marche et sur 3 classes pour la course.
2.2 Résultats
2.2.1 Conditions contrôlées
Le traitement utilisé sur les données obtenues lors de l’expérimentation de préparation est décrit
sur le schéma de la figure 3.8. Les pré-traitements utilisés sont la norme et la cadence. Pour réduire
la taille du schéma, la branche contenant le bloc cadence est représenté une seule fois, mais le coureur
étant équipé de 2 semelles, les données FSR de chaque pied sont traitées indépendamment jusqu’au
bloc intervalle. De même, la branche contenant le bloc norme est représentée une seul fois, mais elle
est dupliquée autant de fois qu’il y a d’accéléromètres. Dans le cas de cette expérimentation, nous
avons utilisé tous les accéléromètres des nœuds placés sur les membres inférieurs. C’est-à-dire pour
chaque jambe : pied, tibia et cuisse.
pré-traitements
intervalles
détection
rupture
détection
rupture
{ Im, Cm} classification
{ pm} calibration
+
synchronisation
données
brutes
norme
cadence
{ ACC }
{ FSR }
Figure 3.8 – Description du traitement appliqué aux données de l’expérimentation de préparation
Si le nombre de classes choisi pour effectuer le partitionnement est adapté (égal ou légèrement
supérieur aux différentes vitesses courues lors l’enregistrement), la répartition des intervalles dans les
classes (pm) correspond aux consignes de vitesses données au coureur. La distinction entre la marche
et la course fonctionne très bien grâce à l’estimation de la cadence. Les changements de classes
correspondant aux différentes vitesses de course ou de marche sont obtenus grâce à la norme des
accéléromètres. Les variations de vitesse lors d’une marche ont été réalisées uniquement sur tapis.
Ces variations sont moins bien détectées que pour la course. Cette difficulté pour différentier les
vitesses de marche à partir de la moyenne des accélérations s’explique par une variation trop faible
de la moyenne entre les différentes vitesses de marche. De plus la marche sur tapis est moins régulière
que la course, il est peut-être plus difficile pour le coureur de suivre le rythme du tapis pour de la
marche que pour de la course.
65
Figure 3.9 – Résultat de la classification vu pour le capteur du pied droit
La figure 3.9 montre, avec l’exemple du pied droit, les résultats de classification pour un enregis-
trement de marche et de course sur piste (cette série appartient à la phase 2 de l’expérimentation,
voir le tableau 3.1). La courbe du haut (en bleu) représente la norme de l’accéléromètre placé sur le
pied droit. Pour améliorer la lisibilité, nous avons ajouté la moyenne glissante du signal en rose, mais
cette moyenne n’est pas utilisée par le traitement.
Dans ce cas la détection de rupture est réalisée avec l’algorithme CUSUM (voir §1.2.1, chapitre 2).
Le critère associé à la moyenne de la norme est obtenu à partir des résultats de CUSUM en parcourant
le signal dans le sens croissant du temps et dans l’autre sens. Les deux résultats de CUSUM sont
tracés au milieu en rose et rouge. La moyenne glissante est de nouveau tracée (en bleu) à titre
indicatif.
Le résultat de la classification se trouve en bas de la figure. Chaque classe obtenue est représentée
par son barycentre, c’est-à-dire par la moyenne de chaque critère au sein de la classe. Pour chaque
intervalle Im associé à une classe pm, on trace un segment horizontal entre tmmin et tm
max dont la valeur
66
en ordonnée est égale à la valeur du barycentre sur la dimension correspondant à l’accéléromètre
du pied droit. Les barres verticales rouges représentent les changements de classes obtenus par le
traitement et les barres verticales en pointillés verts représentent les consignes de changement de
vitesse données au coureur (vérité terrain).
La segmentation et la classification obtenues correspondent bien aux consignes données au cou-
reur. Le partitionnement est réalisé sur 5 classes, puisque l’on cherche à retrouver : arrêt, marche et
3 vitesses de course. La segmentation obtenue est satisfaisante car les changements de classes (repré-
sentés par les barres verticales rouges) surviennent à quelques secondes des changements de la vérité
terrain (barres vertes). Le décalage est simplement dû aux intervalles de transitions qui ne sont pas
classés (voir §2.1.3). La classification est satisfaisante car les classes correspondent effectivement aux
consignes en vitesse. Les intervalles du début et de la fin, correspondant à des arrêts, appartiennent
bien à une même classe. La différence entre la marche et les arrêts est peu visible sur la figure car
sur cette dimension les barycentres des deux classes sont très proches.
2.2.2 Le Marathon des Sables
Modifications spécifiques Il existe une différence importante entre l’expérimentation prélimi-
naire de Montpellier et les épreuves du Marathon des Sables : la durée des enregistrements. Les
enregistrements de l’expérimentation durent quelques minutes, alors que les étapes durent quelques
heures. La visualisation des résultats en fonction du temps est beaucoup plus compliquée. Parfois
il peut y avoir plusieurs changements de classe par minute, les résultats ne peuvent donc pas être
présentés de la même manière que sur la figure 3.9.
La différentiation de la marche et la couse est une information intéressante pour l’analyse de
la course et plutôt simple à obtenir. Nous avons donc choisi de commencer par séparer la marche
et la course. De plus pour ne pas perturber le partitionnement entre la marche et la course nous
avons choisi de retirer les intervalles correspondant à des arrêts. Pour cela nous utilisons l’énergie
des signaux accélérométriques, la technique est identique à celle présentée plus loin pour détecter la
marche lente 3.1.1, mais avec un seuil d’énergie Smax plus faible.
La figure 3.10 montre les résultats du partitionnement entre les intervalles de marche et les
intervalles de course. A gauche, les intervalles de temps ont été classés en deux groupes en utilisant
l’algorithme des k-moyennes, ce partitionnement est réalisé sur une seule dimension correspondant
à la durée entre les impacts du pied gauche (l’inverse de la cadence). Afin de mieux visualiser la
répartition entre les intervalles des marche et de course, nous avons utilisé une fenêtre glissante de
10 secondes, le pourcentage obtenu est représenté à gauche sur la même figure.
A part les intervalles d’arrêts qui ont été isolés, les pré-traitements appliqués sont identiques
à ceux de l’expérimentation de préparation. Une description est proposée sur la figure 3.11. Les
intervalles et les critères obtenus sont notés Im et Cm.
Les variations de moyenne sur les signaux accélérométriques étant plus faibles pour la marche
que pour la course, un partitionnement global des intervalles regroupe les différents types de marche
dans la même classe. Nous avons donc choisi de partitionner séparément la marche et la course.
Résultats Contenu des données disponibles, seule l’étape 1 du Marathon des Sables a pu être seg-
mentée avec le traitement présenté sur la figure 3.11. Les résultats sont représentés sur la figure 3.12,
ils sont tracés en fonction du temps et peuvent être comparés au rythme cardiaque. La courbe du
haut, en rouge, représente le rythme cardiaque en nombre de battements par minute. La courbe de
67
Figure 3.10 – Observation de la répartition entre les périodes de marche et de course à partir des
données FSR du pied gauche durant l’étape 1 du Marathon des Sables
calibration
+
synchronisation
� � � � � � �brut
� � { ACC }
{ FSR }
� � � � �cadence
détection
rupture
détection
rupture
classification
K = 2
{ Im, Cm}
{ pmmarche }classification
K = 2
classification
K = 3
{ Immarche, Cm
marche}
{ Imcourse, Cm
course} { pmcourse }
intervalles
arrêts
Figure 3.11 – Description du traitement appliqué aux données de l’étape 1 du Marathon des Sables
bas, en bleu, correspond à la norme du signal de l’accéléromètre du capteur placé sur le tibia gauche.
La courbe du milieu, en bleu, représente l’estimation de la cadence des foulées obtenue grâce à un
capteur FSR (en nombre de foulées par seconde). Sur le graphique du milieu, se trouve également
une barre constituée de rectangles colorés, cette barre représente le résultat de la classification des
intervalles de temps.
Chaque courbe verticale en pointillés verts marque le début d’un arrêt détecté grâce à l’accéléro-
mètre, et la barre du milieu est colorée en rouge durant toute la durée de l’arrêt. Durant les arrêts,
l’estimation de la cadence n’a pas de sens, donc le critère de cadence est placé à zéro. Cela n’aura
pas d’influence sur la classification puisque les intervalles considérés comme des arrêts ne sont pas
classés.
Un premier partitionnement a permis de différentier les intervalles de marche et de course, voir la
figure 3.10. Ensuite la marche et la course sont partitionnés séparément, les intervalles de course sont
représentés sur la barre par des rectangles verts et ceux de la marche par des bleus. Nous avons choisi
de partitionner la course sur 3 classes et la répartition entre classes est représentée par la teinte du
rectangle vert (vert clair, vert moyen et vert foncé). De la même manière, les intervalles de marche
étant partitionnés sur 2 classes, les rectangles correspondant sont soit cyans, soit bleus foncés.
Les zones blanches de la barre correspondent aux intervalles de temps qui n’ont pas pu être
classés. Dans tous les cas, si un intervalle n’a pas pu être classé, c’est parce qu’au moins l’un des
68
Figure 3.12 – Résultats de la segmentation de l’étape 1 du Marathon des Sables et évolution du
rythme cardiaque
critères (Cm) n’a pas pu être estimé correctement. Ce problème a deux explications. Tout d’abord,
un manque de données peut rendre rendre impossible l’estimation d’un critère. Mais conscients des
nombreux trous présents dans les données obtenues lors du Marathon des Sables, nous avons choisi des
critères plutôt robustes devant les trous. De plus les critères sont estimés sur des fenêtres de temps
de largeurs supérieures à la durée moyenne des trous et seront donc rarement vides. La seconde
raison est liée à la méthode d’estimation. Par exemple, l’estimation de la cadence fait appel à une
recherche de maximum local, et dans le cas où aucun maximum n’est trouvé, la cadence ne peut pas
être estimée. Quelqu’en soit la cause, un critère non estimé conduit inévitablement à un intervalle
de temps non classé, et cela risque d’être un inconvénient important pour beaucoup d’applications.
Nous reviendrons sur ce point en §4.2.
2.2.3 Course d’entraînement
Les résultats obtenus avec les données du Marathon des Sables ont été validés grâce aux variations
du rythme cardiaque, mais nous ne disposons pas de suffisamment d’informations sur le parcours
pour établir une correspondance entre les classes obtenues et des éléments géographiques. Cette
correspondance a pu être établie sur une course d’entrainement de 45 minutes, grâce à la trace GPS
et aux observations précises fournies par le coureur.
La classification du traitement appliqué sur les données de cette course, est faite sur 7 classes.
Nous avons choisi un nombre de classes important car cette course place volontairement le coureur
dans diverses conditions. De plus, cet enregistrement a été réalisé avec la dernière version des IMU,
les données sont donc plus précises et les classes peuvent être plus rapprochées. Le nombre de classes
69
pré-traitements
intervalles
{ Im, Cm}
classification
{ pm}
synchronisation
données
brutes
détection
rupturenorme
{ ACC }
détection
rupturenorme
{ GYR }
détection
rupturenorme
{ ACC }
détection
rupturenorme
{ GYR }
Figure 3.13 – Description du traitement appliqué aux données de la course d’entrainement.
étant important, il est inutile de classer séparément la marche et la course comme cela a été fait
pour les données du Marathon des Sables. La structure du traitement utilisé pour ces données est
présentée sur la figure 3.13.
Pour ces données, la cadence a été estimée en utilisant un axe du gyromètre de l’IMU de la
cheville, mais ce critère n’est pas utilisé lors de la classification. La méthode d’estimation de la
cadence que nous utilisons ne garantit pas d’aboutir à une valeur, comme par exemple lors des arrêts.
L’utilisation de ce critère lors de la classification implique donc que certains intervalles risquent de ne
pas pouvoir être classés. Dans le cas de cette course, les autres critères (normes des accéléromètres
et gyromètres) étant suffisants pour obtenir les résultats attendus, il n’est pas nécessaire d’utiliser
la cadence. C’est d’ailleurs pour cette raison, que, pour les données du Marathon des Sables, les
intervalles correspondant à des arrêts sont détectés et retirés avant la classification.
4.86 4.865 4.87 4.875 4.88
45.784
45.786
45.788
45.79
45.792
45.794
45.796
départ
pont
boucle
Figure 3.14 – Résultat de la segmentation de la course d’entrainement représenté sur la trace GPS.
La classification est réalisée sur 7 classes. Chaque portion du trajet appartient à l’une de ces classes
et il est représenté avec la couleur correspondante.
70
Le traitement nous a donc permis d’obtenir des intervalles de temps répartis en 7 classes. Nous
avons choisi de représenter ce résultat sur la trace GPS, voir la figure 3.14. Les coordonnées GPS
(longitude et latitude) sont relevées environ toutes les 20 secondes. Cette trace GPS nous permet
de synchroniser les données avec la vérité terrain déterminée sur carte (relief et commentaires du
coureur). Les changements de conditions de course (montée, descente, ...) ne sont donc pas datés
précisément (étant donné la fréquence des relevés GPS). Cependant, ces conditions restant inchangées
durant plusieurs minutes, cela suffit pour valider la classification. Sur la figure 3.14, cette trace est
représentée par des segments de droite qui relient les relevés GPS et la couleur des segments indique le
résultat de la classification. Cependant durant la vingtaine de secondes qui sépare deux coordonnées,
les données peuvent être segmentées en plusieurs intervalles de temps appartenant à des classes
différentes : certains segments sont donc constitués de plusieurs couleurs et une interpolation linéaire
par rapport au temps permet de répartir les couleurs. Cela explique que des arrêts soient représentés
par des segments et non par de simples points. À quelques approximations près, nous avons pu
établir une correspondance entre les informations de la vérité terrain et les différentes classes, cette
correspondance est présentée dans le tableau 3.4. Les informations de la vérité terrain ont permis de
caractériser chaque classe séparément, sauf les deux classes correspondant à de la course sur terrain
plat, nous les avons appelées "course de type 1" et "course de type 2". La majorité des intervalles
de temps correspondant à de la course sur terrain plat appartiennent à la classe "course de type 1"
(en noir), sauf ceux des 8 premières minutes (environ 1,5 km) qui appartiennent la classe "course de
type 1" (en rose). Peut-être que le coureur a besoin de ces premières minutes pour que son rythme
s’établisse. On remarque également quelques segments roses après des changements de rythme : après
les escaliers dans la boucle ou à l’approche des passages piétons au nord du pont.
Couleur de la classe Description associée
jaune arrêt
rouge marche lente
cyan marche
rose course à plat (type 1)
noir course à plat (type 2)
bleu course en montée
vert course en descente
Table 3.4 – Légende des couleurs représentant les classes. La trace GPS est représentée avec des
segments dont la couleur indique la classe à laquelle ils sont associés. La correspondance entre la vérité
terrain et la classification permet de décrire chaque classe avec des éléments de la vérité terrain.
4.872 4.874 4.876 4.878 4.88
45.785
45.786
45.787
Figure 3.15 – Zoom sur le départ et l’arrivée du parcours.
71
La figure 3.14 représente le parcours complet du coureur et des zooms sont proposés sur les figures
suivantes. On peut voir sur la figure 3.15, quelques segments verts sur le trajet de retour, ces segments
peuvent peut-être s’expliquer par le changement de terrain car cette partie se trouve être de l’herbe et
non plus de la route ou du chemin de terre. Les segments cyans, rouges et jaunes sont eux facilement
expliqués par la vérité terrain :
– le coureur termine son parcours par quelques foulées de marche (cyan),
– le coureur marque des arrêts volontairement longs pour que le début et la fin du parcours soient
facilement repérables sur les données (segments jaunes),
– les autres segments plus au sud permettent au coureur de regagner le bâtiment en marchant
(cyan, jaune et rouge).
4.86 4.861 4.862 4.863 4.864
45.7845
45.785
45.7855
45.786
45.7865
45.787
45.7875
Figure 3.16 – Zoom sur le Sud du pont. Le pont correspond à la ligne Nord-Sud du parcours.
Ensuite, la figure 3.16 permet de voir la section du parcours correspondant à la partie sud du
pont. Ce pont mesure presque 700 mètres de long et il faut monter puis redescendre pour le traverser :
le segment bleu se trouve sur la trace correspondant à l’aller du parcours, le coureur se trouve bien
dans une montée. On remarque que la classification est peut-être plus sensible pour les descentes car
le retour est classé vert sur une distance bien plus longue que la distance bleue de l’aller.
Sur la partie nord du pont (figure 3.17), il y a encore du dénivelé au niveau de la bretelle (courbe
sur la partie Nord-Sud) avec de la montée à l’aller et de la descente au retour. Puis la partie nord du
pont redescend durant le virage vers l’est, là encore on retrouve du vert en descente et du bleu en
montée.
Avant d’entamer une longue montée, le coureur doit traverser la route, cette difficulté se retrouve
en rose à l’aller et en cyan au retour, voir la figure 3.18. Encore une fois, pour de faibles dénivelés, la
classification semble plus sensible en descente qu’en montée. Le coureur se dirige ensuite vers le nord
et le dénivelé devient plus important (environ 8%), il va alors parcourir la boucle 2 fois entièrement
et terminer par un aller-retour (nord-sud) avant de faire le trajet retour. Il marque des arrêts entre
chaque boucle : visibles en jaunes. En haut de la boucle (le point le plus au nord correspond au point
72
4.86 4.861 4.862 4.863 4.864 4.865
45.7875
45.788
45.7885
� � � � � � � � � � � � � �� � � � � �
Figure 3.17 – Zoom sur le Nord du pont. Le pont correspond à la ligne Nord-Sud du parcours.
4.858 4.859 4.86 4.861 4.862 4.863 4.864 4.865 4.866
45.791
45.792
45.793
45.794
45.795
45.796
45.797
Figure 3.18 – Zoom sur la boucle. Cette boucle contient l’essentiel du dénivelé du parcours. Les
50m sont montés est descendus 2 fois par le coureur.
73
le plus haut de la boucle), il récupère avec un peu de marche (cyan) avant de repartir progressivement
(noir puis vert). La montée est intégralement classée en bleu. Même si la descente est principalement
verte, on remarque des segment noirs, peut-être que cela peut s’expliquer par les changements de
terrain (passages dans des cailloux).
Nous terminerons avec un point plus négatif : le passage par les escaliers n’a pas été classé
séparément, il n’est même pas classé de la même manière pour les deux passages (une fois par
boucle). Les escaliers se trouvent dans la boucle, sur la portion ouest-est lorsque la descente rejoint
la route de la montée. Ils sont classés en noir (course à plat) à l’aller et en bleu (montée) au retour.
3 Le temps de récupération
La récupération physique peut être estimée à partir du rythme cardiaque [18]. Un test de récupé-
ration peut être effectué en mesurant le rythme cardiaque durant un arrêt juste après un effort. Lors
des étapes du Marathon des Sables, il arrive au coureur de s’arrêter, pour se ravitailler en eau par
exemple. Nous avons mis en place un algorithme pour détecter ces arrêts et calculer le coefficient de
récupération.
Les arrêts que nous utilisons pour réaliser le test de récupération correspondent rarement à de vrais
arrêts. Durant une épreuve, les périodes où le coureur s’arrête complètement sont quasi-inexistantes.
Nous avons donc choisi de considérer les périodes de marche lente comme des arrêts de récupération.
3.1 Détection des arrêts de récupération
Pour la détection des arrêts, nous utilisons les données d’un accéléromètre placé sur un membre
inférieur et les données de l’altimètre. L’accéléromètre permet de détecter la marche lente et l’al-
timètre permet de vérifier qu’elle n’est pas causée par un dénivelé positif important. Ces étapes
correspondent aux trois premiers blocs de la figure 3.19.
{ ACC }
{ alti }
marche
lente> 1 min
{ Irécup}
{ coef corrélation }
Figure 3.19 – Description du traitement la détection des arrêts de récupération et le calcul du
coefficient de récupération
3.1.1 Détection de la marche lente
Lorsque le coureur ralentit, l’amplitude des accélérations de ses membres inférieurs diminue, donc,
la puissance du signal d’un axe d’accéléromètre diminue également. Afin de détecter cette diminution
nous avons choisi de passer par le calcul de l’énergie de ce signal dans une fenêtre glissante. Cette
énergie est calculée sur des fenêtres de 1,5 secondes de large et espacées de 0,5s. Une fenêtre est
associée à de la marche lente si son énergie est inférieure au seuil Smax, voir l’équation 3.1.1. La
valeur de ce seuil est définie empiriquement.
74
∑
k
|sk|2 < Smax (3.3)
Durant une période où le coureur marche lentement et pouvant être considérée comme une période
de récupération, un seul impact de pas trop important peut faire repasser l’énergie au dessus du seuil
de marche lente. Nous allons donc regrouper les arrêts proches. De plus, le test de récupération doit
être effectué juste après l’effort, si deux arrêts sont trop proches, la reprise de l’effort ne sera pas
assez longue pour faire le test sur le second arrêt. Nous avons donc choisi de regrouper les arrêts
séparés par moins de 10 secondes. Le test de récupération nécessite un arrêt d’au moins une minute.
Donc après le regroupement, seuls les arrêts de plus d’une minute seront conservés.
3.1.2 Vérification de la pente
Lorsqu’il monte une côte, le coureur réduit son allure. Si le dénivelé positif est important, le
coureur peut marcher si doucement qu’une marche lente sera détectée. Cependant le coureur n’est
pas dans une phase de récupération, au contraire, le plus souvent on observe une augmentation du
rythme cardiaque. Cette marche lente ne pourra donc pas être utilisée pour calculer le coefficient de
récupération. Afin d’estimer la vitesse ascensionnelle du coureur, le signal de l’altimètre est modélisé
par une droite sur la durée totale de la marche lente. Cette droite est obtenue par un ajustement
affine selon la méthode des moindres carrés. Nous avons défini un seuil au dessus duquel la vitesse
ascensionnelle est considérée comme trop élevée pour un arrêt de récupération. Sachant que la vitesse
ascensionnelle d’un marcheur moyen est de 300 m/h et aux vues des enregistrements, nous avons fixés
le seuil à 4 m/s, soit 240 m/h.
3.2 Test de récupération
Le test proposé [18], peut être réalisé avec un temps de récupération de 1 ou 5 minutes. Nous
n’avons pas utilisé le test sur 5 minutes, car les arrêts supérieurs à 5 minutes sont trop rares dans
ce type d’épreuve. De la même manière que cela est présenté dans l’exemple [18], nous calculons les
trois coefficients : régression, corrélation et récupération. Ces étapes correspondent aux trois derniers
blocs de la figure 3.19.
Le coefficient de régression correspond à la vitesse de décroissance du rythme cardiaque. Il est
exprimé en pulsations.min−2. Un ajustement affine est réalisé sur le signal du cardiofréquencemètre
lors de la première minute de l’arrêt et la pente de la droite obtenue correspond au coefficient de
régression. Plus la diminution du rythme cardiaque est rapide, plus le coefficient est négatif.
Le coefficient de corrélation permet d’évaluer la régularité temporelle de récupération, c’est-à-dire
la linéarité du signal du cardiofréquencemètre. On calcule le coefficient de corrélation entre le rythme
cardiaque et le temps (c’est-à-dire une droite). Plus le rythme cardiaque décroit régulièrement, plus
le coefficient de corrélation tend vers -1.
Le coefficient de récupération est la multiplication des deux coefficients précédents. Pour que la
récupération soit satisfaisante la diminution du rythme cardiaque doit être rapide et régulière.
75
3.3 Résultats
3.3.1 La récupération physique pour chaque étape
Notre algorithme a pu être utilisé sur les étapes 1, 2, 4 et 5 du Marathon des Sables. Et le test
de récupération a pu être appliqué sur plusieurs arrêts de chaque étape. Mais pour les étapes 3 et 6,
aucune centrale inertielle n’a fonctionné donc les données accélérométriques ne sont pas utilisables.
L’accéléromètre utilisé était celui du tibia droit, pour les étapes 1 et 2, et celui du pied droit pour
les étapes 4 et 5.
Les résultats du test sont tracés sur les figures 3.20, 3.21, 3.22 et 3.23. Les quatre figures sont
organisées de la même manière, les courbes sont tracées en fonction du temps, qui est exprimé en
heures, et correspondent du haut vers le bas :
– au rythme cardiaque, en pulsation par minute,
– à l’altimètre, soit à la variation d’altitude en mètres depuis le départ,
– au coefficient de régression, en pulsations.min−2,
– au coefficient de corrélation,
– au coefficient de récupération.
Le temps 0 ne correspond pas au début de la course mais à l’allumage du réseau de capteurs.
Les périodes de marche lente de durée inférieure à 1 min sont représentées par les points verts sur
la courbe du rythme cardiaque. Les périodes de marche lente de plus 1 min mais avec une pente
trop forte sont représentées en vert sur la courbe de l’altimètre. Et enfin, lorsque les conditions sont
réunies, le test de récupération est effectué. Les droites modélisant sur la première minute, le rythme
cardiaque et la pente sont représentées en rouge sur leurs courbes respectives.
La détection des arrêts de récupération a permis de faire le test de récupération plusieurs fois
par étape (3 ou 5 fois). Les résultats semblent cohérents, le coefficient de récupération décroît avec le
temps. Comme les épreuves sont longues, les capacités de récupérations se dégradent avec la fatigue.
L’algorithme que nous proposons permet d’automatiser le test de récupération. Cette automatisa-
tion est possible grâce à l’utilisation de deux autres types de capteurs. Le coefficient de récupération
ne peut pas être calculé seulement à partir du rythme cardiaque, car une décroissance ne garantit
pas que les conditions requises pour le test sont réunies. Une décroissance du rythme cardiaque peut
être observée lors de certaines descentes et il ne s’agit pas d’arrêts de récupération. L’automatisa-
tion du test réalisée à partir des informations extraites de l’accéléromètre et de l’altimètre permet
d’élargir les conditions d’utilisation de ce test. Le suivi de la capacité de récupération est possible
tout au long des épreuves et pas uniquement lors d’un entrainement ou en fin de course. Par contre,
l’algorithme ajoute également des contraintes matérielles car il requiert l’utilisation d’un altimètre et
d’un accéléromètre. Mais ces capteurs font déjà partie de l’équipement du coureur high-tech.
3.3.2 Comparaison de la récupération sur quatre étapes
La figure 3.24 montre, en parallèle pour les quatre étapes, l’évolution des trois coefficients calculés
lors du test de récupération. Cette représentation permet de repérer des points communs ou des diffé-
rences entre les étapes, mais nous sommes conscients que le nombre de mesures et le nombre d’étapes
sont trop faibles pour faire une étude statistique. Les commentaires faits à partir de cette figure ne
sont que des observations permettant d’ouvrir les perspectives d’utilisation de notre algorithme. Nous
ne faisons aucune généralisation à la course à pied.
76
La légende située sur le graphique du milieu précise la couleur associée à chaque étape. Cette
convention de couleurs a été utilisée pour tracer les trois coefficients.
Le coefficient de régression s’éloigne de -1 lorsque la durée de l’épreuve augmente. Et il paraît
normal que la capacité de récupération se dégrade avec la fatigue. Par contre, on observe une variation
brutale du coefficient de corrélation au delà de 4h d’épreuve, alors que l’on pourrait penser que la
régularité de récupération se dégrade régulièrement avec la durée de l’épreuve.
On remarque également que pour l’étape 1, le coefficient de récupération obtenu lors du deuxième
test est particulièrement bas par rapport aux autres étapes et aux autres tests de la même étape. Cet
écart pourrait s’expliquer par un départ trop rapide, grisé par la première immersion dans la course,
il faut du temps au coureur pour trouver son rythme.
Le point correspondant au dernier test de récupération de l’étape 2 (courbe verte) paraît aberrant.
Cela s’explique en regardant la figure 3.21, les deux derniers tests sont très rapprochés et le rythme
cardiaque n’a pas eu le temps de remonter entre les deux arrêts. Le dernier test de l’étape 2 n’a donc
pas était fait dans les conditions requises par le test. L’algorithme pourrait donc être robustifié en
ajoutant un temps minimum entre deux tests et/ou une contrainte sur le rythme cardiaque minimum
en début de test.
4 Perspectives et conclusion
4.1 Utilisation de données qualitatives
Certaines informations peuvent sembler importantes pour la classification, mais de par leurs
natures ne sont pas directement utilisables dans le traitement présenté ci-dessus. Dans le cas du
Marathon des Sables, chaque coureur dispose d’un road book contenant des informations sur le par-
cours sous la forme de schémas, de points de repères visuels et d’indications sur la distance. Même
si le coureur se perd et qu’il s’écarte du parcours initialement prévu, les écart seront faibles. Nous
pouvons donc repérer des informations fiables, par exemple, le passage par un plateau sera précédé
d’une montée et donc d’une augmentation visible sur l’altimètre. Les indications de cap pourraient
être couplées avec les magnétomètres. Les check-points sont obligatoires et peuvent correspondre à
des arrêts. Bien sûr, il est difficilement envisageable d’utiliser certaines indications visuelles comme
la présence d’un groupe de palmiers.
Ce type d’informations pourrait être utilisé pour réaliser une modélisation du parcours sous la
forme d’un processus de Markov. Plus précisément, nous avions envisagé de représenter le parcours
par un modèle de Markov à états cachés [45]. Les états seraient définis en fonction des particularités
du terrain (ligne droite, plat, montée,passe caillouteuse...) et les observations associées pourraient
correspondre aux intervalles (segments homogènes).
4.2 Vers un traitement en ligne
Le traitement que nous proposons est particulièrement contraint par la qualité des données et la
robustesse des estimateurs de critères. Dans le cas d’un défaut de capteur ou lorsque la valeur d’un
critère ne peut pas être évaluée, l’intervalle de temps correspondant à ce manque d’information ne
pourra pas être classé. Cependant, si la quantité de données manquantes n’est pas trop importante,
il pourrait être classé après la détermination des classes. Effectivement, toutes les dimensions sont
77
requises pour déterminer les barycentres des classes, mais une fois les coordonnées des barycentres
connues, cet intervalle de temps pourrait être classé par rapport aux dimensions non manquantes.
Ce même principe pourrait être étendu à une utilisation en ligne du traitement. Cela impliquerait
de définir les barycentres des classes à l’avance et donc de disposer d’une série de données pouvant
servir de référence. La segmentation pourrait alors être effectuée en ligne car cela ne nécessite que
peu de puissance et de temps de calcul.
Si les conditions de l’acquisition sont différentes de celles des données de référence (utilisées pour
définir les classes), il est possible que les barycentres ne soient pas adaptés. Dans ce cas l’ajout auto-
matique d’une classe pourrait être envisagé. Si un groupe de points est trop éloigné des barycentres
déjà définis, une nouvelle classe pourra être ajoutée en utilisant ce groupe pour calculer son bary-
centre. Cette amélioration permettrait de simplifier le choix du nombre de classes. Effectivement, si
l’utilisateur dispose d’un jeu de données acquis dans des conditions contrôlées et de volume réduit,
le choix du nombre de classe est largement facilité.
Dans le cas du coureur, les données de la course d’entrainement pourraient être utilisées comme
référence. La classification obtenue est satisfaisante et les conditions de course sont variées, par contre,
le nombre de capteurs est plutôt réduit.
4.3 Conclusion
L’outil de segmentation et de classification que nous proposons n’est pas basé sur un nouveau
concept mathématique de traitement de données. Il exploite simplement les techniques déjà existantes
pour les rendre plus adaptées au gros volumes de données induites par des capteurs de plus en plus
petits et autonome.
Cet outil a l’avantage de pouvoir s’adaptable à différentes applications multi-capteurs, quelque
soit le sujet équipé ou les capteurs utilisés. Les pré-traitements que nous utilisons sont adaptés à tous
les signaux pseudo-périodiques, ils peuvent donc facilement être utilisés sur données physiologiques ou
liés au mouvement. N’étant basés sur aucun modèle géométrique ou dynamique (sauf pour la longueur
de foulée), ils ne s’accompagnent pas de contraintes de calibration ou de mesures anthropométriques
complexes. Ils sont donc faciles à appliquer, notamment dans le cas de la déficience comme cela est
présenté dans le chapitre suivant, ou plus encore si les sujets sont des animaux.
Durant les premières expérimentations, nous équipions le sujet avec de nombreux capteurs (prin-
cipalement des IMU). Nous pensions que la redondance pouvait nous aider lors de la classification,
mais sans une hiérarchisation des capteurs et si les informations portées par les signaux sont trop
proches, c’est plutôt l’effet inverse qui se produit. La redondance peut être utile en cas de défaillance
technique, et encore plus si les capteurs sont de types ou de technologies différentes. Cependant, ces
expérimentations nous ont aidés pour choisir les positions des capteurs, car il faut trouver le bon
compromis entre des informations riches, le confort du sujet et une fixation efficace pour limiter les
mouvements parasites.
78
0.5 1 1.5 2 2.5 3 3.5 4 4.50
100
200récupération sur 1 min : etape 01
card
io (
puls
/min
)
0.5 1 1.5 2 2.5 3 3.5 4 4.5−50
0
50
altim
ètre
(m
)
0.5 1 1.5 2 2.5 3 3.5 4 4.5−30
−20
−10
regr
essi
on
0.5 1 1.5 2 2.5 3 3.5 4 4.5−1
−0.95
−0.9
corr
élat
ion
0.5 1 1.5 2 2.5 3 3.5 4 4.50
20
40
récu
péra
tion
temps (heures)
Figure 3.20 – Test de récupération lors de l’étape 1
79
1 2 3 4 5 6 7100
150
200récupération sur 1 min : etape 02
card
io (
puls
/min
)
1 2 3 4 5 6 7−500
0
500
altim
ètre
(m
)
1 2 3 4 5 6 7−40
−20
0
regr
essi
on
1 2 3 4 5 6 7−1
−0.8
−0.6
corr
élat
ion
1 2 3 4 5 6 70
20
40
récu
péra
tion
temps (heures)
Figure 3.21 – Test de récupération lors de l’étape 2
80
2 4 6 8 10 12 14 160
100
200récupération sur 1 min : etape 04
card
io (
puls
/min
)
2 4 6 8 10 12 14 16−200
0
200
altim
ètre
(m
)
2 4 6 8 10 12 14 16−40
−20
0
regr
essi
on
2 4 6 8 10 12 14 16−1
−0.5
0
corr
élat
ion
2 4 6 8 10 12 14 160
20
40
récu
péra
tion
temps (heures)
Figure 3.22 – Test de récupération lors de l’étape 4
81
1 2 3 4 5 6 70
100
200récupération sur 1 min : etape 05
card
io (
puls
/min
)
1 2 3 4 5 6 7−50
0
50
altim
ètre
(m
)
1 2 3 4 5 6 7−30
−25
−20
regr
essi
on
1 2 3 4 5 6 7−1
−0.95
−0.9
corr
élat
ion
1 2 3 4 5 6 715
20
25
récu
péra
tion
temps (heures)
Figure 3.23 – Test de récupération lors de l’étape 5
82
1 2 3 4 5 6 7 8−30
−20
−10
0
régr
essi
on
temps (h)
récupération sur 1 min : 4 étapes
1 2 3 4 5 6 7 8−1
−0.8
−0.6
−0.4
−0.2
corr
élat
ion
temps (h)
01020405
1 2 3 4 5 6 7 80
5
10
15
20
25
récu
péra
tion
temps (h)
Figure 3.24 – Superposition des résultats de récupération des 4 étapes
83
Chapitre 4
La Segmentation de données appliquée
à l’analyse de la locomotion déficiente :
cas de la maladie de Parkinson
1 Contexte
La maladie de Parkinson (MP) est une maladie chronique dégénérative du système nerveux central
liée à un déficit en dopamine. La dopamine est un neurotransmetteur, bien que très minoritaire dans le
système nerveux central, elle joue un rôle complexe et intervient dans diverses fonctions importantes,
telles que le comportement, la cognition, les fonctions motrices, la motivation, les récompenses, le
sommeil ou la mémorisation. Au cours de l’évolution de la maladie, ces neurones vont progressivement
se dégrader, diminuant ainsi la quantité de dopamine. Cette maladie se déclare généralement entre
55 et 60 ans, elle touche 6,5 millions de personnes dans le monde, dont 150 000 en France, ce qui
correspond à environ 1% de la population des plus de 60 ans. Les trois symptômes majeurs de la
maladie sont le tremblement, la rigidité et l’akinésie. Leur localisation peut évoluer au niveau des
membres, de la face et du tronc. Le symptôme conduisant le plus souvent à la consultation est
le tremblement, il touche 4 patients sur 5. On distingue les formes tremblantes et les formes sans
tremblement dites "akinétohypertoniques".
Quand la maladie progresse, elle peut causer des troubles de la marche importants. On parle
alors d’enrayage cinétique (ou de « freezing » en Anglais). Les difficultés de marche observées dans
la maladie de Parkinson sont variées et ont des conséquences importantes dans la vie des patients
(limitation de la mobilité et de la qualité de vie, chutes). Elles se caractérisent sur le plan cinématique
par une diminution de la vitesse de marche, de la longueur du pas et une augmentation du temps de
double appui. L’augmentation de la variabilité du pas, la diminution de l’amplitude de la foulée et
l’accélération de la cadence lors d’un demi-tour témoignent d’une instabilité posturale.
1.1 Un syndrome de la maladie de Parkinson : « Freezing of Gait »
Le freezing est un symptôme qui peut être particulièrement invalidant qui concerne environ la
moitié des malades de la maladie de Parkinson. Il se caractérise par l’incapacité transitoire à effectuer
un pas dans des circonstances variées, comme l’initiation du premier pas, le demi-tour ou le franchis-
sement d’une porte. Ce symptôme reste peu influencé par les traitements et peut être responsable
84
Figure 4.1 – Illustration de la maladie de Parkinson
de chutes traumatisantes. Le freezing a des conséquences importantes dans la vie des patients : limi-
tation de la mobilité et de la qualité de vie. Le symptôme se manifeste sur des intervalles de temps,
que l’on appellera épisodes de freezing ou FOG (freezing of gait).
Des travaux récents [2, 26] suggèrent que la survenue d’un épisode de freezing peut être la consé-
quence de perturbations physiopathologiques diverses. La particularité des facteurs de déclenchement
(espace étroit, demi-tour, phase d’approche, espace ouvert) suggère l’implication d’éléments percep-
tifs, de difficultés d’adaptation posturale, ou de planification motrice dans la genèse de ces symptômes.
Dans ces circonstances, la marche devient impossible ou prend l’aspect de pseudo-tremblements
ou de petits pas rapides de très faible amplitude (quelques centimètres). Les patients ont alors une
sensation de pieds englués sur le sol avec parfois un tremblement alterné des jambes comme s’ils se
trouvaient sur une pente fortement inclinée.
Les troubles de la marche sont plus importants en état hypo-dopaminergique et les épisodes de
freezing sont plus fréquents si les patients ont pour consigne de marcher à cadence rapide (métronome)
ou à petits pas [13], mais ce symptôme reste variable. Certains patients peuvent ainsi faire plusieurs
kilomètres en terrain accidenté sans difficulté et tomber une dizaine de fois en une journée à leur
domicile.
Un des aspects singuliers de ce symptôme réside dans sa sensibilité à un indiçage sonore ou visuel.
En effet un rythme sonore ou une succession de lignes sur le sol permettent de limiter les épisodes
de freezing [35, 32]. L’indiçage sonore correspond généralement à un métronome que le patient doit
écouter, le rythme semblant agir comme une consigne pour aider le patient à réguler sa cadence de
marche. L’indiçage visuel est une technique utilisée en kinésithérapie. Pour redémarrer la marche
après un blocage le patient doit enjamber un obstacle fictif. Cette technique peut également être
utilisée par une personne qui marche au côté du patient : en cas de blocage, l’accompagnant place
son pied devant le patient pour qu’il l’enjambe, cela permet au patient de faire le premier pas. On
considère que ce symptôme est lié au dysfonctionnement de plusieurs réseaux cérébraux impliqués
dans la genèse des mouvements rythmiques, de l’intégration sensori-motrice et de l’adaptation pos-
turale en situation de tâches multiples. Cette particularité offre des possibilités de rééducation, mais
aussi d’aide technologique [13, 7, 20]. Sur la figure 4.2 est tracé un échantillon des données enregis-
trées par une IMU placée à la cheville d’un patient durant une marche : en haut l’accélération de la
cheville (superposée à la gravité) et en dessous la vitesse de rotation du tibia dans le plan sagittal.
La modification de la forme d’onde des signaux causée par le symptôme est parfaitement visible.
85
0 2 4 6 8 10 12 14 16 18 200
1
2
3
4
5
norm
e A
CC
(g)
temps (s)
IMU à la cheville
0 2 4 6 8 10 12 14 16 18 20−200
−100
0
100
200
GY
R s
agitt
al (
rad/
s)
temps (s)
FOG
FOG
Figure 4.2 – Signaux obtenus lors d’un FOG avec une IMU placée à la cheville (patiente 3) : en
haut, la norme de l’accélération, et en dessous, la vitesse de rotation dans le plan sagittal.
1.2 L’instrumentation : un potentiel technologique pour mieux comprendre la
maladie et pour une solution d’assistance
Les difficultés de la marche que nous venons de présenter sont causées par des anomalies variées
qui sont plus ou moins sensibles aux différents traitements médicamenteux. Le freezing est parfois
sensible à la L-dopa ou à la caféine, mais cette sensibilité diminue dans le temps à cause de l’accoutu-
mance, on parlera alors de périodes ON et OFF. Durant les périodes ON, les symptômes sont corrigés
par le traitement, mais ils reviennent durant les périodes OFF. Le plus souvent il n’y a pas d’option
médicamenteuse satisfaisante [25, 23]. Par ailleurs, certains troubles de la marche résistent au trai-
tement dopaminergique. C’est le cas de la variabilité du temps de double appui qui est considérée
comme un paramètre de l’adaptation posturale au cours de la marche. La stimulation intracérébrale
chronique [17] est également une solution parfois mise en place avec plus ou moins de succès.
La rééducation est un temps important de la prise en charge du patient. Dans ce domaine, l’ins-
trumentation du malade pourrait être un outil d’aide au diagnostic et une assistance technologique
dans la prévention des chutes causées par les épisodes de freezing.
1.2.1 L’aide au diagnostic
Comme nous le disions lors de leur description, les épisodes de freezing peuvent être déclenchés
par des éléments perceptifs connus tels que le passage d’un seuil de porte ou la réalisation de calcul
mental durant la marche. Même si ces éléments perceptifs sont facilement reproductibles lors d’une
consultation, leur présence n’implique pas nécessairement l’observation d’un épisode de freezing. Cette
hétérogénéité physiopathologique intra et inter individuelle peut expliquer les échecs des différentes
stratégies thérapeutiques, car la variabilité du symptôme rend la prise en charge aléatoire, d’autant
plus que son analyse visuelle en cours de consultation est difficile en l’absence de quantification. Pour
réaliser un diagnostic il faut recenser la fréquence et l’amplitude des épisodes de freezing. Actuellement
ce sont des questionnaires normalisés qui sont utilisés, mais la valeur de ces questionnaires est remise
en cause [48, 24], car les résultats sont trop subjectifs et peuvent varier selon le spécialiste qui l’utilise.
86
Un système capable de détecter et de compter les épisodes de freezing au quotidient permettrait de
suivre les progrès d’un patient. Il serait également utile de pouvoir connaître la durée et l’intensité
de ces épisodes.
1.2.2 Détecter et réduire les épisodes de freezing
On sait que l’on peut agir sur le freezing en utilisant un indiçage sonore ou visuel mais les effets de
cette aide sont transitoires [22, 49]. Cet indiçage consiste à produire un son rythmique ou des marques
régulières sur le sol, action qui va entrainer une amélioration spectaculaire du symptôme puisque le
patient va reprendre sa marche. Plusieurs programmes de rééducation utilisant cette stratégie ont été
effectués. L’étude RESCUE [41] qui a porté sur 153 patients a montré que l’utilisation d’un système
d’indiçage (visuel, auditif ou somato-sensoriel) pendant 3 semaines au domicile avait un impact sur
la vitesse de marche, la sévérité du freezing et l’équilibre mais que cet effet ne persistait pas à la visite
de suivi de 6 semaines. En effet, ce type d’aide n’est pas envisageable en permanence car il impose
une charge attentionnelle au malade. Des systèmes de canne et de déambulateur avec projection d’un
faisceau laser sur le sol ont été développés (voir la figure 4.3) mais ceux-ci n’améliorent le freezing
que de manière modérée. Un écueil de ce type d’approche est lié à l’augmentation de la charge
attentionnelle imposée par un appareillage non automatique renforçant ainsi le freezing. L’approche
la plus logique consisterait à déclencher le système d’indiçage dès les premiers signes afin d’éviter le
blocage ou au moins d’en diminuer la durée en générant l’indice qui permettrait de faire le premier
pas. Plusieurs auteurs [13, 38] ont montré que le freezing est généralement associé à une variabilité du
rythme de la marche et est précédé de plusieurs anomalies : une diminution nette et incrémentée de la
durée de la foulée, une réduction de l’amplitude articulaire des membres inférieurs, une perturbation
du contrôle temporel de la marche et une activité tremblante alternante. Ces différentes anomalies
peuvent être repérées par des systèmes de détection offrant des perspectives intéressantes.
Figure 4.3 – Exemple de déambulateur équipé d’un laser permettant de projeter une ligne au sol
devant le malade. <http ://www.parkinson-web.de>
Dans le domaine de la recherche, les systèmes de capteurs portables, permettant d’instrumenter
une personne, sont de plus en plus accessibles : leur coût baisse, ils se miniaturisent, ils gagnent
en autonomie et en simplicité d’utilisation. Différents types de capteurs ont déjà été utilisés pour
faire de la détection de freezing. Par exemple, des accéléromètres ont été utilisés pour détecter les
tremblements des membres inférieurs présents lors des épisodes de freezing [39, 8]. Des capteurs
de pression ont été placés dans les semelles des patients pour observer la régularité des foulées et
leur ressemblance à une foulée de référence [44]. Les trajectoires des angles articulaires des membres
87
inférieurs ont également été observées en utilisant des gyromètres, afin de déterminer la vitesse de
marche, le temps de double appui ou la longueur des foulées [47].
Nous nous sommes intéressés particulièrement aux travaux menés par les équipes de Moore [39]
et Bächlin [8, 7]. Conscients de la limitation des indiçages sensoriels sur plusieurs semaines et de
l’augmentation de la charge attentionnelle qu’ils provoquent, ces chercheurs utilisent un système
d’indiçage auditif déclenché automatiquement lors de la détection d’un épisode de freezing. La mé-
thode de détection est basée sur la recherche de tremblements. Il a déjà été montré en utilisant un
accéléromètre placé sur un membre inférieur, que la présence de hautes fréquences correspondait à
un épisode de freezing [39, 14]. Les tremblements au cours du freezing impliquent qu’une part im-
portante de la puissance spectrale des signaux accélérométriques se situe entre 3 et 8Hz, alors que la
bande de fréquence correspondant à une locomotion normale se situe en dessous de 3Hz.
Cependant, si les épisodes de freezing contenant des tremblements sont bien détectés, tous les
blocages ne le sont pas. Ce que nous appelons tremblements lors des épisodes de freezing est aussi
appelé festination. Dans les deux cas il y a un enrayage cinétique qui conduit le patient à ne plus
pouvoir avancer et risque de provoquer la chute, festination ou non, tous les type de freezing doivent
être détectés. Lors d’un épisode de freezing sans tremblements, le patient a la sensation d’être englué
au sol mais ses membres inférieurs restent immobiles, le freezing ne peut alors pas être reconnu en
observant le spectre fréquentiel des signaux accélérométriques. Donc un système basé uniquement sur
l’observation des tremblements ne déclenchera pas d’indiçage pour aider à faire le premier pas lors
d’un blocage sans tremblements. Nous avons donc orienté notre travail vers la prévision du freezing,
c’est-à-dire une détection avant l’arrivée des tremblements ou du blocage complet.
1.3 Objectifs
Le travail présenté dans ce chapitre s’inscrit dans un projet plus large, nous présentons ici les pre-
mières briques d’un système complet qui permettra de valider la pertinence d’un concept émergeant.
Comme nous venons de le présenter, l’indiçage sensoriel a des effets bénéfiques sur le symptôme de la
maladie de Parkinson, "freezing of gait". Cependant cet effet s’estompe au bout de quelques semaines
d’utilisation, car la charge attentionnelle induite par l’indiçage permanent favorise l’apparition du
symptôme.
Le concept qui semble émerger des recherches actuelles et dont nous souhaitons valider la per-
tinence est d’automatiser le dispositif d’indiçage. Un déclenchement automatique de l’indiçage, uni-
quement lorsque les premiers signes du symptôme apparaissent, permettrait de réduire la charge
attentionnelle tout en conservant (voire améliorant) les effets positifs déjà observés.
Notre contribution à ce projet a pour objectif de développer un algorithme permettant une dé-
tection rapide des épisodes de freezing à partir des signaux obtenus en équipant des malades de la
maladie de Parkinson avec des centrales inertielles (IMU, voir le chapitre 1). Notre travail a été réalisé
sur des données pré-enregistrées (hors ligne), mais l’objectif du projet est de porter cet algorithme
sur un système embarqué doté de centrales inertielles et d’un dispositif d’indiçage (visuel ou sonore).
Ce système complet sera utilisé pour réaliser l’étude préliminaire permettant de valider la pertinence
du concept.
Le projet nous impose donc des contraintes matérielles : le réseau de capteurs utilisé est imposé
(voir chapitre 1), le système doit être entièrement autonome et l’équipement doit rester confortable
pour le patient. Nous avons donc cherché à réduire la complexité calculatoire de la détection de
88
freezing pour qu’il puisse être utilisé en ligne avec des puissances de calcul limitées. Le positionnement
des capteurs a été déterminé pour simplifier la phase d’équipement tout en assurant une fixation
sûre et en considérant le confort de l’utilisateur. De même, la phase de calibration doit être aussi
transparente que possible pour l’utilisateur, ce qui nous a conduit à choisir des modèles simples.
1.4 Protocole d’expérimentation
Comme nous l’avons présenté ci-dessus (§1.3), notre objectif est de développer un outil pour la
détection des épisodes de "freezing" à partir d’un réseau de capteurs. Le principal objectif du projet
est de mettre en place une expérimentation réalisée sur de nombreux patients, le protocole n’est pas
encore achevé mais certaines contraintes seront incontournables et le système de détection doit les
respecter.
Comme nous le verrons lors de la présentation de notre détecteur de "freezing" (§3), nous avons
besoin d’estimer la longueur des foulées et leur cadence. En vue d’une future version embarquée,
nous avons, pour cela, privilégié des méthodes nécessitant peu de puissance de calcul, peu de mesures
anthropométriques, une phase de calibration simple et enfin des capteurs peu nombreux et faciles à
positionner.
1.4.1 Placement des capteurs
Dans la perspective d’une utilisation de notre système de détection à domicile et au quotidien,
la patient doit être capable de fixer lui même le système en quelques minutes, et doit pouvoir le
camoufler facilement. L’idéal serait donc de ne pas utiliser plus de deux IMU. Nous ne souhaitions
pas utiliser de capteurs au niveau des chaussures. Même si les semelles dotées de capteurs de pressions
peuvent sembler adaptées pour déterminer la cadence, elles ont plusieurs inconvénients. Le syndrome
du pied tombant, qui peut être causé par la maladie de Parkinson, peut dégrader les estimations
obtenues avec une telle semelle. De plus, ce type de capteur peut causer de l’inconfort : si la semelle
n’est pas parfaitement intégrée à la chaussure, les frottements lors d’une utilisation prolongée peuvent
être douloureux. Quelque soit le type de capteur et de boîtier, la fixation à la chaussure n’est pas
toujours aisée et risque d’être difficile à camoufler. Et enfin, la fixation d’un capteur n’est pas possible
sur tous les modèles de chaussures, les chaussures ouvertes et les chaussons pourraient par exemple
poser problèmes. Les IMU doivent seulement être bien fixées pour suivre au plus près les mouvements
du corps et non le mouvement des vêtements.
Les segments des membres inférieurs sur lesquels sont fixés les IMU sont déterminées lors de la
mise en place du protocole, mais grâce à la phase de calibration, les IMU n’ont pas besoin d’être parti-
culièrement placées dans le plan sagittal. N’ayant pas non plus de contrainte sur le sens (orientation),
il n’y pas pas de risque d’erreur lors de la mise en place des capteurs.
Lors des expérimentations que nous avons réalisées, le plus souvent nous avons placé autant d’IMU
que possible. Compte tenu des méthodes d’estimation des longueurs de foulée et de cadence que nous
avons sélectionnées et de notre choix de ne pas équiper la chaussure, l’idéal aurait été de faire toutes
nos expérimentations avec au moins 4 IMU, afin de pouvoir équiper les deux jambes (cheville et genou)
comme le montre la figure 4.4. Le positionnement à la cheville permet d’obtenir les informations sur le
mouvement du tibia tout en simplifiant la fixation. De même, pour suivre le mouvement de la cuisse,
le boîtier est placé au dessus du genou. La fixation de 4 boîtiers sur un sujet valide ou un patient ne
prend que quelques minutes, puisque nous verrons que nous n’avons pas de contrainte précise pour
89
la position et aucune contrainte d’orientation. Cependant, nos expérimentations ont également été
soumises à des contraintes matérielles, nous ne disposions pas toujours de suffisamment d’IMU.
Figure 4.4 – Position des IMU placées sur les membres inférieurs.
La segmentation des différentes foulées est réalisée en utilisant le gyromètre placé à la cheville. Ce
capteur est donc indispensable, de plus avec seulement cette IMU à la cheville, la détection des freezing
est possible. Mais l’ajout d’un autre boîtier d’IMU au genou améliore la précision de l’estimation de
la longueur de foulée. L’information essentielle à notre méthode de détection de freezing n’est pas la
longueur exacte des foulées mais leur variation. Il nous est donc difficile de savoir si les avantages de
l’ajout du second boîtier sont plus grands que les contraintes (coût, synchronisation, fixation). Pour
le savoir, il faudra comparer les deux méthodes de détection sur une plus grande quantité de données
et surtout sur plusieurs patients.
Le détecteur que nous avons mis en place n’utilise aucune information sur l’asymétrie de la marche.
Effectivement, nous utilisons la longueur et la cadence des foulées, ces paramètres sont liés à un cycle
complet (une foulée) et ne contiennent pas d’information permettant de comparer les mouvements des
deux jambes. Pourtant, la mesure de cette asymétrie pourrait peut-être être utile dans la détection
des épisodes de freezing. Des travaux [50] ont montré que l’asymétrie de la marche est plus importante
chez les malades sujets aux épisodes de freezing que chez les sujets valides. De plus, cette asymétrie
est plus importante durant les périodes OFF [43]. L’asymétrie de la marche peut être évaluée en
comparant les durées des périodes oscillantes des deux pieds. Grâce à la précision du gyromètre de la
dernière version des IMU que nous avons utilisés, nous sommes capables de déterminer la durée des
périodes oscillantes d’un pied à partir du capteur placé à la cheville. L’asymétrie peut donc facilement
être observée si le patient est équipé de capteurs aux deux chevilles.
1.4.2 Calibration
La calibration électrique est présentée au paragraphe 2.2.1 du chapitre 1. Nous n’utilisons pas les
magnétomètres dans la détection des épisodes de "freezing" et la dernière version des IMU contient
une calibration des accéléromètres suffisante pour notre application. Seule l’estimation de l’offset des
gyromètres est donc nécessaire lors de la calibration électrique des IMU (nouvelle version) pour faire
de la détection de "freezing". Cette calibration nécessite simplement que le patient reste immobile
quelques secondes dans une position debout naturelle.
D’autre part une calibration est nécessaire pour déterminer l’orientation des boîtiers par rap-
port au plan sagittal. Le patient doit donc effectuer quelques foulées de marche en ligne droite sans
contrainte supplémentaire. Nous avons donc remplacé la contrainte sur le positionnement par ce ces
quelques foulées de marche. Dans le cas d’un sujet valide, cette technique d’orientation est incon-
testablement un avantage car l’alignement d’une IMU par rapport au plan sagittal peut s’avérer
90
compliqué. Cette liberté de positionnement permet de choisir une zone plutôt plate et éloignée des
gros muscles (moins de mouvement lors de la contraction). Mais dans le cas d’un patient atteint
de la maladie de Parkinson, le choix de l’utilisation de cette technique peut sembler moins évident.
Effectivement, pour certains malades, il peut être difficile d’effectuer quelques foulées sans subir les
perturbations du symptôme. Nous estimons que les patients qui seront retenus pour le projet seront
tous capables de faire ces quelques foulées. De plus, dans la perspective d’un élargissement du projet à
une utilisation fréquente à domicile, des améliorations sont envisageables si la réussite des premières
foulées est une contrainte pour le patient (voire une charge attentionnelle). Il est envisageable de
répartir la calibration sur les premières minutes même si celle-ci contiennent des virages, demi-tours
ou épisodes de "freezing".
Bien entendu, comme nous l’avions précisé dans la description des capteurs faites en 2.2 au
chapitre 1, nous considérons que les mesures obtenues avec une IMU sont données dans un repère
parfaitement orthogonal et identique pour tous les types de capteurs. Nous estimons également que
la carte électronique est fixe à l’intérieur du boîtier, mais il n’est pas utile qu’elle soit alignée au
boîtier grâce à l’estimation d’orientation par rapport au plan sagittal.
1.4.3 Le milieu clinique
Les besoins technologiques pour faire avancer la recherche médicale sont nombreux et souvent
spécifiques. Pour y répondre, les médecins doivent collaborer avec des spécialistes de nombreux do-
maines. Le projet dans lequel s’inscrit notre travail est dans cette situation, nous pensons qu’un outil
de détection et de quantification du symptôme pourrait aider dans la compréhension la maladie et
pour faciliter le diagnostic. Nous travaillons donc en collaboration avec le neurologue Christian Geny,
pour formaliser la problématique et envisager des solutions. Il nous a également permis d’acquérir
des données de mouvements sur des patients atteints de la maladie de Parkinson.
La présence de patients lors de nos expérimentations, impose de suivre certaines réglementations
pour assurer leur protection. En France, les travaux de recherche effectués dans le domaine biomédical
doivent être approuvés par l’un des Comités de protection des personnes (CPP). Le Comité est une
instance officielle chargée d’analyser et de donner un avis sur les protocoles de recherche impliquant
des personnes et la constitution de collections d’échantillons biologiques humains. Il s’assure que la
protection des participants à la recherche biomédicale est assurée, que la recherche est pertinente
et que l’évaluation du rapport bénéfice/risque est favorable. Il doit également veiller à ce que les
participants disposent de toutes les informations avant de donner leur consentement. Notre protocole
a été classé en "étude en soins courant" par le CPP Sud Méditerranée IV en juin 2012.
1.4.4 Vérité terrain et identification des FOG
Les informations correspondant à la vérité terrain sont aussi importantes que les données. La
vérité terrain est parfois difficile à obtenir. Dans le chapitre 3, nous avons vu en 1.3.1, avec une
application sur le du sportif , que certaines de ces informations peuvent être manquantes ou peu
précises lorsque les données sont recueillies en conditions réelles (course en extérieur ou Marathon
des Sables). Mais dans ce cas de cette application au sportif, des expérimentations en milieu contrôlé
ont permis d’éviter ce problème. Cependant, la principale difficulté pour obtenir la vérité terrain
pour cette application sur la maladie de Parkinson est très différente de celles rencontrées avec le
sportif. La difficulté ne se trouve pas dans le nombre important de paramètres à observer ou dans
91
un environnement non maitrisé, mais dans ce que nous observons, car il n’existe aucun système
permettant de une mesure fiable et précise de freezing.
Dans un premier temps, nous souhaitions mettre en place une estimation de la longueur de foulée
et de la cadence pour notre réseau de capteurs. Le protocole des expérimentations était relativement
simple à définir car il existe des outils permettant d’obtenir des mesures précises des paramètres que
nous souhaitions observer. Mais pour répondre à la problématique de cette application, nous devons
valider la détection des épisodes de freezing, or nous ne disposons pas d’outil précis pour faire cette
mesure. C’est justement parce que les solutions existantes ne nous conviennent pas que nous avons
décidé d’en proposer une nouvelle.
De plus le symptôme est extrêmement complexe et variable, les troubles de la marche sont surtout
différents selon le patient, mais l’affectation des paramètres de la marche (vitesse, cadence, longueur
de foulée) varie aussi pour un même patient. Si les FOG les plus forts sont facilement repérables, il
n’est pas toujours simple d’en déterminer le début et la fin. Il est donc particulièrement difficile de
repérer les FOG et d’en déterminer l’intensité et ce travail risque d’être très délicat sans l’avis d’un
spécialiste. La vérité terrain, constituée des instants de début et de fin ainsi que de l’intensité de
chaque FOG, a donc été déterminée par le neurologue Christian Geny sur la base d’enregistrements
vidéos.
Le découpage du temps selon l’intensité des FOG nécessite une observation attentive de la marche
du patient. L’idéal est donc de filmer la marche, cela permet au spécialiste d’être plus précis grâce
aux retours en arrière et aux ralentis. Nous avons donc complété notre réseau de capteurs par une
caméra afin d’obtenir une image vidéo synchronisée aux données.
Nous avons choisi d’utiliser un code de couleurs pour décrire l’intensité des FOG. Celle-ci pouvant
varier au cours d’un même épisode, le code couleur n’est donc pas appliqué sur chaque FOG, mais
sur des intervalles de temps que nous appellerons zones. Une couleur est attribuée à chaque intervalle
de temps par le neurologue en fonction de son estimation de l’intensité. Nous avons utilisé quatre
couleurs :
– blanc : pas de FOG,
– vert : léger trouble de la marche, sans risque de chute ni limitation de la mobilité,
– orange : trouble de la marche important, risque de chute et/ou limitation de la mobilité,
– rouge : blocage, suppression de la mobilité et risque de chute important.
L’utilisation de ces couleurs pour décrire la vérité terrain est présentée sur la figure 4.5.
0 5 10 15 20 25 30 35temps (s)
Figure 4.5 – Illustration du code couleur utilisé pour décrire la vérité terrain. Ici, il y a 5 FOG
représentés chacun par une ou plusieurs zones de couleur.
2 Trois approches différentes
Des travaux ont déjà été réalisés sur la détection des épisodes de freezing, notamment par Po-
povic [44], Moore [39] et Delval [14]. Le premier auteur propose une méthode que l’on qualifiera
92
de temporelle, utilisant un calcul de coefficient de corrélation. Le deuxième propose une méthode
beaucoup plus robuste à partir d’une approche fréquentielle. Enfin, le troisième propose d’utiliser des
outils temps-fréquence pour observer le symptôme.
Nous allons présenter ces deux première méthodes puis l’approche temps-fréquence. Tout d’abord,
nous verrons pourquoi la première méthode n’est pas adaptée à nos besoins. Ensuite, nous verrons
pourquoi la seconde méthode ne nous satisfait pas, alors que les auteurs présentent des expérimen-
tations avec de très bons résultats. Pour cela, nous établirons en quoi nos objectifs sont différents.
Enfin, nous verrons pourquoi nous n’avons pas retenu l’approche temps-fréquence pour proposer une
nouvelle méthode de détection du freezing.
2.1 Une approche temporelle : Coefficient de corrélation
La première méthode est proposée par l’équipe de Popovic [44]. Elle est basée sur l’utilisation
de FSR (force sensitive resistor) placés dans la semelle de la chaussure. Cette méthode requiert
l’enregistrement d’une marche pour en extraire la forme d’un pas "normal", afin qu’elle soit utilisée
comme référence. Lors de la détection, on applique une fenêtre glissante sur le signal mesuré (FSR)
de même taille que celle du signal de référence. Dans cette fenêtre glissante, on calcule le coefficient
de corrélation entre le signal mesuré et le signal de référence (coefficient de Bravais-Pearson). Ce
coefficient tend vers 1 lorsque le signal mesuré se rapproche du signal de référence. Le coefficient
ainsi obtenu est compris entre -1 et 1. Si le signal mesuré est proche du signal de référence en forme
et en fréquence, le coefficient de corrélation va s’approcher de 1 à chaque pas, c’est-à-dire à chaque fois
que la fenêtre glissante contiendra une portion du signal mesuré en phase avec le signal de référence.
Dans le cas d’un FOG, une altération de la marche et une augmentation du rythme sont observées,
donc le signal mesuré s’écarte de la référence, à la fois en forme et en fréquence. Ce qui implique
une diminution de l’amplitude du coefficient de corrélation. Nous avons reproduit sur la figure 4.6,
l’illustration de cette diminution qui est proposée dans l’article [44].
Cette méthode est simple et donc peu coûteuse en puissance de calcul. Nous avons constaté que la
méthode s’applique également à la vitesse de rotation du tibia dans le plan sagittal. Les FSR sous la
semelle pourraient ainsi être remplacés par une IMU à la cheville et, de plus, la recherche du signal de
référence pourrait être automatisée. Mais cette méthode a un inconvénient majeur : elle ne fonctionne
que dans le cas d’une marche droite et régulière. L’initiation de la marche, les virages ou les arrêts
volontaires impliquent des changements de forme et de fréquence sur le signal mesuré. Cette méthode
ne permet pas de faire la différence entre un FOG et un changement volontaire (accélération, virage,
approche d’une cible).
2.2 Une approche fréquentielle : fenêtre glissante et FFT
2.2.1 Description de la méthode
Cette méthode est basée sur une analyse spectrale de puissance, elle a été présentée dans l’ar-
ticle [39], puis des améliorations ont été apportées [8, 7]. L’hypothèse utilisée par Moore est que les
FOG entraineraient un tremblement des membres inférieurs. Cette méthode nécessite l’utilisation
d’un accéléromètre placé à la cheville ou au dessus du genou. Le calcul peut s’effectuer sur l’un des
trois axes de l’accéléromètre ou sur la norme. Pour une marche normale, le spectre du signal mesuré
montre que la puissance est principalement répartie dans la bande de fréquence comprise entre 0,5
et 3Hz. Alors qu’en période de freezing, des composantes du spectre apparaissent dans une bande de
93
Figure 4.6 – Illustration des résultats de l’article [44], de haut en bas : la vérité terrain déduite
de l’enregistrement vidéo, les normes des accélérations mesurées par des accéléromètres placés sur le
patient (cuisse, tibia et pied), la mesure de pression dans la semelle et enfin le coefficient de corrélation
fréquence plus élevée, entre 3 et 8Hz. L’indice FI ("freeze index") est donc défini par le rapport de la
puissance dans la bande de freezing sur la puissance dans la bande de locomotion. Dans le cas d’une
marche sans FOG, cet indice tend vers 0, et il augmente lors de l’apparition des tremblements dus
à un FOG. Afin d’améliorer la sensibilité de la méthode, il est conseillé de calculer la FFT avec une
résolution d’au moins 10 points entre 0,5Hz et 3Hz, soit une largeur de fenêtre d’au moins 4 secondes
(voir l’article [8]). Cependant, l’utilisation d’une résolution en fréquence trop fine augmente le temps
de réponse. Nous avons donc calculé le critère FI en utilisant une fenêtre glissante pour la FFT de
5,12 secondes de largeur (256 points pour les acquisitions à 50Hz et 512 points pour celles à 100Hz).
Dans l’article [8], la fréquence étant une puissance de 2, la FFT est calculée dans une fenêtre de 4
secondes.
La figure 4.7 montre l’évolution de l’accélération (axe x) mesurée par l’IMU placé à la cheville
droite du patient 2 lors de l’essai 3. L’axe x est perpendiculaire au tibia et il correspond, lorsque le
sujet est debout, à l’axe antéro-postérieur c’est-à-dire l’axe horizontal et aligné avec le plan sagittal.
En dessous, ce trouve le FI calculé à partir de ce signal accélérométrique. Le premier rectangle rouge
autour de 4 secondes représente un FOG rouge plutôt bref, puis entre 10 et 21 secondes, les deux
rectangles représentent un FOG constitué d’une courte zone verte suivie d’une zone rouge indiquant
un blocage important du patient.
La longueur de foulée est estimée à partir de la vitesse de rotation de la cheville dans le plan
sagittal. Les approximations sont moins fines que celles que nous avons retenues (§3), mais il est
encore une fois montré que la variabilité de ce paramètre augmente lorsque le patient est dans une
phase OFF. Cette information ne semble pas être utilisée d’avantage par ces deux auteurs. Il est
vrai que l’observation de ce seul paramètre ne permet pas une estimation fiable des FOG, mais nous
verrons par la suite pourquoi nous avons choisi de coupler cette information avec la cadence.
94
2 4 6 8 10 12 14 16 18 20 22−2
−1
0
1
2
accé
léra
tion
axe
x (g
)
IMU cheville droite
temps (s)
2 4 6 8 10 12 14 16 18 20 220
10
20
30
40
FI
temps (s)
FI : axe x
Figure 4.7 – Évolution de l’accélération et de FI pour l’essai 3 du patient 2 (conditions 1). En
haut l’accélération mesurée par l’IMU de la cheville droite pour un axe perpendiculaire au tibia. En
dessous le résultat du calcul de FI pour cet axe de l’accélération.
2.2.2 Les limitations de la méthode
Cette méthode est beaucoup plus robuste que celle utilisant la corrélation (§2.1). Mais son effi-
cacité dépend du type de FOG de chaque patient (tremblements et festination). Dans certains cas,
les tremblements du patient ne sont pas suffisamment importants pour être détectés ; mais le patient
n’en est pas moins gêné, il tremble peu mais reste immobilisé (FOG avec festination peu marquée).
De plus la largeur de la fenêtre glissante utilisée pour le calcul de la FFT introduit un retard non
négligeable compte tenu de notre objectif de déclencher l’indiçage dès l’apparition du symptôme.
De plus pour les FOG légers et de courtes durées, des pics peuvent apparaître sur le rapport FI,
mais ils sont de faibles amplitudes. Il est donc nécessaire de réduire le seuil de détection pour que les
FOG les plus courts soient détectés, mais cela implique une augmentation des faux positifs. Notre
objectif est donc, d’une part d’anticiper les FOG, c’est-à-dire de prévoir les blocages, et d’autre part
de détecter tous les types de FOG.
Pour les FOG les plus marqués, on observe facilement les piétinements associés à des tremblements
(FOG avec festination), mais on remarque aussi qu’à l’approche d’un obstacle, les patients font des
pas plus courts et plus rapides. C’est pourquoi nous utilisons un algorithme permettant de repérer
les diminutions de la longueur des pas. L’estimation de la cadence (durée des pas) peut être faite
par plusieurs méthodes (voir le §2 du chapitre 2), mais lors de la segmentation des foulées pour
l’estimation de leur longueur, les instants de début et de fin sont connus donc la durée de la foulée
également.
95
2.3 Une approche temps-fréquence
Les variations généralement observées durant les FOG sur les signaux liés au mouvement, laissent
penser que les outils d’observation temps-fréquence pourraient être utiles pour caractériser et détecter
ce symptôme. Notre hypothèse était que l’utilisation d’une représentation temps-fréquence pourrait
permettre d’améliorer la détection du freezing et peut-être même d’anticiper les symptômes.
L’augmentation de la cadence des foulées est clairement visible sur les représentations temps-
fréquence obtenues par Delval [14], cependant les données utilisées sont de très bonne qualité car elles
sont obtenues avec un système de capture de mouvement VICON. Ce type de système nécessitant
l’utilisation de plusieurs caméras, il n’est pas envisageable d’utiliser cette technique pour réaliser
une détection du freezing dans des conditions réelles (dans un appartement ou dans la rue par
exemple). Dans le cas de mesures réalisées avec un système embarqué, les signaux obtenus sont
beaucoup moins précis et ne renseignent pas directement sur les mêmes informations que le VICON
(la représentation temps-fréquence de l’article est réalisée sur l’angle du genou). Nous avons choisi
de travailler directement avec l’accélération ou la vitesse de rotation fournies par une IMU placée à
la cheville, sans chercher à reconstruire au préalable l’angle du genou.
Nous avons pu réaliser les mêmes observations que Delval sur des données obtenues avec un
capteur embarqué (IMU à la cheville). Cependant les données d’une IMU étant moins précises et
plus bruitées qu’avec un système VICON, nous avons du utiliser une distribution de Wigner-Ville
complétée par du filtrage (SPWV : speudo-distribution lissée de Wigner-Ville). Les résultats ainsi
obtenus sont comparables au spectrogramme et à la transformée en ondelettes présentés dans l’article
de Delval [14].
temps (s)
fréq
uenc
e (H
z)
15 20 25 30 35 40 45 500
5
10
15
20
Figure 4.8 – Speudo-distribution lissée de Wigner-Ville appliquée à la mesure de l’accélération du
tibia selon un axe aligné au tibia (utilisation d’une IMU placée à la cheville).
Tout comme cela est présenté dans l’article [14], nous observons que la festination (durant le FOG
représenté par le rectangle vert) génère une augmentation de la cadence. Celle-ci peut être observée
sur les deux figures (4.8 et 4.9), mais elle est plus marquée sur la figure 4.9 qui correspond à la
96
temps (s)
fréq
uenc
e (H
z)
10 15 20 25 30 35 40 450
5
10
15
20
Figure 4.9 – Speudo-distribution lissée de Wigner-Ville appliquée à la mesure de la vitesse de
rotation du tibia dans le plan sagittal (utilisation d’une IMU placée à la cheville).
représentation de Wigner-Ville de la vitesse de rotation du tibia dans le plan sagittal.
Comme cela a déjà été montré dans l’article de Moore [38], le spectre fréquentiel des signaux
de mouvement se situe sur des fréquences plus élevées durant le freezing et cela est parfaitement
visible sur les deux figures. Cependant, pour cet exemple, on remarquera que durant le blocage qui
suit la festination le spectre du signal correspondant à la vitesse de rotation dans le plan sagittal
est presque vide, alors que les hautes fréquences sont présentes beaucoup plus tôt sur le signal de
l’accéléromètre. Même si le gyromètre permet de visualiser plus facilement certaines augmentations de
cadence, il semble être moins utile que l’accéléromètre pour détecter certains blocages accompagnés
de piétinements.
Ces observations ne nous ont cependant pas permis d’aller plus loin avec cette approche temps-
fréquence dans le cadre de la détection ou de l’anticipation du freezing. Effectivement, les augmen-
tations de la cadence qui précédent les blocages ne sont pas toujours faciles à repérer et surtout elles
peuvent survenir en dehors des épisodes de freezing.
Nous avons donc choisi de poursuivre notre travail en utilisant la longueur des foulées et leur
cadence sans passer par une représentation temps-fréquence. De plus les constations présentées dans
l’article de Delval confirment bien notre idée d’associer l’observation de la longueur des foulées à celle
de la cadence pour réaliser une détection des FOG.
3 L’observation des variations de foulées appliquée à la détection
des FOG
3.1 Présentation générale
Le détecteur que nous proposons n’a pas le même rôle que les détecteurs que nous avons présentés
en §2.1 et §2.2. Contrairement à ces méthodes, notre détecteur ne permet pas d’obtenir la durée d’un
97
FOG en déterminant les instants de début et de fin, il ne détecte ni le tremblement, ni le blocage. Mais
nous cherchons à détecter les perturbations de la marche se trouvant en début de FOG, avant que
l’intensité du FOG le rende handicapant et dangereux. Son fonctionnement est basé sur un principe
très simple d’observation de deux paramètres de la marche : la cadence et la longueur de foulée. Les
difficultés techniques que nous avons rencontrées ne sont pas liées à ce principe de fonctionnement
mais aux outils indispensables à l’observation de ces paramètres, l’élaboration de ces outils a été
présentée dans le chapitre 2 (§3 et §2).
Comme nous l’avons vu en §1, la longueur de foulée est un paramètre de la marche qui se
trouve modifié par le symptôme du freezing. L’observation de ce paramètre montre une diminution
et une plus grande irrégularité chez les malades de la maladie de Parkinson qui sont en phase OFF.
Cependant, le suivi de ce seul paramètre ne permet pas de détecter les épisodes de freezing. D’une part,
l’irrégularité ne peut être constatée que sur plusieurs foulées et ne peut donc pas être utilisée pour le
déclenchement d’un système d’indiçage. D’autre part, la diminution n’implique pas nécessairement
la présence d’un FOG, elle peut aussi survenir lors d’un ralentissement volontaire de la vitesse de
marche ou à l’approche d’un obstacle ou d’une cible.
Nous avons vu également que le symptôme cause une augmentation de la cadence des foulées.
Habituellement, ce paramètre reste constant même en cas de variation de la vitesse. Pour augmenter
sa vitesse de marche, un sujet valide va d’abord augmenter la longueur de ses foulées, la cadence
étant augmentée uniquement si la marche est très rapide et que la longueur maximale de foulée est
atteinte. Donc ce seul paramètre pourrait suffire à prédire les épisodes de freezing mais uniquement
pour de la marche en ligne droite, sans obstacles et sans prendre en compte l’initiation et l’arrêt de
la marche.
Nous avons donc choisi de coupler l’observation de ces deux paramètres. Notre hypothèse est
que, dans la vie quotidienne, la diminution de la longueur de foulée et l’augmentation de la cadence
ne peuvent pas être observées en même temps sur un sujet valide. Notre théorie est donc que les
variations simultanées de cadence et de longueur de foulée sont causées par un FOG. L’avantage est
que ces variations apparaissent dès le début d’un épisode de freezing et donc avant le blocage du
patient. Nous avons également remarqué que ces variations sont observables avant les tremblements,
et par conséquent, notre méthode permettrait une détection plus rapide que celle utilisée par Moore.
Nous sommes conscients que l’hypothèse de départ, qui est que la diminution de la longueur de
foulée et l’augmentation de la cadence ne peuvent pas être observées en même temps sur un sujet
valide, n’est pas toujours respectée. En équipant des sujets valides, nous avons pu observer simultané-
ment des cadences élevées et des longueurs de foulées faibles. Nous ne disposons pas de suffisamment
de données pour pouvoir estimer la fréquence de ces observations, mais elles ont toutes eu lieu dans
des situations particulières telles que l’initiation de la marche ou le passage entre deux obstacles
impliquant une modification de la position du haut du corps. Cette particularité peut conduire notre
méthode à faire de fausses prédictions, cependant ces erreurs ne seraient pas considérées comme
néfastes dans le cadre d’une utilisation comme déclencheur d’un système d’indiçage. Effectivement,
ces erreurs étant liées à des situations considérées comme favorisant l’apparition du symptôme, le
déclenchement de l’indiçage dans ces situations ne serait pas préjudiciable.
98
3.2 Calcul du critère C
Le critère C que nous proposons dépend de deux paramètres de la marche : la cadence et de la
longueur de foulée. Notre théorie est qu’une augmentation de la cadence associée à une diminution
de la longueur de foulée sont des signes avant coureurs d’un FOG. Dans la définition de notre critère,
nous n’utilisons pas la cadence mais son inverse : la durée de la foulée. Nous avons choisi que le
critère soit inversement proportionnel à ces deux paramètres. Ce critère pourra être calculé pour
chaque foulée détectée par l’algorithme de segmentation, si nous prenons l’exemple de la foulée n, sa
durée sera notée Tn et l’estimation de sa longueur Ln. Pour éviter que ce critère puisse tendre vers
l’infini, nous avons choisi de le borner à 1, comme le montre l’équation suivante :
Cn =Tmin · h
Tn (Ln + h)(4.1)
avec Tmin = 0, 2s et h = 5cm. La présence de h permet de borner le critère lorsque la longueur
de foulée tend vers 0, sa valeur est inférieure à la précision de l’estimation de Ln. La segmentation
utilisée ne détecte pas de foulée dont la durée est inférieure à Tmin.
Lorsque la valeur du critère est élevée, cela signifie que les premiers signes d’un FOG sont détectés.
Le critère doit donc être comparé à un seuil dont la valeur pourra être ajustée en fonction du patient.
La détection d’un épisode de freezing n’est possible que durant la marche, en cas de blocage il faudra
attendre que le patient ait réussi à refaire au moins une foulée pour être capable de détecter un
nouveau FOG.
3.3 Les données
Nous avons pu équiper des malades de la maladie de Parkinson lors de deux expérimentations,
ce qui nous a permis d’obtenir les données que nous utilisons pour illustrer les résultats de notre
détecteur et pour la comparaison avec la méthode présentée par Moore.
Lors de la première expérimentation, nous ne disposions pas encore de la nouvelle version des
IMU, les données ont donc été obtenues grâce à un réseau de capteurs sans fil composé de 3 IMU, d’un
nœud pour la synchronisation avec la caméra et d’une liaison vers un ordinateur pour récupérer les
données durant l’acquisition. Deux patients se sont succédés pour participer à cette expérimentation
(le patient 1 et le patient 2), nous les avions équipés d’un capteur sur chaque cheville et d’un troisième
sur le tronc (voir le schéma de gauche de la figure 4.10). Seules les données des IMU des chevilles (en
rouge sur le schéma) sont utilisées pour réaliser la détection des FOG.
Pour la deuxième expérimentation, nous avions à notre disposition deux IMU de la nouvelle
version, les données étaient stockées directement sur une carte SD embarquée sur chaque nœud.
Nous disposions également d’une caméra pour retrouver la vérité terrain (voir §1.4.4). Deux patientes
se sont succédées, la première patiente de cette expérimentation sera nommée patiente 3. Mais les
données de la seconde patiente n’ont pas pu être utilisées car aucun FOG ne s’est manifesté durant
l’expérimentation. Les deux IMU étaient placées sur la jambe droite (cheville et genou), comme sur
le schéma de droite de la figure 4.10. Seules les données de l’IMU de la cheville (en rouge sur le
schéma) sont utilisées pour réaliser la détection des FOG, car la segmentation permettant de faire
l’estimation de la longueur de foulée en utilisant les 2 IMU n’est pas assez robuste (beaucoup trop
de foulées détectées qui n’en sont pas).
Les deux expérimentations se sont déroulées dans les couloirs du centre Antonin Balmes, où nous
avions matérialisé le parcours par deux chaises face à face et espacées d’une dizaine de mètres. Sur
99
Conditions 1 Conditions 2
Figure 4.10 – Positions des IMU sur les patients lors des deux expérimentations.
les consignes du neurologue qui l’accompagnait, le patient devait marcher pour passer d’une chaise à
l’autre. Afin de favoriser l’apparition des épisodes de freezing, nous pouvions complexifier cette tâche
en ajoutant une charge attentionnelle au patient :
– contourner un ou deux obstacles au sol (stylo ou téléphone portable),
– répondre à des questions,
– compter,
– transporter une boîte en carton ou un verre d’eau.
Les données de la première expérimentation sont composées de plusieurs essais par patient.
Chaque essai contient un aller ou un aller-retour entre les deux chaises. Certains de ces essais sont
présentés sur des figures qui seront décrites dans la suite de ce chapitre, la liste de ces figures est
présentée dans le tableau 4.1. Lors de l’expérimentation 2, nous n’avons pas interrompu l’enregistre-
ment entre les différents aller et retour de la patiente 3. Nous disposons donc d’un enregistrement
d’environ 15 minutes, contenant des aller-retours entre les deux chaises avec des obstacles ou du
transport d’objets, mais aussi des passages de portes.
essai figure
2
3 4.12
patient 1 4
(conditions 1) 5
6
7 4.13
0 4.11
1
2 4.15
3 4.7 et 4.14
patient 2 5
(conditions 1) 6
7
8
9
Table 4.1 –
100
3.4 Résultats préliminaires
Les données de l’expérimentation 1 nous ont permis d’établir notre critère C. Nous avons pu ainsi
observer son comportement en présence de FOG et le comparer au freezing index (FI) de Moore.
Nous avons sélectionné quelques essais des patients 1 et 2 pour illustrer les différences entre ces
méthodes. L’évolution des deux critères pour ces essais sont représentés sur les figures 4.11 à 4.15,
comme cela est précisé dans le tableau 4.1.
Ces figures sont tracées en fonction du temps, les courbes du haut représentent l’évolution de notre
critère calculé en utilisant une seule IMU (à droite le critère calculé avec le capteur de la cheville
gauche et inversement) et de même, en dessous, en utilisant la méthode de Moore. Le FI peut être
calculé en utilisant l’un des trois axes de l’accéléromètre ou leur norme, nous avons donc calculé le
FI de ces quatre manières. Mais les résultats, pour ces deux patients, étant meilleurs pour l’axe z
et la norme, nous n’avons pas tracé les deux autres résultats. La valeur du FI est calculée toutes les
0, 5s alors que la valeur de C est calculée à chaque fois qu’une foulée est reconnue, l’apparition des Cn
étant irrégulières, nous les avons signalées par des points sur la courbe. Sur chacune de ces figures, la
vérité terrain (instants de freezing selon le spécialiste, voir §1.4.4) est représentée par des rectangles
de couleurs. Par exemple l’arrête de gauche d’un rectangle rouge indique le début d’un FOG rouge et
l’arrête de droite en indique la fin. Les rectangles verts et jaunes correspondent respectivement aux
FOG verts et oranges. Les lignes en pointillés noirs représentent la valeur choisie pour le seuil, c’est-
à-dire que l’on considère tout passage de C ou FI au dessus de ces pointillés comme une information
indiquant la présence d’un FOG, ici nous avons choisi d’utiliser un seul seuil par méthode (le même
seuil pour les deux côtés et pour les deux calculs de FI).
La comparaison de l’évolution de ces deux critères va nous permettre de montrer que les deux
méthodes ont leurs propres avantages et inconvénients, et que le choix de l’une ou l’autre devra
prendre en compte les besoins de l’application. Comme nous l’avons présenté lors de la description de
notre méthode en §3, nous avons choisi d’observer les premiers signes de perturbation de la marche
afin d’obtenir une détection rapide des FOG plutôt que d’en mesurer la durée ou l’intensité.
Les figures 4.11, 4.12 et 4.13 illustrent que nous avons bien atteint notre objectif : détecter les
FOG plus rapidement que les méthodes existantes. Notre méthode n’ayant pas encore été portée sur
un système embarqué, nous ne connaissons pas le temps qui sera nécessaire à la segmentation et au
calcul du critère Cn, nous traçons donc le critère au niveau du temps correspondant à la fin de la
foulée n. De même, pour tracer FI, nous traçons le résultat sur le temps du dernier échantillon de la
fenêtre utilisée pour la FFT. Si ces critères sont calculés directement grâce à du code embarqué, les
puissances de calcul disponibles sur les nœuds que nous utilisons permettent de négliger ce temps de
calcul devant les écarts observés entre les deux méthodes comparées. Nous pouvons ainsi constater sur
la figure 4.11 que le critère C permet de détecter le début du FOG orange moins d’une demi seconde
après son identification par le spécialiste, alors qu’il faut 4 secondes à la méthode de Moore pour le
détecter en utilisant la norme (ici, le résultat du FI avec l’axe z ne pouvant pas être utilisé pour la
comparaison car donnant trop de faux positifs). Cette différence s’explique, d’une part, par le principe
de notre méthode qui observe des modifications de la marche qui apparaissent avant les tremblements
recherchés par Moore, et d’autre part, même avec l’amélioration proposée par Bächlin [8], la largeur
de la fenêtre glissante pour le calcul de la FFT doit être d’au moins 4 secondes, ce qui retarde le
résultat de 2 secondes par rapport au milieu de la fenêtre de temps observée.
Sur la figure 4.13, même si le FOG vert n’est pas bien détecté, le FOG rouge qui le suit est détecté
101
0 10 20 30 4010
−3
10−2
10−1
100
C :
shan
k R
temps (s)
0 10 20 30 400
2
4
6
8
10
12
14
temps (s)
FI :
sha
nk R
znorme
0 10 20 30 4010
−3
10−2
10−1
100
C :
shan
k L
temps (s)
0 10 20 30 400
2
4
6
8
10
12
14
temps (s)
FI :
sha
nk L
znorme
Figure 4.11 – Détection de FOG : patient 2, essai 0, (conditions 1). En haut, l’évolution de notre
critère en fonction du temps et, en dessous, le FI calculé à partir de l’axe z et de la norme de
l’accéléromètre. Les FOG sont représentés par les rectangles de couleurs. Les seuils de détection sont
indiqués en pointillés noirs.
par notre méthode 4 secondes plus tôt que par celle de Moore. Sur la figure 4.12, le FOG orange est
anticipé par notre méthode (plus d’une seconde d’avance avec le capteur du pied gauche) alors que
le FI dépasse le seuil plus d’une seconde après la fin du FOG. Concernant le FI calculé avec l’axe
z du pied droit, nous pensons qu’il s’agit d’un faux positif. Enfin, concernant le pic sur le FI de la
norme à 28s, il s’agit probablement du même événement que celui détecté autour de 23s par le C de
la cheville gauche.
Cependant, notre méthode possède un inconvénient non négligeable : le patient doit être en train
de marcher pour qu’un FOG puisse être anticipé. Cela pose problème particulièrement à l’initiation
de la marche et pour le lever de chaise. Effectivement, si un épisode de freezing commence alors que
le patient se lève de sa chaise, aucune foulée n’ayant été effectuée, le critère C ne pourra pas être
calculé. Le risque de chute reste donc important lors du lever de chaise. Si le patient est bloqué entre
la position assise et la position debout, il est en grande instabilité et le système d’indiçage ne se
déclenchera pas. Mais nous observons sur la figure 4.13 que le FI n’est pas plus efficace dans ce type
de situation. Et si le patient parvient à se lever et à faire de petits pas, le temps nécessaire au calcul
du FI ne le rend pas plus efficace que le critère C, voir la figure 4.14.
Autre différence entre les deux détecteurs, le choix du seuil parait plus simple pour le critère C
que pour le FI. Le même seuil a pu être conservé pour les deux expérimentations quelque soit le
patient ou le côté observé. Les réglages nous ont semblé plus compliqués pour le critère FI, car avant
de choisir le seuil nous avons du choisir l’axe utilisé pour le calcul du FI. Il faudrait avoir des données
concernant un plus grand nombre de patients, pour pouvoir observer l’influence du choix de l’axe et
102
10 20 30 4010
−3
10−2
10−1
100
C :
shan
k R
temps (s)
10 20 30 400
2
4
6
8
10
12
14
temps (s)
FI :
sha
nk R
znorme
10 20 30 4010
−3
10−2
10−1
100
C :
shan
k L
temps (s)
10 20 30 400
2
4
6
8
10
12
14
temps (s)
FI :
sha
nk L
znorme
Figure 4.12 – Détection de FOG : patient 1, essai 3, (conditions 1). En haut, l’évolution de notre
critère en fonction du temps et, en dessous, le FI calculé à partir de l’axe z et de la norme de
l’accéléromètre. Les FOG sont représentés par les rectangles de couleurs. Les seuils de détection sont
indiqués en pointillés noirs.
103
10 20 30 4010
−3
10−2
10−1
100
C :
shan
k R
temps (s)
10 20 30 400
5
10
15
20
temps (s)
FI :
sha
nk R
znorme
10 20 30 4010
−3
10−2
10−1
100
C :
shan
k L
temps (s)
10 20 30 400
5
10
15
20
25
30
35
temps (s)
FI :
sha
nk L
znorme
Figure 4.13 – Détection de FOG : patient 1, essai 7, (conditions 1). En haut, l’évolution de notre
critère en fonction du temps et, en dessous, le FI calculé à partir de l’axe z et de la norme de
l’accéléromètre. Les FOG sont représentés par les rectangles de couleurs. Les seuils de détection sont
indiqués en pointillés noirs.
104
5 10 15 20 2510
−3
10−2
10−1
100
C :
shan
k R
temps (s)
5 10 15 20 250
2
4
6
8
10
12
14
temps (s)
FI :
sha
nk R
znorme
5 10 15 20 2510
−3
10−2
10−1
100
C :
shan
k L
temps (s)
5 10 15 20 250
5
10
15
temps (s)
FI :
sha
nk L
znorme
Figure 4.14 – Détection de FOG : patient 2, essai 3, (conditions 1). En haut, l’évolution de notre
critère en fonction du temps et, en dessous, le FI calculé à partir de l’axe z et de la norme de
l’accéléromètre. Les FOG sont représentés par les rectangles de couleurs. Les seuils de détection sont
indiqués en pointillés noirs.
105
10 20 3010
−3
10−2
10−1
100
C :
shan
k R
temps (s)
10 20 300
2
4
6
8
10
12
14
temps (s)
FI :
sha
nk R
znorme
10 20 3010
−3
10−2
10−1
100
C :
shan
k L
temps (s)
10 20 300
2
4
6
8
10
12
14
temps (s)
FI :
sha
nk L
znorme
Figure 4.15 – Détection de FOG : patient 2, essai 2, (conditions 1). En haut, l’évolution de notre
critère en fonction du temps et, en dessous, le FI calculé à partir de l’axe z et de la norme de
l’accéléromètre. Les FOG sont représentés par les rectangles de couleurs. Les seuils de détection sont
indiqués en pointillés noirs.
106
du seuil comme cela a été fait par Bächlin [8], mais pour les trois patients que nous avons équipés
(voir les figures 4.12 et 4.15), plusieurs choix semblent déterminants dans la qualité des résultats :
– la cheville équipée (droite ou gauche),
– l’axe de l’accéléromètre à utiliser pour le calcul de FI,
– la valeur du seuil.
Cette première expérimentation nous a permis de conclure que notre méthode permet une dé-
tection plus rapide que la méthode utilisée par Moore et Bächlin. L’observation des tremblements
a des avantages, si on souhaite par exemple obtenir la durée ou l’intensité des FOG. Mais pour
commander le déclenchement d’un système d’indiçage, la détection doit être la plus rapide possible,
notre détecteur semble donc plus adapté et c’est ce que nous avons voulu vérifier avec la seconde
expérimentation.
3.5 Une évaluation sur-mesure
Le choix du détecteur pour l’automatisation du déclenchement d’un système d’indiçage impose
de pouvoir évaluer les différentes méthodes de détection par rapport à des besoins spécifiques. Pour
comparer notre détecteur et celui de Moore, nous avons donc choisi des critères d’évaluation en fonc-
tion de l’objectif du projet et l’expérimentation 2 a été réalisée pour obtenir des données enregistrées
dans les conditions nécessaires à cette évaluation. Nous souhaitons que le détecteur soit suffisamment
sensible pour que les FOG à risque soient détectés rapidement, sans pour autant subir un trop grand
nombre de déclenchements intempestifs (faux positifs).
N’ayant pas les mêmes objectifs, nous n’évaluerons pas notre détecteur comme cela a été fait
par Moore et Bächlin [8]. Nous rappelons que notre détecteur a pour fonction de repérer le début
d’un FOG et non la plage de temps durant laquelle il est présent. De plus, les critères d’évaluation
proposés [8] ne nous conviennent pas : l’obtention du FI par un calcul de FFT nécessite l’utilisation
d’un fenêtre glissante d’au moins 4 secondes et donc introduit un retard de 2 secondes, d’où la présence
dans leur méthode d’évaluation d’une marge d’erreur de 2 secondes lors des transitions (début et fin
de FOG). Cependant la marge d’erreur qui se trouve au début de chaque FOG masque en partie ce
que nous souhaitons observer. De plus, l’utilisation de cette tolérance biaise fortement le calcul de la
sensibilité et de la spécificité, puisque les 2 premières secondes de chaque FOG sont comptabilisées
comme si la détection était correcte et que les FOG courts sont nombreux. La figure 4.16 montre
qu’appliquée à l’expérimentation 2, ce principe de tolérance aurait beaucoup d’influence sur les
résultats.
Lors de l’enregistrement des données, la patiente était dans une phase OFF, ce qui nous a permis
d’observer 21 FOG en 15 minutes. L’enregistrement contient 13 FOG de moins de 4 secondes dont 7
de moins de 2 secondes. La patiente ainsi que son mari nous ont rapporté que les symptômes étaient
moins marqués qu’habituellement, ce qui pourrait expliquer la part importante de FOG courts malgré
la réalisation de tâches favorisant l’apparition du symptôme. Avec plus de la moitié des durées de
FOG du même ordre de grandeur que la tolérance, nous ne pouvions pas appliquer le même système
d’évaluation que Bächlin.
Nous avons établi nos propres règles d’évaluation en les basant sur les besoins du projet d’auto-
matiser le déclenchement d’un système d’indiçage. Ces règles permettent de compter le nombre de
FOG à risques correctement détectés (bonnes détections) et le nombre de faux positifs. Les FOG à
risques sont ceux dont l’intensité a atteint le orange ou le rouge. Nous considérons qu’un FOG a été
107
0 5 10 15 20 25 300
1
2
3
4
5
6
durée des FOG en secondes
nom
bre
de F
OG
21 FOG observés
Figure 4.16 – Durée des FOG, patiente 3 (conditions 2)
correctement détecté si la détection a eu lieu "avant" la zone à risque. Afin de définir cela précisément,
nous avons classé les FOG en trois catégories :
– FOG vert isolé : le FOG est composé uniquement d’une zone verte,
– FOG à risque progressif : le FOG contient au moins une zone rouge ou orange et commence
par une zone verte,
– FOG à risque soudain : le FOG commence par une zone rouge ou orange.
Des exemples de FOG pour ces trois catégories sont donnés sur la figure 4.17, les tolérances ∆t1 et
∆t2 qui seront définies ci-dessous n’apparaissent pas sur ce schéma.
bonnes détections
faux positifs
FOG à risque
progressif
FOG
vert
isolé
FOG à risque
progressif
FOG à risque
soudain
Figure 4.17 – Exemples de FOG. Plusieurs zones de couleurs représentent un exemple de vérité
terrain. La catégorie de chaque FOG est indiquée. Les accolades montrent les intervalles de temps
où les détections sont requises ou inappropriées.
Les FOG verts isolés ne représentent pas de risque de chute ou de limitation de la mobilité,
il n’est donc pas nécessaire de les détecter. Cependant les symptômes sont bien présents, donc la
détection d’un FOG vert isolé ne sera pas comptabilisée comme un faux positif, mais comme une
détection neutre. De plus, le positionnement des limites des zones n’étant pas très précis, ces zones
vertes seront élargies par une marge de tolérance avant (∆t1) et une marge de tolérance après (∆t2).
Les positions de ces tolérances sont représentées sur la figure 4.18.
Les FOG à risque doivent être détectés rapidement pour que la détection soit comptabilisée comme
une bonne détection. Lorsqu’il s’agit d’un FOG à risque progressif, la détection est considérée comme
108
détections neutres
faux positifs
FOG
vert isolé
t1
Figure 4.18 – Position des tolérances pour un FOG vert isolé.
rapide si elle se situe dans la première zone verte (élargie de ∆t1 et ∆t2). Lorsqu’il s’agit d’un FOG à
risque soudain, la détection sera comptabilisée comme bonne si elle survient au tout début du FOG :
moins de ∆t1 avant le début du FOG ou moins de ∆t2 après le début du FOG. Les positions de
ces tolérances sont représentées sur la figure 4.19. Toutes les détections survenant en cours de FOG
seront considérées comme des détections neutres.
bonnes détections
faux positifs
FOG à risque
progressif
FOG à risque
soudain
t1
Figure 4.19 – Position des tolérances pour les FOG à risque.
Notre objectif étant de prévenir les FOG dangereux, le déclenchement du système d’indiçage devra
être fait avant que les risques de chutes soient présents, nous devions donc choisir la tolérance ∆t2
courte, et nous l’avons fixée à ∆t2 = 1s. Notre objectif étant de déclencher l’indiçage avant le risque
de chute, la tolérance ∆t1 peut être plus longue, mais attention de ne pas tomber dans l’effet inverse,
si le patient n’est pas encore gêné par le symptôme un déclenchement trop tôt pourrait augmenter
la charge attentionnelle. Une anticipation de 3s nous semble trop importante, mais il est difficile de
choisir à combien de dixièmes de seconde en dessous placer la limite. Nous avons choisi ∆t1 = 2s,
mais le tableau 4.2 montre que quelques dixièmes de seconde d’écart sur ∆t1 n’auraient que très peu
d’influence sur les résultats.
Dans ce tableau 4.2, concernant les données de l’expérimentation 2 (patiente 3), nous ne faisons
pas de distinctions entre les FOG à risque et les FOG verts isolés. Les détections "en avance" sont
celles qui surviennent avant le début d’un FOG (de tous types). Les détections "en retard" sont celles
qui surviennent juste après le début d’une zone à risque, c’est-à-dire juste après le début d’un FOG
à risque soudain, ou juste après la zone verte d’un FOG à risque progressif ou d’un FOG vert isolé.
Nous avons compté, pour notre détecteur, 4 détections survenues en avance par rapport à la vérité
terrain, mais cette anticipation dépasse à peine 1s ce qui est loin des 2s choisies pour la valeur de
∆t1. Concernant les deux détections en avance obtenues avec la méthode de Moore, même si l’avance
109
de l’une d’elles déplace 2s, nous n’en tiendrons pas compte pour le choix de ∆t1, car il ne s’agit pas
d’une anticipation de FOG. Compte tenu de la largeur de la fenêtre glissante utilisée pour le calcul
du FI et de la proximité entre certains FOG, ces deux détections sont probablement induites par les
tremblements des FOG précédents.
Le tableau 4.2 montre une différence de plus d’une seconde entre les deux méthodes pour la
détection des FOG en retard. Même si l’écart semble plus faible que lors de l’expérimentation pré-
liminaire avec les patients 1 et 2, cette différence appliquée au déclenchement d’un indiçage peut
s’avérer décisive pour éviter la chute. Les résultats du tableau 4.2 ont été tracés avec un seuil réglé
à Cseuil = 0, 03 et FIseuil = 2, 5.
détecteur C détecteur FI
en avance en retard juste en avance en retard juste
nombre de détections 4 7 4 2 8 2
écart moyen 0,35s 0,53s - 1,80s 1,64s -
écart min 0s 0,1s - 1,5s 0,1s -
écart max 1,1s 0,8s - 2,1s 3,5s -
Table 4.2 – Influence de la valeur des tolérances sur le nombre de bonnes détections.
Dans le principe d’évaluation que nous venons de présenter, la rapidité de détection a une part
très importante. Donc si un détecteur est un peu lent, il n’obtiendra pas un nombre élevé de bonnes
détections, même s’il est fiable. Pourtant le choix entre un détecteur fiable et un détecteur rapide
est délicat. Le tableau 4.3 indique le nombre de FOG détectés sans prendre en compte la rapidité,
donc un FOG est détecté soit par une bonne détection, soit par une détection neutre. Ce tableau
va nous permettre de montrer que le détecteur de Moore n’étant pas plus fiable que le notre, la
rapidité de détection est un avantage important. Les FOG verts isolés ne sont bien détectés par
aucune des deux méthodes et les résultats des deux détecteurs concernant les FOG à risque ne sont
pas très éloignés. Étant donné le trop petit nombre de FOG dont nous disposons, nous ne pouvons
pas faire de comparaison précise entre les deux méthodes sur ce point, nous observerons simplement
que durant les 15 min d’enregistrement sur la patiente 3, quelque soit la méthode utilisée, entre 70%
et 80% des FOG à risque sont détectés.
Nombre de détectionsVérité terrain
détecteur C détecteur FI
FOG verts isolés 2 1 5
FOG à risque 13 11 16
tous FOG 15 12 21
hors FOG (faux positifs) 6 8 -
Table 4.3 – Nombre de FOG détectés lors de l’essai de la patiente 3 (conditions 2). Tolérance : un
FOG est détecté si le critère dépasse le seuil pendant toute la durée du FOG (à plus ou moins
2s). Valeurs des seuils utilisées : Cseuil = 0, 03 et FIseuil = 2, 5.
110
0 5 10 15 20 25 30 350
5
10
15no
mbr
e de
bon
nes
déte
ctio
ns
nombre de fausses détections
influence du seuil selon l’axe utilisé pour calculer le critère FI
xyznorme
Figure 4.20 – Performances du détecteur de Moore selon l’axe utilisé pour le calcul du FI. L’enregis-
trement comporte 16 FOG à risque, donc l’idéal serait que le nombre de bonnes détections atteigne
16 (il ne peut pas le dépasser).
3.6 Comparaison des méthodes et résultats
3.6.1 Choix de l’axe pour le calcul de FI
Nous avons vu lors de la présentation des résultats de l’expérimentation préliminaire que la mé-
thode de Moore nous semblait difficile à régler (choix de la jambe à équiper, de l’axe de l’accéléromètre
utilisé pour le calcul du FI et du seuil). Avant de comparer les deux méthodes, nous avons déterminé
quel axe de l’accéléromètre il fallait utiliser pour que le détecteur soit le plus performant. Nous avons
donc appliqué les règles d’évaluation que nous venons de présenter aux 4 variantes du détecteur de
Moore : calcul de FI en utilisant l’axe x, y, z et la norme de l’accéléromètre. Malheureusement la
patiente n’étant pas équipée de capteur à la cheville gauche, nous ne pourrons pas observer l’influence
du côté de mesure. Les résultats sont présentés sur la figure 4.20. Lorsque la patiente est en position
debout et immobile, l’orientation du capteur est alignée sur le plan sagittal :
– x : horizontal vers l’avant,
– y : vertical vers le haut,
– z : horizontal vers la droite.
Quelque soit l’axe, les courbes se trouvent en dessous de la droite en pointillés (y = x), donc il y
a toujours un nombre de faux positifs plus important que le nombre de bonnes détections. De plus,
sur les 16 FOG à risque le nombre de bonnes détections ne dépasse pas 10 alors que le nombre de
faux positifs peut dépasser 30. On remarques que les résultats obtenus avec l’axe z sont moins bons
(entre 3 et 6 bonnes détections pour 17 à 27 faux positifs), mais il y a peu de différences entre les trois
autres résultats. Même si les résultats obtenus en utilisant la norme varient plus régulièrement en
fonction du seuil, nous avons choisi d’utiliser l’axe y car la courbe correspondante est la plus proche
111
de la droite y = x (au dessus de laquelle le nombre de bonnes détections est supérieur au nombre de
faux positifs).
3.6.2 Résultats de l’évaluation
0 0.02 0.04 0.06 0.08 0.10
10
20
30
40détecteur C
nom
bre
de d
étec
tions
seuil
bonnesFOG à risquefausses
1 1.5 2 2.5 3 3.5 40
10
20
30
40détecteur FI
nom
bre
de d
étec
tions
seuil
bonnesFOG à risquefausses
0 5 10 15 20 25 30 350
2
4
6
8
10
12
14
nom
bre
de b
onne
s dé
tect
ions
nombre de fausses détections
détecteur Cdétecteur FI
y = x
Figure 4.21 – Comparaisons des performances des détecteurs en fonction de la valeur du seuil :
nombres de bonnes et de faux positifs
Les résultats des deux détecteurs sont tracés sur la figure 4.21. Sur le graphique du haut, les
nombres de bonnes détections et de faux positifs sont tracés en fonction du seuil, à gauche pour
notre détecteur et à droite pour le détecteur de Moore. Le nombre de FOG à risque (vérité terrain)
est représenté par la droite horizontal en pointillés. Le graphique du bas regroupe les résultats des
deux détecteurs sous une représentation plus adaptée à la comparaison. Les étoiles représentent, pour
chaque détecteur, les résultats correspondant à un choix optimal du seuil. Cette figure montre donc,
pour ce jeu de données, que notre détecteur a de meilleurs résultats à l’évaluation que nous avons
mis en place car il obtient 11 bonnes détections et 6 faux positifs alors que le détecteur de Moore
obtient 5 bonnes et 11 faux positifs. De plus, pour des valeurs de seuil comprises ici entre 0, 03 et
0, 05, le nombre de bonnes détections et de faux positifs décroissent avec l’augmentation du seuil et
le nombre de bonnes détections reste supérieur au nombre de faux positifs. Le seuil permet donc de
régler la sensibilité du détecteur tout en conservant un nombre de bonnes détections supérieur au
nombre de faux positifs. Ce réglage permettrait d’adapter le système à chaque patient, on pourrait
même envisager de choisir la sensibilité en fonction de l’activité (promenade en extérieur, petits
déplacements dans la maison ...).
3.7 Perspectives d’amélioration
Nous pensons que l’utilisation d’un oscillateur pour réaliser la segmentation (voir 3.4) pourrait
être très avantageuse. L’estimation de la longueur de foulée utilisant deux gyromètres est plus précise
112
mais la segmentation que nous utilisons actuellement n’est pas assez robuste pour utiliser le résultat
de cette estimation dans la méthode de détection. Notre méthode ayant déjà montré son avantageuse
rapidité, une estimation plus précise de la longueur de foulée permettrait peut-être de réduire le
nombre de faux positifs et de détecter les quelques FOG encore oubliés. Cependant cette estimation
de la longueur de foulée est réalisée à partir des données obtenues avec 2 capteurs, et l’ajout d’un
capteur au dessus du genou est contraignant. Donc il serait intéressant de comparer les résultats du
détecteur avec ces deux méthodes d’estimation de la longueur de foulée en utilisant une segmentation
plus robuste. Il faudra ensuite évaluer les avantages et les inconvénients des deux solutions.
4 Conclusion
Nous venons de montrer que nous avons atteint nos objectifs, notre détecteur est prêt pour être
porté sur le réseau de capteurs et pour être testé sur un nombre plus important de patients. Notre
méthode doit pouvoir détecter les FOG avant le blocage complet du patient : l’observation des varia-
tions des foulées permet une détection beaucoup plus rapide qu’avec l’observation des tremblements.
Même si le nombre de faux positifs est important (entre un tiers et la moitié), les résultats sont
suffisamment satisfaisants pour envisager de tester cette méthode sur plus de patients.
Si notre méthode semble plus appropriée pour le déclenchement d’un système d’indiçage, elle ne
convient pas à toutes les utilisations. On peut dire que ce détecteur fonctionne uniquement sur front
montant, car il est capable de détecter le début d’un FOG mais pas obligatoirement la fin. Si le
patient est en difficulté mais pas complètement immobilisé le critère restera probablement supérieur
au seuil, mais en cas de blocage important aucune foulée ne sera reconnue par la segmentation et
une nouvelle valeur du critère ne pourra pas être calculée. La méthode que nous proposons n’est
donc pas adaptée pour estimer la durée des FOG ou leur intensité, l’observation des tremblements
est beaucoup plus prometteuse dans ce domaine.
Nos résultats de détections sont satisfaisants et la méthode que nous proposons se base sur un
principe différent de l’observation des tremblements. Donc notre détecteur n’est pas qu’une simple
amélioration du détecteur de Moore, mais malgré sa rapidité il reste un détecteur. Nous pensons qu’un
système d’indiçage automatique serait plus efficace s’il était commandé par un prédicteur de FOG
plutôt qu’un détecteur. La solution que nous proposons est adaptée pour les FOG à risque progressifs
puisqu’elle permet de déclencher l’indiçage avec une anticipation par rapport au risque de chute mais
les FOG à risque soudains seront peut-être détectés trop tard. Nous recherchions une particularité
(forme d’onde, variation, fréquence, ...) caractérisant l’instant qui précède le FOG. Une particularité
commune à tous les FOG et à tous les patients aurait permis de mieux reconnaître le symptôme
et de mettre en place un prédicteur plus fiable. Cela aurait également aidé à la compréhension de
la maladie. Cependant, rien ne prouve que cette particularité existe, il n’est peut-être pas possible
d’anticiper les FOG soudains suffisamment tôt pour pouvoir agir avec un indiçage. Et peut-être que
l’amélioration de la mobilité grâce à l’action de l’indiçage sur les FOG à risque progressifs aura une
influence sur la fréquence des FOG soudains.
113
Conclusion
L’objectif global de cette thèse était de proposer des algorithmes de traitement de données pour
la segmentation de la locomotion humaine pour des données multi-capteurs obtenues avec un réseau
de capteurs embarqués. Dans un premier temps, nous avons travaillé dans le domaine du sport. La
participation de Guillaume Chelius au Marathon des Sables nous a permis d’obtenir les données qui
ont servi à penser et illustrer les traitements que nous proposons. En plus des données du marathon,
nous avons travaillé avec plusieurs jeux de données acquis lors des expérimentations de préparation
et de courses d’entrainement. Dans un deuxième temps, nous avons travaillé dans le domaine de
la santé avec une déficience causée par la maladie de Parkinson (le « freezing »). Les objectifs de
segmentation étaient très différents, contrairement au traitement des données de course qui était
appliqué hors ligne, la détection du « freezing » devait pouvoir être embarquée pour réaliser une
tâche de commande. Le coureur était équipé de nombreux capteurs, nous avons cherché à minimiser
leur nombre chez le malade (pas plus de 1 ou 2 nœuds). De plus, le « freezing » est imprévisible et
difficilement reproductible, alors les changements de vitesse, de terrain ou de dénivelé sont facilement
reproductibles dans un environnement contrôlé. Cependant, les deux applications avaient de nom-
breux points communs comme la recherche d’un changement dans la locomotion et les contraintes
d’équipement du sujet avec le matériel (confort et simplicité d’utilisation).
La méthode de segmentation que nous avons utilisée sur les données du marathon a été conçue
spécialement pour des données multi-capteurs de volume important. Nous avons réalisé un assem-
blage de plusieurs algorithmes déjà connus et validés, que nous avons choisis pour leur simplicité
d’utilisation et de calcul. Ce principe nous a permis d’obtenir un traitement simple et rapide, c’est-à-
dire qui ne nécessite pas de choisir entre différentes méthodes ou le réglage de multiples paramètres
et qui peut être utilisé sur un simple ordinateur de bureau. Cette méthode est très bien adaptée aux
données liées au mouvement, mais le principe peut être appliqué à des données de provenances très
différentes. Par exemple, cette méthode pourrait être utilisée pour la segmentation de données dans
le domaine de l’éthologie car elle ne nécessite pas de données d’apprentissage, ni la réalisation de
postures de calibration.
La plus grande partie des données de course utilisées a été enregistrée avant et pendant le Ma-
rathon des Sables. La version du réseau de capteurs qui était alors utilisée était loin d’être aussi
aboutie que celle proposée maintenant par HiKoB. Nous avons donc dû nous adapter à la précarité
de certaines fonctionnalités du réseau et des capteurs, notamment au niveau de la communication et
de la synchronisation. La communication par radio-fréquence entre les nœuds n’étant pas toujours
fiable, une quantité non négligeable de paquets de données était perdue.
Cependant, beaucoup d’améliorations ont été apportées dans les versions suivantes et grâce à
l’expérience acquise avec le Marathon des Sables, nous avons démarré la seconde partie de notre
travail avec un matériel performant et une meilleure connaissance des capteurs. Cette seconde partie
114
de notre travail était donc plus centrée sur le protocole expérimental et sur le traitement des données
que sur la technique de mesure. Contrairement aux autres travaux sur la détection du « freezing
», nous n’avions pas pour objectif de délimiter avec précision les périodes de « freezing », mais
nous nous sommes concentrés sur le début de chaque épisode. Nous cherchions même à anticiper
son apparition dans l’espoir de pouvoir prévenir le blocage ou la chute et d’apporter des éléments
utiles dans la compréhension de la maladie. Nous n’avons pu déceler aucun indice dans la marche
permettant d’anticiper le symptôme, mais la méthode de détection que nous proposons semble plus
robuste et plus rapide que celle basée sur la détection de tremblement (augmentation de la fréquence
sur les signaux d’accéléromètre placé sur une jambe).
Le principe de notre méthode est plutôt simple, nous recherchons une augmentation de la ca-
dence et une diminution de la longueur des foulées. La difficulté de notre travail ne réside pas dans la
complexité de l’algorithme de détection, mais dans la complexité du symptôme. En effet, les manifes-
tations du « freezing » sont très difficiles à caractériser, à tel point que l’interprétation de la définition
peut varier d’une source à l’autre. L’évaluation de l’évolution et la quantification du « freezing » sont
donc très difficiles. Elle est généralement réalisée à partir de questionnaires mais cette technique est
compliquée et le résultat et subjectif, il serait intéressant de pouvoir quantifier les épisodes de «
freezing » avec un système embarqué.
Les manifestations du symptôme sont imprévisibles et peuvent varier d’un malade à l’autre, voire
d’un épisode à l’autre chez le même malade. Nous devions donc travailler en étroite collaboration
avec un spécialiste, le docteur Christian Geny, pour comprendre au mieux le symptôme et déterminer
avec exactitude les épisodes de « freezing ». De plus la variabilité d’un malade à l’autre a compliqué
le choix des sujets pour les expérimentations. En effet, nous avions remarqué que chez certains
malades les blocages n’étaient généralement pas accompagnés de tremblements, et nous devions
disposer d’enregistrements de ces deux types de manifestations du symptôme afin de trouver des
particularités du mouvement significatives de la présence du symptôme et communes à tous les
épisodes de « freezing » de tous les malades. Le caractère imprévisible du « freezing » est une
autre difficulté pour les expérimentations. La durée des enregistrements étant de quelques dizaines
de minutes au maximum, nous déterminons un protocole expérimental qui place le sujet dans des
situations favorisant l’apparition du symptôme. La majorité des épisodes de « freezing » que nous
avons enregistrés ont donc eu lieu durant le contournement d’un obstacle ou lors du passage d’une
porte et la difficulté a été de ne pas confondre les modifications de la marche dues au passage d’un
obstacle ou d’une porte avec celles causées par la maladie.
Plusieurs améliorations sont envisageables. Concernant la segmentation automatique de la marche
et de la course pour de grandes quantités de données, la méthode pourrait facilement être transformée
en un traitement en ligne. Nous conseillerions d’utiliser des données d’apprentissage pour construire
les premières classes, puis l’ajout automatique de classe pourrait être envisagé. Mais dans beaucoup
de cas, cette amélioration n’apporte aucun avantage. Effectivement, cette méthode est conçue pour
traiter de grandes quantités de données en même temps, elle est donc plus intéressante dans le cas de
traitement hors ligne. Elle pourrait être utilisée dans le domaine de l’éthologie pour aider à interpréter
les données enregistrées par des capteurs embarqués sur des animaux sauvages pendant plusieurs jours
ou plusieurs mois. De même le découpage et l’étiquetage d’un enregistrement des mouvements d’un
sujet humain sur un ou plusieurs jours peut être particulièrement fastidieux. Sinon la possibilité de
traiter des informations symboliques avec les données numériques est une amélioration importante
que nous avions envisagée sans avoir eu le temps d’y travailler.
115
Concernant le détecteur de « freezing », des travaux de recherche vont continuer pour tester les
effets d’un indiçage sonore ou visuel déclenché dès le début de la perturbation de la marche. Notre
méthode de détection serait donc très utile, mais elle doit encore être portée sur un système embarqué
afin de commander le dispositif d’indiçage. Ensuite, si l’intérêt d’un tel équipement est montré, il
pourrait être développé et commercialisé pour réduire les épisodes de « freezing » et les chutes au
quotidien.
L’utilisation de l’estimateur de la longueur des foulées est déjà envisagée dans le cadre de travaux
de recherche sur les aides technologiques liées à l’hémiplégie. La méthode doit encore être implantée
dans un système embarqué et une automatisation de la recherche du plan sagittal pourra être ajouté.
Cette méthode pourrait alors être utile dans de nombreux travaux de recherche liés à l’analyse de la
marche. Même si l’estimation obtenue est bien moins précise que celle d’un système optique (type
VICON), elle serait beaucoup plus simple d’utilisation et beaucoup moins onéreuse.
116
Bibliographie
[1] P. Allard and J.P. Blanchi. Analyse du Mouvement Humain par la Biomecanique. Décarie,
Mont-Royal (Québec), 2000.
[2] Q J Almeida and C a Lebold. Freezing of gait in Parkinson’s disease : a perceptual cause for
a motor impairment ? Journal of neurology, neurosurgery, and psychiatry, 81(5) :513–8, May
2010.
[3] Kamiar Aminian, B Najafi, C Büla, P-F Leyvraz, and Ph Robert. Spatio-temporal parameters
of gait measured by an ambulatory system using miniature gyroscopes. Journal of biomechanics,
35(5) :689–99, May 2002.
[4] Nicolas Andreff, Radu Horaud, and Bernard Espiau. On-line hand-eye calibration. In Second
International Conference on 3-D Digital Imaging and Modeling (Cat. No.PR00062), pages 430–
436, Ottawa, Canada, 1999. IEEE Comput. Soc.
[5] Luca P Ardigò, Giuseppe Lippi, Gian Luca Salvagno, and Federico Schena. Physiological adap-
tation of a mature adult walking the Alps. Wilderness & environmental medicine, 22(3) :236–41,
September 2011.
[6] Christine Azevedo-Coste, Rodolphe Héliot, Roger Pissard-Gibolet, Philippe Dussaud, David An-
dreu, Jérôme Froger, and Isabelle Laffont. MASEA : Marche Assistée par Stimulation Électrique
Adaptative. Sciences et Technologies pour le Handicap, 4(1) :109–130, June 2010.
[7] M Bächlin, M Plotnik, D Roggen, N Giladi, J M Hausdorff, and G Tröster. A wearable system to
assist walking of Parkinson s disease patients. Methods of information in medicine, 49(1) :88–95,
January 2010.
[8] Marc Bächlin, Daniel Roggen, Meir Plotnik, Jeffrey M. Hausdorff, Nir Giladi, and Gerhard
Tröster. Online Detection of Freezing of Gait in Parkinson’s Disease Patients : A Performance
Characterization. Proceedings of the 4th International ICST Conference on Body Area Networks,
2009.
[9] M. Basseville. Edge detection using sequential methods for change in level–Part II : Sequential
detection of change in mean. IEEE Transactions on Acoustics, Speech, and Signal Processing,
29(1) :32–50, February 1981.
[10] M. Basseville and Igor V. Nikiforov. Detection of Abrupt Changes - Theory and Application.
Prentice-Hall, 1993.
[11] Pierre Raphael Bertrand, Mehdi Fhima, and Arnaud Guillin. Off-Line Detection of Multiple
Change Points by the Filtered Derivative with p -Value Method. Sequential Analysis, 30(2) :172–
207, April 2011.
117
[12] Mirko Brandes, Wiebren Zijlstra, Sander Heikens, Rob van Lummel, and Dieter Rosenbaum.
Accelerometry based assessment of gait parameters in children. Gait & posture, 24(4) :482–486,
December 2006.
[13] Rachel Chee, Anna Murphy, Mary Danoudis, Nellie Georgiou-Karistianis, and Robert Iansek.
Gait freezing in Parkinson’s disease and the stride length sequence effect interaction. Brain : a
journal of neurology, 132(Pt 8) :2151–60, August 2009.
[14] Arnaud Delval, Anke H Snijders, Vivian Weerdesteyn, Jacques E Duysens, Luc Defebvre, Nir Gi-
ladi, and Bastiaan R Bloem. Objective detection of subtle freezing of gait episodes in Parkinson’s
disease. Movement disorders : official journal of the Movement Disorder Society, 25(11) :1684–
93, August 2010.
[15] A Dempster, N Laird, and D Rubin. Maximum likelihood from incomplete data via the EM
algorithm. Journal of the Royal Statistical Society, 39 (1)(Series B Methodological) :1–38, 1977.
[16] Arnaud Douceur, Xavier Jean, and Fernando Granha. MEMS : MicroElectroMechanical Systems
Applications : Acceléromètre et Gyroscope Introduction aux MEMSs, 2010.
[17] F Durif, J J Lemaire, B Debilly, and G Dordain. Acute and chronic effects of anteromedial globus
pallidus stimulation in Parkinson’s disease. Journal of neurology, neurosurgery, and psychiatry,
67(3) :315–22, September 1999.
[18] Entrainement-sportif.fr. Récupération physique et rythme cardiaque.
[19] D Faucher, B Bobée, T.B.M.J. Ouarda, and INRS-Eau. Chaire En hydrologie statistique. Revue
bibliographique des tests de stationnarit{é}. Rapport scientifique. Chaire en hydrologie statis-
tique, INRS-Eau, 1997.
[20] Maurizio Ferrarin, Marco Rabuffetti, Mauro Tettamanti, Riccardo Pignatti, Alessandro Mauro,
and Giovanni Albani. Effect of optical flow versus attentional strategy on gait in Parkinson’s
Disease : a study with a portable optical stimulating device. Journal of neuroengineering and
rehabilitation, 5 :3, January 2008.
[21] Andrew Fitzgibbon, Maurizio Pilu, and Robert B. Fisher. Direct least square fitting of ellipses.
Pattern Analysis and Machine Intelligence, IEEE Transactions on, 21(5) :476–480, 1999.
[22] Giuseppe Frazzitta, Roberto Maestri, Davide Uccellini, Gabriella Bertotti, and Paola Abelli.
Rehabilitation treatment of gait in patients with Parkinson’s disease with freezing : A comparison
between two physical therapy protocols using visual and auditory cues with or without treadmill
training. Movement disorders, 24(8) :1139–1143, 2009.
[23] N Giladi, D McMahon, S Przedborski, E Flaster, S Guillory, V Kostic, and S Fahn. Motor blocks
in Parkinson’s disease. Neurology, 42(2) :333–9, February 1992.
[24] Nir GILADI, Joseph TAL, Tali AZULAY, Oliver RASCOL, David J. BROOKS, Eldad MELA-
MED, Wolfgang OERTEL, Werner H. POEWE, Fabrizio STOCCHI, and Eduardo TOLOSA.
Validation of the Freezing of Gait Questionnaire in Patients with Parkinson’s Disease. Movement
disorders, 24(5) :655–661, 2009.
[25] Tanya Gurevich, Chava Peretz, Orna Moore, Nina Weizmann, and Nir Giladi. The effect of
injecting botulinum toxin type a into the calf muscles on freezing of gait in Parkinson’s di-
sease : a double blind placebo-controlled pilot study. Movement disorders : official journal of
the Movement Disorder Society, 22(6) :880–3, April 2007.
118
[26] Mark Hallett. The intrinsic and extrinsic aspects of freezing of gait. Movement disorders :
official journal of the Movement Disorder Society, 23 Suppl 2 :S439–43, January 2008.
[27] Rodolphe Héliot, Christine Azevedo-Coste, L. Schwirtlich, and Bernard Espiau. Gait spectral
index (GSI) : a new quantification method for assessing human gait. Health, 02(01) :38–44, 2010.
[28] Rodolphe Héliot and Bernard Espiau. Online generation of cyclic leg trajectories synchronized
with sensor measurement. Robotics and Autonomous Systems, 56(5) :410–421, May 2008.
[29] Martin D Hoffman and Kevin Fogard. Factors related to successful completion of a 161-km
ultramarathon. International journal of sports physiology and performance, 6(1) :25–37, March
2011.
[30] Jovana Jovic, Sebastien Lengagne, Philippe Fraisse, and Christine Azevedo Coste. Impact of
Functional Electrical Stimulation of Knee Joints during Sitting Pivot Transfer Motion for Para-
plegic People. International Journal of Advanced Robotic Systems, 2012.
[31] Beat Knechtle, Christoph Alexander Rüst, Thomas Rosemann, and Romuald Lepers. Age-
related changes in 100-km ultra-marathon running performance. Age (Dordrecht, Netherlands),
34(4) :1033–45, August 2012.
[32] Katie Kompoliti, Christopher G. Goetz, Sue Leurgans, Mary Morrissey, and Irwin M. Siegel.
"On" freezing in Parkinson’s disease : Resistance to visual cue walking devices. Movement
Disorders, 15(2) :309–312, March 2000.
[33] Mike I Lambert, Jonathan P Dugas, Mark C Kirkman, Gaonyadiwe G Mokone, and Miriam R
Waldeck. CHANGES IN RUNNING SPEEDS IN A 100 KM ULTRA-MARATHON RACE.
Journal of Sports Science and Medecine, 3 :167–173, 2004.
[34] Annemarie Laudanski, Shuozhi Yang, and Qingguo Li. A concurrent comparison of inertia
sensor-based walking speed estimation methods. Conference proceedings : ... Annual Interna-
tional Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering
in Medicine and Biology Society. Conference, 2011 :3484–7, January 2011.
[35] I Lim, E van Wegen, C de Goede, M Deutekom, A Nieuwboer, A Willems, D Jones, L Rochester,
and G Kwakkel. Effects of external rhythmical cueing on gait in patients with Parkinson’s
disease : a systematic review. Clinical rehabilitation, 19(7) :695–713, October 2005.
[36] Guillaume Y Millet, Jean-Benoît Morin, Francis Degache, Pascal Edouard, Léonard Feasson, Ju-
lien Verney, and Roger Oullion. Running from Paris to Beijing : biomechanical and physiological
consequences. European journal of applied physiology, 107(6) :731–8, December 2009.
[37] Guillaume Y Millet, Katja Tomazin, Samuel Verges, Christopher Vincent, Régis Bonnefoy,
Renée-Claude Boisson, Laurent Gergelé, Léonard Féasson, and Vincent Martin. Neuromus-
cular consequences of an extreme mountain ultra-marathon. PloS one, 6(2) :e17059, January
2011.
[38] Steven T Moore, Hamish G MacDougall, Jean-Michel Gracies, Helen S Cohen, and William G
Ondo. Long-term monitoring of gait in Parkinson’s disease. Gait & posture, 26(2) :200–7, July
2007.
[39] Steven T Moore, Hamish G MacDougall, and William G Ondo. Ambulatory monitoring of
freezing of gait in Parkinson’s disease. Journal of neuroscience methods, 167(2) :340–8, January
2008.
119
[40] Jean-Benoît Morin, Pierre Samozino, and Guillaume Y Millet. Changes in running kinematics,
kinetics, and spring-mass behavior over a 24-h run. Medicine and science in sports and exercise,
43(5) :829–36, May 2011.
[41] a Nieuwboer, G Kwakkel, L Rochester, D Jones, E van Wegen, a M Willems, F Chavret, V He-
therington, K Baker, and I Lim. Cueing training in the home improves gait-related mobility in
Parkinson’s disease : the RESCUE trial. Journal of neurology, neurosurgery, and psychiatry,
78(2) :134–40, February 2007.
[42] a Peruzzi, U Della Croce, and a Cereatti. Estimation of stride length in level walking using an
inertial measurement unit attached to the foot : A validation of the zero velocity assumption
during stance. Journal of biomechanics, 44(10) :1991–4, July 2011.
[43] Meir Plotnik, Nir Giladi, Yacov Balash, Chava Peretz, and Jeffrey M Hausdorff. Is freezing
of gait in Parkinson’s disease related to asymmetric motor function ? Annals of neurology,
57(5) :656–63, May 2005.
[44] MB Popovic, M. Djuric-Jovicic, S. Radovanovic, I. Petrovic, and V. Kostic. A simple method to
assess freezing of gait in Parkinson’s disease patients. Brazilian Journal of Medical and Biological
Research, 43(9) :883–889, 2010.
[45] LR Rabiner. A tutorial on hidden Markov models and selected applications in speech recognition.
Proceedings of the IEEE, 77(2) :257–286, 1989.
[46] Valérie Renaudin, Muhammad Haris Afzal, and Gérard Lachapelle. Complete Triaxis Magneto-
meter Calibration in the Magnetic Domain. Journal of Sensors, 2010 :1–10, 2010.
[47] Arash Salarian, Heike Russmann, François J G Vingerhoets, Catherine Dehollain, Yves Blanc,
Pierre R Burkhard, and Kamiar Aminian. Gait Assessment in Parkinson’s Disease : Toward an
Ambulatory System for Long-Term Monitoring. System, 51(8) :1434–1443, 2004.
[48] J M Shine, S T Moore, S J Bolitho, T R Morris, V Dilda, S L Naismith, and S J G Lewis.
Assessing the utility of Freezing of Gait Questionnaires in Parkinson’s Disease. Parkinsonism &
related disorders, 18(1) :25–9, January 2012.
[49] E van Wegen, I Lim, C de Goede, A Nieuwboer, A Willems, D Jones, L Rochester, V Hethering-
ton, H Berendse, J Zijlmans, E Wolters, and G Kwakkel. The effects of visual rhythms and optic
flow on stride patterns of patients with Parkinson’s disease. Parkinsonism & related disorders,
12(1) :21–7, January 2006.
[50] Galit Yogev, Meir Plotnik, Chava Peretz, Nir Giladi, and Jeffrey M Hausdorff. Gait asymmetry in
patients with Parkinson’s disease and elderly fallers : when does the bilateral coordination of gait
require attention ? Experimental brain research. Experimentelle Hirnforschung. Expérimentation
cérébrale, 177(3) :336–46, March 2007.
[51] Wiebren Zijlstra and At L Hof. Assessment of spatio-temporal gait parameters from trunk
accelerations during human walking. Gait & posture, 18(2) :1–10, October 2003.
120