Modèle de régression à processus logistique caché pour le ...

47
Modèle de régression à processus logistique caché pour le diagnostic par suivi de point de fonctionnement des mécanismes d’aiguillages Faicel Chamroukhi Direction de la tèhse : Gérard Govaert (UTC), Patrice Aknin(INRETS) Encadrement : Allou Samé (INRETS) Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 1 / 36

Transcript of Modèle de régression à processus logistique caché pour le ...

Modèle de régression à processus logistique caché pour le diagnostic par suivi de point de fonctionnement des mécanismes d'aiguillagesModèle de régression à processus logistique caché pour le diagnostic par suivi de point de
fonctionnement des mécanismes d’aiguillages
Faicel Chamroukhi
Encadrement : Allou Samé (INRETS)
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 1 / 36
Plan
2 Modélisation probabiliste des signaux Modèle de régression à processus logistique caché Le processus Logistique proposé Estimation des paramètres du modèle
3 Suivit de point de fonctionnement Modélisation de la dynamique d’évolution de l’état du système
4 Experimentations
5 Conclusion
6 Perspectives
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 2 / 36
Introduction Contexte
Contexte
Collaboration avec la SNCF Diagnostic par suivi de point de fonctionnement du mécanisme d’aiguillage Application des méthodes développées au circuit de voie
Mcanisme d’aiguillage
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 3 / 36
Introduction Objectifs visés
Objectifs visés
Suivi du point de fonctionnement : Estimer la dynamique d’évolution de l’état de fonctionnement du système
Détecter précisément le type défaut (défaut mécanique, défaut électrique, défaut de graissage,...) afin de déployer l’équipe concerne
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 4 / 36
Introduction Donnes disponibles pour le diagnostic
Donnes disponibles pour le diagnostic : Puissance consommée par le moteur durant la manœuvre
Temps (s)
Puissance (Watt)
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 5 / 36
Introduction Donnes disponibles pour le diagnostic
Donnes disponibles pour le diagnostic : Puissance consommée par le moteur durant la manœuvre
Temps (s)
Appel moteur
Puissance (Watt)
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 5 / 36
Introduction Donnes disponibles pour le diagnostic
Donnes disponibles pour le diagnostic : Puissance consommée par le moteur durant la manœuvre
Temps (s)
Appel moteur
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 5 / 36
Introduction Donnes disponibles pour le diagnostic
Donnes disponibles pour le diagnostic : Puissance consommée par le moteur durant la manœuvre
Temps (s)
Appel moteur
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 5 / 36
Introduction Donnes disponibles pour le diagnostic
Exemples d’états de fonctionnement de l’aiguillage
Manœuvre sans défaut
300
350
400
450
500
550
600
300
350
400
450
500
550
600
300
350
400
450
500
550
600
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 6 / 36
Introduction Données disponibles pour le diagnostic
Variabilité des signatures des défauts
Défaut de graissage
300
350
400
450
500
550
600
300
350
400
450
500
550
600
0 1 2 3 4 5 6 250
300
350
400
450
500
550
600
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 7 / 36
Introduction Approche proposée
Approche proposée
1 1ère étape : Caractérisation de chaque signal dans un espace de représentation spécifique
Estimation des paramètres d’un modèle probabiliste de signal
Avantages : apte à prendre en compte les différentes phases des signaux étudiés flexibilité possibilité de simuler facilement
2 2ème tape : Développement d’une méthode de suivi temporel s’appuyant sur les paramètres estimés.
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 8 / 36
Modélisation probabiliste des signaux Modèle de régression à processus logistique caché
Chaque signal est représenté par une séquence temporelle de n observations réelles : x = (x1, . . . , xn) où xi est observé à l’instant ti .
Échantillon : {(t1, x1), . . . , (tn, xn)} ti : le temps xi : variable aléatoire réelle représentant le signal l’instant ti
x est supposé être généré par un modèle de regression à processus logistique caché z = (z1, . . . , zn) avec :
zi variable aléatoire discrète prend ses valeurs dans {1, . . . ,K} zi le label du modèle de régression associé à xi (classe de xi ).
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 9 / 36
Modélisation probabiliste des signaux Le processus Logistique proposé
Le processus Logistique
( 1, πi1(w), . . . , πiK (w)
exp (wT k v i)∑K
`=1 exp (wT ` v i)
, (1)
Où w = (w1, . . . ,wK ) et wk = (wk0, . . . ,wkq)T est le vecteur (q + 1)-dimensionnel des coefficients associés à v i = (1, ti , . . . , (ti )q)T .
La distribution de z s’écrit :
p(z; w) = n∏
` v i)
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 10 / 36
Modélisation probabiliste des signaux Le processus Logistique proposé
Propriétés du processus logistique
1 Effet de la dimension q de wk sur l’évolution temporelle des probabilités πik (w).
On considère un exemple de K = 2 classes.
Seule πi1(w) = exp(wT
1 v i )
) .
0.2
0.4
0.6
0.8
1
Time
0.2
0.4
0.6
0.8
1
Time
0.2
0.4
0.6
0.8
1
Time
)
FIGURE: Exemple de probabilités logistiques en fonction du temps pour différentes valeurs de q, avec K = 2 et (gauche) q = 2 et w1 = (−10,−20,−4)T , (milieu) q = 1 et w1 = (10,−5)T , (droite) q = 0 et w1 = 2.
⇒ Pour avoir des classes (segments) connexes, q doit être fixé à 1. Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 11 / 36
Modélisation probabiliste des signaux Le processus Logistique proposé
Propriétés du processus logistique
2 Evolution des probabilités πik (w) au cours du temps en fonction de wk pour une dimension q de wk fixe (ici q = 1).
Parametrisation de wk = (wk0,wk1)T par wk = λk (γk ,1)T .
0 1 2 3 4 5 0
0.2
0.4
0.6
0.8
1
Time
0.2
0.4
0.6
0.8
1
Time
γ 1 = −3
γ 1 = −2
γ 1 = −1.5
FIGURE: Exemple de probabilités logistiques en fonction du temps pour différentes configurations de w, avec q = 1, K = 2 et (gauche) γ1 = −2 et λ1 = [−5,−10,−50], (doite) λ1 = −5 et γ1 = [−3,−2,−1.5].
⇒ λk contrôle la qualité des transitions entre les classes (plus |λk | est élevée plus la transition entre les zi est abrupte). ⇒ Le paramètre γk contrôle le temps de changement. Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 12 / 36
Modélisation probabiliste des signaux Le processus Logistique proposé
Modèle de régression
Signal Échantillon : {(t1, x1), . . . , (tn, xn)} ti : le temps xi : variable aléatoire réelle représentant le signal l’instant ti
Modèle proposé
zi ),
(3)
zi ∈ {1, . . . ,K} le label du sous-modèle de régression de xi ⇒ zi permet de basculer de faon automatique d’un modle rgressif l’autre r i = (1, ti , . . . , t
p i ) ; p ordre de régression
βk = (βk0, . . . ,βkp) : coefficients de régression
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 13 / 36
Modélisation probabiliste des signaux Le processus Logistique proposé
Loi de probabilité des observations (xi , i = 1, . . . ,n)
En faisant intervenir la variable latente discrète z représentant la classe de chaque observation xi , on montre que :
p(xi ; θ) = K∑
= K∑
2 k )
Paramètres du modèle
2 K
) Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 14 / 36
Modélisation probabiliste des signaux Estimation des paramètres du modèle
Estimation du vecteur θ des paramètres du modèle
Méthode du maximum de vraisemblance xi = βT
zi r i + εi
ε1, . . . , εn sont supposées indépendants cond. aux zi ⇒ Étant donné le temps t = (t1, . . . , tn), les xi sont indépendants
Log-vraisemblance
= n∑
2 k )
]
La maximisation directe de la log-vraisemblance ne peut pas être effectue de manière analytique Maximisation par l’algorithme EM (Expectation Maximization) [DLR 77]
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 15 / 36
Modélisation probabiliste des signaux Estimation des paramètres du modèle
Algorithme EM
Q(θ; θ(m)) = E ( Lc(θ; Y )|x,θ(m)
) =
2 k )
avec :
x = (x1, . . . , xn) : données observées y = (x1, . . . , xn, z1, . . . , zn) : données complètes
Lc(θ; y) : log-vraisemblance complète
⇒ La maximisation de Q(θ; θ(m)) à chaque itération m fait croître la vraisemblance L(θ; x)
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 16 / 36
Modélisation probabiliste des signaux Détails de l’algorithme EM obtenu
Détails de l’algorithme EM obtenu
Initialisation : θ(0)
Itérer jusqu’ la convergence les deux étapes suivantes :
1 Étape E : Espérance ( à l’itération m) Calcul de l’espérance conditionnelle de la vraisemblance complète Q(θ; θ(m))
⇒ nécessite simplement le calcul des probabilités a posteriori t (m) ik , ∀i ,
∀k
t(m) ik =
πik (w (m))N (xi ;β T (m) k r i ,σ
2(m) k )∑K
`=1 π`i (w (m))N (xi ;β T (m) ` r i ,σ
2(m) ` )
2 Étape M : Maximisation (à l’itération m) Calcul de θ(m+1) qui maximise Q(θ; θ(m)) par rapport au paramtre θ
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 17 / 36
Modélisation probabiliste des signaux Détails de l’algorithme EM obtenu
Détails de l’algorithme EM obtenu
Initialisation : θ(0)
Itérer jusqu’ la convergence les deux étapes suivantes :
1 Étape E : Espérance ( à l’itération m) Calcul de l’espérance conditionnelle de la vraisemblance complète Q(θ; θ(m))
⇒ nécessite simplement le calcul des probabilités a posteriori t (m) ik , ∀i ,
∀k
t(m) ik =
πik (w (m))N (xi ;β T (m) k r i ,σ
2(m) k )∑K
`=1 π`i (w (m))N (xi ;β T (m) ` r i ,σ
2(m) ` )
2 Étape M : Maximisation (à l’itération m) Calcul de θ(m+1) qui maximise Q(θ; θ(m)) par rapport au paramtre θ
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 17 / 36
Modélisation probabiliste des signaux Détails de l’algorithme EM obtenu
Détails de l’algorithme EM obtenu
Initialisation : θ(0)
Itérer jusqu’ la convergence les deux étapes suivantes :
1 Étape E : Espérance ( à l’itération m) Calcul de l’espérance conditionnelle de la vraisemblance complète Q(θ; θ(m))
⇒ nécessite simplement le calcul des probabilités a posteriori t (m) ik , ∀i ,
∀k
t(m) ik =
πik (w (m))N (xi ;β T (m) k r i ,σ
2(m) k )∑K
`=1 π`i (w (m))N (xi ;β T (m) ` r i ,σ
2(m) ` )
2 Étape M : Maximisation (à l’itération m) Calcul de θ(m+1) qui maximise Q(θ; θ(m)) par rapport au paramtre θ
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 17 / 36
Modélisation probabiliste des signaux Détails de l’algorithme EM obtenu
Détails de l’algorithme EM obtenu
Initialisation : θ(0)
Itérer jusqu’ la convergence les deux étapes suivantes :
1 Étape E : Espérance ( à l’itération m) Calcul de l’espérance conditionnelle de la vraisemblance complète Q(θ; θ(m))
⇒ nécessite simplement le calcul des probabilités a posteriori t (m) ik , ∀i ,
∀k
t(m) ik =
πik (w (m))N (xi ;β T (m) k r i ,σ
2(m) k )∑K
`=1 π`i (w (m))N (xi ;β T (m) ` r i ,σ
2(m) ` )
2 Étape M : Maximisation (à l’itération m) Calcul de θ(m+1) qui maximise Q(θ; θ(m)) par rapport au paramtre θ
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 17 / 36
Modélisation probabiliste des signaux Détails de l’algorithme EM obtenu
Détails de l’algorithme EM obtenu
Initialisation : θ(0)
Itérer jusqu’ la convergence les deux étapes suivantes :
1 Étape E : Espérance ( à l’itération m) Calcul de l’espérance conditionnelle de la vraisemblance complète Q(θ; θ(m))
⇒ nécessite simplement le calcul des probabilités a posteriori t (m) ik , ∀i ,
∀k
t(m) ik =
πik (w (m))N (xi ;β T (m) k r i ,σ
2(m) k )∑K
`=1 π`i (w (m))N (xi ;β T (m) ` r i ,σ
2(m) ` )
2 Étape M : Maximisation (à l’itération m) Calcul de θ(m+1) qui maximise Q(θ; θ(m)) par rapport au paramtre θ
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 17 / 36
Modélisation probabiliste des signaux Détails de l’algorithme EM obtenu
Détails de l’tape M
Maximisation de Q(θ; θ(m)) = Q1(w) + Q2(β, σ2 1, . . . , σ
2 K ) :
Calcul du w (m+1) qui maximise Q1 : problème de régression logistique multicalasse pondéré par les t(m)
ik (Algorithme IRLS (Iterative Reweighted Least Square [Chen 99, Green 84, Krishnapuram 05])
La maximisation de Q2 par rapport à βk consiste à résoudre K roblèmes de régression linaire pondérés par les t(m)
ik . (βT
∑n i=1 t(m)
2 ; ∀k = 1, . . . ,K
La maximisation de Q2 par rapport à (σ2 k ) donne :
(σ2 k )(m+1) =
∑n i=1 t(m)
ik
vraisemblance)
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 18 / 36
Modélisation probabiliste des signaux Détails de l’algorithme EM obtenu
Détails de l’tape M
Maximisation de Q(θ; θ(m)) = Q1(w) + Q2(β, σ2 1, . . . , σ
2 K ) :
Calcul du w (m+1) qui maximise Q1 : problème de régression logistique multicalasse pondéré par les t(m)
ik (Algorithme IRLS (Iterative Reweighted Least Square [Chen 99, Green 84, Krishnapuram 05])
La maximisation de Q2 par rapport à βk consiste à résoudre K roblèmes de régression linaire pondérés par les t(m)
ik . (βT
∑n i=1 t(m)
2 ; ∀k = 1, . . . ,K
La maximisation de Q2 par rapport à (σ2 k ) donne :
(σ2 k )(m+1) =
∑n i=1 t(m)
ik
vraisemblance)
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 18 / 36
Modélisation probabiliste des signaux Détails de l’algorithme EM obtenu
Détails de l’tape M
Maximisation de Q(θ; θ(m)) = Q1(w) + Q2(β, σ2 1, . . . , σ
2 K ) :
Calcul du w (m+1) qui maximise Q1 : problème de régression logistique multicalasse pondéré par les t(m)
ik (Algorithme IRLS (Iterative Reweighted Least Square [Chen 99, Green 84, Krishnapuram 05])
La maximisation de Q2 par rapport à βk consiste à résoudre K roblèmes de régression linaire pondérés par les t(m)
ik . (βT
∑n i=1 t(m)
2 ; ∀k = 1, . . . ,K
La maximisation de Q2 par rapport à (σ2 k ) donne :
(σ2 k )(m+1) =
∑n i=1 t(m)
ik
vraisemblance)
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 18 / 36
Modélisation probabiliste des signaux Détails de l’algorithme EM obtenu
Algorithme Iteratively Reweighted Least Squares (IRLS)
Utilisé pour maximiser Q1 = ∑n
i=1 ∑K
k=1 t (m) ik logπik (w) par rapport à w.
Q1 est la vraisemblance du paramètre w étant donnés le temps et l’espérance du processus caché z.
Typiquement un algorithme Newton-Raphson dont la formule de mise à jour est :
w(c+1) = w(c) − α [ H(w(c))
]−1g(w(c)) (4)
où H(w) et g(w) sont respectivement la matrice Héssienne et le gradient de w, et α le pas d’apprentissage.
Contrairement à [Krishnapuram 05] (approximation de la héssienne pour accélérer l’algorithme) on utilise la matrice Héssienne pleine [Chen 99] pour une meilleure estimation des paramètres.
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 19 / 36
Suivit de point de fonctionnement Modélisation de la dynamique d’évolution de l’état du système
Modèle de régression multivariée à processus caché
X = {x1, . . . , xN} une séquence de signaux observée sur un interval de temps {t1, . . . , tN}.
Échantillon : {(t1, x1), . . . , (tN , xN)} tj : le temps (inter-signaux) xj : variable aléatoire réelle représentant les paramètres du signal l’instant tj
X est supposé être généré par un modèle de regression à processus logistique caché C = (c1, . . . , cN) où :
cj variable aléatoire discrete prend ses valeurs dans {1, . . . ,G} cj l’état du système à l’instant tj .
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 20 / 36
Suivit de point de fonctionnement Modélisation de la dynamique d’évolution de l’état du système
Modèle de régression
Séquence de signaux→ paramétrisation→ paraètres Désormais, on désigne par xj : variable aléatoire dans IRd
représentant les paramètres du signal observé à l’instant tj Modèle proposé :
∀j = 1, . . . ,N, {
xj = BT cj
r j + εj
εj ∼ N (0,Σcj ), (5)
cj ∈ {1, . . . ,G} variable latente discrète qui représente l’état du système à l’instant tj . r j = (1, tj , . . . , t
p j ) ; p ordre de régression
Bg = (Bg0, . . . ,Bgp) : matrice de dim. [(p + 1)× d ] des coefficients de régression multivariée associées à r i .
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 21 / 36
Experimentations Conditions des experimentations
Donnée simulés
Simuler des données avec K = 3 classes, p = 2 et q = 1 à partir de paramètres θ fixés correspondant à une erreur théorique de 3%. Faire varier la taille de l’échantillon n (n varie de 100 à 1000). Qualité des estimateurs mesurée par l’erreur de segmentation par rapport la segmentation de référence (simulée). Résultats calculés pour 20 échantillons différents.
Exemple de signal simulé (n = 100) :
0 1 2 3 4 5 0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0 1 2 3 4 5 220
240
260
280
300
320
340
360
380
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 22 / 36
Experimentations Résultats
Erreur de classification
100 200 300 400 500 600 700 800 900 1000 0
5
10
15
20
25
30
% )
Sample size (n) 100 200 300 400 500 600 700 800 900 1000
3
5
7
9
11
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 23 / 36
Experimentations Résultats
Selection de modèle par le critère BIC [schwartz 78]
K 2 3 4 5 6 7 8 p 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 2 0 85 5 0 0 0 0 3 0 5 5 0 0 0 0 4 0 0 0 0 0 0 0 5 0 0 0 0 0 0 0 6 0 0 0 0 0 0 0
TABLE: Percentage of choosing (K ,p) with BIC criterion
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 24 / 36
Experimentations Résultats
2 3 4 5 6 7 8 −2050
−2000
−1950
−1900
−1850
−1800
−1750
−1700
−1650
−1600
−1550
K
−2100
−2000
−1900
−1800
−1700
−1600
−1500
p
BIC(p) for K = 3
FIGURE: Choosing K and p with BIC for one example of simulated signals
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 25 / 36
Experimentations Résultats
Données réèlles
Signaux réels couvrant un large pannel de défauts
Nombre de composantes du mélange choisi : K = 4 ' nombre de phases d’une manœuvre.
Ordre de régression linéaire p = 3 (splines cubiques).
Dimension du paramètres du logistique q = 1. ⇒ Nombre de paramètres à estimer par signal : (p + q + 3) ∗ K − (q + 1) = 26 (Vs. 560 pts initiaux).
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 26 / 36
Experimentations Résultats
0 1 2 3 4 5 6 250
300
350
400
450
500
550
Time (Second)
Po we
r ( W
at t)
0
0.2
0.4
0.6
0.8
1
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 27 / 36
Experimentations Résultats
0 1 2 3 4 5 6
300
400
500
600
700
800
Time (Second)
Po we
r ( W
at t)
0
0.2
0.4
0.6
0.8
1
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 28 / 36
Experimentations Résultats
300
400
500
600
700
800
Time (Second)
Po we
r ( W
at t)
0
0.2
0.4
0.6
0.8
1
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 29 / 36
signal-5.avi
300
350
400
450
500
550
Time (Second)
Po we
r ( W
at t)
0
0.2
0.4
0.6
0.8
1
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 30 / 36
signal-43.avi
0 20 40 60 80 100 120
0
0.2
0.4
0.6
0.8
1
Time
0
0.2
0.4
0.6
0.8
1
Time (Second)
P ro
ba bi
lit y
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 31 / 36
Experimentations Résultats
Modèle concurrent : La séquence des classes (états) est un processus Markovien (HMM).
Hidden Markov processes, more commonly known as hidden Markov models (HMMs) Modèle à K états (classes) caché(e)s. Loi initiale π1 = (π11, . . . , π1K )T , avec π1k = p(z1 = k)
Matrice de transitions A, avec A`k = p(zi = k |zi−1 = `)
La distribution de z (ou C) est :
p(z;π,A) = K∏
k=1
)z(i−1)`
(6) avec :
zik = 1 if zi = k and 0 otherwise z(i−1)` = 1 if zi−1 = ` and 0 otherwise
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 32 / 36
Experimentations Résultats
0 1 2 3 4 5 6 250
300
350
400
450
500
550
0
0.2
0.4
0.6
0.8
1
0
0.2
0.4
0.6
0.8
1
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 33 / 36
Experimentations Résultats
Résultats obtenus avec le HMM pour le suivi de point de fonctionnement.
0 0.2 0.4 0.6 0.8 1 1.2 1.4
0
0.2
0.4
0.6
0.8
1
Temps
0 0.2 0.4 0.6 0.8 1 1.2 1.4
0
0.2
0.4
0.6
0.8
1
Temps
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 34 / 36
Conclusion
Conclusion
Avantages du modèle probabiliste de régression à processus caché par rapport une approche de régression classique :
Autorise les paramètres régression évoluer aux cours du temps → meilleure modélisation des signaux
Particularité de l’algorithme de type EM permettant d’estimer les paramètres du modèle :
inclut une procédure de régression logistique pour le calcul des proportions du mélange, qui évoluent au cours du temps moyennes des composantes : courbes polynomiales
résultats encourageants
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 35 / 36
Perspectives
Perspectives
2 Choix de critère de comparaison.
3 Suivi séquentiel (en ligne) du point de fonctionnement
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 36 / 36
Bibliographie
P. Dempster, N. M. Laird, and D. B. Rubin. Maximum likelihood from incomplete data via the EM algorithm (with discussion). Journal of the Royal Statistical Society B , pages 39, PP. 138, 1977.
A. X. Carvalho and M. A. Tanner. Modeling nonlinearities with mixtures of-experts of time series models. International Journal of Mathematics and Mathematical Sciences, 2006.
Krishnapuram, B. ; Carin, L. ; Figueiredo, M.A.T. ; Hartemink, A.J. Sparse multinomial logistic regression : fast algorithms and generalization bounds IEEE Transactions on Pattern Analysis and Machine Intelligence, Volume 27, Issue 6, Page(s) : 957 - 968 June 2005
P. Green. Iteratively Reweighted Least Squares for Maximum Likelihood Estimation,and some Robust and Resistant Alternatives. Journal of the Royal Statistical Society B ,46(2), pp149-192, 1984.
Rabiner, L. R. A tutorial on hidden Markov models and selected applications in speech recognition. Proceedings of the IEEE, 77 (2), p. 257286, February 1989.
Baum, L.E., Petrie, T., Soules, G. and Weiss, N. A maximization technique occurring in the statistical analysis of probabilistic functions of Markov chains. Annals of Mathematical Statistics, 41, p. 164171. 1970.
G. Celeux, J. S. Marques and J. Nasciemento Learning Switching Dynamic Models for Objects Tracking. Rapport de recherche INRIA, Juillet 2003.
K. Chen, L. Xu, H. Chi Improved Learning Algorithms for Mixture of Experts in Multiclass Classification. IEEE Transactions on Neural Networks, Volume 12, Issue 9, Page(s) : 1229 - 1252 November 1999.
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 37 / 36
Merci pour votre attention !
Faicel Chamroukhi (INRETS/UTC) Journeé des doctorants INRETS Arcueil 25 Novembre 2008 38 / 36
Plan
Introduction
Contexte
Le processus Logistique proposé
Modélisation de la dynamique d'évolution de l'état du système
Experimentations
Conclusion
Perspectives
Bibliographie