Traitement Numerique Du Signal

79
TRAITEMENT NUMERIQUE DU SIGNAL INTRODUCTION Pourquoi faire du traitement numérique du signal ? Le mot signal désigne le résultat de la mesure d’une grandeur physique. Sans restreindre en aucune façon notre discours, le résultat obtenu sera vu comme une fonction du temps. On dira alors que le signal est analogique ou à temps continu si la mesure est disponible de façon continue à tout instant et numérique à temps discret si elle n’est observée qu’à des instants discrets particuliers en général régulièrement espacés. Le traitement numérique du signal TNS consiste à traiter des signaux à temps discret. L’émergence du TNS est liée, comme pour de nombreux autres domaines, au perfectionnement des composants électroniques. Ce dernier a stimulé l’imagination des scientifiques et des futurologues, engendrant du même coup de nouveaux problèmes et besoins et, avec eux, la nécessité de disposer d’outils encore plus puissants. Les microprocesseurs, dédiés à l’origine aux traitements purement informatiques, ou à des fonctions simples de contrôle, sont désormais indispensables en TNS. Ils ont facilité la mise en place d’algorithmes qu’il aurait été bien difficile de mettre en œuvre autrement. Il suffit pour s’en convaincre de regarder du côté des applications grand public telles que télévision haute définition, radiodiffusion numérique, téléphonie mobile, applications multimedia, etc. Tous ces services nouveaux utilisent largement le traitement numérique du signal en mettant en œuvre des algorithmes parfois extrêmement complexes et nécessitant des puissances de calcul considérables. Pour se limiter à quelques exemples, on peut citer pêle-mêle : la suppression du bruit de fond lors d’une transmission téléphonique à partir de l’habitacle d’une voiture ; le traitement du signal reçu en téléphonie mobile ; le codage de l’image et de la parole dans un système de visiophonie ; la reconnaissance et la synthèse de la parole ; la détection de défauts dans une pièce mécanique et la maintenance préventive ; la localisation par sonar des bancs de poissons ; l’évaluation par radar des positions et vitesse d’une cible ; l’inversion de profil sismique pour la recherche pétrolière ; l’analyse des vibrations d’une plate-forme pétrolière ; l’analyse des signaux électro-encéphalographiques pour l’aide au diagnostic médical ; la réception d’informations délivrées par le système GPS de navigation par satellites ; la synthèse électronique de sons musicaux ; le traitement de signaux acoustiques provenant de plusieurs microphones, etc. Ces problèmes sont loin d’être complètement résolus et font encore l’objet de recherches. Au-delà de la complexité des problèmes qu’il permet d’aborder, le TNS autorise une grande souplesse dans la phase de mise au point. Les tests sont parfaitement reproductibles. On ne risque pas une dérive dans les caractéristiques des composants comme cela se passe dans les traitements analogiques. Est-ce à dire que ces derniers sont irrémédiablement condamnés ? En fait, même si leur part est en constante régression, elle ne risque pas de disparaître. Dans certains cas on ne peut s’en passer car les phénomènes observés sont trop rapides et, dans

Transcript of Traitement Numerique Du Signal

Page 1: Traitement Numerique Du Signal

TRAITEMENT NUMERIQUE DU SIGNAL

INTRODUCTION

Pourquoi faire du traitement numérique du signal ?

Le mot signal désigne le résultat de la mesure d’une grandeur physique. Sans restreindre enaucune façon notre discours, le résultat obtenu sera vu comme une fonction du temps. On diraalors que le signal est analogique ou à temps continu si la mesure est disponible de façoncontinue à tout instant et numérique à temps discret si elle n’est observée qu’à des instantsdiscrets particuliers en général régulièrement espacés. Le traitement numérique du signalTNS consiste à traiter des signaux à temps discret. L’émergence du TNS est liée, commepour de nombreux autres domaines, au perfectionnement des composants électroniques. Cedernier a stimulé l’imagination des scientifiques et des futurologues, engendrant du mêmecoup de nouveaux problèmes et besoins et, avec eux, la nécessité de disposer d’outils encoreplus puissants. Les microprocesseurs, dédiés à l’origine aux traitements purementinformatiques, ou à des fonctions simples de contrôle, sont désormais indispensables en TNS.Ils ont facilité la mise en place d’algorithmes qu’il aurait été bien difficile de mettre en œuvreautrement. Il suffit pour s’en convaincre de regarder du côté des applications grand publictelles que télévision haute définition, radiodiffusion numérique, téléphonie mobile,applications multimedia, etc. Tous ces services nouveaux utilisent largement le traitementnumérique du signal en mettant en œuvre des algorithmes parfois extrêmement complexes etnécessitant des puissances de calcul considérables.

Pour se limiter à quelques exemples, on peut citer pêle-mêle :

la suppression du bruit de fond lors d’une transmission téléphonique à partir del’habitacle d’une voiture ;

le traitement du signal reçu en téléphonie mobile ; le codage de l’image et de la parole dans un système de visiophonie ; la reconnaissance et la synthèse de la parole ; la détection de défauts dans une pièce mécanique et la maintenance préventive ; la localisation par sonar des bancs de poissons ; l’évaluation par radar des positions et vitesse d’une cible ; l’inversion de profil sismique pour la recherche pétrolière ; l’analyse des vibrations d’une plate-forme pétrolière ; l’analyse des signaux électro-encéphalographiques pour l’aide au diagnostic médical ; la réception d’informations délivrées par le système GPS de navigation par satellites ; la synthèse électronique de sons musicaux ; le traitement de signaux acoustiques provenant de plusieurs microphones, etc.

Ces problèmes sont loin d’être complètement résolus et font encore l’objet de recherches.

Au-delà de la complexité des problèmes qu’il permet d’aborder, le TNS autorise une grandesouplesse dans la phase de mise au point. Les tests sont parfaitement reproductibles. On nerisque pas une dérive dans les caractéristiques des composants comme cela se passe dans lestraitements analogiques. Est-ce à dire que ces derniers sont irrémédiablement condamnés ?En fait, même si leur part est en constante régression, elle ne risque pas de disparaître. Danscertains cas on ne peut s’en passer car les phénomènes observés sont trop rapides et, dans

Page 2: Traitement Numerique Du Signal

d’autres, ils s’imposent en raison de la simplicité même du traitement à effectuer. Ainsi, si unfiltrage passe-bas de type RC suffit, un traitement numérique paraît quelque peu luxueux pours’y substituer.

Nous ne parlerons pas ici du traitement numérique des images. Ses spécificités font de lui unthème le plus souvent exposé ou enseigné à part.

Nota : On entend par image 2D (respectivement 3D) une grandeur qui dépend de 2(respectivement 3) paramètres. Par exemple le signal constitué par le niveau de gris dans unephotographie en noir et blanc peut être indicé par la position (abscisse et ordonnée) du point.

Après avoir décrit les signaux numériques (transformée de Fourier, théorie del’échantillonnage) 1 , dans le paragraphe 2 nous présentons les principales propriétéstemporelles et spectrales des signaux déterministes à temps discret. Nous y étudierons enparticulier la transformée de Fourier discrète qui est l’un des outils de base du TNS. Leparagraphe 3 est consacré aux propriétés des filtres linéaires, en particulier ceux décrits parune équation récurrente, et à une brève introduction aux méthodes de synthèse de filtres. Leparagraphe 4 est consacré aux signaux aléatoires. On y présente les signaux stationnairesau sens large et leur filtrage, ainsi que les chaînes de Markov. On conclut par quelqueséléments d’estimation statistique. La dernière partie présente, pour illustrer ce qui précède,quelques problèmes pratiques de traitement : le changement de fréquence, l’estimationspectrale, l’algorithme de filtrage adaptatif du gradient stochastique.

De nombreuses propriétés sont énoncées sans donner les hypothèses de leur validité. Notreseule excuse est que, dans la majorité des cas rencontrés en pratique, ces hypothèses sontsatisfaites. Les plus curieux pourront amplement se documenter en consultant l’abondantelittérature existant dans le domaine.

1.1 Généralités

En TNS, l’information manipulée se présente sous la forme d’une suite de valeursnumériques issues de l’observation des grandeurs physiques. Cette suite porte le nom designal à temps discret ou signal numérique.

Nota : le terme signal numérique est ambigu car il a une signification différente en théoriedes communications où il désigne le signal à temps continu associé à la suite de symboles(typiquement des 0 et des 1) du message numérique.

Quand la grandeur observée est une fonction du temps, une opération, dite denumérisation, est nécessaire pour effectuer le passage du signal analogique au signalnumérique (figure 1). Elle comporte quatre phases.

1. La grandeur observée doit tout d’abord être transformée en un signal électrique àl’aide d’un dispositif appelé transducteur comme par exemple un microphone. Par la suite,nous supposerons la présence implicite d’un tel dispositif dans la chaîne de numérisation etne le représenterons jamais.

2. Le signal électrique à numériser est ensuite appliqué à l’entrée d’un filtre passe-basidéal, dit filtre d’anti-repliement, dont l’utilité sera justifiée par le théorèmed’échantillonnage. Le signal ainsi filtré est noté xa(t ).

Page 3: Traitement Numerique Du Signal

xa(t ) est appliqué en entrée d’un convertisseur analogique/numérique CAN qui effectue lesdeux opérations suivantes.

Figure 1 - Numérisation d’un signal : filtrage anti-repliement, conversion analogiquenumérique

3. L’échantillonnage : on prélève toutes les T secondes les valeurs . T estappelée la période d’échantillonnage et son inverse Fe la fréquence d’échantillonnage.

4. La quantification : les échantillons prélevés sont codés sur un nombre fini de bits(généralement en complément à deux). Ainsi, si les informations à numériser proviennentd’une tension comprise entre – 5 V et + 5 V et que l’on effectue une conversion sur 8 bitsavec représentation en complément à deux, la valeur 3 V sera codée par :

Quant à la valeur maximale 5 V, elle est codée par 0111 11112.

Figure 2 - Reconstruction à partir des échantillons : conversion numérique analogique,filtrage passe-bas

Après numérisation, on dispose donc d’une suite de valeurs x (n) qui peuvent être traitées surcalculateur. Dans certains cas, de plus en plus rares, on utilise une architecture dédiée(ensemble de registres, additionneurs, multiplieurs, etc.) qui permet d’obtenir des vitesses detraitement supérieures mais qui manque singulièrement de souplesse par rapport aucalculateur.

Page 4: Traitement Numerique Du Signal

Après traitement, les données numériques peuvent être restituées sous forme d’un signalphysique approprié (figure 2). Le passage se fait par un signal électrique obtenu à l’aide d’unconvertisseur numérique/analogique (CNA) qui fournit un signal à temps continu en marchesd’escalier par l’intermédiaire d’un bloqueur d’ordre 0. Ce convertisseur est suivi d’un filtrepasse-bas (en principe de gain unité dans la bande (– Fe /2, Fe /2)). La transformation dusignal électrique en signal utile est ensuite effectuée par un dispositif transducteur commepar exemple un haut-parleur.

Dans la suite, sauf indication contraire, nous ne tiendrons pas compte de l’erreur introduitepar l’opération de quantification et, quand on parlera de signal à temps discret, on feraréférence à la suite numérique .

Contrairement aux exposés faits dans le domaine de l’automatique, nous prenons commeparti pris, sauf cas exceptionnel, de ne jamais faire apparaître le temps de manière explicite.Cela revient à supposer que les fréquences exprimées en hertz sont normalisées ou réduitespar rapport à la fréquence d’échantillonnage Fe. Cette façon de procéder ne pose aucunproblème sauf si le traitement fait intervenir des signaux échantillonnés à différentescadences.

Ainsi, le signal numérique produit par un générateur sinusoïdal de fréquence F0 (exprimée enhertz) et échantillonné à la fréquence Fe s’écrira :

, où la fréquence réduite est f0 = F0/Fe.

Nous allons voir que le théorème d’échantillonnage impose de prendre si l’on veutreconstruire parfaitement la sinusoïde analogique de départ à partir de la suite x (n). Par

conséquent .

1.2 Transformée de Fourier

Avant d’aborder les propriétés des signaux numériques, nous rappelons la définition de latransformée de Fourier des signaux à temps continu. On pourra se reporter aux références [4]

[6] .

Le signal à temps continu xa(t) possède (sous des conditions que nous supposerons remplies)une transformée de Fourier et celle-ci s’écrit :

où F désigne la fréquence exprimée en hertz.

Le signal xa(t) est dit stable ou de module intégrable si :

Il est dit d’énergie finie ou de carré intégrable si :

Page 5: Traitement Numerique Du Signal

Il est dit de puissance finie si :

Les opérations de multiplication et de convolution s’échangent par transformation de Fourier.

Le produit de convolution:

a pour transformée de Fourier .

Pour les signaux d’énergie finie on a la formule de Parseval qui s’écrit :

La fonction est appelée spectre ou densité spectrale d’énergie (dse). D’après laformule de Parseval, elle s’interprète en effet comme la répartition de l’énergie le long del’axe des fréquences. De façon générale, on peut dire qu’un signal qui présente des variationsbrutales possède de l’énergie dans les fréquences élevées et son spectre s’étale vers les hautesfréquences.

Le spectre d’un signal réel est une fonction paire.

On dit qu’un signal est à bande limitée si son spectre est nul hors d’une certaine bande defréquence. Pour les signaux réels cette bande est de la forme (– B, B) et on dit simplementque le signal est de bande B.

Pour les signaux périodiques de période T, qui sont d’énergie infinie mais de puissance finie,on peut définir une transformée de Fourier au sens des distributions. Le spectre est alorsconstitué de distributions de Dirac, couramment appelées raies, situées aux fréquencesmultiples de la fréquence fondamentale 1/T.

Nota : Les distributions sont des fonctionnels linéaires définis sur un espace particulier defonctions. La distribution de Dirac est celle qui associe à la fonction g (t) de cet espace savaleur à l’origine g (0).

Page 6: Traitement Numerique Du Signal

1.3 Théorème d’échantillonnage

Dans la mesure où une opération de numérisation précède tout traitement numérique designaux à temps continu, il est naturel de s’intéresser tout particulièrement aux conséquencesde celle-ci.

Le théorème d’échantillonnage énonce qu’un signal réel à bande limitée B peut êtrereconstruit de façon parfaite (on entend par là que l’on espère pouvoir reconstituer le signaloriginal à temps continu à partir de la seule connaissance des échantillons du signal) si lafréquence d’échantillonnage est supérieure ou égale à deux fois la bande B.

Le point de départ de la démonstration est la formule de Poisson qui dit que tout signal xa(t)à temps continu, et possédant une transformée de Fourier notée Xa(F), vérifie :

où Fe = 1/T. Remarquons que la fonction σa(F) est une fonction périodique de période Fe quine dépend que de la suite des échantillons, ce que l’on résume parfois en disant quel’échantillonnage périodise le spectre.

En passant aux fréquences réduites, c’est-à-dire en posant f = F/Fe, il vient :

La fonction σ (f) est appelée transformée de Fourier à temps discret TFtd de la suite x (n)= xa(nT ). Nous reviendrons en détail sur ses propriétés. Notons toutefois que σ (f) est unefonction périodique de période 1.

La figure 3 représente la forme typique de σ (f) pour un signal réel de bande B, lorsqueFe > 2B, c’est-à-dire pour b < 1/2 où on a posé b = B/Fe.

On voit, dans ce cas, que la périodisation ne provoque pas de chevauchements entre lesdifférents lobes composant σ (f ). On doit pouvoir reconstruire de façon parfaite Xa(F ) àpartir de σ (f ) et, par conséquent, en déduire xa(t ) pour tout t. Plus précisément, la formule dereconstruction donnant xa(t ) en fonction de la suite x (n) a pour expression :

avec .

La fréquence minimale 2B permettant une reconstruction parfaite porte le nom de fréquencede Nyquist.

Page 7: Traitement Numerique Du Signal

Lorsque Fe < 2B l’opération de reconstruction parfaite n’est plus possible. Les « motifs »interfèrent de façon irréversible : on dit qu’il y a repliement de spectre.

Pour les signaux complexes le résultat se déduit de la même façon de la formule de Poisson.Mais, comme le spectre de xa(t ) ne possède plus la symétrie paire, la condition de non-

repliement s’écrit simplement où W désigne la largeur totale du support du spectre.

Cette expression donne bien pour les signaux réels puisque dans ce cas W = 2B.

Exemple

signal MIC (modulation par impulsions codées)

En téléphonie numérique on échantillonne le signal issu du microphone à la fréquence de8 000 Hz. Chaque échantillon est ensuite codé sur 8 bits. Ce qui donne un train dont le débitbinaire est de 64 kbit/s : on le désigne par le terme de MIC. Profitons de l’occasion pour direque l’utilisation de techniques non triviales de traitement du signal permet, « sans perte dequalité » (selon notre oreille), de réduire ce débit jusqu’à 2,4 bit/s : on parle de compression.

Échantillonnage des signaux à bande étroite

Les signaux couramment utilisés en radiodiffusion ont un spectre qui est localisé autourd’une fréquence F0 très supérieure à la largeur B de leur support en fréquence (typiquement,

en modulation de fréquence, ). Ces signaux sont dits à bandeétroite. En effectuant un échantillonnage à une fréquence de l’ordre de B et donc trèsinférieure à la fréquence de Nyquist (qui est supérieure à 2F0), on peut satisfaire la conditionde reconstruction parfaite. Pour s’en convaincre, il suffit de se reporter à la formule dePoisson : la périodisation du spectre s’effectue bien sans repliement.

Figure 3 - Périodisation du spectre du signal échantillonné

1.4 Phénomène de repliement

En pratique, le spectre du signal contient de l’énergie à des fréquences supérieures à lafréquence de Nyquist, tout simplement parce que c’est souvent la fréquenced’échantillonnage Fe qui est choisie a priori.

Il faut garder en mémoire que ce choix détermine la qualité de reproduction de la source.Ainsi, en téléphonie où on souhaite ne conserver que des fréquences allant jusqu’à 4 kHZ, ona choisi une fréquence d’échantillonnage de 8 kHz. Par contre, pour les disques compacts, ons’est montré beaucoup plus exigeant puisqu’on a décidé de reproduire fidèlement le signalaudio-fréquence jusqu’aux limites du spectre audible, soit environ 20 kHz. Cela a conduit àprendre une fréquence d’échantillonnage de 44,1 kHz.

Page 8: Traitement Numerique Du Signal

On retiendra le résultat suivant : si la bande du signal est supérieure à Fe/2, et d’après lethéorème d’échantillonnage, la reconstruction introduit une distorsion. Cette distorsion estrendue minimale si l’opération de numérisation est précédée d’un filtrage passe-bas de gainunité dans la bande Fe/2. Ce filtrage est désigné sous le terme de filtrage anti-repliement. Enpratique, cette opération peut être avantageusement remplacée par un échantillonnage à unecadence supérieure à deux fois la bande totale du signal (ce qui évite le repliement) suivi d’unsous-échantillonnage par un traitement purement numérique 5.1 .

Un phénomène connu permet de comprendre la notion de repliement. Il s’agit del’effet stroboscopique observé au cinéma avec les roues de chariots que l’on voitparfois tourner en sens inverse de celui que l’on s’attend à observer. L’origine duphénomène se trouve dans le procédé d’enregistrement cinématographique qui opère àla fréquence de Fe = 24 Hz (24 images par seconde). Pour simplifier nous supposeronsque la roue ne comporte qu’un seul rayon. Son mouvement peut être modélisé par lafonction complexe . Notons que cette modélisation permet deprendre en compte le sens de rotation suivant que F0 est positif ou négatif.

Tant que le nombre F0 de tours par seconde est compris entre 0 et Fe/2 = 12 Hz, l’œil voittourner la roue dans le bons sens à la bonne vitesse. Mais lorsque F0 est compris entre 12 Hzet 24 Hz, la roue « se met à tourner » dans le sens contraire pour atteindre une vitesseapparente nulle lorsque F0 = 24. Puis, lorsque F0 est compris entre 24 Hz et 36 Hz, la roue« se remet à tourner » dans le bon sens mais avec une vitesse apparente qui reste compriseentre 0 et 12 Hz.

L’analyse du spectre fournit l’explication. En effet, le spectre de xa(t ) est constitué d’une raie(distribution de Dirac) à la fréquence F0. La TFtd de la suite échantillonnée est donc unpeigne de Dirac. Supposons, par exemple, que F0 = 18 Hz, ce qui correspond à la fréquenceréduite f0 = 18/24 = 3/4. La périodisation fait apparaître une raie à la fréquence réduite – 1/4(figure 4) correspondant à la fréquence – 6 Hz : comme l’œil ne sélectionne, à la façon d’unfiltre passe-bas, que les fréquences les plus basses, la roue semble tourner en sens inverse.

Figure 4 - Repliement de spectre : la roue tourne en sens contraire

Une expérience simple permet d’exhiber ce phénomène. On échantillonne à lafréquence Fe un signal sinusoïdal de fréquence variable F0 issu d’un générateur designaux. Si on augmente cette fréquence F0 de façon continue à partir de 0 et que l’onécoute le signal obtenu à partir des échantillons, on constate le phénomène suivant :

tant que la fréquence F0 est inférieure à Fe/2 la hauteur du son suit fidèlementcelle du générateur,

lorsque F0 croît de Fe/2 à Fe, la hauteur du son, à l’écoute, se met à décroître !La fréquence apparente est alors égale à Fe – F0,

Page 9: Traitement Numerique Du Signal

lorsque F0 atteint Fe puis la dépasse, la hauteur du son se met à nouveau àcroître de 0 à Fe/2, etc.

Seul le premier cas correspond à une absence de repliement. Dans tous les autres cas, lesignal écouté ne correspond plus au signal d’origine.

Le phénomène de repliement n’est pas toujours nuisible. Ainsi le décodeurstéréophonique d’un poste récepteur de radiodiffusion met à profit ce phénomènepour séparer les voies gauche et droite.

1.5 Notion de signal aléatoire

Les évolutions temporelles du signal, explicitées par exemple par une expression telle quex(n) = a cos (2π f0 n), sont complètement définies dès lors que l’on connaît les deuxparamètres a et f0. On dit que ce signal est déterministe.

Dans certains cas, et ce ne sont pas les moins fréquents, il est impossible de donner unedescription précise de l’évolution de la grandeur physique observée. Citons en exemple lebruit de fond apparaissant dans tous les dispositifs électroniques, ou encore le signal produitpar de la parole à la sortie d’un microphone. De tels signaux sont dits aléatoires. Pour lesdécrire, il faut faire appel à la théorie des probabilités. Le signal numérique est alors définicomme une suite de variables aléatoires.

2. Signaux déterministes

2.1 Signaux types2.2 Transformée de Fourier à temps discret2.2.1 Définition2.2.2 Propriétés2.2.3 TFtd des signaux types2.2.4 Troncature en temps et ondulations parasites2.3 Transformée de Fourier à court terme2.4 La TFD : outil de calcul de la TFtd2.4.1 Calcul pratique de la TFtd2.4.2 Définition de la TFD2.4.3 Propriétés de la TFD2.4.4 Transformée de Fourier rapide2.4.5 Filtrage par TFR

2.1 Signaux types

Pour caractériser les phénomènes observés, ou encore pour étudier les comportements dessystèmes de traitement, on a souvent besoin de faire appel à des suites de référence ousignaux types. Ceci ne surprendra personne puisque c’est aussi ce que l’on fait dans ledomaine du temps continu. Ainsi, l’analyse harmonique d’un système (linéaire) consiste àcaractériser celui-ci en appliquant, en entrée, des sinusoïdes et à mesurer, en sortie,l’amplitude et la phase de la sinusoïde obtenue ; de même, l’observation d’un signal pendantun intervalle de temps de durée finie revient à le multiplier par une fonction rectangulaire quivaut 1 sur cet intervalle et 0 sinon ; un filtre linéaire est caractérisé par sa réponse à uneimpulsion unité ou à l’échelon unité, etc.

Page 10: Traitement Numerique Du Signal

L’impulsion unité est définie par :

Ce signal n’a rien à voir avec la distribution de Dirac rencontrée en temps continu. C’est unesuite de valeurs numériques : n prend des valeurs entières.

L’échelon unité est défini par (figure 5) :

La porte rectangulaire de durée N est définie par :

L’exponentielle causale et décroissante (figure 6) :

L’exponentielle complexe (éternelle) est définie par :

où la fréquence f0 a une valeur comprise entre 0 et 1.

2.2 Transformée de Fourier à temps discret

2.2.1 Définition

Trouver une représentation fréquentielle consiste à rechercher des périodicités dans un signalet à en mesurer les contributions. C’est ce que fait la transformée de Fourier à tempsdiscret (en abrégé TFtd) qui effectue le produit scalaire entre le signal et l’exponentiellecomplexe exp(2πjfn) pour tout f. Sa définition est :

La TFtd joue pour les signaux numériques le rôle de la transformée de Fourier pour lessignaux à temps continu.

C’est une fonction à fréquence continue, , périodique de période 1. Il est d’usage de lareprésenter sur un intervalle de longueur 1, à savoir (– 1/2, + 1/2) ou (0,1).

Page 11: Traitement Numerique Du Signal

Figure 5 - Échelon unité

Figure 6 - Exponentielle décroissante causale avec a réel

La fonction s’appelle le spectre. Dans la littérature ce terme est parfois aussi associé àla fonction . Les deux expressions deviennent équivalentes si l’on utilise l’échelle desdécibels en posant .

Inversement, on peut calculer x (n) à partir de X (f) :

2.2.2 Propriétés

Les propriétés de la TFtd rappellent celles de la transformée de Fourier en temps continu. Enparticulier on a:

linéarité :

décalage en temps :

(1)

Nota : Un décalage en temps est donc équivalent à un déphasage linéaire.

décalage en fréquence :

renversement temporel :

Page 12: Traitement Numerique Du Signal

conjugaison :

caractère réel :

On dit que X (f) possède la propriété de symétrie hermitienne. Le module et la partieréelle de X(f) sont des fonctions paires de f, sa phase et sa partie imaginaire sont desfonctions impaires de f ;

convolution :

(2)

produit :

Formule de Parseval :

2.2.3 TFtd des signaux types

L’impulsion a pour TFtd

X (f ) = 1

Figure 7 - Module de la transformée de Fourier à temps discret de la porte rectangulaire pourN = 10

Page 13: Traitement Numerique Du Signal

L’échelon unité n’a pas de TFtd au sens des fonctions. Toutefois on peut la définir ausens des distributions mais son expression n’a que peu d’intérêt pratique.

La suite exponentielle complexe n’a de TFtd qu’au sens des distributions :

où désigne la distribution de Dirac au point (f0 – n). Il s’agit d’un peigne deDirac de période 1 décalé sur la droite de f0.

La porte rectangulaire ΠN (n) a pour TFtd :

Cette fonction joue un rôle analogue à celui de la fonction sinus cardinal dans le cas dessignaux à temps continu. Comme le signal est réel, cette fonction possède la symétrie

hermitienne . Son module est pair, possède un lobe principal de largeur 2/N en0 et des lobes secondaires de largeur 1/N. Le premier lobe secondaire est à 13 dB en-dessousdu lobe principal. Nous avons représenté, en décibels, le module de gN(f )/N (figure 7) pourN = 10.

2.2.4 Troncature en temps et ondulations parasites

La TFtd de la porte rectangulaire permet d’expliquer les ondulations parasites quiapparaissent lorsqu’on effectue la mesure pratique des spectres des signaux. En effet, chaquefois qu’on considère un signal sur un intervalle de temps inférieur à sa durée totale, celarevient à le multiplier par une porte rectangulaire. Du point de vue spectral cettemultiplication revient à convoluer X (f ) par la fonction gN (f ) qui présente des lobes. Ceux-cine sont pas présents originellement dans la TFtd du signal mais sont un pur artefact dû à latroncature en temps.

Résolution spectrale

Considérons le signal x (n) = sin (2π f0n), , pour et 0 sinon. Cesignal représente un bloc de durée N d’un signal sinusoïdal de fréquence f0. Sa TFtd a pourexpression:

En utilisant la propriété de décalage en fréquence et en notant gN (f) la TFtd de la porterectangulaire, on obtient :

Page 14: Traitement Numerique Du Signal

Son module (normalisé) est représenté figure 8 pour f0 = 0,2 et N = 10.

Figure 8 - Sinusoïde tronquée pour N = 10 et f0 = 0,2

De façon plus générale, lorsque le signal est la somme de K sinusoïdes de fréquences f1, f2 ...fk, son spectre comporte des lobes (principaux) de largeur 2/N situés approximativement auxfréquences f1, f2 ... fK. On en déduit que la séparation des maxima sera d’autant plus marquéeque N sera grand. On parle alors de résolution en fréquence. D’après ce que l’on vient devoir, la quantité 2/N, appelée limite de Fourier, donne donc un ordre de grandeur de larésolution Δf en fréquence. Cette quantité doit cependant être revue à la hausse pour peu queles sinusoïdes soient d’amplitudes très différentes. Il faut en effet que le lobe principal d’unesinusoïde de faible amplitude ne soit pas complètement masqué par un lobe secondaire d’unesinusoïde de plus forte amplitude.

Nous avons représenté figure 9 la TFtd exprimée en dB de la somme de deux sinusoïdes defréquences f1 = 0,2 et f2 = 0,25. Le nombre de points de signal est N = 80. Par conséquent lalimite de Fourier est égale à 1/40 alors que l’écart de fréquence est 1/20. Le premier spectrecorrespond à un rapport d’amplitude de 10 dB entre les deux sinusoïdes. On y distinguenettement la présence des deux composantes sinusoïdales. Par contre, sur le second spectrequi correspond à un rapport d’amplitude de 35 dB, on ne distingue plus la fréquence f2.

Nous avons noté que le fait de ne conserver que N points d’une sinusoïde revient à prendreune sinusoïde de longueur infinie et à la multiplier terme à terme par la porte rectangulaire,appelée dans ce contexte fenêtre de pondération rectangulaire. Pour améliorer la résolutionon est conduit à utiliser d’autres fenêtres de pondération. Une fenêtre très utilisée en pratiqueest la fenêtre de Hamming dont l’expression est h (n ) = 0,54 – 0,46 cos (2π n / N ). On voitsur le troisième spectre que, pour le même rapport de 35 dB, la fenêtre de Hamming améliorenotablement la séparation des deux fréquences au prix, toutefois, de l’élargissement des lobesprincipaux.

2.3 Transformée de Fourier à court terme

Page 15: Traitement Numerique Du Signal

Considérons un signal {x (n)} somme de trois portions de sinusoïdes émises à des instantssuccessifs. Ses caractéristiques sont données dans le tableau 1.

Amplitude Fréquence Instant de début Instant de fin

sinus 1 1 0,11 20 196

sinus 2 1 0,23 84 356

sinus 3 1 0,37 292 512

Caractéristiques d’un signal composé de la somme de trois sinusoïdes décalées

Figure 9 - Spectre de la somme de deux sinusoïdes de fréquence 0,2 et 0,25 avec N = 80

Sa TFtd contient effectivement l’information sur l’ordre chronologique dans lequelapparaissent ces trois fréquences, mais elle se trouve cachée dans la phase de cettetransformée. Par conséquent, si on se borne à la visualisation du module de la TFtd, le faitque f1 démarre avant f2 nous échappe. On peut le vérifier sur le spectre représenté figure 10.

Page 16: Traitement Numerique Du Signal

Figure 10 - Chronogramme et spectre du signal dont les caractéristiques sont données dans letableau

Par contre, en divisant la durée totale du signal en sous-intervalles de même durée, on peutcalculer plusieurs spectres qui, affichés côte à côte, donnent une représentation, appeléetransformée de Fourier à court-terme (TFCT), qui fait apparaître l’information concernantl’ordre des fréquences.

Reprenons le signal précédent. En divisant sa durée de 512 unités de temps en 32 tronçons dedurée 16, on peut calculer 32 spectres qui aboutissent à la TFCT de la figure 11.

Le niveau de gris y est inversement proportionnel à l’amplitude du spectre. L’échelle destemps (abscisses) est graduée de 0 à 511 par pas de 16 points, soit 32 pavés. L’échelle desfréquences, en ordonnées, est graduée de 0 à 1/2. Le plan est dit plan temps-fréquence. On ydistingue nettement les trois composantes ainsi que les instants de démarrage et de fin. Lahauteur d’une tache blanche correspond à la largeur du lobe principal d’une TFtd, soit ici2/16.

Si on réduit la durée d’un sous-intervalle de 16 à 8, les spectres sont calculés avec moins depoints. Par conséquent :

la résolution en fréquence est réduite puisque les lobes s’élargissent ; la restitution des détails temporels est meilleure car la TFtd effectue une sorte de

moyenne en temps sur moins de points.

De façon générale, plus la durée du sous-intervalle est petite :

plus il est facile de localiser sur l’échelle des temps la présence d’un détail temporel ; et plus il est difficile de distinguer des fréquences voisines.

Page 17: Traitement Numerique Du Signal

Remarque : le principal défaut de la TFCT est d’utiliser des fenêtres rectangulaires qui ontpour conséquence de masquer les périodicités longues et, par là même, les fréquences basses.L’idée de l’analyse multi-résolution, ou multi-échelle, sur laquelle nous reviendrons plus loin,est d’échantillonner à des cadences différentes le signal de manière à effectuer l’étude àplusieurs niveaux de résolution.

Figure 11 - Transformation de Fourier à court terme (TFCT)

2.4 La TFD : outil de calcul de la TFtd

2.4.1 Calcul pratique de la TFtd

Le calcul pratique de la TFtd, fonction de la variable continue f, ne peut être fait que pour unnombre fini N de points de signal et sur un nombre fini K (supérieur à N ) de points defréquence. En général on prend K points régulièrement espacés entre 0 et 1 de la formef = k/K avec .

Considérons en exemple x (n) = exp (2πjf0n) avec , signal de durée finie.L’expression de sa TFtd est :

Page 18: Traitement Numerique Du Signal

Calculée aux points f = k/K, elle est constituée de valeurs différentes de zéro, sauf si f0 estexactement un multiple de 1/K. Ainsi, si N = K = 32 et f0 = 7/32, on obtient 32 valeurs dontune seule n’est pas nulle à savoir X (7/32). C’est ce qui est représenté figure 12.

Si, par contre, on prend f0 = 0,2 on obtient le résultat de la figure 13. Les valeurs k/32 netombent plus exactement sur les zéros de X (f ).

On voit sur ces figures qu’on est loin de la forme en sin (πf N)/sin (πf ) de la TFtd. Toutefois,pour s’en approcher, il suffit d’augmenter le nombre K de points de fréquence. Le choix de Kjoue donc sur la précision du tracé du spectre. Rappelons à ce propos que le nombre N depoints d’observation agit pour sa part sur la résolution en fréquence. Ces deux notions nedoivent pas être confondues.

Figure 12 - TFtd d’une sinusoïde de fréquence 7/32 calculée en 32 points de fréquence

Figure 13 - TFtd d’une sinusoïde de fréquence 0,2 calculée en 32 points de fréquence

HAUT DE PAGE

2.4.2 Définition de la TFD

Dans le calcul de la TFtd on peut, sans perte de généralité, considérer que K = N. En effet, siK > N, il suffit, pour retomber dans le cas K = N, de compléter la suite x (n) par (K – N )zéros, ce qui ne change rigoureusement rien à la valeur de la TFtd calculée au point k/K(bourrage par des zéros).

Cela conduit à la définition suivante : on appelle transformée de Fourier discrète (TFD) de lasuite finie {x (0), ..., x (N – 1)} la suite finie :

Page 19: Traitement Numerique Du Signal

où et WN = exp (– 2πj/N ). On montre facilement la formule inverse :

appelée transformée de Fourier discrète inverse (TFD).

La TFD est l’outil de calcul de la TFtd. Son succès tient à l’existence d’algorithmes rapidesdont le plus répandu est présenté plus loin.

HAUT DE PAGE

2.4.3 Propriétés de la TFD

L’examen des propriétés de la TFD met en évidence de grandes similitudes avec celles de laTFtd. Elle s’en différencie essentiellement par le fait que les calculs des indices se fontmodulo N :

Nota :

on rappelle que n modulo N représente le reste de la division entière de n par N.

linéarité :

décalage en temps :

renversement temporel :

conjugaison :

x (n) réelle

convolution circulaire : étant donné les suites x (n) et y (n ) et leurs TFD respectivesX (k ) et Y (k ), la TFDI de la suite est la suite :

Page 20: Traitement Numerique Du Signal

(3)

formule de Parseval :

HAUT DE PAGE

2.4.4 Transformée de Fourier rapide

La transformée de Fourier rapide (TFR), introduite en 1961 [5] , est une technique de calculrapide de la TFD. L’algorithme de base, qui connaît de nombreuses variantes, utilise unnombre de points N = 2p.

Pour en utiliser le principe, traitons l’exemple simple p = 3. On décompose la somme entermes de rang pair et de rang impair :

et on réitère le procédé avec les deux termes obtenus :

et ...

Le calcul des termes X (k ) peut alors être schématisé par le diagramme classique représentésur la figure 14.

La cellule de calcul de base, que l’on voit clairement apparaître sur le schéma, est appeléepapillon. Ainsi, partant des échantillons x (0) et x (4) de l’exemple choisi, on calcule deuxnouvelles valeurs α et β à travers un « papillon de calcul ».

Les indices des termes x (n) apparaissent dans un ordre donné par le codage binaire renverséde n. Ainsi, le terme de rang 4 = 1002 est x (0012) = x (1). On parle d’adressage bit reverse.Le tableau 2 donne l’ensemble des correspondances.

Évaluation du nombre d’opérations

On peut vérifier que le calcul de N points de TFD nécessite additions complexes et(N/2)log2 N – N + 1 multiplications complexes. On se contente en pratique de l’expressionapprochée multiplications-additions complexes. Un calcul direct aurait nécessitéN 2 opérations de ce type, soit un gain de temps de l’ordre de N/log2N. Ainsi, pour N = 1024,

Page 21: Traitement Numerique Du Signal

l’algorithme de TFR est environ 100 fois plus rapide que la programmation directe de laformule de TFD.

En jouant sur les valeurs particulières des , on réduit encore ce nombre d’opérations. Ilest en outre possible d’effectuer des décompositions plus complexes que la décompositionexaminée ici en termes de rang pair et impair. Cela fait apparaître des structures de calculréduisant le nombre d’opérations au prix d’une programmation plus complexe.

Figure 14 - Transformation de Fourier rapide (TFR) : calcul des termes X (k )

Rang Codage binaire Renversement Élément

0 000 000 0

1 001 100 4

2 010 010 2

3 011 110 6

4 100 001 1

5 101 101 5

6 110 011 3

7 111 111 7

Page 22: Traitement Numerique Du Signal

Correspondance entre rang, codage binaire et renversement

2.4.5 Filtrage par TFR

Nous avons vu (relation ( cf. ici )) que la TFDI de la suite Y (k ) = H (k ) X (k) est le signal :

obtenu par convolution circulaire, alors que le produit des TFtd correspond à la convolution(relation ( cf. ici )) :

(4)

Il n’est donc pas possible de réaliser un filtrage en utilisant directement la TFD sur des blocsde longueur N. Toutefois, une solution à partir de TFD existe et l’utilisation de la TFR peutalors fournir un gain de temps appréciable.

Soit le filtre de réponse impulsionnelle hN (n ) et soit le signal x (n ). D’après ( cf. ici ), lavaleur en sortie à l’instant n est donnée par :

Si on utilise la TFD, on est tenté de faire un produit de la TFD de hN (n ) par celle d’un bloc

de taille N extrait de x (n). Mais, comme onvient de le dire, la convolution associée est circulaire et le résultat est faux. Une solution estd’effectuer la suite d’opérations schématisées de la façon suivante :

1. calcul de la TFD H2N (k ) de la suite {0 ... 0, hN (0) ... hN (N – 1)} obtenue en complétanthN (n) à gauche par N zéros ;

2. Calcul de la TFD X2N (k ) du bloc :

de longueur 2N ;

3. Multiplication terme à terme de X2N (k ) par X2N (k ), suivie d’une TFDI ;

Page 23: Traitement Numerique Du Signal

4. Conservation des N premiers termes du résultat précédent : ces termes coïncident avec lesN valeurs données par la relation ( cf. ici ) ;

5. Retour en 2 jusqu’à épuisement des données du signal x (n).

Comparons le nombre d’additions-multiplications complexes (amc) avec celui d’un calculdirect. On néglige la première TFR qui n’est pas faite qu’une fois. A chaque pas on effectuedeux TFR (l’une directe, l’autre inverse) de taille 2N. La charge de calcul est d’environ

amc pour N points de convolution, qu’il faut comparer aux N 2 amc d’un calculdirect. On en déduit un gain de temps calcul d’environ N/log2 (2N). Pour N > 32, la techniquepar TFR est donc plus rapide.

En réalité d’autres paramètres doivent être pris en compte. Le calcul de la TFR fait intervenirdes manipulations de pointeurs dans des tableaux, manipulations qui entraînent une charge decalcul non négligeable. La TFR exige en outre de la place en mémoire pour stocker lestableaux de données qui sont de taille généralement supérieure à la mémoire du filtre. Il fautaussi noter, et c’est peut-être le point le plus important, que les résultats sont obtenus avec unretard de l’ordre de la taille du bloc soit 2N.

3. Filtrage linéaire

3.1 Transformée en z, outil d’étude des filtres3.1.1 Définition3.1.2 Propriétés de la transformée en z3.1.3 Inversion de la transformée en z3.1.4 Exemples de transformées en z3.2 Filtre défini par une équation récurrente3.3 Introduction aux méthodes de synthèse3.3.1 Introduction3.3.2 Filtres RIF3.3.3 Filtres RII

Que ce soit pour réaliser un traitement utile (sélection d’une bande de fréquence, extractiond’un signal dans du bruit ...) ou que ce soit pour modéliser des déformations indésirables(transmission à travers un canal), on est conduit à envisager des transformations sur lessignaux.

Une façon de décrire ces dernières est de faire appel à la notion de système (boîte noire)ayant une entrée et une sortie. Dans le cas des signaux numériques, il faut généralemententendre par système un programme qui, à partir du signal d’entrée x (n), engendre le signalde sortie y (n) :

Dans la majorité des cas rencontrés en pratique, les systèmes peuvent être considéréslinéaires et invariants dans le temps (système SLI). On entend par système invariant un

Page 24: Traitement Numerique Du Signal

système dont les caractéristiques n’évoluent pas avec le temps, une séquence d’entréeproduisant la même séquence sortie quel que soit le moment auquel elle est appliquée. Onutilise le plus souvent le terme de filtre pour désigner un système SLI.

On montre qu’un filtre numérique a pour équation d’entrée/sortie une relation de convolutiondiscrète. Si x (n) désigne le signal numérique d’entrée et y (n) celui de sortie, on a :

(5)

La suite h (n) qui caractérise le filtre est appelée sa réponse impulsionnelle (c’est en effet laréponse du système à l’impulsion unité δ (n)).

Pour un système, une des propriétés principales que l’on peut en attendre est sa stabilité. Letype de stabilité envisagé ici est dit EBSB (entrée bornée/sortie bornée), c’est-à-dire que lesignal de sortie reste borné si le signal d’entrée est lui-même borné.

On montre qu’une condition nécessaire et suffisante de stabilité d’un filtre est que la suite

h (n ) soit de module sommable, ce qui s’écrit . Nous verrons que cettecondition prend une forme particulièrement simple sur la transformée en z de h (n).

Lorsque la réponse impulsionnelle est nulle pour n < 0, on dit que le système est causal. Dansce cas, le calcul de la sortie y (n ) ne nécessite pas la connaissance des valeurs d’entréed’indices supérieurs à n. Toutefois, en TNS, la causalité n’a pas de caractère impérieux. Ilsuffit de faire le calcul en temps différé en acceptant un certain retard à la connaissance,comme le montre la relation entrée/sortie :

D’après la relation ( cf. ici ) la réponse impulsionnelle de ce filtre est h (– 2) = h (2) = a, h (–1) = h (1) = b et h (0) = c. Ce système n’est donc pas causal.

3.1 Transformée en z, outil d’étude des filtres

HAUT DE PAGE

3.1.1 Définition

On appelle transformée en z de la suite x (n ) la fonction de la variable complexe z définiepar :

Page 25: Traitement Numerique Du Signal

Cette expression n’a de sens que dans une couronne du plan complexe de la formeque nous supposons non vide. Cette couronne définit le domaine de convergence

de cette somme.

Si le signal est causal (x (n ) = 0) pour n < 0 on vérifie que Xz (z ) converge vers │ z │ tendvers l’infini et donc le domaine de convergence est de la forme │ z │ > R1.

Lorsque le cercle unité z = exp (2π jf ) appartient au domaine de convergence, X (f ) = Xz (exp2πjf )) est la TFtd de la suite x (n ). Le cercle unité peut être gradué en valeurs de la fréquencef = θ /2π ou θ représente l’argument de z.

La transformée en z est l’outil privilégié de l’étude des filtres linéaires. Considérons en effetun filtre à temps discret de réponse impulsionnelle h (n ), d’entrée x (n ) et de sortie y (n ).Notons respectivement Hz (z ), Xz (z ) et Yz (z) leurs transformées en z. Si on suppose, en plus,que le cercle unité appartient à leur domaine respectif de convergence, alors les Tftdrespectives existent.

On montre que pour un filtre linéaire les trois relations suivantes sont équivalentes :

Hz (z ) est appelé la fonction de transfert du filtre et H (f ) son gain complexe ou réponse enfréquence. La fonction G(f ) = │H (f )│ s’appelle le gain du filtre et ϕ (f ) = arg {H (f )} saphase.

Le terme de gain en fréquence s’explique simplement : si on applique en entrée le signalexp (2πjf0n ), le signal en sortie a pour expression H (f0) exp (2πjf0n ). Ce résultat est mis àprofit pour mesurer la réponse en fréquence d’un filtre (analyse harmonique) : en régimesinusoïdal la comparaison des signaux d’entrée et de sortie fournit le nombre complexeH (f0).

On dit qu’un filtre est sans distorsion d’amplitude si son gain │Hz exp (2πjf )] est constant etsans distorsion de phase si sa phase arg [Hz exp (2πjf )] est linéaire de la forme c0f.

On notera que la notion de phase linéaire est liée à celle de retard pur.

HAUT DE PAGE

3.1.2 Propriétés de la transformée en z

Soit Hz 1(z ) et Hz 2(z ) les transformées en z respectives de h1(n ) et h2(n ) et (D1) et (D2) leursdomaines de convergence respectifs. Les principales propriétés sont de la transformée en zsont :

Page 26: Traitement Numerique Du Signal

la linéarité :

avec comme domaine de convergence ;

le décalage en temps :

Le domaine de convergence est inchangé ;

La conjugaison :

Le domaine de convergence est inchangé. Et donc si h (n ) est réel, ;

L’inversion du sens du temps :

Le domaine de convergence est construit à partir des bornes inverses ;

la convolution :

avec comme domaine de convergence .

la relation de Parseval :

où on a supposé que le cercle unité C appartenait au domaine de convergence de Hz (z ) ;

la dérivation par rapport à z ;

Le domaine de convergence est inchangé.

La valeur initiale : si h (n) est causale :

Page 27: Traitement Numerique Du Signal

HAUT DE PAGE

3.1.3 Inversion de la transformée en z

Il est important de comprendre que l’inversion de la transformée en z nécessite que l’on sedonne le domaine de convergence. Ainsi, à la fonction Hz (z) = 1/(1 – az–1), il corresponddeux suites numériques différentes, suivant que l’on choisisse │z │ > │a │ ou │z │ < │a│.La première est causale et a pour expression :

et la seconde a pour expression :

Ce qui les distingue dans le plan en z n’est pas l’expression de Hz (z ) mais le domaine deconvergence associé. A titre d’exemple, établissons ce résultat pour │z│ < │a│. On a :

où on a utilisé la condition │a–1 z│ < 1, ainsi que le développement classique pour │u│ < 1 :

Ce calcul est doublement instructif dans le cas où la fonction Hz (z ) est une fractionrationnelle :

on peut s’en inspirer pour l’inversion, après avoir effectué une décompositionpréalable en éléments simples ;

ce sont les modules des racines du dénominateur qui délimitent les couronnes deconvergence. Ainsi, si on a N racines de modules distincts, on a (N + 1) suitesdifférentes. Si aucune des racines n’est de module 1, on peut même trouver unecouronne de convergence contenant le cercle unité : dans ce cas la suite associée estde module sommable. Si toutes ces racines sont strictement à l’intérieur du cercleunité, le domaine de convergence s’étend jusqu’à l’infini et la suite associée estcausale.

Dans le cas général, la formule d’inversion a pour expression :

Page 28: Traitement Numerique Du Signal

où C désigne un contour de Cauchy inclus dans le domaine de convergence. Une façon rapided’effectuer le calcul est de passer par la méthode des résidus ([6] , théorème de Cauchy).

HAUT DE PAGE

3.1.4 Exemples de transformées en z

L’impulsion unité δ (n ) donne 1 pour tout z.

L’échelon unité u (n ) donne :

L’exponentielle causale x (n ) = an u (n ) donne :

La rampe r (n ) = n u (n) donne :

HAUT DE PAGE

3.2 Filtre défini par une équation récurrente

La définition des filtres linéaires à l’aide d’une équation récurrente permet d’en exhiber trèsfacilement les propriétés. Elle correspond en outre à la définition algorithmique du traitementqu’ils mettent en œuvre.

On appelle équation récurrente linéaire à coefficients constants une expression de la forme :

(6)

Cette forme est analogue, pour le temps discret, aux équations différentielles linéaires àcoefficients constants rencontrées dans le cas du temps continu.

Lorsque a1 = ... = aN = 0, les coefficients b0 ... bM apparaissent, d’après l’équation deconvolution ( cf. ici ), comme la réponse impulsionnelle du filtre : on dit que le filtre est àréponse impulsionnelle finie (RIF). Lorsque les ai ne sont pas tous nuls, on dit que le filtreest récursif. Si en plus la fraction rationnelle ( cf. ici ) est irréductible, le filtre est dit àréponse impulsionnelle infinie (RII).

En utilisant la transformée en z et la propriété de retard on déduit de ( cf. ici ) que l’équationrécurrente définit un filtre qui a pour fonction de transfert :

(7)

Page 29: Traitement Numerique Du Signal

Les racines du numérateur s’appellent les zéros de la fonction de transfert et celles dudénominateur ses pôles.

Si les coefficients an et bm sont réels, les pôles et les zéros sont soit réels, soit vont par paires

de complexes conjugués. Dans ce cas , le gainG (f ) = │H (f )│ est pair et la réponse impulsionnelle est réelle.

Stabilité et causalité

Comme nous l’avons dit, si les pôles sont de module différent de 1, il est possible dechoisir un domaine de convergence de Hz (z ) contenant le cercle unité. Dans ce cas, lasuite {h (n )} associée est de module sommable et le filtre correspondant est stable.

Si tous les pôles sont strictement à l’intérieur du cercle unité, le filtre correspondantest stable et causal.

Étude qualitative du gain à partir de la position des pôles et des zéros

La gain en fréquence est le module de la fonction de transfert lorsque z = exp (2πjf )parcourt le cercle unité. Si on note pk et zk les pôles et zéros de la fraction rationnelleHz (z ), le gain s’exprime simplement par un rapport des produits des longueurs dessegments MZk et MPk où Pk et Zz sont les points du plan complexe d’affixesrespectives pk et zk et où M d’affixe z parcourt le cercle unité :

Supposons que Z1 soit proche du cercle unité. Quand M va passer près de Z1, le gain vadevenir très faible, voire nul, si │z1│ est juste égal à 1. Ce raisonnement s’applique aussi auxpôles, le gain devenant au contraire très grand (figure 15).

Page 30: Traitement Numerique Du Signal

Figure 15 - Forme qualitative du gain à partir de la position des pôles et des zéros

HAUT DE PAGE

3.3 Introduction aux méthodes de synthèse

HAUT DE PAGE

3.3.1 Introduction

Le problème de la synthèse, tel que nous le restreignons ici, consiste à calculer la fonction detransfert Hz (z ) d’un filtre à partir de son gabarit en fréquence, ensemble de spécificationsportant sur le gain (plus rarement la phase) du filtre (figure 16). Par exemple, pour un filtrepasse-bas, on donnera :

la plus haute fréquence de la bande passante fp ; la plus basse fréquence de la bande atténuée fa ; le taux d’ondulation dans la bande passante ; l’atténuation dans la bande de transition allant de f0 et fa ; le taux d’ondulation dans la bande atténuée.

Page 31: Traitement Numerique Du Signal

Figure 16 - Forme typique du gabarit d’un filtre passe-bas

Le problème est de synthétiser un filtre dont le gain entre dans le gabarit.

Un premier choix va devoir être fait sur le type du filtre : RIF ou RII. Attention, le fait de nepouvoir mettre en œuvre qu’un nombre fini d’opérations ne signifie pas qu’une réalisationRII est impossible.

Ainsi, la mise en œuvre du programme :

y (n ) = x (n ) + ay (n – 1)

correspond-elle au filtre de réponse impulsionnelle infinie :

h (n ) = an u (n ).

De manière générale, on retiendra que :

les filtres RIF donnent, pour des caractéristiques identiques de gain, une charge decalcul bien supérieure à celle des filtres RII ;

les filtres RIF peuvent introduire d’importants retards ; les filtres RIF, n’ayant pas de pôle, sont stables sans condition supplémentaire ; les filtres RIF permettent d’obtenir une phase linéaire 3.1.1 .

Ce paragraphe se limite à seulement quelques aspects de la synthèse. On trouvera dans labibliographie des éléments indispensables sur la structure des filtres en égard aux bruits decalcul [9] et sur la synthèse utilisant des bancs de filtres [20].

HAUT DE PAGE

3.3.2 Filtres RIF

La méthode la plus élémentaire de synthèse de filtres RIF est la méthode de la fenêtre. Onpeut la résumer de la façon suivante :

on se donne un gain H (f ) théorique ; on en déduit la réponse impulsionnelle (h (n ) ;

Page 32: Traitement Numerique Du Signal

on garde un nombre fini N de valeurs de h (n ) ; et on pondère éventuellement (multiplication terme à terme), la suite obtenue par une

suite w (n ) appelée fenêtre.

Voyons plus en détail le calcul de h (n ) à partir de H (f ). On sait que le gain H (f ) d’un filtredont la réponse impulsionnelle est réelle est une fonction réelle, paire. Par conséquent la TFtdinverse de H (f ) est une suite réelle paire ce qui s’écrit h (n ) = h (– n ). D’autre part, onmontre aisément que la TFtd inverse de la fonction Hd (f ) = H (f ) exp (jπ f ) vérifiehd (n ) = hd (– n – 1).

De ces remarques on déduit une règle de calcul des coefficients du filtre, suivant que lenombre N de coefficients retenus est pair ou impair ou pair (figure 17).

Pour un nombre impair de coefficients on prend la TFtd inverse de H (f ), tandis que, pour unnombre pair de coefficients, on prend la TFtd inverse de H (f ) exp (jπ f ). Cela donne :

Dans les deux cas la suite h (n ) obtenue est généralement infinie.

Si on veut faire une implantation directe du filtrage en mettant en œuvre la convolutionil faut tronquer la suite des h (n ). Cela revient à multiplier celle-ci par

une porte rectangulaire de largeur K. D’un point de vue spectral, on convolue donc le gabaritdésiré par la fonction sin (π f K)/sin (πf ), dont les lobes secondaires de largeur 1/K ont poureffet d’introduire des ondulations. Examinons ces effets sur un exemple.

Soit à réaliser le filtre passe-bas de gain représenté figure 18.

En se limitant à N = 15 coefficients, on obtient h (n ) = sin (n π/2)/nπ avec n allant de – 7 à+ 7. En prenant le filtre défini par g (n ) = h (n – 7), on obtient un filtre causal qui a le mêmegain et dont l’expression est :

Figure 17 - Symétrie de la réponse pour N impair ou N pair

Page 33: Traitement Numerique Du Signal

Figure 18 - Gain d’un filtre passe-bas demi-bande

Il a donc une phase linéaire. Cette propriété est liée au fait que la méthode utilisée introduitune symétrie des coefficients qui permet un regroupement des termes 2 par 2.

Voyons à présent les effets de la troncature de la réponse impulsionnelle. Nous avonsmultiplié h (n ) par la porte rectangulaire

et 0 sinon et donc convolué H (f )par :

Les lobes de Wr(f ) de largeur 1/15 introduisent des ondulations dans le gain (figure 19). Pourréduire celles-ci on utilise des fenêtres [10] qui ont des lobes secondaires moins hauts queceux de la fenêtre rectangulaire. Mais cela a aussi pour conséquence d’élargir le lobeprincipal et donc d’élargir la bande de transition. En utilisant la fenêtre de Hammingd’expression :

on obtient le gain représenté figure 19. On observe un élargissement de la bande de transitionaccompagné d’une réduction des ondulations.

Toutefois l’amplitude des ondulations ne peut être rendue arbitrairement petite. On montreque l’écart maximal entre le gain théorique et celui du filtre « tronqué » ne tend pas vers 0quand K tend vers l’infini. Les ondulations persistent à tout ordre. Il s’agit du phénomène deGibbs. Ainsi l’écart maximal est d’environ 0,09 pour la fenêtre rectangulaire alors qu’il estde 0,0022 pour la fenêtre de Hamming. Nous renvoyons à la référence [10] pour une étudetrès complète de l’ensemble des fenêtres utilisées en TNS.

Page 34: Traitement Numerique Du Signal

Figure 19 - Gain d’un filtre RIF demi-bande à 15 coefficients

La méthode de la fenêtre est extrêmement simple à mettre en œuvre. C’est la raison pourlaquelle elle est assez largement utilisée. Ses principaux défauts sont que les ondulations enbande passante et bande atténuée ne sont pas constantes et qu’elles ne peuvent être contrôléesséparément. Lorsqu’on désire éviter ces inconvénients, des méthodes plus sophistiquées sontgénéralement retenues pour synthétiser les filtres RIF. L’une des plus courantes, basée sur leconcept de filtre optimal à ondulations constantes de Parks-McClellan [9] , est connuesous le nom de méthode de Rémez. Elle est disponible dans beaucoup de bibliothèques deprogrammes de traitement du signal.

HAUT DE PAGE

3.3.3 Filtres RII

Il existe trois principales techniques de synthèse des filtres RII. La première consiste à partirde filtres analogiques (c’est-à-dire à temps continu) en effectuant une approximation desfréquences continues par des fréquences discrètes. La seconde est basée sur un calcul directdes coefficients du filtre. La troisième est bâtie sur une procédure itérative d’optimisationlorsque le traitement analytique direct est trop complexe. Nous allons nous contenter ici deprésenter la méthode de la transformation bilinéaire.

La méthode de la transformée bilinéaire consiste à remplacer 1/p par :

dans l’expression de la fonction de transfert d’un filtre à temps continu (on rappelle que, pourun filtre à temps continu, la fonction de transfert est la transformée de Laplace de sa réponseimpulsionnelle).

La transformée bilinéaire est justifiée par le fait que 1/p, opérateur d’intégration, peut êtreapprochée en temps discret par B (z ). En effet, soit x (t ) une fonction à intégrer, xn sa valeur

Page 35: Traitement Numerique Du Signal

à l’instant nT et yn la valeur de son intégrale entre 0 et nT. En utilisant la méthode du trapèze,on a l’équation récurrente yn = yn – 1 + T (xn + xn – 1)/2 qui a pour fonction de transfert B (z ). SiT est suffisamment petit, la distorsion de fréquence introduite lors de cette transformation estnégligeable. Dans le cas contraire, il existe des méthodes de compensation.

Pour conclure sur la présentation de cette méthode, indiquons que les trois principauxmodèles de filtres analogiques utilisés pour synthétiser un filtre numérique, à partir de latransformée bilinéaire, sont les filtres de Butterworth, de Tchebycheff et de Cauer.

Un filtre de Butterworth a comme fonction de transfert :

avec

et son gain a pour expression .

Il n’a pas d’ondulation en bande passante ni en bande atténuée.

Un filtre de Tchebycheff de type 1 a comme gain :

où .

On montre que les N pôles ont pour affixes :

avec .

L’amplitude des ondulations en bande passante est constante et vaut . Ce type defiltre n’a pas d’ondulation en bande atténuée.

Un filtre de Tchebycheff de type 2 a comme gain :

Page 36: Traitement Numerique Du Signal

où fa désigne la fréquence de début de la bande atténuée. On montre que les N pôlesont pour affixes :

avec .

et

où Aa est l’amplitude imposée en bande atténuée. Les N zéros zk sont situés sur l’axeimaginaire :

Il y a des ondulations en bande atténuée mais pas d’ondulation en bande passante.

Un filtre de Cauer ou elliptique a comme gain :

où Rn est une fonction rationnelle de Tchebycheff. L caractérise l’atténuation dans labande de transition. Les filtres de Cauer présentent des ondulations constantes enbande passante. Il y a des ondulations en bande atténuée. Ces filtres sont définis àpartir de tables.

Remarque : les méthodes de synthèse ne doivent pas seulement se satisfaire decontraintes de gabarit. Elles doivent aussi prendre en compte l’implantation finale del’algorithme de filtrage. Ainsi, la présence d’arrondis dans la représentation descoefficients introduit :

des phénomènes d’erreurs systématiques que l’on désigne par bruits de calcul;

mais aussi de possibles instabilités lorsqu’on a affaire à des filtres récursifs.

Ces effets peuvent être particulièrement sensibles lorsque les processeurs utiliséstravaillent en virgule fixe.

4. Signaux aléatoires

Page 37: Traitement Numerique Du Signal

4.1 Quelques rappels de probabilités4.2 Notion de processus aléatoire4.3 Processus aléatoires SSL4.3.1 Définitions4.3.2 Ergodicité4.3.3 Propriétés4.3.4 Filtrage4.4 Chaînes de Markov4.4.1 Chaînes de Markov : définitions4.4.2 Chaînes de Markov cachées4.5 Éléments d’estimation statistique4.5.1 Objet de la statistique4.5.2 Éléments de comparaison des estimateurs4.5.3 Estimation des moindres carrés4.5.4 Méthode des moments4.5.5 Méthode du maximum de vraisemblance4.5.6 Approche bayésienne

Comme nous l’avons souligné précédemment, les signaux manipulés en pratique ne peuventêtre que rarement représentés comme des fonctions, ou comme solution d’une équationdifférentielle ou récurrente ou tout autre moyen « mathématique ». On parle alors de signauxaléatoires à la connaissance desquels on accède à travers des informations telles quemoyenne, puissance moyenne, etc. qui sont d’ordre statistique. C’est la raison pour laquelle lefondement de l’étude des signaux aléatoires est la théorie des probabilités.

4.1 Quelques rappels de probabilités

En théorie des probabilités (cf. [3] [9] ) on part d’un ensemble Ω désignant l’ensembledes épreuves. Un vecteur aléatoire X de dimension p est défini comme une application de Ωdans . Se donner sa loi de probabilité c’est se donner, pour tout pavé b contenu dans , laprobabilité que . Deux cas sont intéressants en pratique :

X prend ses valeurs dans un ensemble discret de valeurs. Sa loi est caractérisée en sedonnant la probabilité de chacune de ces valeurs : on dit que X et un vecteur aléatoirediscret ;

X prend ses valeurs dans un continuum de et la probabilité que est donnéepar une expression de la forme :

où pX (x1, ..., xp) est une fonction positive, définie sur , appelée densité de probabilité.

Son intégrale sur est égale à 1. On dit parfois que le vecteur aléatoire X est « continu ».

Pour ne pas alourdir les notations, donnons quelques définitions en nous limitant au cas où Xpossède une densité de probabilité et où p = 2. Soit donc le vecteur aléatoire (X1, X2) dedensité pX (x1, x2). On montre que la variable aléatoire X1 a pour densité de probabilité :

Page 38: Traitement Numerique Du Signal

Dans ce contexte cette relation est appelée loi a priori ou loi marginale.

On dit que X1 et X2 sont indépendantes si

La densité de probabilité de la loi conditionnelle de X1 connaissant X2 est donnéepar :

Si les deux variables sont indépendantes, on vérifie que la loi conditionnelle est égale à la loia priori.

La moyenne de X est le vecteur déterministe dont les composantes ont pourexpression :

Si E (Xk ) = 0, on dit que Xk est centrée. De façon plus générale on appelle momentd’ordre n de la variable aléatoire Xk la quantité :

La covariance entre X1 et X2 est la quantité définie par :

cov(X1, X1) s’appelle la variance de X1. On la note var(X1).

On dit que X1 et X2 sont non corrélées si et seulement si cov(X1, X2) = 0. Si X1 et X2

sont indépendantes alors elles sont non corrélées. En général la réciproque est faussemais elle est vraie dans le cas gaussien.

Page 39: Traitement Numerique Du Signal

On dit que la variable aléatoire X est uniforme sur (a, b) si sa densité de probabilitéest constante sur l’intervalle (a,b). Elle a pour expression

et 0 sinon.

On dit que X est gaussien si sa densité de probabilité a pour expression :

où x = (x1 x2)T, M = (m1 m2)

T

et C = (cij) une matrice symétrique, positive de dimension ; Onmontre que E (Xk ) = mk , var (Xk ) = ckk et cov(X1, X2) = c12.

Si cov(X1, X2) = 0, X1 et X2 sont indépendantes.

Nota :

det (C) désigne le déterminant de la matrice carrée C et AT la transposée de A.

On dit qu’une matrice M est positive si pour tout vecteur a, le scalaire aTMa est positif.

HAUT DE PAGE

4.2 Notion de processus aléatoire

Dans beaucoup de cas pratiques les phénomènes ont une forme si imprévisible qu’ilssemblent dus au hasard. On les dit aléatoires. Pour modéliser un phénomène aléatoire (cf. [5][6] ) on lui associe non plus un signal mais tout un ensemble de signaux que l’on peut voircomme le résultat d’une infinité d’expériences répétées à l’identique.

Évidemment on ne peut pas répéter à l’identique une infinité d’expériences. Mais l’outil ainsiintroduit permet de décrire la grandeur observée par des propriétés « globales » portant surtout l’ensemble. Ainsi, on pourra supposer par exemple que toutes les trajectoires ont une« moyenne » nulle et une valeur efficace identique.

Mathématiquement un signal (on dit aussi processus) aléatoire est une famille de variablesaléatoires indicées par le temps n. On le note X (n ) (en omettant la référence à l’épreuve ω).Il peut être vu :

soit, pour une épreuve fixée ω 0, comme une simple fonction du temps x (n,ω 0)appelée trajectoire (figure 20),

soit, pour un instant fixé n0, comme la variable aléatoire X (n0).

Page 40: Traitement Numerique Du Signal

Figure 20 - Trajectoires d’un processus aléatoire (à temps continu)

Voyons tout d’abord quelques définitions.

Pour tout nombre K et pour toute suite d’instants (n1 ... nK ), l’ensemble des lois deprobabilités du vecteur [X (n1 ... X (nK )] caractérise le processus X (n ) : on appelle cetensemble la loi temporelle du processus. Soulignons que la donnée de la loitemporelle ne permet pas de déterminer l’équation des trajectoires.

On appelle moyenne d’un processus aléatoire à l’instant n, l’espérance mathématiquede la variable aléatoire X (n ). C’est une fonction déterministe qui dépend a priori den :

m (n ) = E (X (n ))

Si m (n ) = 0 pour tout n, on dit que le processus est centré.

On appelle suite ou fonction d’autocovariance (certains auteurs parlentimproprement d’autocorrélation) la covariance entre les variables aléatoires X (n1) etX (n2). Elle a pour expression :

où l’étoile (*) désigne le complexe conjugué. Bien sûr, dans le cas de processus réel,il n’est pas utile de le faire apparaître. Dans tous les cas, c’est une fonctiondéterministe qui dépend à la fois de n1 et de n2.

Dans certains cas il est possible de décrire le signal aléatoire par la donnée de sa loitemporelle. En voici trois exemples.

Une suite de variables aléatoires indépendantes et identiquement distribuées (iid) aune loi temporelle qui s’obtient simplement à tout ordre à partir de (5.3) et de ladonnée de la loi de X0 de l’une d’entre elles.

Un processus aléatoire est gaussien si, pour tout nombre K d’instants, la loi de(X (n1), ..., X (nK)) est gaussienne. Dans ce cas, on vérifie aisément que la loitemporelle est uniquement caractérisée par la donnée de la moyenne et de la fonctiond’autocovariance.

Page 41: Traitement Numerique Du Signal

Pour un processus aléatoire de Markov la loi temporelle s’exprime à partir de ladonnée des probabilités de transition entre « états ».

Hormis quelques cas particuliers tels que ceux cités précédemment, il est très compliqué dese donner complètement la loi temporelle. On se contente bien souvent des expressions de lamoyenne et de la fonction de covariance entre X (n1) et X (n2) qui sont les moments d’ordre 1et 2.

On peut se demander pourquoi s’arrêter à l’ordre 2. Il se trouve que la description à l’ordre 2est suffisante dans le cas gaussien, mais, surtout, elle est liée, comme nous allons l’expliquer,à la distribution spectrale de la puissance et cette dernière est au centre des problèmes defiltrage linéaire. Depuis quelques années, les chercheurs se sont beaucoup intéressés auxstatistiques dites d’ordre supérieur (SOS). Mais, aujourd’hui encore les SOS restent un outilpeu utilisé en TNS.

HAUT DE PAGE

4.3 Processus aléatoires SSL

HAUT DE PAGE

4.3.1 Définitions

On dit qu’un processus aléatoire est stationnaire au sens large (SSL) (sous-entendu dusecond ordre) s’il vérifie les deux propriétés suivantes :

la moyenne est indépendante de n et notée m, la fonction d’autocovariance ne dépend que l’écart de temps k = n1 – n2. Nous la

notons alors R (k ).

Le mot stationnaire est lié au fait que la moyenne et la fonction d’autocovariance nedépendent pas de l’origine du temps.

Quand le processus est SSL, on a les définitions suivantes :

on appelle puissance la quantité P définie par :

comme on envisagera souvent des processus centrés, la puissance est alors la valeur àl’origine de la fonction d’autocovariance ;

on appelle spectre ou densité spectrale de puissance (dsp) d’un processus aléatoireSSL la TFtd de la suite R (k).

HAUT DE PAGE

Page 42: Traitement Numerique Du Signal

4.3.2 Ergodicité

Un processus aléatoire peut être vu comme une infinité de trajectoires correspondant à uneinfinité d’épreuves. Cependant, dans un grand nombre de cas pratiques, une seule réalisationdu processus est accessible à la mesure. C’est pourquoi la classe des processus stationnairespour lesquels les moments peuvent être obtenus en effectuant une moyenne temporelle surune seule trajectoire, joue un rôle important en pratique. L’ergodicité précise cette notion.

Un processus stationnaire X (n ) est ergodique au second ordre si sa moyenne et sa fonctiond’autocovariance peuvent être obtenues en effectuant une moyenne temporelle sur une seuletrajectoire et sur un intervalle de temps qui tend vers l’infini. En pratique, pour Nsuffisamment grand, on a :

Dans la suite, sauf indication contraire, nous supposerons que les processus sont ergodiques.

HAUT DE PAGE

4.3.3 Propriétés

La fonction d’autocovariance est positive. Cela signifie que, quel que soit M, lamatrice hermitienne (R = RT ) :

est une matrice positive. On note que R est une matrice de Toëplitz.

Nota :

Les lignes parallèles à la diagonale principale sont constituées de termes constants.

La dsp est une fonction positive :

Si le processus est de moyenne non nulle, on adjoint au spectre une raie à l’origine(f = 0) d’amplitude │m│2. Cette raie à l’origine, qui traduit simplement la présence

Page 43: Traitement Numerique Du Signal

d’une moyenne non nulle, porte le nom de composante continue du processus. Si onutilise la distribution de Dirac cela revient à prendre pour définition du spectre latransformée de Fourier du moment du second ordre. On a effet :

qui a pour transformée de Fourier S (f ) + │m│2 δ (f ).

On appelle processus harmonique un signal aléatoire dont les trajectoires sontdéfinies par l’expression :

(8)

où {As } désigne une suite de P variables aléatoires centrées, non corrélées de variance

, {Φs } une suite de P variables aléatoires indépendantes des {As }, de loi uniformesur (0, 2π), et {fs } une suite de P fréquences. On montre que X (n ) est SSL, centré etque sa fonction d’autocovariance a pour expression :

Sa dsp est donnée au sens des distributions par :

Elle est constituée de raies situées aux fréquences ± fk , qui traduisent la présence decomposantes « périodiques » dans le signal.

De façon semblable au cas déterministe avec l’énergie, le spectre représente larépartition (on dit aussi la localisation) de la puissance le long de l’axe desfréquences et la puissance est donnée par :

L’étude des méthodes qui permettent d’estimer le spectre d’un processus aléatoire SSL est undomaine important du traitement du signal. Nous y reviendrons dans la suite.

Quand un processus aléatoire centré a une fonction d’autocovariance R (k ) identique à 0 pour, sa dsp est une constante. Par analogie avec la lumière blanche, dont le spectre est

constant tout le long de l’axe des fréquences optiques, on dit que ce processus est blanc. Lebruit blanc est l’archétype des modèles de bruit rencontrés en pratique. Ainsi, dans les

Page 44: Traitement Numerique Du Signal

systèmes de communication, il modélise l’ensemble des bruits d’origine thermique quiinterviennent dans la chaîne de transmission depuis l’émetteur jusqu’au récepteur.

Un autre exemple de bruit blanc est le « bruit » introduit par l’opération de quantification.Considérons la quantification uniforme sur N bits. Elle consiste à diviser l’intervalle crête-crête (– Ac , + Ac ) du signal (supposé centré) en 2N intervalles de même longueur q = 2Ac /2N

et d’associer à l’échantillon Xn le numéro, codé sur N bits, de l’intervalle auquel il appartient.A la restitution on remplace ce code par la valeur médiane de l’intervalle. Si on note Xn

l’échantillon à quantifier et Yn la valeur restituée, on a Yn = kq si . Onpeut alors écrire Yn = Xn + en où en représente l’erreur. en est appelé le bruit dequantification.

Dans les calculs pratiques, on fait l’hypothèse que les erreurs en sont des variables aléatoiresnon corrélées dont la loi est uniforme sur (– q/2, q/2). On en déduit que E (en ) = 0 et que

.

En l’absence d’écrêtage, l’opération de quantification est donc considérée comme équivalenteà l’addition d’un bruit SSL centré, blanc de puissance Bq = q 2/12 :

En pratique on ne peut pas garantir l’absence d’écrêtage. Par contre on peut faire en sorte queles amplitudes supérieures à Ac soient de probabilité négligeable.

Dans le cas où Xn et un signe aléatoire, SSL, centré, de puissance σ 2 = R (0),on pose Ac = Fσoù F est appelé facteur de crête. Ainsi, si Xn est un processus aléatoire gaussien, en prenantF = 3 on a une probabilité d’écrêtage qui est inférieure à 1 %. Pour un signal de parole, quivérifie mal l’hypothèse gaussienne, on prend F de l’ordre de 4.

En supposant à présent que toutes les amplitudes sont comprises entre – Fσ et + Fσ, le pas dequantification a pour expression q = 2Fσ /2N. On en déduit que le rapport signal/bruit dequantification a pour expression :

Une conséquence pratique est que le rapport signal/bruit de quantification augmente de 6 dBchaque fois qu’on ajoute 1 bit de codage.

Notons que, s’il n’y avait pas l’opération de quantification, il ne servirait à rien desuréchantillonner un signal au-delà de la fréquence de Nyquist (voir théorèmed’échantillonnage). Par contre, suite à l’opération de quantification, on montre que, sousl’hypothèse de blancheur du bruit de quantification, on gagne environ 3 dB sur le rapportsignal à bruit de quantification si l’on double la fréquence d’échantillonnage.Malheureusement, cette règle de doublement ne peut être poussée trop loin car l’hypothèse deblancheur finirait par ne plus être vérifiée.

Page 45: Traitement Numerique Du Signal

HAUT DE PAGE

4.3.4 Filtrage

Soit X (n ) un processus aléatoire SSL, de fonction d’autocovariance RX (k ) et de dsp SX (f ), àl’entrée d’un filtre linéaire de réponse impulsionnelle h (n ) et de gain complexe H (f ). Onmontre que le processus aléatoire Y (n ) en sortie est lui-même SSL. Sa moyenne est donnéepar :

Il est donc centré si le signal d’entrée est centré. Sa dsp est :

(9)

Cette formule s’applique que le signal contienne ou pas une composante harmonique(expression ( cf. ici )). Ainsi, si le signal d’entrée est le processus harmonique

(cf. équation ( cf. ici )), sa dsp a pour expression :

où σ 2 est la variance de A. On rappelle que . En appliquant ( cf. ici ),la dsp de Y (n ) est donnée par :

Ce résultat est mis à profit dans certains dispositifs de synchronisation pour récupérer, parfiltrage très étroit, une composante harmonique présente dans le processus observé.

Comparée à la formule des spectres ( cf. ici ), l’expression de la fonction d’autocovarianceRY (k ) en sortie est plus compliquée. Si h (n ) désigne la réponse impulsionnelle du filtre,RY (k ) s’écrit :

où .

On montre que les processus X (n ) et Y (n ) sont de covariance stationnaire, ce qui signifieque cov(X (n1), Y (n2)) ne dépend que de l’écart de temps k = n1 – n2. On la note RYX (k ) etson expression est :

Page 46: Traitement Numerique Du Signal

HAUT DE PAGE

4.4 Chaînes de Markov

HAUT DE PAGE

4.4.1 Chaînes de Markov : définitions

Le caractère markovien de signaux aléatoires permet d’obtenir d’intéressants résultats enTNS.

Une chaîne de Markov à temps discret [6] est une suite de variables aléatoires X (n ) àvaleurs dans un ensemble fini (e1, ..., eN ) de N valeurs possibles. Le caractère markovien ditque la probabilité pour que X (n ) = ei conditionnellement à tout le passé, coïncide avec laprobabilité pour que X (n ) = ei conditionnellement à l’instant (n – 1). Une chaîne de Markovest donc caractérisée par la probabilité conditionnelle d’être dans l’état ej à l’instant n sachantque l’on était dans l’état ei à l’instant (n – 1), ce que l’on note :

Par conséquent, pour tout n et tout i, on a .

Lorsque aij (n ) est indépendant de n, la chaîne peut être représentée par une matrice Ad’éléments aij ou encore par une machine à états dans laquelle chaque transition est pondéréepar aij. La figure 21 illustre un processus à trois états e1, e2, e3 et les arcs sont pondérés par lesprobabilités de transition. Par exemple la probabilité de transition de l’état e1 dans l’état e2 estégale à 3/4, et la matrice A, appelée aussi matrice Markov (la somme des éléments d’uneligne est égale à 1), s’écrit :

Si on note pi (n ) la probabilité de se trouver dans l’état ei , à l’instant n et p (n ) = (p1 (n ) p 2

(n ) ... pN (n ))T, on montre facilement que :

Une chaîne de Markov est donc caractérisée par la donnée de la matrice A et du vecteur p(0).Son comportement, en particulier quand n tend vers l’infini, dépend, entre autre, de latopologie du graphe, c’est-à-dire des zéros de A. Il peut y avoir des cycles, des états àprobabilité limite nulle, stationnarité, etc.

Page 47: Traitement Numerique Du Signal

Figure 21 - Graphe d’une chaîne de Markov à trois états

HAUT DE PAGE

4.4.2 Chaînes de Markov cachées

Dans certains problèmes, l’observation est directement modélisable par une chaîne deMarkov X (n ). C’est le cas par exemple en communication numérique lorsqu’on utilise uncodeur à l’entrée duquel on a une suite binaire.

Mais il en est d’autres où l’observation n’est qu’une version Y (n ) transformée d’une certainechaîne de Markov X (n ) non visible, la transformation subie par X (n ) n’étant a priori nibijective ni même déterministe. On parle alors de chaînes de Markov cachées (CMC) (ou enanglais Hidden Markov Model : HMM).

L’exemple qui suit, emprunté à [19] , explicite cette notion : un expérimentateur procède àun lancer de pièces de monnaie. Il énonce à un observateur, qui ne le voit pas agir, la suiteY (n ) des résultats obtenus. L’expérimentateur utilise N pièces et choisit aléatoirement unepièce suivant une procédure décrite par une matrice markovienne A. Les pièces peuvent êtretruquées, ce qui signifie que la probabilité pour que Y (n ) = y sachant que telle pièce a étéutilisée peut ne pas être égale à 1/2. Dans notre cas la variable y ne peut prendre que K = 2valeurs, à savoir pile ou face.

De façon plus générale, un modèle de CMC est décrit par :

le nombre N d’états {e1 ... eN } ; le nombre K de valeurs possibles de l’observation {Y1 ... YK} ; la matrice A de transition entre états :

la loi de probabilité de l’observation connaissant l’état :

où et ;

la probabilité p (0) de l’état initial.

Page 48: Traitement Numerique Du Signal

Quelques problèmes de base

On distingue trois problèmes fondamentaux liés à la notion de CMC.

Comment calculer numériquement la probabilité d’une suite d’observationsY (n ) pour un modèle donné de CMC ? La valeur obtenue peut être utiliséecomme score d’adéquation des observations avec le modèle et permet donc dechoisir parmi plusieurs modèles en compétition.

Étant donné une suite d’observations et un modèle de CMC, comment doit-ontrouver la suite d’états qui « explique » au mieux les observations ? Le critèredu maximum de vraisemblance peut être utilisé et l’algorithme de Viterbi, bienconnu en communications numériques, permet de résoudre le problème.

Comment choisir les paramètres du modèle qui maximisent la probabilité (ondit aussi la vraisemblance) de la séquence d’observations ? Dans le casgénéral, on ne dispose pas d’une expression analytique du résultat. C’estpourquoi on fait appel à des méthodes numériques de maximisation, enparticulier l’algorithme espérance-maximisation (EM) [13] .

Exemple d’application : la reconnaissance de la parole

Le domaine de la reconnaissance des formes (RF) est étroitement associé à celui dutraitement du signal. Un dispositif de RF comporte en général trois étapes : la mesured’un vecteur de paramètres construits à partir du signal, la comparaison de ce vecteurdans une base de référence et enfin la décision. La première étape utilise largement lesoutils de TNS. Les chaînes de Markov cachées en font partie [4] [19].

Comme son nom l’indique, la reconnaissance de la parole est un problème de RF etles CMC sont un outil de choix. L’idée est la suivante : on considère des mots isoléset on associe à chacun d’entre eux une CMC. Chaque état est associé grosso modo àun morceau du signal correspondant à un mot. En fait, pour réduire la taille d’undictionnaire complet de mots, on associe plutôt une CMC à chaque phonème, sorted’unité sonore du langage parlé. Chaque mot est alors le résultat de la concaténationde plusieurs CMC.

Le problème de la reconnaissance peut être ramené au calcul d’une probabilitéconditionnelle P (M │ Y ) caractérisant la validité du modèle M relativement auxquantités observées Y. On se retrouve là encore devant un problème de maximum devraisemblance. La référence [19] donne un grand nombre d’éléments surl’utilisation des CMC en reconnaissance de la parole.

HAUT DE PAGE

4.5 Éléments d’estimation statistique

L’objectif de ce paragraphe est de donner un aperçu de la problématique rencontrée enestimation statistique et de présenter quelques méthodes d’estimation populaires en TNS.Nous ne prétendons nullement épuiser le sujet et nous oublions certainement certains aspectsfondamentaux. Ce domaine comporte en fait une très vaste littérature et nous renvoyons lelecteur à la référence [13] qui en donne une bonne introduction.

Page 49: Traitement Numerique Du Signal

HAUT DE PAGE

4.5.1 Objet de la statistique

Considérons une expérience aléatoire dont la loi de probabilité dépend d’un paramètreinconnu θ. Dans le cas général ce paramètre est un vecteur multidimensionnel. Le problèmede l’estimation statistique est la recherche de méthodes pour évaluer θ à partir d’une suite{X (1) ... X (n )} d’observations. Plus généralement, l’objet de la statistique est d’inférer, àpartir de ces observations, certaines propriétés de la loi inconnue, comme par exemple dire sisa variance est supérieure à un seuil ou bien encore si cette loi est gaussienne.

Le cas le plus simple est celui où la loi de l’observation est complètement spécifiée une foisdonné le paramètre θ. On dit alors que le modèle est paramétrique. Il n’en est pas toujoursainsi. Considérons par exemple l’observation X (n ) = m + W (n ) où m est le paramètre àestimer et où W (n ) est une seule de variables aléatoires centrées de loi inconnue. Dans cecas, se donner m ne suffit pas à déterminer la loi de X (n ). On dit que le modèle est nonparamétrique. Par contre, si on précise, dans ce modèle d’observation, que W (n ) est unesuite de variables aléatoires gaussiennes indépendantes, centrées, de même variance σ 2, leproblème devient paramétrique pour le paramètre bidimensionnel θ = (m σ 2)T. Dans la suitenous considérons uniquement le cas de l’estimation paramétrique d’un paramètre θ dedimension k.

HAUT DE PAGE

4.5.2 Éléments de comparaison des estimateurs

On appelle estimateur de θ, paramètre vectoriel de dimension k, k fonctions (mesurables) de{X (1) ... X (N )}, que nous notons vectoriellement T(X (1) ... X (N )). On utilise aussi le termede statistique pour désigner une fonction des observations. Pour comparer entre eux lesestimateurs on introduit les quantités suivantes.

On appelle biais de l’estimateur T, le vecteur à k composantes défini par :

Dans le cas où la loi de probabilité du vecteur aléatoire [X (1) ... X (n )]T possède une densitéde probabilité pX (x1 ... xN ; θ ) la j e composante de b(θ ) s’écrit :

En général le biais est une fonction du paramètre inconnu θ. Il est donc lui-même inconnu.

On dit que T est sans biais si, et seulement si, quel que soit θ, b (θ ) = 0. On dit qu’unestimateur est asymptotiquement sans biais, si b (θ ) tend vers 0 quand N tend vers l’infini.Cette propriété est tout à fait souhaitable car, bien qu’un estimateur sans biais ne soit pasnécessairement bon, un biais persistant est presque toujours la preuve de performancesmédiocres.

Page 50: Traitement Numerique Du Signal

On appelle dispersion ou écart quadratique de l’estimateur T la matrice dedimension définie par :

Cette matrice est positive. On montre que D(θ ) = covθ (T) + b(θ )bT(θ ). Parconséquent, quand l’estimateur est sans biais, sa dispersion est égale à sa matrice decovariance.

Il faut avoir à l’esprit que la dispersion représente une mesure des fluctuations de T autour dela vraie valeur θ. En pratique, si on répète l’expérience à l’identique un grand nombre de fois,les composantes de T doivent raisonnablement rester dans un intervalle dont la largeur est del’ordre de grandeur de la racine carrée des éléments diagonaux de D(θ ). C’est pourquoi onadopte la définition suivante.

On dit que l’estimateur T est meilleur que l’estimateur V si, et seulement si quel quesoit θ, DV (θ ) – DT (θ ) est matrice positive.

Malheureusement il n’existe pas d’estimateur qui soit de dispersion minimale pour toutevaleur du paramètre θ. C’est la raison pour laquelle on est conduit à minimiser, plutôt que ladispersion, une fonction de risque R (T ; θ ), dans une classe plus restreinte d’estimateurs.

Signalons qu’il existe une borne inférieure de la dispersion de tout estimateur, appelée bornede Cramer-Rao (BCR). La BCR peut être vue comme une limite fondamentale à la précisionavec laquelle on peut estimer un paramètre θ. Dans le cas d’un estimateur sans biais, on a

et la BCR est égale à F –1(θ ), où la matrice F(θ ) a comme élément générateurpour :

F(θ ) porte le nom de matrice d’information de Fisher.

HAUT DE PAGE

4.5.3 Estimation des moindres carrés

A l’origine, la méthode des moindres carrés n’est à proprement parler de nature statistique.Elle fait appel à un modèle déterministe du signal dépendant d’un paramètre θ à mesurer. Onnote ce signal S(θ ). On observe X qui, pour des raisons non explicitées, n’est qu’une versiondéformée de S(θ ). L’estimateur des moindres carrés consiste à prendre comme valeur de θcelle qui rend minimale la fonction quadratique de coût J (θ ) = (X – S(θ ))T (X – S(θ )). Lemérite de son invention revient à Gauss qui l’utilisa pour calculer le mouvement des planètes,mais aujourd’hui, son champ d’applications s’est considérablement accru.

Le cas le plus simple est celui où le modèle de signal dépend linéairement de θ. Dans ce casla méthode aboutit à la construction du meilleur estimateur linéaire sans biais. Soit en effetune expérience aléatoire dont le modèle d’observation est :

Page 51: Traitement Numerique Du Signal

On suppose que W (n ) est une suite de variables aléatoires, centrées, de fonction decovariance R (n1, n2) connue et que hnj est une suite de quantités connues. Pour un échantillonde taille N, la suite des N équations précédentes peut s’écrire matriciellement :

(10)

où θ désigne le vecteur de dimension k à estimer et H une matrice connue de dimension. On note C = E (WWT) la matrice de covariance de dimension construite à partir deR (n1, n2).

On limite la recherche à la classe des estimateurs linéaires c’est-à-dire de la forme T = AX oùA est une matrice de dimension à déterminer. On montre que :

est, parmi les estimateurs linéaires sans biais, celui qui est de dispersion minimale.

Dans le cas où le bruit est blanc, et la matrice de covarianceC = σ 2I. On déduit alors de ( cf. ici ) que T = (HTH) –1 HTX. C’est l’expression del’estimateur des moindres carrés, dit ordinaire, obtenu à l’origine par Gauss et qui correspondà l’hypothèse que le bruit est blanc. Par opposition ( cf. ici ) est dit estimateur des moindrescarrés pondérés.

L’expression ( cf. ici ) montre que le calcul de T nécessite la manipulation d’une matrice dela matrice H de dimension . Si on veut effectuer le calcul de T au fur et à mesure que lesdonnées X (n ) arrivent, on voit que la taille de cette matrice croît de manière « explosive ».Dans ces conditions le traitement ne peut pas être effectué sur calculateur. Heureusement, ilexiste un algorithme récursif qui calcule la valeur de T à partir de son ancienne valeur et de ladernière valeur reçue de X (n ) et qui n’utilise que des matrices de dimension finie. Cetalgorithme est dit algorithme des moindres carrés récursifs (MCR).

La méthode des moindres carrés s’étend au cas où le modèle d’observation ne dépend pluslinéairement de θ. Il suffit de remplacer dans la relation ( cf. ici ) Hθ par S(θ ) supposée nonlinéaire en θ. On obtient l’équation d’observation X = S(θ ) + W. Malheureusement, mêmesous des hypothèses simplificatrices sur W, il n’est plus possible d’obtenir l’expressionanalytique d’un estimateur sans biais de dispersion minimale. Comme à l’origine, l’approcheconsiste alors à déterminer θ qui rend minimale la fonction quadratique de coût J (θ ) = (X –S(θ ))T(X – S(θ )). Sous certaines hypothèses de régularité de S(θ ), on montre quel’estimateur obtenu possède de bonnes performances statistiques. En règle générale laminimisation de J (θ ) se fait par des techniques numériques.

Une autre famille de méthodes est basée sur la décomposition de la matrice de covariance deX en sous-espaces propres. Ces méthodes, dites de type sous-espace, ont connu un très fortdéveloppement ces dernières années (MUSIC, ESPRIT, etc. [11] [12]).

Page 52: Traitement Numerique Du Signal

Exemple

on observe N échantillons {X (1), ..., X (N )} de l’exponentielle complexeS (n ; f0) = exp(2πjf0(n – 1)) de fréquence f0. On montre que la valeur de f0 qui minimise :

est donnée par :

C’est donc l’abscisse du maximum de la TFtd de la suite {X (1) ... X (N )}. Dans le cas où ona non plus une mais P fréquences à évaluer, la recherche du minimum ne peut être effectuéeque numériquement et est très coûteuse en temps de calcul.

Toutefois, le résultat essentiel à retenir est que la solution qui consiste à rechercher les Pmaximum de la TFtd est très proche de l’optimalité lorsque les écarts en fréquence sontsupérieurs à la limite de Fourier 2/N.

HAUT DE PAGE

4.5.4 Méthode des moments

Proposée au départ par Pearson, la méthode des moments est l’une des méthodes les plusaisées pour la recherche d’estimateurs. Elle consiste, dans sa forme la plus simple, à égalerles moments empiriques avec les moments statistiques de même ordre. Voyons sonapplication dans le cas simple où l’échantillon observé {X (1) ... X (N )} est une suite de Nvariables aléatoires iid.

On appelle moment empirique d’ordre m la statistique définie par :

On note Sm(θ ) = E (X m(1)) le moment d’ordre m de X (1).

La méthode des moments consiste à résoudre le système des k équations aux k inconnuesθ = (θ1 ... θk ) défini par :

Page 53: Traitement Numerique Du Signal

Il existe de multiples variantes de cette méthode, en particulier en prenant des moments de laforme E [fm (X(1))] à la place de E [X m(1)] ou encore en prenant un nombre de momentssupérieurs à k (système surdimensionné). On montre (sous certaines hypothèses de régularitéde la loi de X (1)) que tous ces estimateurs sont asymptotiquement sans biais et de dispersionminimale.

Nota :

On entend par asymptotiquement que N tend vers l’infini.

Dans le cas où X (n ) est un signal aléatoire SSL (on abandonne l’hypothèse iid), centré, lesstatistiques les plus utilisées sont de la forme :

qui sont les statistiques empiriques des covariances. En particulier elles sont utilisées pourestimer les paramètres d’un modèle AR (cf. § 6.2.3). L’étude de leurs propriétés statistiquesest beaucoup plus complexe. Toutefois, on montre que, dans le cas de l’estimation AR, lesestimateurs obtenus sont asymptotiquement sans biais et de dispersion minimale.

HAUT DE PAGE

4.5.5 Méthode du maximum de vraisemblance

La méthode du maximum de vraisemblance constitue une généralisation d’une idée de Gauss,qui postule que la « meilleure » valeur du paramètre θ est celle qui correspond à la plusgrande probabilité de l’événement observé.

On considère une observation dont la loi de probabilité possède une densité noté px (x1 ...xN ; θ ). L’estimateur du maximum de vraisemblance est la valeur de θ qui correspond aumaximum, ce qui s’écrit :

En probabilité, la fonction px (x (1) ... x (N ) ; θ ), considérée comme une fonction de (x1 ...xN ), est appelée une densité de probabilité. Mais en statistique, lorsqu’elle est considéréecomme fonction de θ, elle porte le nom de vraisemblance. Le plus souvent on en prend lelogarithme qui porte le nom de log-vraisemblance.

Exemple

on considère un « train » binaire que l’on modélise comme une suite de variables aléatoiresiid à valeurs dans {0,1}. On pose θ = P (X (n ) = 1) et on veut estimer à θ à partir d’une suitede N valeurs. La log-vraisemblance s’écrit :

Page 54: Traitement Numerique Du Signal

Exemple

En dérivant cette expression par rapport à θ et en l’annulant, on obtient l’expression del’estimateur du maximum de vraisemblance :

En général, la détermination de l’expression analytique du maximum est plus difficile, voireimpossible, et il faut alors faire appel à des techniques numériques de calcul. Certaines sontclassiques (algorithme du gradient, algorithme de Newton-Raphson). Une technique plusspécifique, liée au domaine des statistiques, a connu ces dernières années un essorconsidérable : l’algorithme d’Espérance-Maximisation (EM) [13] .

HAUT DE PAGE

4.5.6 Approche bayésienne

On a dit que la dispersion D(θ ) ne permettait pas de comparer totalement les estimateursentre eux. Dans l’approche bayésienne, on suppose que toutes les valeurs de θ ne sont pas

également probables mais qu’elles sont distribuées dans un domaine Θ de , suivant une loide probabilité connue, appelé loi a priori. On peut alors prendre la moyenne de D(θ ) sur Θ.Ce qui conduit à la définition du risque bayésien.

On appelle risque bayésien associé à l’estimateur T la quantité définie par :

où q(θ ) désigne la densité de probabilité de la loi a priori de θ.

Par définition l’estimateur bayésien est celui qui minimise le risque bayésien. On montrequ’il est donné par l’espérance conditionnelle de θ sachant X(1) ... X(N ), qui se note E (θ │X (1) ... X (N )). C’est un vecteur à k composantes qui a pour expression pour :

Dans le cas gaussien les calculs sont simples. En particulier l’estimateur bayésien est lui-même gaussien.

5. Traitements de signaux

Page 55: Traitement Numerique Du Signal

5.1 Traitements multicadences5.1.1 Sur et sous-échantillonnage5.1.2 Banc de filtres5.1.3 Ondelettes et analyse multiéchelle5.2 Estimation de spectre5.2.1 Utilisation du périodogramme5.2.2 Périodogramme moyenné5.2.3 Modélisation AR5.3 Filtrage adaptatif

Ce paragraphe ne prétend nullement donner une vue exhaustive des problèmes de TNS. Ilprésente trois exemples dans le but d’illustrer les notions présentées précédemment et,pourquoi pas, de susciter l’envie pour certains de se plonger dans l’immense littératureconsacrée à ces sujets.

5.1 Traitements multicadences

Un système multicadence est caractérisé par des cadences de traitement différentes en diverspoints de la chaîne de calcul. Il y est fait largement appel aux opérations de décimation etinsertion. Dans ce paragraphe nous nous limitons à la présentation de quelques résultatsconcernant les bancs de filtres et de leurs liens avec l’analyse multirésolution.

HAUT DE PAGE

5.1.1 Sur et sous-échantillonnage

Le suréchantillonnage d’un facteur entier M consiste, sur une suite x (n ), à calculer (M – 1)valeurs intermédiaires entre deux points consécutifs. Le sous-échantillonnage d’un facteurentier M est en quelque sorte l’opération inverse : elle consiste à calculer, sur une suite x (n ),la suite échantillonnée à la cadence M fois moins grande. Le théorème d’échantillonnagenous enseigne que cette opération ne se résume pas seulement à prélever un échantillon sur Mdans la suite initiale.

Pourquoi suréchantillonner ou sous-échantillonner un signal ?

Des applications très spécifiques peuvent faire appel à ces opérations. Signalons parexemple le changement de fréquence : on veut passer de la fréquence 44,1 kHz à48 kHz. Une solution est de suréchantillonner d’un facteur 10 puis de sous-échantillonner d’un facteur 9.

Autre exemple, on veut passer d’une représentation sur 16 bits à une représentation sur14 bits. Ignorer 2 bits conduit à perdre 12 dB sur le rapport signal/bruit de quantification. Onpeut regagner environ 6 dB si on suréchantillonne d’un facteur 4. On peut même gagner 6 dBde plus par une mise en forme spectrale du bruit de quantification.

Donnons un dernier exemple : lors de la restitution des signaux audio-fréquences (parole,musique), le suréchantillonnage fournit une solution simple pour ne pas avoir à réaliser defiltre passe-bas analogique en sortie du bloqueur d’ordre 0.

Page 56: Traitement Numerique Du Signal

Autre domaine privilégié de ces techniques : les traitements multicadences que l’onrencontre en particulier dans les bancs de filtres, dans les méthodes de codage ensous-bandes, dans les modulations multiporteuses ou encore dans l’analyse multi-résolution.

Suréchantillonnage

Soit la suite x(n ) et Xz (z ) sa transformée en z. Considérons la suite y (n ) = x (n/M)pour n = 0 modulo M et y (n ) = 0 sinon. Cette opération, qui intercale (M – 1) zérosentre chaque terme du signal x (n ), est appelée insertion d’un facteur M.

L’étude de son spectre (figure 22) va nous indiquer comment effectuer le sur-échantillonnage. Avec des notations évidentes, la transformée en z de y (n ) estYz (z ) = Xz (zM ) et sa TFtd Y (f ) = X (Mf ). On retrouve dans l’intervalle (– 1/2, 1/2) le spectrede x (n ) répliqué M fois. On dit qu’il y a apparition d’images ou fréquences-images. Le faitd’intercaler des zéros à la place des vraies valeurs a donc produit des composantes hautesfréquences correspondant aux transitions brutales que l’on a introduit dans la suitetemporelle. Le moyen d’obtenir la suite suréchantillonnée est d’appliquer à y (n ) un filtre

passe-bas idéal de gain M dans la bande .

Figure 22 - Effet du sur-échantillonnage pour M = 4

Page 57: Traitement Numerique Du Signal

Figure 23 - Effet du sous-échantillonnage : M = 4

Sous-échantillonnage

On considère, à présent, la suite y (n ) = x (Mn ) obtenue en ne gardant qu’unéchantillon sur M de la suite x (n ). Cette opération est appelée une décimation defacteur M. On montre que sa transformée en z a pour expression :

où on a posé wM = exp(– 2πj/M ). En passant à la TFtd on obtient :

Cette expression montre que, dans l’intervalle (– 1/2, 1/2), Y (f ) est la sommealgébrique de M contributions de X (f ) décalées de 1/M qui se traduit par durepliement de spectre (figure 23).

Par conséquent, pour sous-échantillonner le signal x (n ), il faut, avant l’opération de

décimation, effectuer un filtrage de gain M dans la bande , ceci afin d’éviter lerepliement de spectre.

En résumé on retiendra que :

pour suréchantillonner un signal x (n ) dans un rapport M, il faut effectuer uneinsertion de facteur M puis un filtrage de gain M dans la bande (– 1/2M, 1/2M ) pouréliminer les fréquences-image ;

pour sous-échantillonner un signal x (n ) dans un rapport M, il faut effectuer unfiltrage de gain M dans la bande (– 1/2M,1/2M ) pour éviter le repliement, puis unedécimation de facteur M.

La figure 24 montre les opérations de sur et sous-échantillonnage.

Page 58: Traitement Numerique Du Signal

Figure 24 - Opérations de sur et sous-échantillonnage

Comme le montrent les deux équivalences représentées figure 25, on peut permuter, dans lesopérations de sur et sous-échantillonnage, les opérations de décimation et insertion avec lefiltrage.

HAUT DE PAGE

5.1.2 Banc de filtres

Un banc de filtres est un ensemble de filtres numériques travaillant en parallèle et découpantla bande de fréquence en K sous-bandes (figure 26). Les applications en sont, par exemple,l’analyse en sous-bandes ou encore le codage en sous-bandes de signaux en vue de leurtransmission ou de leur stockage, ou encore le filtrage adaptatif en sous-bandes.

Figure 25 - Équivalences sur l’insertion et la décimation

Page 59: Traitement Numerique Du Signal

Figure 26 - Banc de filtres

Imaginons tout d’abord que le banc soit constitué de filtres passe-bande idéaux disjoints delargeur 1/K. Les K signaux en sortie sont à bande limitée et acceptent donc d’êtreéchantillonnés, sans repliement, à une cadence K fois plus faible, ce qui réduit d’autant lenombre d’opérations par branche. Malheureusement ces filtres idéaux sont RII et l’utilisationde filtres RIF pour effectuer le même traitement se traduit par une perte de sélectivité : il y aimmanquablement un élargissement des sous-bandes et donc du repliement à la sortie desdécimateurs.

Le problème de la reconstitution parfaite (RP) peut alors s’énoncer ainsi : existe-t-il un bancde filtres RIF tel que les effets des repliements dans chaque sous-bande se compensentexactement sur l’ensemble de la bande, de façon à ce que la fonction de transfert totale T (z ),d’un bout à l’autre du système, soit sans distorsion d’amplitude soit │T [exp (2πjf )] = Cte etsans distorsion de phase soit arg {T [exp (2πjf )]} = c0f ? La réponse est oui mais...

Figure 27 - Schéma-bloc équivalent d’un banc de filtres

Considérons, en effet, le schéma de la figure 27. On montre aisément, à partir des relationsd’équivalence (figure 25), qu’il est strictement équivalent au schéma de la figure 26. Ilprésente un bloc d’entrée et un bloc de sortie comportant un ensemble de décalages temporels

Page 60: Traitement Numerique Du Signal

successifs, appelé réseau déphaseur. Les composantes {x1 (n ) ... xK (n )} en sortie du blocd’entrée sont dites composantes K-polyphases du signal x (n ).

Les blocs notés E(z ) et R(z ) sont des filtres linéaires multi-entrées/ multi-sorties qui réalisentdes relations de la forme :

Avec des notations évidentes, ces dernières sont équivalentes à la relation matricielleU(z ) = E(z ) X(z ) où E(z ) est une matrice de dimension dont l’élément (ligne i colonnej ) est la transformée en z de la suite eij (n ). Dans le cas où les filtres du banc sont RIF, E(z )est une matrice de polynômes.

Une solution au problème RP consiste à choisir E(z ) et R(z ) inverses l’un de l’autre. Defaçon plus générale, l’étude des matrices de polynômes dont l’inverse est aussi une matricede polynômes est au cœur du problème des bancs de filtres.

Lors de l’utilisation de filtres RIF, on est souvent tenté d’imposer la contraintesupplémentaire que les filtres soient à phase linéaire. Malheureusement il n’existe qu’unesolution au problème RP qui soit constitué de filtres RIF à phase linéaire mais ces filtres sontde longueur K : on ne peut donc pas jouer, en augmentant la longueur des filtres, sur leursélectivité en fréquence.

On peut, par contre, trouver des solutions RIF à phase linéaire de longueur variable si on secontente de satisfaire la contrainte de non-distorsion de phase, c’est-à-direarg [T exp(2πjf )] = c0f et que l’on minimise la distorsion d’amplitude ou inversement.

Si on abandonne définitivement la contrainte de phase pour les filtres de banc, il existe uneinfinité de solutions au problème RP. Une classe importante de solutions est fournie par laclasse des matrices para-unitaires définies par E(z )ET (z – 1) = IK. La recherche de solutionssélectives peut alors être obtenue par optimisation numérique. La référence [20] donne uneprésentation très complète de l’état de l’art de ces techniques.

Indiquons pour conclure que, dans certaines applications, on utilise un découpage de la bandede type logarithmique, par exemple en octaves ou en tiers d’octave (figure 28).

Figure 28 - Filtres en bande d’octaves

Nota :

Page 61: Traitement Numerique Du Signal

L’octave est égal au logarithme en base 2 du rapport de 2 fréquences. Ainsi, si le rapport est2, on dit que le rapport est de 1 octave. Une atténuation de 30 dB par octave est donc unedivision de la puissance par 1000 lorsque l’on double la fréquence.

Ceci va nous fournir une transition avec le paragraphe suivant puisqu’on montre que latransformation en ondelettes discrètes (TOD) peut être vue comme une analyse par unbanc de filtres en bande d’octaves.

HAUT DE PAGE

5.1.3 Ondelettes et analyse multiéchelle

Les ondelettes ont constitué à partir des années 80 (A. Grossmann et J. Morlet 1984, Y.Meyer, I. Daubechies (1988), S. Mallat 1989, etc.) un sujet de recherche particulièrementriche qui a rapidement débouché sur de nombreuses applications : compression de signal (parexemple le stockage d’empreintes numériques effectué par le FBI), restaurationd’enregistrements dégradés, analyse sismique (Y. Meyer), détection de contours en traitementd’images, etc.

Nous avons vu que la transformée de Fourier s’avérait peu adaptée dès qu’il s’agissait delocaliser en temps des événements courts. La TFCT autorise une telle localisation temporellemais les tranches de temps sur lesquelles sont effectuées les analyses de Fourier sont de taillefixe et l’effet de fenêtrage y est important. L’utilisation d’ondelettes discrètes (TOD) permetde prendre en compte à la fois les problèmes de localisation fréquentielle et temporelle. Eneffet, l’utilisation de la transformée en ondelettes revient à prendre des fenêtres longues enbasses fréquences et courtes aux hautes fréquences.

Comme dans le cas de la TFtd, le premier problème est la recherche d’une représentation de

calcul du signal x (t ) par une somme d’ondelettes Wjk.Chaque Wjk est une version décalée et translatée d’une même ondelette. Le calcul descoefficients bjk est appelé analyse multirésolution de x (t ) car les bjk contiennent uneinformation à la fois fréquentielle autour de 2 j et temporelle autour de t = 2 –j k. Les Wjk

doivent satisfaire à la fois des conditions de translation et de dilatation et une conditiond’orthogonalité, ce qui facilite le calcul de la transformée inverse (comme c’est le cas pourles exponentielles complexes dans la TFtd). Cette construction est basée sur celle de

fonctions d’échelle φ satisfaisant la relation .

D’un point de vue pratique, le calcul des coefficients d’ondelettes est basé sur un algorithmearborescent. Il consiste à choisir une ondelette. Si l’on a un signal de support borné,l’ondelette de Haar [–1 1] satisfait les conditions énoncées précédemment. L’algorithmerapide (récursif) de construction est connu sous le nom d’algorithme pyramidal de Mallat.On peut montrer que celui-ci correspond à une décomposition orthogonale par banc de filtresen quadrature (QMF) à chaque étape de l’algorithme.

Avec sa fenêtre fixe, la TFCT a une résolution Δf en fréquence qui est constante sur toute labande de fréquence. Avec la TOD, c’est la résolution relative Δf /f qui est constante. Dans cecas, tout se passe comme si on avait un banc de filtres passe-bande construits à partir d’unmême filtre prototype, mais avec une échelle de fréquence variable. C’est pourquoi on parle

Page 62: Traitement Numerique Du Signal

alors de représentation temps-échelle, à la différence du terme de représentation temps-fréquence utilisé par la TFCT.

A l’exemple de la TFD, il existe pour la TOD des algorithmes de calcul rapide. Nousrenvoyons le lecteur à la référence [18] qui fait une présentation très complète de latechnique des ondelettes.

HAUT DE PAGE

5.2 Estimation de spectre

HAUT DE PAGE

5.2.1 Utilisation du périodogramme

Soit X (n ) un processus aléatoire réel, SSL, centré. On note R (k ) = E [X (n + k ) X (n )] safonction d’autocovariance et S (f ) sa dsp.

De façon générale, l’estimation se propose d’évaluer certaines quantités, comme par exemplela valeur de S (f ), à partir d’une réalisation d’une séquence de longueur N du processus. Dansla suite nous notons cette séquence {X (0) ... X (N – 1)}.

On appelle périodogramme la fonction aléatoire de définie par :

On pourrait penser que IN (f ) est un « bon » estimateur de S (f ). En fait, il n’en est rien. Lepériodogramme est bien un estimateur asymptotiquement sans biais de la dsp. Cela signifieque pour N suffisamment grand, IN (f ) fluctue autour de la « vraie » valeur S (f ). Par contre,l’amplitude des fluctuations, qui est donnée par la variance de IN (f ), ne tend pas vers 0 quandN tend vers l’infini. Plus précisément on montre que cette variance est de l’ordre de grandeurde la valeur à estimer.

En conclusion, si on évalue sur un temps assez long plusieurs périodogrammes d’unprocessus aléatoire SSL, on constate que ces périodogrammes fluctuent autour de la vraiedsp, mais que l’amplitude des fluctuations ne décroît pas quand N augmente. La solution estdonc d’en « moyenner » plusieurs.

HAUT DE PAGE

5.2.2 Périodogramme moyenné

On montre qu’on peut faire tendre la variance vers 0 quand N tend vers l’infini, si on opère dela façon suivante :

on segmente l’échantillon de longueur N en L sous-intervalles disjoints de longueurM ;

on calcule les L périodogrammes ;

Page 63: Traitement Numerique Du Signal

puis on effectue la moyenne des L périodogrammes.

Cette façon de procéder fournit l’expression du périodogramme moyenné :

(11)

Cette procédure appelle un certain nombre de remarques.

On montre que la variance de Im(f ) est d’autant plus faible que L est grand. Enpratique, puisque N = LM, augmenter L revient à diminuer M et donc la résolutionspectrale. En conclusion, la réduction des fluctuations se fait au prix d’une perte definesse dans l’analyse fréquentielle.

L’expression ( cf. ici ) montre que tout se passe comme si on multipliait leséchantillons X (sM + m ) du signal par la fenêtre de pondération rectangulaire

, dont l’énergie :

Comme nous l’avons déjà vu, cela provoque des ondulations parasites liées aux lobessecondaires de TFtd de la fenêtre rectangulaire. D’où l’idée, là encore, d’utiliser une fenêtredifférente pour réduire ces ondulations.

La conséquence est une amélioration du lissage, mais au prix d’une réduction de la résolutionen raison de l’augmentation de la largeur du lobe principal. Une des fenêtres très utilisées estla fenêtre de Hamming définie pour par :

où α est choisi de façon à ce que .

Nota :

on notera une légère différence avec la fenêtre de Hamming utilisée en synthèse de filtre oùon doit conserver une symétrie éventuelle des coefficients. Ici, la première valeur depondération (0,08) se répète avec la périodicité M.

Multiplier certains échantillons par des coefficients de pondération petits (environ0,08 pour les valeurs extrêmes de la fenêtre de Hamming) fait que ces échantillonsjouent un rôle moindre dans le calcul du spectre. D’où l’idée de Welch de fairechevaucher les sous-intervalles. Le taux de recouvrement le plus couramment utiliséest 50 %.

Page 64: Traitement Numerique Du Signal

La procédure présentée précédemment est donc modifiée de la façon suivante :

on segmente l’échantillon de longueur N en L sous-intervalles de longueur M avec untaux de recouvrement de 50 % ;

à chacun des L sous-intervalles on applique la fenêtre de pondération choisie ; en utilisant la relation ( cf. ici ), on calcule, par un algorithme de TFR, L

périodogrammes en un nombre fini K de points de fréquence f = k /K avec;

puis on effectue la moyenne des L périodogrammes obtenus.

Il lui correspond l’expression :

Nous avons représenté figure 29 le résultat d’une simulation. Le signal en temps représentéen a est la réalisation d’un processus dont le spectre vrai est représenté en b. La figure cdonne le périodogramme calculé sur N = 1 024 points. La figure d donne le périodogrammemoyenné sur L = 7 blocs (recouvrement à 50 %) de longueur M = 256. Le calcul des TFR aété fait sur K = 1 024 points.

HAUT DE PAGE

5.2.3 Modélisation AR

Dans un grand nombre de cas pratiques, on peut modéliser les signaux observés comme lesignal de sortie d’un filtre de fonction de transfert 1/A(z ) :

soit excité par un signal impulsionnel de période T ; soit par un bruit de puissance σ 2,

où A (z ) possède un nombre fini de zéros. Cela ramène l’étude du spectre à l’estimation d’unnombre fini de paramètres (les coefficients de A (z ) et σ 2 ou T).

Cela conduit à s’intéresser à l’équation récurrente :

(12)

où W (n ) désigne un signal aléatoire réel, centré, stationnaire, blanc de variance σ 2 et an unesuite de coefficients réels. On pose :

On montre que l’équation ( cf. ici ) admet une solution unique SSL qui s’exprimecausalement en fonction de W (n ), si et seulement si les pôles de Hz (z ) sont de modulestrictement inférieur à 1. Cette solution a pour expression :

Page 65: Traitement Numerique Du Signal

où la suite hk est donnée par :

avec h0 = 1. Le signal aléatoire X (n ) s’appelle un processus aléatoire autorégressif (AR)d’ordre M.

Figure 29 - Signal aléatoire et spectres

On montre que les (M + 1) premières valeurs de la fonction d’autocovariance R (k ) du signalaléatoire X (n ) vérifient le système de (M + 1) équations linéaires :

(13)

Ce système est désigné sous le terme d’équation normale ou équation de Yule-Walker. Apartir de R ou d’une estimation de R, l’équation de Yule-Walker permet le calcul des

Page 66: Traitement Numerique Du Signal

paramètres an et σ 2, dont on en déduit, en utilisant la formule ( cf. ici ), une estimation duspectre :

Le problème de l’estimation de R, à partir d’une suite de M valeurs X (0) ... X (N – 1), pose leproblème de la positivité de la matrice obtenue. Une expression qui garantit ce résultat estdonnée par la matrice de Toëplitz de dimension construite à partir desvaleurs :

pour . Le fait que la matrice soit de Toëplitz garantit que les coefficients am

obtenus en utilisant l’équation ( cf. ici ) soient ceux d’un polynôme dont toutes les racinessont de module inférieur à 1. D’autre part, il existe pour ces matrices un algorithmed’inversion rapide, appelé algorithme de Levinson. Cet algorithme introduit des coefficientsdits de réflexion directement liés à une structure de filtre appelé filtre en treillis.

La figure 30 illustre le cas d’une modélisation AR d’ordre 10 d’un morceau de signalcorrespondant à la prononciation de la voyelle « i ». On a superposé le spectre obtenu parpériodogramme et le spectre correspondant au modèle AR d’ordre 10.

Page 67: Traitement Numerique Du Signal

Figure 30 - Spectres du son « i » : périodogramme et modélisation AR d’ordre 10

Avantage du modèle AR

On envisage parfois aussi des modèles de signaux aléatoires SSL qui soient la sortie d’unfiltre de fonction de transfert de type polynomial B (z ) (filtre RIF). De tels signaux aléatoiressont dits MA (Moving Average). Plus généralement les signaux aléatoires SSL de typeARMA correspondent à une fonction de transfert rationnelle de la forme B (z )/A (z ).

Le résultat fondamental en pratique est que tout signal aléatoire ARMA ou MA peut êtreapproché par un AR suffisamment long. Toutefois, l’inconvénient majeur de choisir unmodèle AR est qu’un signal aléatoire dont le spectre présente des vallées profondes vanécessiter, a priori, moins de coefficients si on le représente par un modèle MA. L’ennui estque le calcul des coefficients de la partie MA (polynôme B (z )) à partir des coefficientsd’autocovariance estimés est un problème non linéaire, contrairement à la résolution de

Page 68: Traitement Numerique Du Signal

l’équation de Yule-Walker. C’est pourquoi on préfère souvent estimer un AR long qu’un MAcourt.

HAUT DE PAGE

5.3 Filtrage adaptatif

Considérons un système S d’entrée X (n ) et de sortie Y (n ). On ne fait aucune hypothèseparticulière sur le système S. Il peut être linéaire, non linéaire, introduire un bruit additif, etc.Le problème résolu par Wiener est l’approximation de S par un filtre linéaire (figure 31).

Figure 31 - Problème du filtrage de Wiener

Un exemple pratique d’application est celui de l’annulation d’écho acoustique (figure 32). Lesignal X (n ) provenant du haut-parleur arrive sur le microphone. Dans cet exemple, lesystème S est le trajet entre le haut-parleur et le microphone avec ses réflexions et sonenvironnement bruité. On souhaite pouvoir l’éliminer le signal Y (n ) arrivant sur lemicrophone, de façon à ce que le son émis par un locuteur situé devant le microphone ne soitpar perturbé par Y (n ). En pratique on profite des silences devant le microphone pour calculerl’approximation.

Figure 32 - Problème de l’annulation d’écho acoustique

Page 69: Traitement Numerique Du Signal

On suppose que X (n ) et Y (n ) sont deux signaux aléatoires, réels, centrés, SSL et decovariance mutuelle stationnaire, ce qui signifie que la suite E (Y (n + k ) X (n )) ne dépendque de k.

On admet tout d’abord que les suites et sontconnues et on se propose de déterminer le filtre de réponse impulsionnelle finie h = (h (0) ...h (M – 1)T qui soit la meilleure approximation de S. On entend par là que h minimise :

représente la sortie du filtre (figure 31) et où :

Écrivons e 2 en fonction de Rx (k ) et Ryx (k ). Il vient :

est la matrice de covariance de X (n ) (elle est symétrique et positive). En annulant la dérivéede e 2 par rapport à h, on obtient le filtre :

qui minimise e 2. Il est appelé dans la littérature filtre de Wiener. Évidemment, dans le casoù S est un filtre linéaire de réponse impulsionnelle g (n ) de durée finie M, h (n ) estexactement égale à g (n ) et le minimum de e 2 est alors égal à 0.

La solution trouvée nécessite l’inversion de la matrice Rx . On peut toutefois l’éviter par miseen œuvre d’un algorithme de gradient. Considérons l’équation récurrente :

(14)

où hp désigne à présent un vecteur de dimension M obtenu au pas d’itération p. L’expression (cf. ici ) s’interprète comme la correction, à l’étape p, de la valeur de hp – 1 par un termeproportionnel à l’écart entre la « vraie » valeur ryx et la valeur Rx hp – 1 obtenue au pasprécédent. Le coefficient µ > 0 s’appelle le pas du gradient.

Page 70: Traitement Numerique Du Signal

Nota :

la correction va dans la direction opposée au gradient de la fonction d’écart

D’où le nom de l’algorithme.

La résolution de l’équation ( cf. ici ) s’obtient par itération. Il vient :

où I désigne la matrice identité de taille M et A = I – µ Rx. On sait que, si les valeurs propresde A sont de module inférieur à 1, Ap tend vers la matrice nulle quand p tend vers l’infini. Or,tout vecteur propre de Rx , associé à la valeur propre λs, est vecteur propre de A associé à lavaleur propre (1 – µ λs ). La condition de convergence s’écrit donc │1 – µ λs │ < 1. Comme λs

est positive (en tant que valeur propre d’une matrice de covariance), on en déduit que, si0 < µ <2/maxs λs, l’algorithme converge et fournit le filtre de Wiener.

Nous avons supposé jusqu’ici que Rx et ryx étaient connus. Malheureusement en pratique cen’est pas le cas. Ils doivent donc être estimés à partir des données observées. L’algorithmeLeast-Mean-Square (LMS) ou algorithme du gradient stochastique, imaginé par Widrow,évite le calcul de ces estimations. L’idée consiste à remplacer, dans l’équation ( cf. ici ) :

par sa valeur instantanée . L’algorithme s’écrit alors :

Paramètres :

M, µ

Condition initiale :

h = (0,...,0)T

Données :

X (1),X (2),...

Y (1), Y (2),...

Pour p = M, M + 1, ...

ε (p)=Y (p) – XT(p)hp–1

hp = hp–1 + µ X(p)ε (p)

Commentaires :

Page 71: Traitement Numerique Du Signal

On constate que plus le pas µ est grand, plus la vitesse de convergence del’algorithme est grande. On pourrait penser qu’il suffit donc de prendre pour µ la plusgrande valeur ; on montre cependant que E [e 2 (p)] ne tend pas vers e 2, mais qu’il y aun désajustement de la valeur limite. Et ce désajustement croît avec µ . Il y a donc uncompromis à réaliser.

Le plus souvent on utilise un algorithme de type LMS dans lequel le pas µ est calculéà chaque itération. Comme la valeur de µ doit être de l’ordre de l’inverse des valeurspropres de Rx et donc comme l’inverse de la puissance W, la valeur de µ (p) à chaquepas est déterminée à partir d’une estimation W (p ) à l’étape p de W [1] . Ce calculde W (p) peut se faire de façon récursive à partir de l’expression :

où 0 < γ < 1 est désigné sous le terme de facteur d’oubli. En effet, plus γ est voisin de1, moins on tient compte de W (p – 1).

L’algorithme LMS est un algorithme adaptatif : cela signifie qu’il peut s’adapter auxfluctuations éventuelles que pourraient subir les coefficients du filtre. On sort alors du cadrestrict de filtres linéaires puisque la propriété d’invariance dans le temps n’est plus satisfaite.On parle alors de filtrage adaptatif [1] [11] .

Le traitement adaptatif des signaux est depuis de nombreuses années un domaine qui a fournibeaucoup de résultats et possède un vaste champ d’applications. La figure 33 montre leschéma de base d’un système adaptatif. Il est constitué d’un processeur qui calcule, à partirdu signal d’entrée, du signal de sortie et éventuellement d’un signal d’entrée auxiliaire, lavaleur d’un critère qui sert ensuite à ajuster les paramètres du programme de traitement.

Figure 33 - Schéma général d’un système adaptatif

D’une façon imagée on peut dire que tout se passe comme si un expérimentateur effectuaitses réglages après avoir évalué un certain niveau de qualité compte tenu du signal obtenu ensortie. L’entrée auxiliaire sert à introduire des données supplémentaires concernant lesystème ou le signal de sortie. Évidemment on souhaite que l’expérimentateur agisse le plusrapidement possible lorsque le système s’écarte de l’optimum. C’est pourquoi la charge decalcul est toujours un élément déterminant dans la conception d’un système adaptatif.

Dans le cas du filtrage linéaire, la notion de traitement adaptatif fait référence à un filtre dontles coefficients sont ajustés, selon un critère donné, au fur et à mesure que le signal arrive.Nous en avons vu un exemple : l’algorithme LMS qui ajuste les coefficients d’un filtre RIF

Page 72: Traitement Numerique Du Signal

en minimisant l’erreur quadratique. Son principal défaut est de converger lentement versl’optimum. Pour améliorer la vitesse de convergence, on a imaginé d’autres algorithmes etd’autres structures de filtres (filtre RII, filtre en treillis) [11] .

L’utilisation des méthodes de filtrage adaptatif se retrouve à peu près dans toutes lesapplications de TNS. En voici quelques exemples.

Annulation d’interférences : un électrocardiogramme abdominal permet dedéterminer le rythme cardiaque du fœtus. Le problème majeur est celui du rythmecardiaque de la mère qui a une amplitude jusqu’à 10 fois supérieure à celle du fœtus.Les techniques de filtrage adaptatif ont fait preuve d’efficacité pour annuler ce bruitparasite.

Égalisation adaptative : dans le domaine des communications, le signal émis estdéformé par le canal de transmission. On montre que la présence des trajets multiplesde propagation peut se modéliser comme un filtre linéaire. Côté réception, une idéesimple (sous-optimale) est de réaliser, avant l’opération de détection, le filtre inverse.Comme les caractéristiques du canal évoluent (en parti-culier en téléphonie mobile),ce filtrage inverse doit être adaptatif.

Identification de systèmes : citons l’exemple de l’exploration géophysique. Lescouches terrestres agissent de la façon d’un filtre dont la réponse impulsionnelle peutservir à déceler des changements de milieux géologiques et donc d’éventuelsgisements. Le traitement adaptatif permet d’identifier cette réponse au fur et à mesureque le signal de vibration émis revient sur les capteurs.

Traitement adaptatif d’antennes : une antenne est un dispositif constitué deplusieurs capteurs disposés suivant une certaine géométrie et qui reçoit un signalprovenant de plusieurs sources. Aux aspects temporels s’ajoutent donc des aspectsspatiaux. Les deux problèmes les plus étudiés sont la séparation de sources et lalocalisation de sources.

Dans le problème de la séparation, on essaie d’écouter la source se trouvant dans unedirection donnée. Ce problème est analogue à celui du filtrage temporel dont le but estd’isoler une bande de fréquence en atténuant suffisamment les bandes adjacentes. Entraitement d’antenne, on effectue un filtrage spatial pour atténuer (en temps réel) lesdirections où se trouvent les sources gênantes. Ce filtrage porte le nom de formation de voies.La nécessité de rendre alors une antenne adaptative est évidente.

Glossaire français-anglais

Adaptatif

Adapté

Aléatoire

Analogique

Page 73: Traitement Numerique Du Signal

Annulation d’écho

Antenne

AR (Auto-Régressif)

Arrondi (de calcul)

Bande atténuée

Bande étroite

Banc de filtres

Bloqueur d’ordre 0

Biais

Cadence

Calculateur

CAN (Convertisseur Analogique Numérique)

CNA (Convertisseur Numérique Analogique)

CMC (Chaîne de Markov Cachée)

Compléter avec des zéros

Cramer-Rao (bome)

Désajustement

dsp (densité spectrale de puissance)

Échantillon

Échantillonnage

EBSB (Entrée Bornée Sortie Bornée)

EM (Espérance-Maximisation)

Fenêtre

Adaptive

Matched

Page 74: Traitement Numerique Du Signal

Random

Analog

Echo cancellation

Array

AR (Auto-Régressive)

Roundoff

Stop-band

Narrow-band

Filter bank

Zero order hold

Bias

Rate

Computer

ADC (Analog to Digital Converter)

DAC (Digital to Analog Converter)

HMM (Hidden Markov Chain)

Zero-padding

Cramer-Rao (bound)

Misadjustment

psd (power spectral distribution)

Sample

Sampling

BIBO (Bounded Input Bounded Output)

EM (Expectation-Maximization)

Window

Page 75: Traitement Numerique Du Signal

Glossaire français-anglais

Filtre linéaire

Formation de voies

GPS

Impulsion

Insertion

Lissage

LMS

MA Moyenne mobile

Moindres carrés

Moyennage

MIC (Modulation par Impulsions Codée)

Moindres carrés

Moindres carrés pondérés

MCR (Moindres carrés récursifs)

MESLB (Meilleur estimateur linéaire sans biais)

Numérique

Ondelettes

Ondulations

Papillon (TFR)

Passe-bande

Période d’échantillonnage

Périodogramme lissé

Périodogramme moyenné

Propres (valeurs)

Page 76: Traitement Numerique Du Signal

Quantification

Réponse impulsionnelle

Repliement

Retard

RIF (Réponse Impulsionnelle Finie)

RII (Réponse Impulsionnelle Infinie)

Sous-bande

Sous-échantillonnage

(SSL) Stationnaire au Sens Large

Statistique d’ordre supérieur

Sur-échantillonnage

Traitement du signal

Treillis (filtre)

TFCT (Transformée de Fourier à court terme)

TFD

TFR (Transformée de Fourier rapide)

TNS (Traitement Numérique du signal)

Tranducteur

Vraisemblance

Linear filter

Beamforming

GPS (Global Positioning System)

Pulse

Expansion

Smoothing

Page 77: Traitement Numerique Du Signal

LMS (Least-Mean-Square)

MA (Moving Average)

Least squares

Averaging

PCM (Pulse Coded Modulation)

Least Square

Weighted least squares

RLS (Best linear unbiased estimator)

BLUE (Best linear unbiased estimator)

Digital

Wavelets

Ripples

Butterfly (FFT)

Band-pass

Sampling period

Smoothed periodogram

Averaging periodogram

Eigen (values)

Quantization

Impulse response

Aliasing

Delay

FIR (Finite Impulse Response)

IIR (Infinite Impulse Response)

Sub-band

Page 78: Traitement Numerique Du Signal

Under-sampling

(WSS) Wide Sense Stationary

High order statistic (HOS)

Over-sampling

Signal processing

Lattice (filter)

STFT (Short Time Fourier Transform)

DFT (Discret Fourier Transform)

FFT (Fast Fourier Transform)

DSP (Digital Signal Processing)

Transducer

Likelihood

Abréviations Notations mathématiques

AR Autorégressif Produit de convolution

BCR Borne de Cramer-Rao Décimation d’un facteur M

CANConvertisseur analogiquenumérique

Insertion d’un facteur M

CNAConvertisseur numériqueanalogique

Complexe conjugué de a

CMC Chaîne de Markov cachée arg f (x )Argument de f (x ), c’est-à-direfonction inverse de f (x )

dse Densité spectrale d’énergie ch (x) Cosinus hyperbolique de x

dsp Densité spectrale de puissance sh (x) Sinus hyperbolique de x

EMAlgorithme espérance-maximisation

cov(X, Y ) Covariance entre X et Y

iidIndépendantes et identiquementdistribuées

cov (T) Matrice de covariance de T

LMS Least-Mean-Square det (M) Déterminant de M

MA Moving average δ (n) Suite qui vaut 1 en 0 et 0 sinon

MAC Multiplications-additions δf – a Distribution de Dirac au point a

Page 79: Traitement Numerique Du Signal

complexes

MICModulation par impulsionscodées

E() Espérance mathématique

MUSIC Multiple signal classification f Fréquence réduite (sans dimension)

RIF Réponse impulsionnelle finie F Fréquence (Hz)

RII Réponse impulsionnelle infinie n mod N n modulo N

RF Reconnaissance des formes MT Matrice transposée de la matrice M

RP Reconstruction parfaite ΠN (n ) Porte rectangulaire

SSL Stationnaire au sens large u (n ) Échelon unité

SOS Statistiques d’ordre supérieur Xz (z ) Transformée en z de la suite x(n)

TFtdTransformée de Fourier à tempsdiscret

X (f ) TFtd de la suite x(n)

TFD Transformée de Fourier discrète var (X ) Variance de X

TFR Transformée de Fourier rapide

TFCTTransformée de Fourier à courtterme

TNS Traitement numérique du signal

TODTransformation en ondelettesdiscrètes