Transmission et traitement numériques du...
Transcript of Transmission et traitement numériques du...
1
Transmission et traitementnumériques du signal
Jean-Marc GiraultGTR BloisCours 2005
Séance 1 : Introduction + théorie d e l'informationSéance 2 : Codage en ligne (codage NRZ - DC) + Codage de source (compression)Séance 3 : Codage de source (compression JPEG -->rappel TFD1D et TF2D)Séance 4 : Codage correcteur d'erreur (canal)Séance 5 : Les signaux aléatoires et les bruits + DSSéance 6 : Bruit + Réception numérique (détection et décision)Séance 7 : Codage pseudo aléatoire + Brouillage (corrélation + orthogonalité )Séance 8 : Codage pseudo aléatoire + Etalement de spectreSéance 9 : Cryptographie
• Le BUT de la Télécommunication, est de transmettre une informationd ’un point donné vers un autre point.
Schéma général d ’une liaison de transmission
Source
Codeur
Emetteur
Utilisateur
Décodeur
Récepteur
Milieu de Propagation(atmosphère, eau, cable
fibre optique)
I. Introduction
Source d ’information
I. Introduction
GTR 1 (DC) : - parole, audio,- image, vidéo,- données
2
Source d ’information
Adaptation / codage
I. Introduction
GTR 1 (DC) : Codage en ligne (NRZ, Manchester, …)GTR 2 (EL) : Modulation analogique et numérique (ASK, PSK, QAM, …)
GTR 2 (JMG) : COFDM + Etalement de spectre (ADSL + Courant porteur + UMTS + Wifi + TNT)GTR 2 (JMG) : Codage canal correcteur erreurs (codage en Bloc)
GTR 2 (JMG) : Codage source : codage et compression (Fax, zip, gif, png, jpeg , jpeg2000, ...)GTR2 (JMG) : Brouillage (GPS + UMTS) + Cryptographie (DES + RSA)
Le Codeur et le Décodeur :
Le Codage doit être adapté au caractéristique du bruit et du canal.Codage obligatoirement
sur des signaux numériques
Conversion Analogique / Numérique
Le Codage de la Source
Eliminer lesredondances
Compression JPEG, MPEG
Le Codage en ligne
Protège l ’information des perturbationsintroduites par le canal
NRZ, RZ, AMI, CMI, Manchester
3 types de Codage :
Le Codage Canal
Ajouter des redondances
Hamming, Solomon
I. Introduction
Source d ’information
Adaptation / codage
Stockage
Traitement
Transmission
I. Introduction
GTR 1 (DC) : Modélisation du canal de transmission : bruit + filtrageGTR 2 (JMG) : Modélisation du canal : multi-trajet, ...
3
Signalémis
Signalreçu+
Bruit
Canal de transmission
x(t)
b(t)
y(t)=h(t)*x(t)+b(t)
I. IntroductionModèle du canal :
Filtre
Stockage
Traitement
Transmission
Adaptation / codagetraitement
I. Introduction
GTR 1 (DC) :égalisation, filtrage NyquistGTR 2 (JMG) : Détectionbinaire en présence de bruit
GTR 1 (DC) : Synchronisation- de porteuse : Boucle de Costas,- du rythme : Boucle de retard,- de phase : Boucle à verrouillage de phase (PLL) (GTR2 : FVL + EB : Electronique)
x(t) y(t)=h(t)*x(t)+b(t)
I. IntroductionDétection :
Détecteur
4
• 1920 : Fisher : Premier essai de quantification de l ’information.• 1922 : Nyquist : Amélioration de la vitesse de transmission sur lignetélégraphique.• 1929 : Hartley :• 1948 : Shannon (MIT)• 1948 : Wiener• 1949 : Shannon & Weaver• 1959 : L Brillouin
II. Théorie de l ’Information1) Introduction
CybernétiqueSciences humaines
(Linguistique, Sociologie,Economie, Droit,
Antropologie)
Physiqueet
technique(Thermodynamique,
Mécaniques,codage,
Biophysique)Mathématiques
(Statistiques, probabilité,complexité algorithmique,
algèbre booléenne)
• La cybernétique (Wiener) : une discipline à part entière dédiée àl ’étude de l ’information.• Unification des formalismes des diverses disciplines parl ’Axiomatisation.
II. Théorie de l ’Information1) Introduction
• La source d ’information produit des messages analogiques oudiscrets. L ’ensemble des symboles constitue l ’alphabet, chaqueélément est appelé symbole.
• L ’information doit provoquer chez nous une réaction.
• L ’information doit donc être perçue par nos sens (ouïe, vue).
II. Théorie de l ’Information2) Les sources d ’information
5
•L ’information n ’a d ’intérêt que si un organe la traite, la transmetou bien la stocke.
•L ’écriture, le son et l ’ image sont les vecteurs de l ’informationd ’aujourd ’hui.
•Notre objectif étant soit de traiter, stocker ou bien diffuserl ’information, il nous faut rechercher le maximum d ’information apriori sur la source pour réaliser ces opérations de façon optimale.
II. Théorie de l ’Information2) Les sources d ’information
La quantité d ’information = ?– C ’est quoi l ’information dans un message ?– Existe-t-il un moyen simple de vérifier si un message contient de
l ’information ?
Deux points de vue vont nous intéresser :– L ’aspect sémantique;– L ’aspect syntaxique.
II. Théorie de l ’Information3) Mesure de l ’information
a) Exemple sémantique :
« Il neige à Chamonix l ’hiver. »
« Il neige à Honolulu l ’été. »
Probable : peu informatif
Improbable : très informatifEffet de SCOOP !
II. Théorie de l ’Information3) Mesure de l ’information
6
Quantité d ’information (Shannon)
Probabilitéde l ’évènement
?
10Très probablePeu probable
Très informatif
Peu informatif
II. Théorie de l ’Information3) Mesure de l ’information
Message 1 : aaaaaaaaaa
Message 2 : a_a_a_a_a_
Message 3 : a_a__aa_a_
Message 4 : abcd_abcd
Les changements inattendus (variation irrégulière) semblentinformatifs !
La richesse de l ’alphabet (des mots) semble importante !
La notion de variation (régulière) semble importante !
Pas informatif
Informatif
Alphabet : a,b,c,d,_
Peu informatif
Très informatif
II. Théorie de l ’Information
b) Exemple syntaxique :
3) Mesure de l ’information
• La quantité d ’information contenu dans un événement estétroitement liée au degré d ’incertitude que l ’on attribue à cetteinformation.
• Si un événement est certain, sa réalisation n ’apporte aucuneinformation. D ’un point de vue formel, soit S, une sourced ’information émettant des symboles s avec une probabilité p,l ’information notée I(s) sera nulle si p=1 (100%).
•Par contre, elle sera d ’autant plus grande que son occurrenceest faible (p≈0).
II. Théorie de l ’Information
c) Contenu informatif : I
3) Mesure de l ’information
7
• La mesure mathématique de l ’information doit donc prendreen compte la probabilité d ’occurrence des événements attenduset satisfaire aux axiomes suivants :
- l ’information est proportionnelle à l ’incertitude durésultat attendu : I(s) est donc une fonction décroissante del ’inverse de la probabilité d ’émission du symbole s, c ’est-à-dire de la forme :
I(s)=g(1/p).
II. Théorie de l ’Information3) Mesure de l ’information
II. Théorie de l ’Information3) Mesure de l ’information
1 2 1 2
1 2 1 2
( , ) ( ) ( )
1 1 1
I s s I s I s
g g gp p p p
= +
= +
- Les informations correspondant aux réalisations d ’événementsindépendants ont un caractère additif :
Tout nous laisse penser que :g=log
log(ab)=log(a) + log(b)
Quantité d ’information (Shannon)
p10
2( ) log ( )I s p= −
( )1( ) .ln .lnI s K K p
p
= = −
1/ln(2)K =(sh)
II. Théorie de l ’Information3) Mesure de l ’information
8
Exemple : On cherche un livre dans une bibliothèque qui en compte en tout4000.(« Invitation à la théorie de l ’information », E. Dion, Ed Le point)
II. Théorie de l ’Information
Répartition de livresCouleur Clairs Foncés TotalBleus 250 250 500Rouges 250 750 1000Verts 250 1750 2000Jaunes 250 250 500Total 1000 3000 4000
3) Mesure de l ’information
II. Théorie de l ’Information
* L ’information « le livre recherché est bleu», notée I(bleu) =log(4000/500)=log8=log23=3 bits. On a divisé l ’incertitude sur larecherche du livre d ’un facteur 8, il n ’y a plus que 500 livres possiblesaprès l ’information, alors qu ’il y en avait 4000 avant.
* L ’information « le livre recherché est rouge», notée I(rouge) =log(4000/1000)=log4=log2 2=2 bits. Cette information est de moindrevaleur. Il y a davantage de livres rouges (la recherche prendra deux foisplus de temps que dans le cas précédent), et l ’incertitude sur la recherchedu livre est donc moins réduite (si notre livre recherché il est rouge, il estdonc parmi les 1000 livres rouges alors que s ’il est bleu il est parmi les500 livres bleus).
3) Mesure de l ’information
II. Théorie de l ’Information
* L ’information « le livre recherché est clair», notée I(clair) =log(4000/1000)=log4=log2 2=2 bits. Cette information apporte peud ’information comparée à la couleur bleu, en effet un livre sur quatre estclair (1000) comparé au cas bleu (500) .
* L ’information « le livre recherché est bleu clair», notée I(bleu clair). Onpourrait croire que :
I(bleu clair)= I(bleu) + I(clair) = 3 + 2 = 5 bits.Pourtant le calcul donne :I(bleu clair)= log(4000/250)=log16=log2 4=4 bits
parce que les deux informations sont dépendantes.
3) Mesure de l ’information
9
• Si on considère à présent une source d ’information S quisélectionne aléatoirement un symbole parmi les N élémentsde l ’alphabet {s1 , s2 , …, sN}, de probabilités respectives{p1, p2, …, pN}, on appellera entropie de la source S lamoyenne des quantités d ’information apportées parchacun des symboles sk :
[ ] [ ]2( ) ( ) log ( )k kH S E I s E p= = −
21
( ) log ( )N
k kk
H S p p=
= −∑ (Sh/symb)
Entropie :
II. Théorie de l ’Information3) Mesure de l ’information
II. Théorie de l ’Information
• Exemple : le code Morse (émission de traits - et de points .)Supposons que l ’apparition d ’un trait soit plus fréquente (75%)que celle d ’un point (25%).
La quantité d ’information liée à l ’apparition d ’un trait vaut :I(trait)=-log(0.75)=0.415 bits.La quantité d ’information liée à l ’apparition d ’un point vaut :I(point)=-log(0.25)=2 bits.NB : I(trait)<1bit car I(0.5)=1bit et 0.75>0.5.
On peut considérer que trois fois sur quatre on assistera à unévénement porteur de 0.415 bit d ’information et q ’une fois surquatre on assistera à un événement porteur de 2 bits. L ’événementsera en moyenne porteur d ’une information notée :H=0.75 x 0.415 + 0.25 x 2 = 0.811 bit.La surcote de quantité d ’information accordée aux événementsrares ne compense pas tout à fait leur rareté.
3) Mesure de l ’information
II. Théorie de l ’Information
Dans le cas d ’une source binaire (comme le Morse), l ’entropie est d ’autantplus forte que les probabilités se rapprochent de l ’équiprobabilité (50%, 50%).
La meilleur stratégie pour trouver un nombre entre 0 et 99 est de procéder pardichotomie. Un autre exemple consiste à trouver un pixel dans une image8x8=64 bits. La meilleure stratégie pour trouver le pixel en question est deprocéder par dichotomie, c ’est à dire de poser une question dichotomique : « lepixel se trouve-t-il dans la moitié droite ? » . La recherche pourra êtrefructueuse au bout de 6 coups !
3) Mesure de l ’information
10
• La quantité d ’information d ’une source est donc liée aucaractère nouveau et imprévu de chacun des symboles émis,c ’est-à-dire à la difficulté de les déduire du contexte dessymboles antérieurs.
max0 ( ) ( )H S H S≤ ≤
max 2( ) log ( )H S N=
max
( )( ) 1( )
H SR SH S
= −La redondance :
II. Théorie de l ’Information3) Mesure de l ’information
Exemple : alphabet latin (26+espace)
max 2( ) log ( 2 7 ) 4.77 /( ) 3.90 /
0.19
H S Sh symbH S Sh symbR
= ==
=
II. Théorie de l ’Information3) Mesure de l ’information
III. Codage et Compression
1) Généralités2) Compression de fichiers informatiques
– compression réversible– compression irréversible
3) Compression de la vidéo– compression réversible– compression irréversible
4) Compression audio
11
1) Généralités
EXTRACTIONdes
INFORMATIONS contenues dans l ’image :
COMPRESSION
ASSIGNERun
CODEaux divers messages :
CODAGE
DECORRELATION
QUANTIFICATION
STATISTIQUEHuffman,Shannon-Fano ,
Arithmétique
DICTIONNAIRELempel et Ziv (LZ77, LZW)
1.1) Principe du codage :
III. Codage et Compression
1.2) Propriétés des Codages :
• Longueur et efficacité d ’un code :
• Théorème du codage :
• Inégalité de Kraft :
∑=
=m
iii lxPL
1
)( LLmin=η
LxH )(
=η)(xHL ≥
Avec Lmin=H (X)
121
≤= ∑=
−m
i
liK
Où li est la longueur du symbole i
III. Codage et Compression
• Classification :
xi code 1 code 2 code 3 code 4 code 5 code 6x1 00 00 0 0 0 1x2 01 01 1 10 01 01x3 00 10 00 110 011 001x4 11 11 11 111 0111 0001
Code de longueur fixe : tous les mots ont la même longueur.
Code univoquechaque mot est distinct
de tous les autres.
Code sans préfixeaucun mot ne peut être formé à partird ’un autre par addition des symboles
Code déchiffrablepermet de restituer dans son intégralité et sans ambiguité une séquence de symboles.
III. Codage et Compression
12
• Exemple : Codage d ’une chaîne de caractères
Soit une chaîne de 42 caractères :AAAAAAABBBBBBBDDDDDDDDDDAAABBBBBBBBBBBBBBB
Idée intuitive :
- Identifier des répétitions de valeurs identiques :AAAAAAABBBBBBBDDDDDDDDDDAAA BBBBBBBBBBBBBBB
- Indiquer la valeur et le nombre de répétitions :Le message codée peut être par exemple :
7#A-7#B-10#D-3#A-15#B
Le message codé est composé de 21 caractères ce qui correspond à :TC=42:21 → TC=2:1
Cette technique en réalité se rapproche de beaucoup à la technique du RLC (Run LengthCode).
1.3) Les différents types de codage
III. Codage et Compression
BM>� > ( @ @ � � � Ä� Ä�ÿÿÿ �ü �ü �ü �ü �ü �ü�ü �ü �ü �ü �ü �ü�ü � üÿÀ � üÿÀ � üÿÀ � üÿÀ � üÿÀ
üÿÀ � üÿÀ ÿÀ �ø ÿÀ �ø ÿÀ �ø�ø �ø �ø �ø �ø �ø �ø�ü �ü �ü �ü �ü ÿÀ �ü ÿÀ �üÿÀ �ü ÿÀ �ü ÿÀ �ü ÿÀ ÿÀ ÿÀÿÃÿ ÿÃÿ �ÿ �ÿ �ÿ �ÿ ÿÀ
ÿÿ€ ÿÀ � ÿÿ € ÿÀ � ÿÿ€ ÿÀ � ÿÿ€ ÿ À ÿ € ÿÀÿ€ ÿÀ ÿ € ÿ À ÿ€ ÿÀ ÿ € ÿÀ
64x64 pixels
III. Codage et Compression
a) Le codage statistique :
- Run Length Code :Cette méthode consiste à repérer les répétitions de valeurs identiques,puis il suffit pour coder d ’indiquer la valeur et le nombre derépétition consécutive.
Exemple : image binaire
0 0 0 11 1 0 00 0 0 11 1 1 0
M=
Soit M l ’image binaire et V le vecteur des données obtenu si l ’on scannel ’image horizontalement, quel est le nouveau vecteur codé C :
V=(0,0,0,1,1,1,0,0,0,0,0,1,1,1,1,0)
C=(3,3,5,4,1)(0,1,0,1,0)
III. Codage et Compression
13
Il consiste à donner un poids plus important aux motifs les moinsfréquents et vice versa.
La démarche :•Lister les symboles de la source par probabilité d ’occurrence décroissante.
• Additionner les probabilités des 2 éléments de probabilités les plus faibles et ré-ordonner la liste. Réitérer.
• Commencer le codage au dernier niveau de réduction. On attribue la valeur 0comme premier digit des mots codés de tous les symboles de source associé à lapremière probabilité et 1 dans l ’autre cas.Idem pour les autres niveaux.
- Le Code d ’Huffman :
III. Codage et Compression
Exemple : xi P(xi) code
x1 0.30
x2 0.25
x3 0.20
x4 0.12
x5 0.08
x6 0.05
0.30
0.25
0.20
0.13
0.12
0.30
0.25
0.25
0.20
0.45
0.30
0.25
0.55
0.45 1
0
11
10
01
00
11
01
00
101
100
1001
1000
101
11
01
00
01
00
1
H(X)=2.36 b/symboleL=2.38 b/symbole
Code d ’Huffman (suite)
III. Codage et Compression
- Lister les symboles par probabilités décroissantes.- Partager l ’ensemble en 2 sous-ensembles aussi équilibrés que possible au sens de lasommation des probabilités élémentaires.- Répéter le processus de partage .
Etape 3
0
1
1
Code
00
01
10
110
1110
1111
Etape 1
0
0
1
1
1
1
Etape 2
0
1
0
1
1
1
Etape 4
0
1
C ’est un code efficace
xi P(xi)
x1 0.30
x2 0.25
x3 0.20
x4 0.12
x5 0.08
x6 0.05
0.55
0.45
0.30
0.25
0.12
0.13
0.08
0.05
0.20
0.25
III. Codage et Compression• Le Codage de Shannon-Fano :
14
• Le Codage Dictionnaire - Le LZW (Lempel-Ziv-Welch):Cette méthode, tout comme le RLC et le LZ77, consiste à éviter lesrépétitions en repérant les motifs de série de bits identiques. De plus,chaque motif est copié dans une table (dictionnaire) et se voitattribuer un code. Ce dictionnaire doit être construit de la mêmemanière à la compression qu ’à la décompression et contenir lesmêmes informations.
Propriétés : - Construction dynamique du dictionnaire au cours de la compression,- Compression réalisée en une seule lecture,- nécessité d ’un apprentissage pour être efficace,- peu performante pour la compression de petits fichiers.
III. Codage et Compression
Dictionnaire standard:LE → code 1EST → code 2UN → code 3avant compression
Exemple :Coder la phrase suivante : LE JOUR LE PLUS LONG EST EN JUIN,LE JOUR LE PLUS LONG EST EN JUIN.
LE JOUR LE PLUS LONG EST UN JOUR DE JUIN, LE JOUR LEPLUS LONG EST UN JOUR DE JUIN.code 1, JOUR, code 1, PLUS , LONG, code 2, code 3, code 4, JUIN, code 1,code 4, code 1, code 5, code 6, code 2, code 3, code 4, code 7.
Dictionnaire mis à jour :LE → code 1EST → code 2EN → code 3JOUR → code 4PLUS → code 5LONG → code 6JUIN → code 7
III. Codage et Compression
- Les méthodes réversibles :
Duplicata exact de l ’image originale
- Très efficaces pour coder des images du type :cartes, dessins, plan, textes (256 niveaux de couleurs)
- Peu efficaces pour coder les photographies (16millions de couleurs)
- Taux de compression en moyenne de 2:1 etinférieur à 5:1
RCL, LZW→GIF, ZIP
III. Codage et Compression2) Compression de fichiers informatiques
15
- Les méthodes irréversibles :
Transformée Cos, Ondelette, Fractales → JPEG, WI, FIF
Approximation des données initiales
Compression avec pertes contrôlées qui élimine desinformations non-indispensables pour l ’appréciationvisuelle des images par un œil humain.
- Taux de compression en moyenne pour JPEG de 20:1
2) Compression de fichiers informatiquesIII. Codage et Compression
- mode progressif :pour une taille fixe, la résolution de l ’image augmente au fur et à mesure de la décompression.
- mode zoom :la taille de l ’image augmente au fur et à mesure de la décompression pour une résolution fixe.
Déroulement de la décompression
Déroulement de la décompression
2) Compression de fichiers informatiquesIII. Codage et Compression
- Efficacité et Qualité d ’une image codée - Le Taux de compression :mesure la réduction opérée sur le volume de données lors du codage :
TC=taille fichier avant compression / taille fichier après compression
- La Vitesse de compression et de décompression :- phase de décompression plus rapide ( ≈ 1s) que la phase de compression.
Méthodes format Image Comp. Décomp .
Ondelettes WI Image1 1s 1sFractales FIF Image1 300s 1sJPEG JPG Image1 3s 1sLZ77 PNG,GIF Image1 0.5s 0.5sCCITT TIF Image2 2s 1s
Image1 : 640x480x24,Image2 : 2500x3000x1
2) Compression de fichiers informatiquesIII. Codage et Compression
16
-GIF (Graphic Interchange Format)
• Compression LZW (brevet),• couleurs indexées avec palette de 256 teintes max,• transparence binaire,
• mode de transmission progressif dit « Gifentrelacé ».
• Pas de codage brut.• Gif87a et Gif 89a.• Pas de pertes d ’information
• Lecture horizontale de l ’image (les redondancesverticales ne sont pas pris en compte ).
• Très efficaces pour coder des images du type cartes,dessins, plan, textes (256 niveaux de couleurs) maispeu efficaces pour coder les photographies (16millions de couleurs).
2) Compression de fichiers informatiquesIII. Codage et Compression
- PNG (Portable Network Graphic)• Compression LZ77,
• libre de droit,• un codage brut,• une vraie transparence (en niveau
de gris et vraies couleurs) sur lamême profondeur que des plansd ’intensité.
• un mode de transmission progressifdit « PNG entrelacé »
• divers modes optionnels de codageprédictif.
• Basé sur une recherche de motifshorizontaux (les redondancesverticales ne sont pas pris encompte ).
• Supérieur au GIF dans le cas où lesimages étudiées ont un niveau decouleurs supérieur à 256.
17
- TIFF (Tagged Image File Format)
• Société Adobe System Inc ..• Format très complet.
• Couleurs vraies ou indexées,• transparence,• plusieurs mode de compression (RLE, LZW),• et mode de transmission progressive.
b) Compression avec perte
- JPEG (Joint Photographies Experts Group)
TCD Zig-ZagBloc 8x8
Quantification+
Prédiction du DC
DC AC
RLC
……...Huffman
TCD Zig-ZagBloc 8x8 DC AC
RLC
Méthode irréversible
Image spatiale → Image fréquentielle (Transformée en cosinus discrète)
Image fréquentielle → séparation des informations hautes et basses fréquences
Quantification → privilégie les harmoniques principaux
Codage du Run Code Length + Codage d ’Huffman
Méthode Zig-Zag
Plus le taux de compression est élevé plus la perte d ’info est grande
18
Imagespatiale
Imagefréquentielle
TCD
Effet de pixellisation
Image originale Image reconstruite Image erreurCoefficients TCD
Coefficient sélectionnés : 64
Coefficient sélectionnés : 1
Coefficient sélectionnés : 8
Coefficient sélectionnés : 32
La Compression :JPEG
19
Compression d ’images dynamiques : MJPEG
t1 tnt
Image1
Imagen
temps
EspaceEs
pace
Compressionspatiale
Irréversible(JPEG)
Application : DV
Compression d ’images dynamiques : MPEG
Introduction
MPEG (Moving Picture Expert Group)Séquence vidéo
t1 tnt
Image1
Imagen
temps
Espace
Espa
ce
Historique
• MPEG-7 : 2001, vise plus encore que MPEG-4 à adapter les images àl'intéractivité et au multimédia.
• MPEG-1 : apparue en 1992, ce format avait la qualité du VHS. Il utilisait unedécompression logicielle. Résolution 350x240 en NTSC et débit de 1.5 Mbits/s.
• MPEG-2 : a suivi en 1994.Bien plus puissante que MPEG-1, elle demande unedécompression matérielle. Résolution 720x486 en NTSC et débit de 3 à 10Mbits/s.
• MPEG-4 : née en 1997, elle est prévue pour les télécoms (Internet,Vidéophone). Résolution 176x144 en NTSC et débit de 4.8 à 64 Kbits/s.
20
MPEG 1 (Début 1988, fin 1992)
MPEG 1 Vidéo :
MPEG 1VidéoAudio
Format standard : Format SIF (source Intermediar Format) :
→ Luminance : 360x288,→ Chrominance : 180x144,
→ Luminance : 720x576,→ Chrominance : 360x576,
V D V A D A V D V A D A V D V A D A VV : vidéoD : donnéesA :Audio
TC moyen ≈ 4
Y : luminanceCb : Chrominance bleueCr : Chrominance rouge
Y
Cb
Cr
Image1
1/2
1/2
TC moyen ≈ 2/3
Sous échantillonnage d ’un facteur 2 des images de Chrominance.
Espace
t1 tnt
Image1
Imagen
temps
Espa
ceCompressionspatiale
Irréversible(JPEG)
Compressiontemporelle
TC moyen ≈ 8TC moyen ≈ 3
21
Image
V V V V V V V V V V V V V V
Séquence vidéo
Groupe d ’images
Début Fin
En tête
Tranche Macro -bloc Bloc
8 pixels
8 pixels
Compression spatiale : Irréversible(JPEG)
JPEG
Compression temporelle :
Images clésIntra-Pictures
Images préditesPredicted-Pictures
Images bi-directionnellesBidirectional-Pictures
Objectif :Ne compresser que ce qui a été modifié d ’une image àl ’autre.
I B B P B B P
• Images clés
- compression indépendamment du contexte- accès aléatoire- taux de compression faible (2:1)
- C ’est la première image de la séquence
La compression temporelle (suite):
• Images bi-directionnelle- utilisent à la fois l ’ image précédente et l ’image suivante-permet un meilleur taux de compression
- aucune propagation des erreurs
I B B P B B P
• Images prédites - codées par rapport à l ’image précédente- utilise la compensation de mouvement- propagation des erreurs
II B B P B B P B B P B B
II B B P B B P B B P B B
II P B B P B B P B B B B
22
Les Sons numériques et leursfichiers
Jean-Marc GiraultSRC Blois
Rappels sur les sons
• Bande passante de l ’oreille : 20 à 20000 Hz• Dynamique ~100 dB• Sons purs = sinusoïde : signaux périodiques
: représentation temporelle• Sons impurs = signaux périodiques : notion
d ’harmoniques : richesse spectrale.• Information : représentation fréquentielle• Partition de music et plan temps/fréquence
Time
Freq
uenc
y
0 5 0 0 1000 1500 2 0 0 0 2500 3000 3 5 0 0 4 0 0 00
0.05
0.1
0.15
0.2
0.25
23
PCM ou MIC
76543210
111110101100011010001000
code Te
Quantification
Codage 5 7 7 7 5 2 3
t
t
t
Y(t)
Umax
- Umax
- Dynamique de l ’oreille ~100 dB- Rapport signal à bruit ~ 100 dB ⇒ 20 bits (122 dB)- Fe : 48 kHz- Débit brut en stéréo : 1.9 Mbits/s (48000 x 20 x 2)
Système Bande Passante Fe Codage Débit binaire Applications Passante HzkHz n bits son stéréo Mbits/s
AES/EBU 20-20000 48 16à24 1.53 à 1.92 ProductionD2MAC 40-15000 HQ 32 14 Diffusion TV
40-7000 MQ 16 14CD audio 20-20000 44.1 16 1.41 Disques(PCM/ADPCM)NICAM 40-17000 32 14 0.728 Diffusion TV HertzienneMUSICAM 20-20000 48 X 0.384 à 0.128 Diffusion TV, radio, DVD, DABDOLBY AC-3 20-20000 X 20 0.192 stéréo Cinéma, DiffusionDOLBY AC-3 20-20000 32à48 20 0.384 Cinéma, Diffusion, TV numsurround 5.1 3-120 bass pour 5.1
Les fichiers wave
• Format RIFF (Ressource Interchange File Format)
• Un fichier au format RIFF est composé deplusieurs en-tête (CHUNK).
• L ’en-tête de structure‘ RIFF’ (32 bits) longueur (32 bits) ‘ WAVE ’
•L ’en-tête de format‘ fmt_’ (32 bits) longueur (32 bits) données (n bits)
•L ’en-tête des données‘ data’ (32 bits) longueur (32 bits) échantillons :
(8 bits canal 0, 8bits canal 1 ... 8 bits canal 0, 8bits canal 1 )
24
• 52 49 46 46 : RIFF ( Identificateur de fichier)•00 00 1F 66 := 8032 Octets longueur du reste du fichier• 57 41 56 45 : WAVE (Identificateur du type de fichier RIFF
(ici wave))• 66 6D 74 20 : fmt_• 00 00 00 10 : ?•00 01 : wFormatTag : ex 1 : PCM• 00 01 : nChannel : 1 car mono•00 00 56 22 : nSamplesPerSec 22050 Hz•00 00 AC 44 : nChannel x nSamplesPerSec x nBitPerSample/8
1 x 22050x 16 / 8 en hex= AC 44 (sert à estimer la taille du buffer)
• 00 02 : nAvgBytesPerSec = nChannel x nBitPerSample/8 = 1 x 16/8= 2 (sert à l ’alignement du Buffer )
• 00 10 : longueur d ’un échantillon en bit : 10 en hex=16 bits
•64 6174 61 : data• 00 00 1F 42 : taille des données : 1F 42 = 8002 Octets
00 00 04 00 : 1024 Octets Données
Les CODEC (COdeur-DECodeur) audio :- logiciel - matériel (hardware)
25
Les fichiers CDA (CD Audio)
• Format RIFF (Ressource Interchange File Format)
• Un fichier au format RIFF est composé deplusieurs en-tête (CHUNK).
• L ’en-tête de structure‘ RIFF’ (32 bits) longueur (32 bits) ‘ WAVE ’
•L ’en-tête de format‘ fmt_’ (32 bits) longueur (32 bits) données (n bits)
•L ’en-tête des données‘ data’ (32 bits) longueur (32 bits) échantillons :
(8 bits canal 0, 8bits canal 1 ... 8 bits canal 0, 8bits canal 1 )
• 52 49 46 46 : RIFF• 00 00 00 24 : xxxx• 43 44 44 41 : CDDA• 66 6D 74 20 : fmt_• 00 00 00 18 : ?• 00 01 : Première version du fichier CDA• 00 01 : un track : une chanson• 01 7C FD DA : numéro de série du CD dans le CDPLAYER.ini• 00 00 00 00 : début du track en format HSG :
time = minute * 4500 + second * 75 + frame• 00 00 72 C6 : longueur du track en format HSG :• 00 00 02 00 : début du track en format red-Book
(non utilisé- minute -seconde- Frame -) : 2 s, 0 trames • 00 06 1F 39 : longueur du track en format red-book : 6min, 31s (1F), 57 trames (39)
Début : 6min 32s, 39 trames Durée : 4min 45 s, 32 trames
52 49 46 46 24 00 00 00 43 44 44 41 66 6D 74 20 RIFF$...CDDAfmt 18 00 00 00 01 00 04 00 B8 24 F6 00 F7 11 01 00 .........$...... B4 5C 00 00 0A 25 0F 00 20 10 05 00 .\...%.. ...
01 00 - first version of CDA file :) 04 00 - fourth track B8 24 F6 00 - serial number of CD in CDPLAYER.INI is [F623B8]
F7 11 01 00 - begining of track in HSG format B4 5C 00 00 - length of track in HSG format
0A 25 0F 00 - begining of track in Red-Book format (15:37) 20 10 05 00 - length of track in Red-book format (05:16)
00h 02h CDA file version. Currently equals 1. If it has other value, following data may be out of date. 02h 02h Number o f track. 04h 04h CD disc serial number (the one stored in CDPLAYER.INI) 08h 04h Beginning of the track in HSG format. 0Ch 04h Length of the track in HSG format. 10h 04h Beginning of the track in Red- Book format. 14h 04h Length of the track in Red-Book format.
26
MPEG 1 Audio :
Courbe de sensibilité de l ’oreille humaine
Niveau (dB)
Fréquences
120
0
60
log
Seuil de perception
Zone audible
son S1son S2
MPEG 1 est fondé sur le standard MUSICAM (Masking Pattern Adapted Universal Subband Integrated Coding)
Débit sons numérisés : → 200 Ko/s (44100x2x16=172 Ko).
Signaux audibles ≈ 20 kHz → échantillonnage : F e = 44.1 kHz → quantification : 16 bits
Débit MPEG 1 → 192 Ko/s (2x96kbits/s)
Au dessous du seuil, les sons ne sont plus audibles
Niveau (dB)
Fréquences
120
0
60
log
Seuil de perception
Zone audible
son S1 son S2
Niveau (dB)
Fréquences
120
0
60
log
Seuil de perception
Zone audible
MPEG 1 Audio (suite) :
Le son S2 ne doit pas être prisen compte,même s ’il est audiblecar il est accompagné d ’un sonS1 plus fort.
La courbe de masquage varie enfonction du contenu spectrale.
MPEG 1 Audio (suite) :
Sous-bande 750 Hz
f
Fe/2=24 kHz
• Courbe de masquage dumodèle psycho-acoustiquedéterminée en temps réel.
32 sous-bandes
Niveau (dB)
Fréquences
120
0
60
log
modèle psycho-acoustique
• Quantification variable enfonction de la sensibilité dul ’oreille.
27
Compression MPEG audio
Chapitre 1 : Bruit et Filtrage
I. Rappels : Les processus aléatoiresII. Les BruitsIII. Notion de Rapport signal à bruitIV. Rappels sur les systèmes linéairesV. Moyennage et filtrageVI. Notion de filtrage adapté
Partie IChapitre 1,
Partie I,Chapitre 1,
I.1.
I. Rappels : Les processus aléatoires
t
Am
plitu
de
Ce sont des signaux, dont la valeur instantanée est imprévisible, et ilsne possèdent évidemment pas de représentations temporellesanalytiques.
• statistiques
• fréquentielles.
Ils peuvent toutefois être caractérisés par leurs propriétés :
Amplitude
Occurence
f
Am
plitu
de
I. 1 Introduction :
28
Partie I,Chapitre 1,
I.2.
I.2 Notion de Processus aléatoires :
Un processus stochastique peut être défini comme unefamille de fonctions à deux variables notées X(t,ζ), t étant le temps et ζdénote la nature aléatoire du processus.
ζ4
ζ3ζ2
ζ1
x1(t)
x2(t)
x3(t)
x4(t)
t1 t2 t
Univers de événements Histogrammes
ζ
X(t1) X(t2)
Variable
t
ζ
X(ti )=Xi
signal
t
ζ
x2(t)
Partie I,Chapitre 1,
I.3.I.3 La notion de statistique d ’ordre 1 :
Une seule variable est mis en jeu.On peut décrire ses propriétés à l ’aide :
• Fonction de répartition : ( )xXobtxF ii ≤= Pr);(
dxtxdF
txp ii
);();( =•Densité de probabilité :
[ ] ∫+∞
∞−
== iiiiix dxtxpxXEt ),()(µ•Moyenne statistique :
( )[ ] ∫+∞
∞−
−=−= iiiiiiix dxtxptxtXEt ),())(()()( 222 µµσ•Variance :
I.4 La notion de statistique d ’ordre 2 :
Deux variables sont mis en jeu.On peut décrire les propriétés qui les lient à l ’aide :
Partie I,Chapitre 1,
I.4.
• Fonction de répartition conjointe :( )22112121 ,Pr),;,( xXxXodttxxF ≤≤=
•Densité de probabilité conjointe :( )
21
21212121
,;,),;,(
xxttxxF
ttxxp∂∂
∂=
•Auto-corrélation : [ ])()(),( 2121 tXtXEttRxx =
•Auto-covariance : ( )( )[ ])()()()(),( 221121 ttXttXEttC xxxx µµ −−=
29
I.5. La notion de stationnarité :Partie I,Chapitre 1,
I.5.Définitions :• Un processus est dit Stationnaire au sens strict si toutes sespropriétés statistiques sont invariantes dans le temps.
• Un processus est dit Stationnaire du deuxième ordre si seulesses statistiques d ’ordres 1 et 2 sont invariantes dans le temps.
µ(t1)
σx2(ti)= σx
2
µ(t2)
µ(ti)= µ
σx2(t1) σx
2(t2)
p(x,t1) p(x,t2)
p(x,ti)=p( x)Quelques soit ti :
p(x1,x2;t1,t2)= p(x1 ,x2;τ)
Avec τ=t2-t1
Rx(t1 ,t2)=Rx(τ)Cx(t1,t2)=Cx(τ)
x1(t)
x2(t)
x3(t)
x4(t)
t1 t2 t
ζ
X(t1) X(t2)
I.6 La notion d ’Ergodicité :Partie I,Chapitre 1,
I.6.
x2(t)
x3(t)
x4(t)
t1 t2 t
ζ
X(t1) X(t2)
∫−
∞→=2/
2/
)(1
limT
TT dttx
Tx
∫−
∞→ −=2/
2/
)()(1lim)(T
T
Txx dttxtxT
R ττT
[ ] xXE µ= [ ])()()( ττ −= tXtXERxx
)()( ττ xxxx RR =
xx µ=Ergodicité :
I.7 La notion d ’Indépendance :Partie I,Chapitre 1,
I.7.
)()(),( ypxpyxp yxxy =
Deux processus aléatoires stationnaires X(t) et Y (t) sontindépendants si leur densité de probabilité conjointe est :
px(x) : densité de probabilité marginale
30
I.8 Densité spectrale de puissance (DSP) et DSP croisée :
Partie I,Chapitre 1,
I.8.
• Densité Spectrale de Puissance :
[ ]
∫∞+
∞−
−=
=
ττ
τ
τπ deRfS
RTFfS
jfxxxx
xxxx
2)()(
)()(
Théorème de Wiener-Khinchine :
)()()0( 2
ττσ
−==
xxxx
xxx
RRR )()( ττ xxxx CR =
Signaux centrés
Fonction d ’auto-corrélation[ ])()()( ττ −= tXtXERxx
Fonction d ’inter-corrélation
[ ])()()( ττ −= tYtXERxy
• Densité Spectrale de Puissance croisée :
[ ])()( τxyxy RTFfS =
II. Les bruits
I.1. Les différents types de bruit :
• Le bruit photoélectrique :
• Le bruit thermique :Ce bruit est dû à l ’agitation thermique des électrons dans lamatière.La puissance de ce bruit est donnée par :
Partie I,Chapitre 1,
I.1.
2kT
P thermiquebruit = k : constante de Boltzmann , T : est la température (degré K)
photons électronsconversion
Bruit proportionnel au flux optique+
Bruit quantique
Partie I,Chapitre 1,
II.2.II.2. Le Bruit Blanc
Il représente l ’archétype de beaucoup de phénomènes physiques.C ’est un processus stationnaire du second ordre centré et dont sadensité spectrale de puissance est une constante.
t
x(t)
N 0/2
0 t
- En pratique :
)(sin2
)( 0 BcBN
Rxx πττ =
t0
N 0/2
)(2
)( 0 τδτN
Rxx =
• Autocorrélation
- En théorie : )]()([)( ττ += txtxERxx
31
Partie I,Chapitre 1,
II.2.
2)( 0N
fS xx =
0f
N 0/2
Px= ∞
- En théorie :
0 B- B
- En pratique :
f
N0/2 Px= N0B
)(2
)( 0 fRectN
fS Bxx =
• Densité Spectrale de Puissance
)]([)( τxxxx RTFfS =
III. Notion de Rapport signal à bruit (RSB)Partie I,Chapitre 1,
III.
=
bruit
signal
dB PP
LogSNR 1010
2/2APsignal =2xbruitP σ=
Exemple : Sinusoïde bruitée par un bruit blanc :
=σ1
220 10
ALogSNRdB
bruit
signal
P
PSNRRSB ==
SNR :Signal to Noise Ratio
IV. Les systèmes linéaires (Filtrage)Partie I,Chapitre 1,
IV.1.
h(t) : réponse impulsionnelle
H(f) : fonction de transfert
H(f)=TF[h(t)]SLIT
x(t) y(t)
y(t)=x(t)*h(t)Y(f)=X(f).H(f)
SLIT : Système Linéaire Invariant par Translation
IV.1. Les systèmes linéaires invariants par translation
• Propriétés :
- la linéarité :
( ) ( ) ( ))(.)(.)(2.)(. 211 txhtxhtxtxh βαβα +=+
- l ’invariance par translation :
( ) ( )( ) ( )
−=−
=
)(
)(
ττ txhty
txhty
32
IV.2. Transmission sans distortion :Partie I,Chapitre 1,
IV.2.
=
−=− θπ
θfjefXKfY
txKty2).(.)(
)(.)(
t
Ax(t)
t1
t1+q t
KAx(t)
f
Spectred ’amplitude
X(f)
K.X(f)
Pente = -1/q
f
PhaselinéaireF(f)
Transmission sans distortion ssi :
x(t) y(t)filtre
Partie I,Chapitre 1,
IV.3. IV.3. Les formules de filtrage
)()()(2
fSfHfS xxyy =
• Signaux déterministes :
[ ])()( τxxyy RTFfS =
2)()( fXfSxx =
• Signaux aléatoires :
[ ])()( τxxyy RTFfS =
[ ])().()( * ττ += tXtXERxx
Partie I,Chapitre 1,
IV.4.
IV.4. Lien entre convolution et de filtrage
∫+∞
∞−
−= τττ dtyxtytx )()()(*)(
En optique :
Systèmeoptique Ampli.
En électronique :
La convolution représente l ’effet que produit l ’instrument sur la mesure.
• Propriétés :- commutativité
)(*)()(*)( txtytytx =
- élément neutre)()(*)( txttx =δ
- distributivité
[ ])(*)()(*)(
)()(*)(
21
21
tytxtytxtytytx
+=+
- décalage)()(*)( ττδ −=− txttx
- TF
[ ][ ] [ ])(.)(
)(*)(tyTFtxTF
tytxTF =
33
V. Moyennage et filtragePartie I,Chapitre 1,
V.
n
x(t)
T
0 T
y(0)
t-T t
y(t)
x(t) y(t)?
∫−
=t
Tt
duuxT
ty )(1)(
C ’est bien une opération de moyennage.
ô calcul de l ’aire contenue sous le signal x(t) durant T.
Chapitre 2 : Détection et Décision
I. Exemple hors contexteII. DémarcheIII. Critère de DétectionIV. Probabilité d ’erreurV. Détection d ’un signal binaire et test
d ’hypothèseVI. Exemples
Partie I
Dans un problème de prise optimale de décision, onveut à partir d ’une observation x(t) prendre unedécision ∆ concernant un paramètre caractéristique dusignal θ, et cela de manière optimale par rapport à uncritère donné, généralement construit à partir desinformations a priori et en satisfaisant des contrainteséventuelles.
Partie I,Chapitre 2
Observationx(t, θ)
CritèreJ(θ)
Résultat de la
décision
Décision∆
34
Vrainégatif
Fauxnégatif :
PND
Faux positif :
PFA
Vraipositif :
PD
Probabilité de fausse alarme (PFA)Probabilité de détection (PD)Probabilité de non-détection (PND)
H2
H2
H1
H1
sachant
diag
nost
ic I. Illustration hors contexte : la grippe
Partie I,Chapitre 2,
I.
Vrainégatif
Fauxnégatif :
P ND
Fauxpositif :
P FA
Vraipositif :
P D
Partie I,Chapitre 2,
I.H 2
H 2
H 1
H 1sachant
diag
nost
ic
Population grippée
Population saine
y
y
d
λ
λ H1H2
Erreur : f(PFA, PND)
λ
Population grippée
Population saine
y
d
Erreur nulle
y
Erreur trèsgrande
λ
Partie I,Chapitre 2,
I. Erreur : f(PND, PFA)
PND=0 PFA=0
35
II. La démarchePartie I,Chapitre 2,
II.
La démarche générale pour mettre en place une structuredécisionnelle est la suivante :
1) Bien poser le probléme (paramètres recherchés, information a priori).
2) Choisir un critère de décision.
3) Trouver la fonction de décision optimale si elle existe.
4) Chercher une solution sous-optimale si une solution optimalen ’existe pas.
III. Critère de DétectionPartie I,Chapitre 2,
III.
• Critère du Maximum de vraisemblance,
• Critère d ’erreur minimum,
• Critère de Neyman-Pearson,
• Critère de Bayes,
IV. Probabilité d ’erreurPartie I,Chapitre 2,
IV.
Il existe 4 situations possibles dans un problème de détection :
Probabilité de fausse alarme (PFA)Probabilité de détection (PD)Probabilité de non-détection (PND)
Vrainégatif
Fauxnégatif :
PND
Faux positif :
PFA
H0
H0
H1
H1
sachant
Prob
. de
Déc
ider
Vraipositif :
PD
Définition :Rigoureusement, la probabilité d ’erreur est définie par la somme dela probabilité de fausse alarme et la probabilité de non-détectionpondérée respectivement par les probabilités a priori (p0 et p1 ).
Pe = p0 PFA + p1 PND
36
Partie I,Chapitre 2,
V.1.
V. Détection d ’un signal binaire et test d ’hypothèse
+
n(t)
s(t) r(t)
→→
=0)(1)(
)(2
1
bittsbitts
tsi
2,1)()()( =+= ipourtntstr i
V.1. Introduction :
s1 = 1
s2 =0
r(t)
Partie I,Chapitre 2,
V.1 La détection s ’effectue en deux phases :
2,1=+= ipourbay i
λ
1
2
H
H
y>
<
+
n(t)
s(t) r(t)
1
0décisionComparateur
à seuil
0
1
y(T)=ai(T)+b(T)y(t)
y(T)h(t)
filtre
récepteur
a2
a1
H1 ô s1 (ici bit 1) a été envoyé
H2 ô s2 (ici bit 0) a été envoyé
V.2. Probabilité d ’erreur :Partie I,
Chapitre 2,V.2
( ) ( ) ( ) ( )221112 sPsHPsPsHPPe +=
H 1
H 2
y
|y-s|
s1 s1s1
s2 s2
P(s2 )=35%
P(s1 )=65%
( ) ( )( )2/1)()(
21
21
2112
==
+=
sPsPsi
sHPsHPPe