ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et...

50
ECOLE DES MINES DOUAI _____________________ DESAINDES (Rémi) GLIKMAN (Fabrice) ETUDE BIBLIOGRAPHIQUE Promotion 2014 Année scolaire 2010 - 2011 LA TELEVISION : DE L’ANALOGIQUE AU NUMERIQUE (THE TRANSITION BETWEEN THE ANALOG SIGNAL AND THE DIGITAL SIGNAL IN TELEVISION)

Transcript of ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et...

Page 1: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

ECOLE DES MINES DOUAI

_____________________

DESAINDES (Rémi)GLIKMAN (Fabrice)

ETUDE BIBLIOGRAPHIQUE

Promotion 2014 Année scolaire 2010 - 2011

LA TELEVISION : DE L’ANALOGIQUE AU NUMERIQUE(THE TRANSITION BETWEEN THE ANALOG SIGNAL AND THE DIGITAL

SIGNAL IN TELEVISION)

Page 2: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 2

Page 3: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 3

REMERCIEMENTS:

Nous tenons à remercier M. Philippe DESODT qui a été le parrain de notre Étude Bibliographique. Il nous a toujours guidé avec ses bons conseils.

Par ailleurs nous remercions M. Gilles LEBOZEC pour nous avoir fait partager son expérience. Il nous a permis de mettre un peu de concret dans notre étude.

Page 4: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 4

Page 5: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 5

Table des matières

Remerciements......................................................................................................................3RESUME ..............................................................................................................................8ABSTRACT..........................................................................................................................10Introduction..........................................................................................................................12Développement....................................................................................................................14 II. La transition entre l'analogique et le numérique............................................................14

I.L'analogique [1]..............................................................................................................14 Généralité sur la télévision analogique...............................................................................15Le Tube Cathodique.............................................................................................................15L'échelle des gris.................................................................................................................16Syncro ligne et syncro trame...............................................................................................17Télévision en couleur...........................................................................................................18Quelques principes de colorimétrie.....................................................................................18Chrominance et luminance..................................................................................................19 II. La transition entre l'analogique et le numérique............................................................22

II.Le numérique [5]...........................................................................................................221) Compression des signaux...............................................................................................22 a) Principes généraux de codage.......................................................................................22 ........................................................................................................................................22................................................................................................................................................................................................................................................................................b) Le MPEG.............................................................................................................................................23............................................................................................................................................................................................................................................................c) La compression audio.............................................................................................................................................242) Transmission des signaux et multiplexage......................................................................26 a) Le multiplexage........................................................................................................26 b) L’embrouillage..........................................................................................................29 c) Correction d’erreurs..................................................................................................303) 3) Réception de la télévision numérique.........................................................................31

III De l'analogique au numérique.....................................................................................36 II. La transition entre l'analogique et le numérique............................................................36

1)La diffusion [8]..........................................................................................................36Les organismes en charge de la radiodiffusion...................................................................36

2)Avantages et inconvénients du passage au numérique :........................................39 a) Qualité du signal..........................................................................................................39 b) Avantages liés au multiplexage..................................................................................40Organisation du passage de l’analogique au numérique :..................................................42

3)Organisation du passage de l’analogique au numérique : [15]...............................42 a) Tous au numérique !......................................................................................................42 b) Le matériel utile au numérique :..................................................................................44 III. La transition entre l'analogique et le numérique...........................................................44

.........................................................................................................................................44................................................................................................................................Conclusion.............................................................................................................................................47BIBLIOGRAPHIE.................................................................................................................49Annexe.................................................................................................................................53Entrevue avec Gilles Lebozec.............................................................................................53

Page 6: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 6

Page 7: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 7

RESUME

_____________________

Cette étude a pour objectif de donner au lecteur les fondamentaux afin de comprendre les enjeux du passage de la télévision analogique à la télévision numérique.

Un téléviseur classique Noir et Blanc est constitué notamment d’un tube cathodique. Ce composant a des caractéristiques de fonctionnement fortement liées aux émissions vidéo de type analogique. Pour éviter d'accumuler des dysfonctionnements on applique un dispositif de synchronisation des lignes et trames. De son côté, la télévision en couleurs est une application d'un certain nombre de principes de colorimétrie qui se déclinent en notions de chrominance et de luminance.

Le numérique, au contraire, se définit comme une série de chiffres en langage binaire. Il permet d'analyser plus facilement les données à transmettre et donc par un système d'algorithmes de compresser la quantité d'informations à faire transiter. C'est la compression. De plus, contrairement à l'analogique, on peut également faire circuler plusieurs données disjointes sur une même fréquence: c'est le multiplexage. La réception du signal par l’utilisateur passe par une succession d’étapes inverses de celles effectuées lors de l’émission afin de pouvoir lire la vidéo.

Cependant cette évolution s'est faite de manière réfléchie. Le passage n'a pas entraîné une refonte complète du schéma de diffusion de la vidéo sur le territoire français. On continue d’émettre des informations via une transmission hertzienne. Ensuite est réalisé un comparatif entre les avantages et les défauts des deux systèmes de codage. Par ailleurs, l'état a orchestré cette période de transition par l'intermédiaire du programme « Tous au numérique ».

MOTS MATIERES:

− Télévision− Analogique− Numérique− Diffusion− Vidéo− TNT (Télévision numérique terrestre)

Page 8: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 8

Page 9: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 9

ABSTRACT

____________

This study aims at giving to the reader the fundamentals to understand what is happening now with the end of broadcasting of TV Analog signal.

A Cathode Ray Tube is one of the Black and White TVs' components. This element

has a few particularities which are strongly linked with Analog video emissions. There is a specific method to avoid important phase differences, the use of a Vertical and horizontal synchronization. To add colours in the broadcasting, we have to use some Colorimetry theories which means an use of chrominance and luma signal data in a transmission.

Digital signal is composed by binary numbers. As a result, they can be easily studied. Besides, you can reduce the number of pieces of information you have to send with algorithms. It is called Compression. With a digital signal, you can furthermore broadcast different pieces of information with no links on the same channel: This is called Multiplexing. When you receive the signal, there is the reversed process compared to when it was sent.

However this evolution from analog signal to digital signal is a plan which needed a lot of studies. The way the data are broadcast has not been totally changed. We are still using Radio waves. Moreover, analog and digital signals are quite different, and have to be compared to each other. Besides the French government has organized this transition from analog signal to digital signal with a special program and a awareness campaign : 'Tous au numérique'.

KEYWORDS:

− Television− Analog signal− Digital signal− Broadcast− Video− DTTV (Digital Terrestrial Television)

Page 10: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 10

Page 11: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 11

Introduction [4]

Depuis son début dans les années 30 et jusqu'à aujourd'hui, le monde de la télévision a beaucoup évolué et ce à de nombreux niveaux. La télévision en couleurs a par exemple complètement supplantée la télévision en noir et blanc à partir de 1962.

Or, la seconde moitié du XXème siècle vit l'apparition d'une invention qui changea complètement le traitement de données: l'ordinateur. Le premier calculateur entièrement électronique ENIAC (pour Electronic Numerical Integrator and Computer), a été construit en 1946 par John Presper Eckert et John Mauchly.

Figure 0.1 : ENIAC [wikipedia]

Avec le monde de la télévision, comme il est sans cesse question de communication, les différents pays essayent le plus possible de suivre les mêmes normes. Par exemple, la majorité des pays européens (sauf la France) adoptèrent en 1948 un standard à 625 lignes. Au niveau mondial, c'est le rôle de l'union internationale des télécommunications (UIT) de normaliser tout ce qui a trait à la diffusion et notamment à la télévision.

Ainsi, aujourd'hui, on assiste à un nouveau grand changement. La numérisation de toutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc en suivant cette tendance que le gouvernement français a décidé en 2001 de diffuser la télévision uniquement sous forme numérisée. Des mesures concrètes ont été prises, ce qui a conduit en 2005 à l'apparition de la TNT. Avec cette nouvelle offre, le nombre de chaînes consultables augmente (des 6 premières chaînes historiques, on passe à 18 chaînes en 2011). [15]

Mais pourquoi tout convertir au numérique ? Quels avantages peut bien avoir ce système par rapport au précédent, l'analogique? C'était pourtant le moyen de diffusion par excellence des images à l'échelle mondiale.

En fait, depuis maintenant une dizaine d'années, on peut voir de nombreuses différences dans la vie de tous les jours. Ainsi, les téléviseurs sont de plus en plus fins (quelques centimètres pour les écrans plats contre plusieurs dizaines pour une TV avec écran cathodique). On assiste également à une augmentation de la quantité d'informations reçues par jour (par téléphone, télévision ou internet). Ceci est une des conséquences de cette numérisation de l'information.

Sur la page suivante sont rappelées les grandes dates de la télévision !

Page 12: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 12

Figure 0.2 : l'évolution de la télévision en fonction du temps

Page 13: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 13

Développement

I. L'analogique [1]

La télévision radiodiffusée a débuté, à grande échelle, à la fin des années 30, grâce au perfectionnement de la technique de l'époque. De son côté, la télévision en couleurs, née aux États-Unis vers 1953, n'est arrivée en Europe seulement vers 1966 avec deux systèmes P.A.L. et Secam.

Figure 1.1 : téléviseur noir et blanc [10]

La période de l’analogique a vraiment été l'âge d'or des télévisions à tube cathodique. Cependant, il faut savoir que les tubes cathodiques n'ont pas une réponse linéaire aux signaux électriques qu'ils reçoivent. C'est particulièrement visible au niveau des couleurs. Pour éviter cela, les informations transmises aux tubes cathodiques sont « corrigées en gamma». Nous avons choisi de ne pas en parler car il s'agit d'un paramètre propre aux tubes cathodiques et ne permettra pas d'effectuer de comparaison avec le numérique.

Il faut noter que la durée de vie du tube cathodique est de 13,7 ans si l'écran reste allumé 5 heures par jour. Mais notre époque marque le déclin de ces tubes. Même dans les radars et dans les oscilloscopes ils sont en cours d’abandon, évincés par les écrans plats (épaisseur de quelques centimètres).

Définition de l'analogique :Le terme analogique qualifie des grandeurs physiques variant de façon continue ou

des données représentées sous forme continue, ainsi que les processus et les unités fonctionnelles qui utilisent ces données. [2]

Page 14: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 14

1) Généralité sur la télévision analogique

L'exemple le plus simple pour aborder le sujet de la diffusion d'images est la télévision en noir et blanc. Cela nous permettra d'introduire des notions fondamentales dont le principe a fortement influencé les standards actuels.

Comment crée-t-on une image?

a) Le Tube Cathodique [3]

La solution technique qui avait été retenue est l'utilisation d'un tube cathodique.

L'idée de fonctionnement est simple, les électrons sont émis par une cathode. La différence de tension entre la cathode et la grille 1 détermine la quantité d'électrons produits. La grille 2 concentre électrostatistiquement le faisceau et l'accélère. Une électrode supplémentaire assure une focalisation dynamique en homogénéisant la taille du spot sur toute la surface de l’écran.

Figure 1.2 : schéma du tube cathodique [3]

Le faisceau arrive alors sur l'écran phosphorescent situé au font du tube cathodique, qui selon la puissance du faisceau produira un point plus ou moins clair.

On appelle ce faisceau le spot. Pour produire une image, le spot doit se déplacer pour traverser tout l'écran. Une image n'est rien d'autre qu'une succession de points les uns à la suite des autres. De nos jours, à l'époque du numérique, on appelle ces points des pixels (contraction de Picture Element, il s’agit du plus petit élément d'une surface d'affichage).

Pour éviter que l'œil ne remarque trop que l'image reproduite est artificielle, il faut transmettre suffisamment de points et par un procédé qui ne soit pas trop grossier !

Page 15: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 15

Parmi plusieurs méthodes possibles, on a choisit de faire un balayage entrelacé de l'image en fonctionnant par ligne et par trame. Théoriquement, il faudrait une infinité de ligne pour obtenir une image parfaite, mais les moyens techniques mis en place ne sont pas parfaits. Ainsi, en Europe, un très bon exemple était la norme « 625 lignes », adoptée par presque tous les autres pays européens dès 1948, alors que la France ne l'officialisa définitivement qu'en 1983.

Il est important d'avoir les idées claires :- une ligne est formée par le déplacement du spot de gauche à droite sur une

longueur.- une image est composée de deux trames entrecroisées : la trame paire et celle

impaire.

Figure 1.3 : Trame impaire (lignes 1, 3, 5, ...)

Figure 1.4 : Trame paire (lignes 2, 4, 6, ...)

Figure 1.5 : l’image finale

Maintenant qu'on sait comment est décrite une image, quel est le procédé utilisé pour la transmettre?

b) L'échelle des gris

Pour transmettre une information, il faut la coder, c'est-à-dire utiliser un langage utilisable de l'émetteur initial (la chaîne de télévision) au receveur final (la télévision chez un particulier). A l'époque de la télévision en Noir et Blanc, on a créé une échelle de référence: l'échelle des gris. Celle-ci est composée de plusieurs teintes.

Figure 1.6 : L'échelle des Gris

Page 16: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 16

Pour reproduire une image sur l'écran du destinataire final on utilise un procédé physique. Plus la différence de potentiel (la tension) qui s'exerce entre la cathode et la grille 1 du tube cathodique est grande et plus les points de l'écran phosphorescent seront proches du blanc.

Donc une image analogique s'assimile à une variation de courant. Par ailleurs on a fixé des valeurs de référence. Par exemple, le temps pris par le tube cathodique pour décrire une ligne est fixé à 52μs. L'évolution du courant en fonction du temps représente donc l'évolution de l'intensité du gris des points d'une ligne.

Ainsi pour obtenir sur l'écran le résultat suivant,

Figure 1.07 exemple d’écran

il faut envoyer le signal ci contre :

Figure 1.08 signal électrique

Cependant on comprend aisément qu'il faut asservir le signal émis au tube cathodique. En effet le moindre décalage entre les deux, déformera l'image produite sur l'écran.

c) La synchro ligne et synchro trame

Même si théoriquement le temps de balayage d'une ligne devrait être constant, il n'en est rien, des interférences surgissent forcément. De plus le signal transmis est un courant, et physiquement dans un système aussi complexe qu'un téléviseur, on ne peut envoyer que des courants continus. Le signal de la figure 1.08 est donc impossible à avoir tel quel.

Ainsi, pour conserver une bonne synchronisation, on a mit en place un signal de démarrage et on a fixé précisément quelques paramètres.

Les tensions correspondant aux couleurs ont été définies, mais on fixe aussi une tension minimale, la limite du noir, en dessous de laquelle le tube cathodique n'émet aucune lumière sur l'écran. C'est la zone de Blanking (ou niveau de suppression).

En effet, au cours de la description de l'image par le tube, après avoir parcouru une ligne, il faut que le tube revienne au début de la ligne suivante. Il ne faut pas qu'un faisceau soit émis, car il éclaircirait l'image.

Figure 1.09: Illustration du Blanking [1]

Page 17: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 17

On a défini précisément la durée de parcours d'une ligne par le tube à 52μs. Les paliers avant et après les émissions des tensions sont dus au blocage du tube, assortis de marges de sécurité. Donc on fixe à 64μs la durée totale de parcours. On comprend que les creux dans le signal correspondent au changement de ligne. Chaque creux est appelé top de synchronisation de la ligne. Pour faciliter l'expression on les appelle top lignes. Ainsi même avec des perturbations, le signal peut être facilement interprété comme étant la somme des définitions des lignes.

De la même manière qu'on a défini la synchro ligne, on a réalisé une synchro trame. Il est à noter que pendant la durée du retour trame, une durée de parcours correspondant à 30 lignes est perdue. Le top trame nécessite lui aussi l'introduction d’un palier, celui-ci a un Blanking d'une durée équivalente à 2,5 lignes.

2) Télévision en couleurs [4]

Passer de l'émission d'images en Noir et Blanc aux images en couleurs est une révolution apparue en 1951 aux États-Unis. Cependant, il y a toujours un temps entre la mise en place d'une nouvelle technique et l'équipement par les différents foyers du matériel nécessaire à sa réception. Aussi, la première exigence des nouvelles émissions en couleurs était que les anciens récepteurs puissent toujours montrer des images en noir et blanc à partir des nouveaux signaux sans de trop grandes perturbations. De même, les téléviseurs couleurs doivent pouvoir recevoir en noir et blanc les émissions en noir et blanc. Pour satisfaire ces deux principes, les transmissions en couleurs séparent donc le codage de l'image en 2 parties (luminance et chrominance).

Mais tout d'abord, intéressons aux principes élémentaires en matière de couleurs.

a) Quelques principes de colorimétrie [3]

Figure 1.10 : gamme des couleurs [4]

Tout d'abord, il faut remarquer qu’il existe deux systèmes d'application des couleurs. Le peintre joue avec des couleurs soustractives, dans ce système du jaune et du bleu forment du vert. Cependant par la suite nous ne traiterons que des couleurs additives, car ce sont elles qui interviennent lors des émissions de lumière, donc dans le cas de la télévision.

Après plusieurs études menées, on s'est aperçu que toutes les couleurs qui nous entourent sont en fait formées à partir de 3 couleurs fondamentales ou couleurs de base:

Page 18: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 18

− le Rouge, longueur d'onde 700,0nm (Red en anglais)

− le Vert de longueur d'onde 546,1nm (Green)

− le Bleu, 435,8 nm (Blue),

Figure 1.11 : représentation des combinaisons de couleurs [3]

Le blanc est formé de l'addition de ces 3 couleurs alors que le noir est au contraire l'absence de couleur.

Ainsi pour former des images en couleurs il faut connaître parfaitement leur décomposition dans les trois couleurs de base. On parle alors de triplet (R, G, B).

Par exemple: le jaune(R=0.5, G=0.50, B=0)

b) Chrominance et luminance

On définit deux paramètres pour définir une couleur :

− la luminance permettant de quantifier la luminosité. Elle est définie par la quantité totale d'énergie du spectre de la couleur, elle décroît de 1 pour le blanc à 0 pour le noir.

− la chrominance désigne la partie de l'image vidéo définissant la nature de la couleur (jaune, vert, rouge…), elle est liée à la longueur d'onde dominante.

On peut avoir deux fois la même nature de couleur avec des composantes trichromatiques R, G et B différentes à cause de leur luminosité. La CIE (CommissionInternationale de l'Eclairage) a décidé, en 1931, de normaliser le mode de description des couleurs par rapport à la luminosité (Y) qui a été fixée à une valeur constante.

Y=0,30R + 0,59G + 0,11B

Les composantes ainsi obtenues sont appelées coordonnées trichromatiques, coordonnées réduites ou encore composantes normalisées. Elles sont notées rC, gC et bC

et sont définies par :

(L’indice « C » est utilisé en référence à la CIE)

Page 19: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 19

Comme rC + gC + bC = 1, deux composantes suffisent à représenter la chrominance d’une couleur. Cela permet également de diminuer la quantité d'informations à transmettre. Afin de les distinguer, les deux composantes de chrominance sont respectivement notées Chr1 et Chr2. Les systèmes luminance-chrominance sont ainsi notés (L, Chr1, Chr2).

Ainsi pour avoir de la couleur, chaque point lumineux d’un écran couleur est formé des émissions de trois canons à électrons. Chaque canon n'émet qu'une seule couleur (bleu, rouge ou vert). L'intensité d’émission est définie dans les informations reçues par l’appareil (cf figure 1.12).

Figure 1.12 : schéma de principe de la télévision couleur

Page 20: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 20

Page 21: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 21

II. Le numérique [5]

Le numérique est apparu au début des années quatre-vingt-dix. Il est depuis au centre de tous les regards comme étant le remplaçant de l’analogique. Mais quelles sont donc ses caractéristiques ?

Définition du numérique : « Le numérique qualifie une représentation de l'information par un nombre fini

de valeurs discrètes. » (Futura Science) (Une valeur discrète est une variable qui ne peut prendre des valeurs que dans un ensemble d’éléments, ici {0 ;1})

« Une information numérique est une information ayant été quantifiée et échantillonnée. » (Wikipedia)

1) Compression des signaux

Le numérique a de nombreux avantages sur l’analogique que nous détaillerons dans la troisième partie de ce rapport. En revanche, il nécessite un débit très important pour une même quantité de données (5 à 6 fois plus important que pour l’analogique). La transmission d’informations numérisées ne peut donc se faire ainsi. Cet inconvénient est l’un des motifs qui a retardé l’apparition de la télévision numérique en raison de la complexité et du coût de sa résolution. Les informations numérisées doivent être compressées. En effet cela permet de diminuer leur taille et donc le débit utile sans toutefois perdre trop d’informations.

a) Principes généraux de codage

D’une manière générale, plusieurs codages permettant la compression des signaux ont été créés. Ils se basent sur la nature des éléments ou bien sur leur fréquence d’apparition. Par exemple, le codage RLC (Run Length Coding) permet d’éviter la répétition de suites assez longues d’éléments identiques en codant, non pas le message entier, mais la suite, ainsi que son nombre de répétitions. Ce codage ne perd pas d’information : il est dit réversible. On le trouve par exemple dans la compression de fichiers ZIP.

Pour en améliorer l’efficacité, ce type de codage peut être associé à un codage à longueur variable (VLC, Variable Length Coding). La probabilité d’apparition d’un élément codé sur n bits (un bit est un chiffre binaire, c'est-à-dire 0 ou 1) n’est pas nécessairement la même pour tous. Le codage VLC se base sur cette propriété. Il code sur plus de bits les éléments peu fréquents et sur moins de bits les plus fréquents. Par exemple, prenons le cas de la fréquence d’apparition des lettres dans la langue française. Le « e » et le « a » apparaissent très souvent contrairement au « w », et bien, avec ce codage, les deux premières lettres seront codées sur peu de bits contrairement au « w ». Ce codage est également réversible.

Voyons maintenant le codage vidéo.

Page 22: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 22

b) Le MPEG

D’autres types de compression existent. La compression JPEG (Joint Photographic Experts Group) par exemple est une norme de codage s’appliquant aux images. Elle peut être réversible mais dans la majorité des cas elle ne l’est pas. La compression avec perte permet un meilleur rendement. Elle se base sur les capacités visuelles de l’homme. En effet celui-ci est peu sensible aux détails fins mais est au contraire extrêmement sensible à de faibles différences de luminance (luminance = intensité lumineuse divisée par la surface apparente). On diminue ainsi la qualité de l’image sans que cette diminution ne soit visible.

Un groupe d’expert, dénommé MPEG (Moving Pictures Experts Group), est fondé en 1990. Ce groupe crée plusieurs normes sur la compression vidéo. La norme MPEG-1 est l’une d’elle, elle se divise en 3 sous-ensembles :

- MPEG System (ISO/IEC 11172-1) : définit la structure du multiplex MPEG-1. (Il sera développé dans la seconde sous-partie.)- MPEG Video (ISO/IEC 11172-2) : définit le codage vidéo MPEG-1- MPEG Audio (ISO/IEC 11172-3) : définit le codage audio MPEG-1

Une vidéo est une succession d’images. La norme MPEG-1 code chacune de ces images de manière différente afin de pouvoir compresser l’ensemble de la vidéo. Trois types d’images peuvent être repérés :

- Les images I (Intra) sont codées de la même manière qu’en JPEG.- Les images P (Prédites) sont codées par rapport à l’image de type I ou P qui les précède. Le taux de compression de ces images est plus élevé que celui des images I car, étant codées à partir de ces dernières, seules les différences sont indiquées. Cette technique se nomme prédiction avec compensation de mouvement.- Les images B (Bidirectionnelles) sont codées à partir des images I ou P les encadrant. Le taux de compression de ces images est encore plus fort que pour les P. En effet, elles sont codées à partir de 2 images très proches dans le temps, la différence au niveau des pixels entre ces images n’est pas très élevée, donc le codage de ces différences sera peu important.

Cette méthode n’est cependant pas infaillible. Si une erreur apparait dans le codage d’une image I ou P, elle se retrouvera dans les images découlant de ce codage.

Deux paramètres peuvent influer sur l’efficacité de ce codage : le nombre d’images N séparant les images I et le nombre d’images M séparant les P.

Figure 2.1 : Exemple de groupe d’images avec M = 3 et N = 12 [5]

Page 23: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 23

Si cette technique permet une compression importante, le temps de décompression est toutefois augmenté. En effet, le décodeur ayant besoin des images I ou P pour pouvoir décoder la majorité des images doit pouvoir les recevoir en priorité. Elles ne sont donc pas envoyées dans leur ordre d’apparition à l’écran. Le décodeur doit pouvoir conserver en mémoire ces images.

La norme MPEG-2 reprend les principes généraux de MPEG-1. Elle se divise également en 3 sous-ensembles :

- MPEG-2 System (ISO/IEC 13818-1)- MPEG-2 Video (ISO/IEC 13818-2)- MPEG-2 Audio (ISO/IEC 13818-3)

Elle comporte plusieurs profils et niveaux qui influent sur la qualité de la compression et sur la résolution de la vidéo. Les niveaux jouent sur la résolution : le niveau haut correspond à la TVHD alors que le plus faible correspond à la résolution utilisée en MPEG-1. Les profils jouent sur le taux de compression et en même temps sur la complexité des codeurs et des décodeurs : le profil simple par exemple, en n’utilisant pas les images de type B, permet la simplification des décodeurs qui n’ont plus la nécessité d’enregistrer des images pour permettre le décodage. En général, le profil utilisé permet l’utilisation des 3 types d’images (I, P et B). Pour la TVHD on utilise les niveaux et profils les plus hauts.

MPEG-2 est un moyen de compression très utilisé pour le numérique. MPEG-1 n’est plus utilisé car tous ses outils sont repris dans MPEG-2.

Une autre norme MPEG, la norme MPEG-4 AVC, est aussi très utilisée. Elle permet un taux de compression 50% supérieur à celui obtenu avec MPEG-2 et se base sur les mêmes principes avec quelques améliorations. Elle est ainsi utilisée pour la TVHD et aussi pour d’autres chaînes numériques. [19]

Voyons maintenant le cas de la compression audio.

c) La compression audio [6]

Les normes MPEG-1 et 2 permettent aussi le codage audio. Les caractéristiques de l’audition humaine sont utilisées afin de compresser les signaux audio. En effet, l’homme présente un seuil d’audibilité au dessous duquel il ne perçoit plus les sons. De plus, il est très sensible aux fréquences sonores entre 1 et 5 kHz.

Page 24: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 24

Figure 2.2 : Sensibilité de l’oreille humaine en fonction de la fréquence [6]

Par ailleurs, un signal sonore de forte intensité fait remonter le seuil d’audibilité à son niveau. Les signaux plus faibles qui se trouvent habituellement au dessus du seuil normal d’audibilité sont alors moins bien perçus. Il s’agit du masquage fréquentiel. Un autre effet nommé masquage temporel se fait également sentir : les sons faibles précédant et suivant immédiatement un son fort ne sont pas non plus perçus.

Figure 2.3 : Masquage temporel [6]

Figure 2.4 : Masquage fréquentiel (le signal A normalement audible est masqué par le signal B)[5]

Page 25: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 25

Un modèle, nommé modèle psycho-acoustique, a été mis au point, il permet de déterminer les fréquences sonores susceptibles de masquer d’autres fréquences plus faibles. Afin de compresser le signal audio, la bande passante est divisée en 32 sous-bandes de largeur égale. Dans chacune de ces sous-bandes les sons de fréquence inférieure au seuil du modèle pseudo-acoustique sont supprimés. Cela permet de limiter les éléments à coder et donc de réduire la taille des signaux audio.

Nous venons de voir les procédés de compression, intéressons nous maintenant à la transmission.

2) Transmission des signaux et multiplexage [7]

a) Le multiplexage

La transmission des signaux après leur sortie des codeurs audio et vidéo ne se fait pas telle quelle. Les signaux sont regroupés sous forme de trains élémentaires de données qui sont eux-mêmes combinés de manière ordonnée avec diverses données utiles lors du décodage, comme, par exemple, des informations permettant la séparation des données ou bien la synchronisation du son et de l’image. Ce rassemblement a pour but la transmission sur une seule voie de transmission de plusieurs signaux assemblés en un seul : c’est le multiplexage.

Toutes les règles et les contraintes définissant ces trains élémentaires sont établies dans la norme ISO/IEC 11172 (MPEG1). Le procédé de constitution d’une couche système qui réunit en un seul train les données audio, vidéo et privées y est décrit. Le codage MPEG-1 « système » permet ainsi le codage de ces données ainsi que leur multiplexage.

On peut également regarder plus précisément la composition de ces trains. Ceux-ci sont composés de plusieurs paquets qui constituent un Packetized Elementary Stream (PES). Les paquets se divisent en deux grosses parties : l’en-tête qui contient les informations permettant le décodage (il indique par exemple si ce sont des données vidéo, audio ou privées) et les données.

Dans un même train, ces paquets sont aussi regroupés sous forme de packs dont l’en-tête apporte les informations de débit et de synchronisation temporelle.

Cependant le décodeur n’a pas besoin d’analyser chacun des ses packs pour déterminer le type de chacun d’eux. En effet, pour chaque train MPEG-1, le premier pack comporte un en-tête système dans lequel sont codés des informations relatives au train entier. L’ensemble des trains élémentaires audio ou vidéo compris dans ce train MPEG-1 y est répertorié par exemple, ainsi que le débit maximal.

Page 26: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 26

Le multiplex (« dispositif permettant la diffusion d'émissions de plusieurs studios différents sur un seul canal de communication » (Linternaute)) MPEG-2 est semblable au multiplex MPEG-1 au niveau de l’organisation en trains. Une grande différence existe cependant : deux types de trains aux caractéristiques différentes peuvent être formés en MPEG-2. Il s’agit :

- Du train programme (Program Stream) : un ou plusieurs PES partageant la même horloge de référence constituent ce type de train dans le but d’applications de stockage ou de transmission n’engendrant que très peu d’erreurs (ex : CD-ROM, disque dur, DVD). Les paquets de ce train peuvent donc être assez longs (2048 octets (un octet est une unité de mesure en informatique valant 8 bits)) car le nombre d’erreurs introduites est faible.

- Du train transport (Transport Stream) : les PES formant ce train n’ont pas nécessairement la même horloge système sauf s’ils constituent le même programme. Le train transport a pour but de transporter des programmes TV sur de longues distances, la création d’erreurs est beaucoup plus importante que pour le train programme, de ce fait la longueur des paquets est fixé à 188 octets pour limiter ces erreurs. Ces paquets de 188 octets se composent d’un en-tête de 4 octets comportant les informations pour le décodage et en général de 184 octets dédiés aux données. Un PES doit débuter au début d’un paquet transport et finir à la fin d’un des ces paquets. Il doit donc être divisé en morceaux de 184 octets. Cependant si le nombre d’octets le composant n’est pas divisible par 184 alors le dernier paquet transport devra comporter après l’en-tête un champ d’adaptation de longueur égale au nombre d’octets nécessaires pour atteindre 184. Ce champ contient des informations temporelles.

Figure 2.5 : Constitution du paquet transport [5]

Page 27: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 27

Figure 2.6 : Schéma conceptuel de la génération des trains programme et transport MPEG-2 [5]

b) L’embrouillage

Pour certaines chaînes, les données peuvent être embrouillées afin de limiter l’accès aux abonnés. La norme DVB (Digital Video Broadcasting), qui concerne le numérique, prévoit le transport de données d’accès conditionnel mais elle ne définit cependant pas ce dernier. En effet les opérateurs souhaitent posséder leur propre accès conditionnel pour pouvoir contrôler leurs abonnés et limiter les piratages. Cette norme établit aussi un algorithme commun d’embrouillage (Common Scrambling Algorithm) qui a été conçu pour résister aux pirates.

Page 28: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 28

Cet algorithme se base sur un chiffrement à 2 couches indépendantes qui compensent mutuellement leurs faiblesses :

- Une couche bloc de 8 octets- Une couche train qui génère des octets pseudo-aléatoirementDeux mots de contrôle de 64 bits pair et impair sont utilisés. Ils sont transmis toutes

les 2 secondes et lorsqu’un est crypté l’autre est utilisé. Un mot de contrôle par défaut existe également pour les programmes à accès libre.

Cet embrouillage peut être effectué à deux niveaux différents : soit il a lieu au niveau des PES et dans ce cas l’en-tête de chaque PES contient les informations concernant un éventuel embrouillage ainsi que le mot de contrôle (cet embrouillage a alors lieu avant le multiplexage), soit il a lieu au niveau du transport, les informations concernant un éventuel embrouillage et le mot de contrôle sont alors stockées dans l’en-tête des paquets transports (l’embrouillage a lieu dans ce cas après le multiplexage des PES).

Tableau 2.1 : Signification des bits correspond à l’embrouillage [5]

Bits correspondant à l’embrouillage

Signification

00 Pas d’embrouillage01 Embrouillage avec mot de contrôle par défaut10 Embrouillage avec mot de contrôle pair11 Embrouillage avec mot de contrôle impair

Pour éviter qu’un utilisateur n’ait chez lui plusieurs décodeurs après avoir souscrit un abonnement chez des opérateurs n’utilisant pas le même système d’accès conditionnel, deux options ont été prévues :

- Simulcrypt : plusieurs systèmes d’accès conditionnel différents permettent l’accès à une même émission (cela nécessite des accords entre les réseaux). L’en-tête des paquets transports doit alors comporter les informations concernant l’ensemble de ces systèmes d’accès conditionnel.

- Multicrypt : une carte au format PCMCIA (Personal Computer Memory Card International Association) est utilisée pour chaque système d’accès conditionnel nécessaire. Elle est insérée dans le décodeur (qui peut comporter plusieurs slots PCMCIA) et peut ainsi échanger des données avec lui.

c) Correction d’erreurs

Lors du transport des données, la création d’erreurs (bruit, interférences, écho,…) est assez importante. Or un signal numérique doit avoir un taux d’erreur très faible (environ une erreur par heure pour un débit de 30Mb/s) pour être de bonne qualité. S’il vérifie cette condition, le canal sera dit « quasi sans erreur ».

La détermination et la correction de ces erreurs doivent donc avoir lieu afin de permettre une bonne réception. Le codage de canal regroupe les diverses méthodes utilisées. La principale de ces mesures diminue l’efficacité de la compression, en effet elle réintroduit une redondance dans le signal, ce qui permet d’éviter la perte d’information : si un élément est codé en plusieurs exemplaires, il y a de fortes chances pour que l’un d’eux soit réceptionné intact.

Le codage convolutif, qui est un codage interne, utilise la redondance. Chaque

Page 29: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 29

élément est codé deux fois. La correction d’erreurs qui en résulte est alors très importante. Mais comme dit précédemment, la compression est moins efficace.

En parallèle, un codage de type externe, le codage de Reed-Solomon, agit sur les paquets transports. Il leur ajoute 16 octets de parité et permet au décodeur de corriger jusqu’à 8 octets erronés. Si le nombre d’erreurs dépasse 8, le paquet est alors considéré comme erroné.

Un processus permet d’améliorer ce codage : il s’agit de l’entrelacement temporel des octets (ou Forney convolutional interleaving). Les octets d’un paquet sont déplacés de 0 à 187 positions (rappel : un paquet transport est composé de 188 octets), ce qui permet de les répartir, et en même temps les erreurs, sur deux paquets successifs. Nous pouvons alors nous demander en quoi ce procédé permet l’amélioration du codage de Reed-Solomon. Généralement, quand il y a une erreur, d’autres sont très proches. Avec l’entrelacement, les erreurs sont partagées entre 2 paquets, ce qui permet d’éviter d’atteindre le seuil de 8 erreurs par paquet du codage de Reed-Solomon et donc de permettre la correction de plus d’erreurs, puisque moins de paquets seront considérés comme erronés.

Après toutes ces opérations de compression, de codage, de correction d’erreurs, on obtient un ensemble de données prêt à être envoyé. Mais comment s’organise sa réception et son décodage ?

3) Réception de la télévision numérique

Les données envoyées par câble, satellite ou réseau hertzien sont réceptionnées par le récepteur chez les utilisateurs. Il s’ensuit alors une série de processus visant à redonner au signal son apparence initiale, c'est-à-dire permettre sa lecture sur nos téléviseurs.

Les étapes de décodage correspondent à l’inverse des étapes effectuées lors de l’émission mais elles ont lieu dans l’ordre inverse. La dernière à avoir lieu lors de l’émission est la première lors de la réception.

Le récepteur commence par adapter la fréquence du signal afin qu’il puisse être exploité. En effet, cette fréquence avait été modifiée pour permettre et améliorer sa transmission.

Ensuite, les opérations inverses découlant du codage de canal ont lieu. Les paquets transports, qui contenaient 204 octets suite à l’ajout de 16 octets, reprennent leur taille normale. La redondance ajoutée précédemment est retirée. Le train transport est tel qu’on pouvait le trouver avant les étapes de codage de canal (si on excepte les quelques erreurs qui ont pu passer malgré ce codage).

L’étape de réception correspondant au multiplexage se nomme le démultiplexage. Le démultiplexeur récupère les PES correspondant uniquement au programme que regarde l’utilisateur. Il agit en quelque sorte comme un filtre. Cependant, nous avons vu qu’il pouvait y avoir embrouillage de ces données.

Pour pouvoir désembrouiller l’ensemble des données, le récepteur a besoin d’informations :

- un mot de contrôle (control word) pour enclencher le désembrouillage- une clé de service (service key) qui permet le cryptage du mot de contrôle pour un groupe d’utilisateurs

Page 30: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 30

- une clé utilisateur (user key) qui permet le cryptage de la clé de serviceCes informations sont transmises par des messages, nommés messages d’accès

conditionnel :- les ECM (Entitlement Control Messages) qui sont générés à partir de la clé de service et du mot de contrôle. Ils sont transmis toutes les 2 secondes.- les EMM (Entitlement Management Messages) qui sont générés à partir des clés utilisateur et de service. Ils sont transmis toutes les 10 secondes.

Figure 2.7 : Processus de codage des ECM et EMM [5]

Le décryptage consiste à retrouver grâce aux EMM et à la clé utilisateur (contenue par exemple dans une carte à puce) la clé de service qui permet de trouver le mot de contrôle crypté dans les ECM. Le désembrouillage peut alors débuter.

Page 31: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 31

Figure 2.8 : Reconstitution des mots de contrôle à partir des ECM et des EMM [5]

Enfin, le décodeur MPEG reconstruit le son et les images à partir des données sélectionnées par le démultiplexeur. Nous avons vu que pour compresser une vidéo en MPEG on code les images de trois manières différentes (I, P et B). Pour décompresser le décodeur a donc besoin de stocker les images de type I et P le temps de reformer les images B et P liés à ces deux types d’images. Le décodeur doit ainsi disposer d’une mémoire.

On a ainsi pu décoder le signal numérique et donc pu le lire sur une télévision.

Nous venons de voir les caractéristiques du numérique. Maintenant nous allons essayer de comprendre pourquoi la décision de remplacer l’analogique par ce système a été prise.

Page 32: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 32

Page 33: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 33

III De l'analogique au numériqueIl n'a pas été décidé sur un coup de tête de renouveler complètement nos moyens de

diffusion à l'échelle de la planète.

1) La diffusion [8]

Pour faciliter le parallèle entre l'analogique et le numérique, on se limitera à l'étude des réseaux hertziens.

La diffusion du numérique, s'appuie sur des infrastructures déjà présentes. Le mode de propagation des images est inchangé.

Le système actuel est celui de la télévision hertzienne.

Selon la définition de l'UIT, le terme « hertzien » ne couvre que les signaux transmis par rayonnement électromagnétique, soit sans support matériel. Ces ondes ont des fréquences comprises entre 470 et 960 Mhz. A titre de comparaison, la radio utilise une bande FM comprise entre 87,5 et 108 Mhz.

Figure 3.1 : un émetteur radio [10]

a) Les organismes en charge de la radiodiffusion

Tout ce qui a trait à l'utilisation des ondes est sous la charge de ce qui s'appelle depuis 1932 l'union internationale des télécommunications (UIT). Elle établit les normes de diffusion, diffuse toutes les informations techniques et elle gère aussi l'attribution des bandes de fréquences radioélectriques. Cet organisme est rattaché à l'ONU en tant qu'institution spécialisée des Nations unies. L'UIT a son siège à Genève (Suisse). [10]

Figure 3.2 : Musée de l'UIT [10]

Page 34: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 34

Au niveau de la France, le réseau des émetteurs est un quasi-monopole de la société Télédiffusion de France (TDF), qui possède un réseau de 3500 stations d'émission à travers la France. La plus connue de ces stations est sans aucun doute la Tour Effel ! Cependant l'ouverture à la concurrence de ce marché fera certainement évoluer les choses dans les prochaines années.

Pour couvrir tout le territoire, l'information est transmise par l'intermédiaire d'une multitude d'émetteurs. Ceux-ci se divisent en deux catégories, les émetteurs principaux et les émetteurs relais. Étudions l'exemple de la Belgique. Comme il s'agit d'un petit pays, il est plus facile de visualiser de manière globale ce qui s'y passe.

Figure 3.3 : carte de la répartition des émetteurs en Belgique [1]

Il convient de noter que la Belgique n'a pas de problème de transmission causé par le relief ! En ce pays, l'émetteur principal se trouve à Bruxelles. Il a cependant une portée d'environ 60km. Pour couvrir l'ensemble du territoire, il est nécessaire d'utiliser des réémetteurs. On a décidé de les placer à Liège, Charleroi ... Le principe de ces émetteurs relais : ils reçoivent les signaux à diffuser de Bruxelles et les émettent jusqu'aux récepteurs individuels. Cependant comme les réémetteurs reçoivent les signaux d’une émission de type satellitaire de fréquence très élevée, il leur est nécessaire de les décortiquer avant de les renvoyer.

Cependant, ces opérations génèrent un décalage entre les émissions de Bruxelles et celles par exemple de Liège. Pour éviter que les appareils des habitations situées dans une zone couverte par les deux émetteurs ne soient perturbés on a mis en place un système particulier de transfert du signal.

Page 35: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 35

b) Le système de transmission du signal [9]

La transmission du signal à travers le territoire se fait selon un processus bien défini. Il s'agit de faire transiter sur de longues distances un signal vidéo, donc un signal électrique de basse fréquence sans support matériel.

En effet, l'approximation de Hertz, comme quoi les ondes magnétiques se comportent comme la lumière n'est valable que pour des longueurs d'ondes faibles, soit une fréquence très élevée. Or les informations transmises ont une fréquence de l'ordre de 5 Mhz.

Pour pallier à ce problème, On a recours à une opération: la modulation. Il s'agit de faire porter le signal à transmettre (signal modulant) par un signal porteur. Celui-ci a une fréquence de l'ordre de 7 GHz. Cette opération va permettre de modifier l’amplitude, la phase et la fréquence du signal pour obtenir un signal en haute fréquence bien plus aisément transportable. A la réception, un décodeur permet de décortiquer le signal reçu pour pouvoir afficher la vidéo.

De plus chaque station d'émission peut choisir un signal modulant qui lui est propre pour diffuser ses émissions. Ainsi si le récepteur est bien réglé, il ne recevra qu'un seul signal et ne sera pas perturbé par le second.

Figure 3.4 Principe des ondes porteuses [1]

Page 36: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 36

2) Avantages et inconvénients du passage au numérique :

Il a été décidé d’abandonner l’analogique pour passer au numérique. Mais pourquoi donc ? Le numérique est-il à ce point merveilleux pour qu’on en vienne à laisser tomber un système qui fait ses preuves depuis de nombreuses années ? Il est vrai que l’analogique n’était pas parfait mais le numérique l’est-il vraiment ? C’est ce que nous allons voir dans cette partie.

a) Qualité du signal [5]

Déjà, comme cela a déjà été expliqué, le numérique a besoin d’être compressé car il nécessite un débit plus important que l’analogique pour une même quantité de débit. Cependant ce qui pourrait apparaître comme un défaut à première vue relève plutôt de la qualité. En effet, un signal compressé nécessite un débit bien plus faible qu’en analogique. Cette compression permet ainsi la transmission de plus de données sur un même canal et aussi le stockage de plus d’informations.

De plus la dégradation entraînée par la compression est minime. Certes les images et le son perdent en qualité mais, au vu des capacités de l’homme, ces pertes n’ont pas d’influence.

Le numérique permet aussi le développement de la télévision haute définition. Avec la compression, les données HD, plus volumineuses, peuvent être transmises.

Un autre avantage du numérique est sa capacité à copier des données sans aucune dégradation. L’original et la copie sont exactement identiques. En effet, comme un signal numérique n’est composé que de 0 et de 1, il est plus facile à copier. Un problème peut quand même survenir : si une erreur se glisse durant le procédé de copiage, l’original sera alors différent de la copie et celle-ci continuera de transmettre cette erreur. Pour l’analogique c’est différent. Une copie sera moins bonne que l’originale, une copie de cette copie le sera encore moins et ainsi de suite… Au bout d’un certain nombre de copies, la qualité sera médiocre. [17]

Pour les mêmes raisons, un signal numérique est plus facile à modifier. En quelques clics on peut améliorer une vidéo avec un logiciel de montage, chose que l’on ne pouvait pas faire en analogique. [16]

Le signal numérique est assez sensible aux perturbations liées à la transmission. Par exemple, un décalage entre le son et l’image peut avoir lieu. C’est ce que Gilles LEBOZEC, chargé de diffusion chez France 2, nous explique (voir en annexe pour entrevue complète). Avant toute diffusion, il faut vérifier s’il y a bien synchronisation entre le son et l’image.

L’image aussi peut subir les effets de ces perturbations. Une partie du codage est perdue en cours de transmission, ce qui a pour effet d’entraîner le noircissement d’un morceau de l’image.

L’analogique était plus résistant en terme de transmission.

Le passage au numérique permet aussi l’apparition de nouvelles chaînes.

Page 37: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 37

b) Avantages liés au multiplexage [7]

Comme il a été dit, le numérique permet la transmission de plus de données sur un même canal grâce à la compression. Plusieurs programmes correspondant à différentes chaînes peuvent ainsi être expédiés sur le même canal. On peut donc avoir plus de chaînes en utilisant le même nombre de canaux qu’en analogique. Mais comment cela peut-il marcher ? Surtout que l’analogique étant encore présent, on ne peut pas utiliser les canaux qu’il utilise.

Pour faire transiter les programmes des différentes chaînes sur plusieurs canaux sans qu’ils ne se mélangent, une technique a été mise au point : le multiplexage fréquentiel. Les différents canaux se partagent un banc de fréquence. Chacun est sur un intervalle de fréquence donné différent de celui des autres. En France la largeur de la bande est de 8 MHz.

En analogique, il n’y a qu’une seule chaîne par canal. Pour éviter que les programmes ne se mélangent avec ceux transportés sur la fréquence voisine, il a été décidé de laisser un intervalle de fréquence entre chaque canal.

Le numérique a commencé à utiliser ces bandes libres. N’étant pas de même nature que l’analogique, il n’y avait aucun risque de perturbation avec les signaux voisins.

Figure 3.5 : Principe du multiplexage en fréquence [7]

Avec le numérique, le nombre de chaînes a augmenté car celles-ci se partagent les canaux (5 ou 6 par bande en moyenne). Cependant, on ne peut pas toujours faire transiter le même nombre de chaînes sur un canal. En effet, certains programmes nécessitent plus de place que d’autres. C’est le cas du sport par exemple ou des films d’action. On peut justifier cela au niveau de la compression. Nous avons vu que la norme MPEG permettait la compression en ne codant que les différences entre les images (avec les images I, P et B). Or pour ce type de programme, il y a beaucoup de mouvement, les différences entre une image et sa suivante sont donc beaucoup plus importantes. Ces chaînes nécessitent un débit plus important, elles ne peuvent donc pas être regroupées.

On retrouve ce problème avec les chaînes HD, il ne peut y en avoir autant que les chaînes SD sur un même canal. Cette fois la raison n’est pas exactement la même. Certes il peut y avoir beaucoup de différences entre les images, mais il y a surtout une meilleure qualité des programmes. Un programme en HD est donc plus volumineux.

Page 38: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 38

Après avoir expliqué le principe du multiplexage fréquentiel, nous pouvons désormais parler d’un autre grand avantage du numérique : le dividende numérique. [14]

Le dividende numérique est lié à ce principe. En effet, « il désigne les ressources en fréquences libérées par l’arrêt de la télévision analogique » (d’après la Direction générale des médias et des industries culturelles). Lorsque les transmissions en analogique seront terminées, les canaux qu’elles utilisaient seront exploités par le numérique pour diverses utilisations :

- la création de nouvelles chaînes- le développement de la télévision en haute définition (avec l’objectif que

toutes les chaînes françaises soient en haute définition avant fin 2015)- l’amélioration des réseaux de communication mobile- le développement de la télévision mobile personnelle (TMP)- le développement du haut débit sans fil pour accéder à internet- la numérisation de la radio- le déploiement de réseaux de sécurité civile ou militaire

Les avantages du numérique par rapport à l’analogique sont donc nombreux. Le passage au numérique est donc justifié. Mais comment s’organise ce passage ?

Page 39: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 39

3) Organisation du passage de l’analogique au numérique : [15]

La décision de passer au numérique a été prise par l’Etat qui a créé en 2007 en partenariat avec les éditeurs des chaînes de télévision analogiques un Groupement d’intérêt public (GIP) dénommé « France télé numérique ». Ce groupement suit les traces du groupement TNT (Télévision Numérique Terrestre) qui a cessé ses activités le 31 décembre 2009 après avoir mis en place des chaînes numériques dont la plupart sont gratuites. Ce groupement était chargé de la promotion de la TNT. Depuis son apparition en 2005, elle a réussi à conquérir les utilisateurs avec ses premières chaînes gratuites en numérique. [14]

Maintenant, l’objectif est de faire passer toute les émissions télévisuelles en numérique.

a) Tous au numérique !

France télé numérique a mis en place un programme de communication complet pour informer et promouvoir la télévision numérique nommé « Tous au numérique ! ». Ce programme doit s’achever le 30 novembre 2011, après le passage de la dernière région au numérique, le Languedoc-Roussillon. Un budget de 333 millions d’euros a prévu par le gouvernement.

Figure 3.6 : Logo de « Tous au numérique ! » [15]

France télé numérique a également mis en place plusieurs dispositifs pour informer la population. [14]

Un site internet (www.tousaunumerique.fr) et un centre d’appel téléphonique (le 0 970 818 818) ont été créés afin de guider les téléspectateurs. Le site apporte les informations relatives au changement et les réponses aux questions fréquentes, ainsi que des tests permettant de savoir si l’on peut recevoir la télévision numérique sans aucun changement. Le centre d’appel téléphonique apporte les réponses aux questions que pourrait se poser le téléspectateur.

Un représentant a aussi été nommé dans chaque région.Des points d’informations fixes et mobiles ont été créés pour informer au mieux la

population.Un guide complet regroupant les informations essentielles a été distribué à la

population.Les gestionnaires d’immeubles, qui sont responsables envers leurs locataires des

actions à effectuer pour le passage au numérique, ont été informés.Une vaste campagne publicitaire a été mise en place depuis septembre 2009. Elle

a lieu à la fois à la télévision et dans les journaux locaux. Ces derniers tiennent au courant les habitants des actions effectuées sur leur région. A la télévision, de nombreuses publicités sont diffusées expliquant les choses à faire pour pouvoir capter les émissions numériques. On y voit les deux personnages du logo de « Tous au numérique ! » (les télévisions rouge et bleu).

Page 40: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 40

Le passage au numérique ne se fait pas d’un seul coup dans toute la France. Un calendrier indiquant les dates de passage de chaque région a été mis en place. On le trouve sur le site de « Tous au numérique ! ». Les journaux le rappellent également aux habitants lorsque la date approche afin d’éviter les mauvaises surprises. En effet, une fois la date passée, on ne peut plus recevoir la télévision analogique. Il faut donc avoir pris ces dispositions avant.

Figure 3.7 : Calendrier de passage au numérique [13]

Certaines villes comme Coulommiers (en Seine et Marne) sont passées au numérique avant leur région (4 février 2009 pour Coulommiers). En effet, des tests étaient effectués sur ces villes pour vérifier le bon fonctionnement du dispositif permettant l’arrêt de l’analogique. [14]

Ainsi un téléspectateur peut connaître à chaque instant la date du passage au numérique dans sa région pour savoir quand il doit se préparer. Mais en quoi consiste cette préparation ? Doit-on changer nos habitudes pour recevoir le numérique ?

Page 41: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 41

b) Le matériel utile au numérique :

Pour recevoir les émissions numériques, un téléspectateur doit adapter son installation. En effet, une télévision standard ne peut réussir à diffuser des données numériques. Celles-ci doivent au préalable être décodées par un adaptateur. Il s’agit d’un boitier que l’on relie à la télévision. Il est obligatoire d’avoir un adaptateur par poste. Un seul ne suffit pas pour une maison entière si plusieurs téléviseurs s’y trouvent. [18]

Figure 3.8 : Un adaptateur TNT [le site de la fnac]

Rien n'est gratuit ! Les premiers prix pour un adaptateur commencent à 25 € et ils peuvent dépasser 200 € pour des adaptateurs HD.

Le programme a prévu une aide financière pour les personnes n’ayant pas les moyens de s’offrir ce genre d’appareil : 25 € maximum.

Pour les personnes ayant une antenne de réception trop ancienne, une aide de 120 € maximum peut leur être versée sous certaines conditions pour changer cette antenne.

Cependant la TNT n’est pas diffusée partout en France, quelques zones ne sont pas couvertes. Pour celles-là une aide de 250 € maximum existe pour l’achat d’un mode de réception alternatif à l’antenne râteau (une parabole satellite par exemple).

Aujourd’hui les nouveaux téléviseurs à écran plat commercialisés intègrent obligatoirement un adaptateur. Cela évite la perte de place due au boitier.

Une aide à l’installation totalement gratuite est également disponible. Elle est desservie aux personnes âgées de plus de 70 ans et aux personnes souffrant d’un handicape dépassant les 80%.

En dehors de cela, si un téléspectateur n’arrive pas à installer son adaptateur, il peut appeler le centre d’appel qui se chargera de l’aider.

Avec tout ces dispositifs et aides, chacun pourra passer facilement au numérique.

Page 42: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 42

Page 43: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 43

Conclusion

Le passage de l’analogique au numérique est donc une évolution qui est justifiée. Même si le numérique présente des défauts, ce système permet néanmoins une grande flexibilité vis-à-vis du traitement de données. Notamment on fait des copies d’un film sans aucune perte de donnée.

L’analogique avait le mérite d’être un support d’enregistrement relativement simple vis-à-vis de l’utilisation. Mais il n’y avait pas d’optimisation des informations transmises. Si on avait continué à travailler en analogique, on serait rapidement arrivé à un maximum d'émissions transmises, sans pouvoir émettre plus, et il n’y aurait plus eu de changement au niveau de la télévision. Par exemple le passage à la haute définition aurait été impossible.

En France, seul le gouvernement a la capacité d’achever cette transition aussi rapidement, une entreprise du type Microsoft ne serait pas arrivée à un tel résultat. Il s'agit tout de même d’un changement radical au niveau des télécommunications.

Page 44: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 44

Page 45: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 45

BIBLIOGRAPHIE

L'Analogique :

[1] HERBEN J - La télévision: télévision analogique émission et réception, édition DUNOD, 2006, 385p

[2] Futura-Science (page consultée le 10/02/11)http://www.futura-sciences.com

[3] Nicolas VANDENBROUCKE, Ludovic MACAIRE - Représentation de la couleur en analyse d’images, Techniques de l’ingénieur, référence S7602, 10 juin 2005http://www.techniques-ingenieur.fr

[4] Louis GOUSSOT - Télévision analogique terrestre (page consultée le 02/02/11)http://www.universalis-edu.com/encyclopedie/television-television-analogique-terrestre/

Le numérique :

[5] BENOIT H - La télévision numérique, édition DUNOD, 2006, 245 p

[6] Cours de Multimédia - P. Courtellemont (page consultée le 08/02/11)http://perso.univ-lr.fr/pcourtel/espadon/site_web/Ch8/page8-2.htm

[7] Pierre-Yves JÉZÉQUEL, Mireille MATHIEU - Télévision par câble - Distribution en analogique et numérique, Référence E5865, 10 août 1997http://www.techniques-ingenieur.fr/

Passage de l’analogique au numérique :

[8] Cité des sciences et de l’industrie (page consultée le 08/02/11)www.cite-science.fr

[9] WorldLingo (page consultée le 08/02/11)http://www.worldlingo.com/ma/enwiki/fr/Electromagnetic_spectrum

[10] Institution spécialisée des Nations Unies pour les technologies de l’information et de la communicationhttp://www.itu.int/fr/Pages/default.aspx

[13] Génération nouvelles technologies (page consultée le 02/02/11)http://www.generation-nt.com/tnt-passage-numerique-actualite-872141.html

[14] Direction générale des médias et des industries culturelles (pages consultées le 10/02/11)http://www.ddm.gouv.fr/rubrique.php3?id_rubrique=151http://www.ddm.gouv.fr/rubrique.php3?id_rubrique=152

[15] Tous au numérique (page consultée le 10/02/11)

Page 46: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 46

http://www.tousaunumerique.fr/

[16] Le Numérique Facile.com (page consultée le 08/02/11)http://www.lenumeriquefacile.com/definition/numerique

[17] BOUTIQUE ELECTRONIQUE FCOSINUS (page consultée le 08/02/11)http://fcosinus.free.fr/articlenum/numerique.html

[18] Le site de la TNT (page consultée le 08/02/11)http://www.tvnt.net/le-passage-au-tout-numerique-360.html

[19] MPEG (page consultée le 10/02/11)http://mpeg.chiariglione.org/

Page 47: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 47

REFERENCES DES PERSONNES CONTACTEES

Nous avons contacté M. Gilles LEBOZEC, chargé de diffusion chez France 2

Page 48: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 48

Page 49: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 49

Annexe

Entrevue avec Gilles Lebozec

Pour commencer, quels liens avez-vous avec le milieu télévisuel?Cela fait maintenant 20 ans que je suis dans ce milieu. J'ai commencé avec la

Société de Radiodiffusion et de télévision Française pour l'Outre-mer (RFO). Cette chaîne est maintenant rattachée au groupe France télévisions. Elle était précurseur au niveau technologique car elle a été la première chaîne de télévision à passer au tout numérique. Elle a d'ailleurs reçu plusieurs récompenses pour cela.

Quel est votre métier actuel?Je travaille pour France Télévisions, je suis rattaché à l’antenne de France 2. Je

m’occupe principalement des transmissions. Comme les données circulent par fibre optique, ou même par transmission satellite, mon métier consiste à réceptionner et redistribuer les programmes en interne à France Télévision. Cela implique notamment de vérifier la synchronisation labiale, c'est-à-dire le fait que l’image soit bien en adéquation au son.

Les déplacements des informations génèrent-ils des perturbations?Effectivement ! Comme je viens de le préciser mon rôle consiste en partie à vérifier

cette synchronisation car un décalage peut avoir lieu. C'est un problème particulièrement important pendant les événements sportifs. En effet, lors des directs, quand des caméras haute fréquence filment les épreuves, elles transmettent sans fil leurs images à la régie. Ce mode de transmission entraîne très souvent des décalages.

S'agit-il d'un problème lié au support d'enregistrement?En partie oui. La majorité des caméras de reportage enregistrent en numérique et

sont équipées de carte P2 (l’équivalant pour les reporters des cartes SD). Or le numérique est un support de données plus faible et plus fragile que l'analogique. Il gère beaucoup moins bien les problèmes d'interférences par exemple.

Ainsi, en numérique, un micro réglé trop fort par rapport à ce qu'il enregistre génèrera une saturation du son. Quand le receveur final recevra les données parasitées, il y aura des problèmes qui auront des répercutions sur l’image. Celle-ci pourra virer au noir sur une durée non négligeable ! Au contraire, à l'époque de l'analogique, seul le son aurait été coupé.

Pouvez-vous nous en dire un peu plus au sujet de l'analogique?Déjà ce n'était pas la même chose au niveau du support de l'information. On

enregistrait sur des bandes magnétiques. Celles-ci se décomposaient en une ou plusieurs pistes audio et une unique piste vidéo dont les emplacements étaient bien définis. Les signaux étaient plus résistants en terme de transmission, et moins sensibles aux perturbations notamment météorologiques. Cependant, les données étaient plus lourdes car il n'existait pas de moyen de compresser l'information, on ne pouvait ainsi pas diffuser beaucoup de chaînes télévisuelles.

Page 50: ECOLE DES MINES DOUAIcdoc.ensm-douai.fr/EBs/EB-Desaindes-Glikman.pdftoutes les données possibles et inimaginables. On parle désormais par exemple de livres numériques. C'est donc

Page 50

Qu'est-ce qui a changé depuis le passage au numérique?L’analogique nécessitait moins de personnel, car le travail à effectuer était beaucoup

moins important, et de nature très différente. En effet, les éléments à diffuser arrivaient dans les studios télévisés sous forme de bandes magnétiques. Ces bandes étaient mises directement dans le magnétoscope pour être diffusées telles quelles. Par exemple mon travail actuel sur la répartition de données n'existait pas car il n’y avait pas de multiplex comme celui de France Télévision.

Donc vous ne travaillez plus qu'en numérique?En réalité, non. Nous recevons toujours des données sous forme de bandes

magnétiques. Nous les numérisons et les mettons sur notre serveur. Par la suite, la vidéo passe dans une salle de vérification et nous contrôlons si elle respecte les normes vidéo et audio utilisées, par exemple si le son se situe bien dans une plage de niveau standard. C’est seulement après que ces éléments pourront être diffusés.

Le passage au numérique s'est-il fait en douceur?Effectivement, au début seul les pièces courtes (bandes annonces, spots

publicitaires) étaient diffusées sous format numérique. Les longues émissions restaient sous analogique.

Maintenant nous stockons toutes nos données sur un serveur, ce qui facilite leur conservation et leur facilité d'accès. Cependant il ne faut pas croire que tout est pour le mieux : les problèmes ont changé. Ceux inhérents à l'informatique (ordinateurs qui plantent, perte de données) ont fait leur apparition…

On parle en se moment de télévision en haute définition (HD). Une telle technologie était-elle possible à l'époque de l'analogique?

Avec le numérique, les normes de compressions permettent de réduire en poids les fichiers, ce qui permet d’augmenter la résolution, le stockage et le transport et donc de permettre la diffusion du HD (fréquence.de 18 MHz).

En fait, sans les algorithmes de compression il n'y avait aucun moyen de transmettre plus d'un certain nombre de données. Or déjà que les signaux analogiques prennent beaucoup de place, en HD, c'est encore pire ! De plus, il y a 20 ans, les caractéristiques des caméras ne permettaient pas le HD, ne serait-ce qu'au niveau du stockage provisoire.

Pouvez-vous nous donner d'autres grands avantages du numérique?C'est incroyable comme le numérique a permis de faciliter le traitement de données.

On n'a qu'à voir tous ces logiciels de montage vidéo pour s'en convaincre. En deux clics on peut changer la taille, la couleur de l'image... Alors qu'avant, c'était vraiment une autre paire de manche ! Je dirai qu'il est désormais facile à chacun de bricoler ses propres films chez lui. Un autre facteur non négligeable est la baisse généralisée du matériel télévisuel.