Rapport de fin de stage Diana-Cristiana Ros¸u · Rapport de fin de stage Diana-Cristiana Ros¸u...

83
Laboratoire d’Informatique, Systèmes, Traitement de l’Information et de la Connaissance F USION DINFORMATIONS POUR LE RECALAGE DIMAGES RADAR INTERFÉROMÉTRIQUES Rapport de fin de stage Diana-Cristiana Ro¸ su Encadrant : Emmanuel Trouvé

Transcript of Rapport de fin de stage Diana-Cristiana Ros¸u · Rapport de fin de stage Diana-Cristiana Ros¸u...

Laboratoire d’Informatique, Systèmes, Traitement de l’Information et de la Connaissance

FUSION D’INFORMATIONS POUR LE RECALAGE D’IMAGES RADARINTERFÉROMÉTRIQUES

Rapport de fin de stage

Diana-Cristiana Rosu

Encadrant :Emmanuel Trouvé

Table des matières

1 Introduction 1

2 Généralités 3

2.1 Les satellites Radar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2.1.1 Le principe d’acquisition . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.1.2 Radar à Synthèse d’Ouverture . . . . . . . . . . . . . . . . . . . . . . . 5

2.1.2.1 Le principe d’acquisition . . . . . . . . . . . . . . . . . . . . . 6

2.1.2.2 Caractéristiques des images RSO . . . . . . . . . . . . . . . . 6

2.2 Les satellites utilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.2.1 TerraSar-X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.2.2 RADARSAT-1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3 Différentes sources d’information 13

3.1 Les sources directes de données . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3.1.1 Les données de télédétection . . . . . . . . . . . . . . . . . . . . . . . . 13

3.1.1.1 Les données TerraSAR-X . . . . . . . . . . . . . . . . . . . . . 14

3.1.1.2 Les données RADARSAR-1 . . . . . . . . . . . . . . . . . . . 16

3.1.1.3 La convergence de données de télédétection . . . . . . . . . . 17

3.2 Les sources indirectes de données . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.3 Modèle numérique de terrain . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4 Notions d’interférométrie 20

4.1 La phase interférométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

4.1.1 La contribution des trajectoires orbitales . . . . . . . . . . . . . . . . . . 21

4.1.2 La contribution de la topographie . . . . . . . . . . . . . . . . . . . . . 22

4.1.2.1 Effet des erreurs de MNT . . . . . . . . . . . . . . . . . . . . . 23

4.1.3 La contribution de l’atmosphère . . . . . . . . . . . . . . . . . . . . . . 23

4.1.4 La contribution du déplacement . . . . . . . . . . . . . . . . . . . . . . 24

5 Modèles et mécanique satellitaire 25

5.1 Les orbites pour les satellites de télédétection . . . . . . . . . . . . . . . . . . . 25

5.2 Les modèles des orbites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

5.2.1 La forme de l’orbite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

i

TABLE DES MATIÈRES ii

5.2.2 Le déplacement sur l’orbite . . . . . . . . . . . . . . . . . . . . . . . . . 29

5.3 Les modèles de la Terre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

5.4 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

6 Applications et résultats 35

6.1 Convergence des formats de méta-données . . . . . . . . . . . . . . . . . . . . 35

6.2 Détermination fine des orbites . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

6.2.1 Technique batch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

6.2.1.1 Modèle polynomiale . . . . . . . . . . . . . . . . . . . . . . . 37

6.2.1.2 Modèle matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . 38

6.2.1.3 Estimation des paramètres de régression . . . . . . . . . . . . 38

6.2.2 Chaîne de traitement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

6.2.3 Résultats d’émulation fine des orbites . . . . . . . . . . . . . . . . . . . 39

6.3 Fusion d’informations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

6.3.1 Géolocalisation des images RSO . . . . . . . . . . . . . . . . . . . . . . 45

6.3.2 Calcules sur des couples d’images RSO . . . . . . . . . . . . . . . . . . 50

6.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

7 Les donnees utilisees 56

7.1 Formats de meta-donnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

7.1.1 Le format ROI-PAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

7.1.2 Le format RSLC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

8 Implementation Overview 61

8.1 Parsers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

8.1.1 Processing Chain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

8.1.1.1 Conversion oriented parsing . . . . . . . . . . . . . . . . . . . 62

8.1.1.2 Extraction oriented parsing . . . . . . . . . . . . . . . . . . . . 63

8.2 Orbit Emulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

8.2.1 Processing Chain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

8.3 Geo-localisation in SAR Images . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

8.3.1 Processing Chain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

8.4 Processing over Pairs of Images . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

9 Usage examples 69

9.1 Parsers Usage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

9.2 Orbit Emulation Usage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

9.3 Orbit Computations Usage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

Liste de tableaux 74

Table des figures 75

TABLE DES MATIÈRES iii

Abréviations 76

Bibliographie 77

Chapitre 1

Introduction

La Terre subit un changement continu, les plaques lithosphériques sont en mouvement,

les différents glaciers de la Terre sont dans une période de recul ou d’avancée, les régions

couvertes par les forêts s’étendent ou se réduisent, les déserts s’augmentent et les catas-

trophes naturelles ou les activités humaines modifient la surface de la Terre. La volonté de

surveiller, mesurer et comprendre les causes de ces changements sur la surface de la Terre et

leurs effets sur l’habitat humain sont à l’origine de la télédétection.

Mais le changement de la Terre peut aussi être observé et mesuré «in situ». Les don-

nées obtenues seront soit corrélées avec les données obtenues par télédétection, soit utilisées

comme vérité terrain dans l’étape de validation des résultats obtenues en utilisant les don-

nées de télédétection.

Dans ce mémoire nous nous intéressons à fusionner plusieurs sources d’informations

(des Modelés Numériques de Terrain, des méta-données satellitaires et des images satelli-

taires) pour mesurer de manière très précise les déplacements de surface en utilisant des

techniques interférométriques radar. Cependant, le modèle de mesure du déplacement n’est

pas trivial car il implique la soustraction des franges orbitales et topographiques de la dif-

férence de phase entre deux images SAR. Pour soustraire les franges orbitales nous avons

choisi d’utiliser les méta-données satellitaires qui nous fournissent les informations néces-

saires pour émuler les trajectoires du satellite. Pour soustraire les franges topographiques

nous utilisons demanière conjointe lesméta-données satellitaires et lesModelésNumériques

de Terrain.

Jusqu’à présent, nos efforts ont été concentrés dans deux directions : la mise en œuvre

de méthodes qui permettent une meilleure émulation de la trajectoire du satellite, indépen-

damment de son type, pour soustraire les franges orbitales et topographiques et la création

d’un ensemble d’information a priori qui permet le ré-échantillonnage de l’image Esclave

sur l’image Maître et la correction des mesures de déplacement par corrélation d’amplitude.

Le document est organisé comme suit :

Le chapitre 2 (Généralités) introduit la problématique générale de l’imagerie radar et il

présente l’importance de l’imagerie RADAR dans le contexte actuel.

Le chapitre 3 (Différentes sources d’information) présente les différentes sources d’in-

1

2

formations qui sont utilisées dans la chaîne de traitement.

Le chapitre 4 (Notions d’interférométrie) présente les notions d’interférométrie. Il présente

également les principaux obstacles rencontrés dans l’utilisation des images radar.

Le chapitre 5 (Modèles etmécanique satellitaire) présente les notions basiques d’orbitogra-

phie qui sont utilisée dans notre approche.

Le chapitre 6 (Applications et résultats) présente les approches considérées, les résultats

obtenus et, également, le domaine d’applications.

L’appendice 8 est une référence d’Application Programmer Interface pour les fonctions,

structures et programmes que nous avons développés pendant ce stage.

L’appendice 9 présente quelques exemples d’utilisations pour les fonctions et structures

qui ont été implantées.

Chapitre 2

Généralités

Les applications géophysiques de ’imagerie RSO ont explosé dans les années 1990 après

le lancement réussi des satellites radar civils ERS1 et RADARSAT (1991-1995), [12]. Plusieurs

agences spatiales ont confirmé le potentiel des techniques d’interférométrie et ont permis et

encouragés le développement de techniques de traitement qui coexiste avec des techniques

traditionnels.

Aujourd’hui, les images de la Terre sont acquises en continu. Une seule image satellitaire

peut montrer la propagation de la pollution de l’air à travers un continent, les dommages

produits dans une région par un tremblement de Terre, par des incendies de forêt, par un

ouragan. En analysant plusieurs images satellitaires, il est possible d’extraire des informa-

tions sur la hausse apparente du niveau des mers, l’appauvrissement de la couche d’ozone

par la pollution atmosphérique, l’impact des activités humaines sur l’environnement, le dé-

placement des glaciers, etc.

Ainsi, les observations de la Terre offrent une couverture objective à travers l’espace

et le temps et sont devenus de puissants outils scientifiques pour permettre une meilleure

compréhension et une meilleure gestion de la Terre et son environnement.

Les images satellitaires sont de deux types : des images optiques et des images radar.

2.1 Les satellites Radar

L’abréviation RADAR vient de la RAdio Detection And Ranging (détection et télémétrie

par radioélectricité).

Les données radar sont complémentaires des données optiques mais l’analyse et le traite-

ment de ces données complexes sont spécifiques. Cependant, pour obtenir les meilleurs ré-

sultats l’interprétation conjointe doit prendre en compte les avantages et les inconvénients

caractéristiques à chaque source de données, résumés dans le tableau 2.1.

Images Optiques Images Radar à Synthèse d’Ouver-

ture

3

2.1 Les satellites Radar 4

L’information est conforme à la per-

ception de l’environnement par l’œil

humain [2] donc plus facilement in-

terprétable [1].

Information acquise est plus riche (on

peut profiter de l’information d’am-

plitude aussi que de la phase[1], [2].

Avantages

Les informations contenues peuvent

être utilisées dans le processus de cal-

cul de MNT.

On peut utiliser plusieurs fréquences

afin de déterminer des informations à

différentes profondeur selon la péné-

tration des ondes électromagnétiques

a priori [1]

Des hautes résolutions spatiales. Le processus d’acquisition est

moins sensible aux conditions

météorologiques.

-

La technique de synthèse d’ouver-

ture permet des résolutions spa-

tiales proches de celles des images

optiques.[2]

Le processus d’acquisition est

très sensible aux conditions

météorologiques, aux caractéris-

tiques des objets vues et il est

strictement dépendent de la présence

d’une source d’illumination externe

parce qu’on utilise des capteurs

passifs.

La présence des déformations

géométriques induites par l’échantil-

lonnage en distance.[2], [1]

Désavantages

Ce sont des images de surface (il

n’y a pas d’accès à des informa-

tions cachées sous la végétation, sub-

surface, etc.).

La force du signal reçu en retour est

dépendante de la topographie. [1]

Les variations de luminosité im-

pliquent des ajustements col-

orimétriques. [1]

La spécificité de l’application peut

demander des données suffisamment

proches temporairement et par leur

conditions d’acquisition. [1]

-

Le bruit de speckle1 rend difficile l’in-

terprétation visuelle de la scène [2].

1Le speckle (le chatoiement) est l’ensemble de petites taches qui donnent l’aspect granuleux à une image. Cespetites taches sont dues soit à la diffusion des ondes d’un faisceau cohérent spatialement de lumière par unecible présentant des irrégularités à l’échelle de la longueur d’onde, soit à la propagation d’un faisceau cohérentdans une atmosphère caractérisée par des variations aléatoires d’indice de réfraction.

2.1 Les satellites Radar 5

TAB. 2.1: Les avantages et les désavantages des images radar et optiques

2.1.1 Le principe d’acquisition

Le principe de base du radar est d’éclairer un objet et d’analyser les réponses reçues,

avec des champs électromagnétiques de rayonnement, [13], émis puis réfléchis par les objets

étudiés dans un certain domaine de fréquence, [2].

Les capteurs employés par l’imagerie radar possèdent leur propre source d’illumination,

ils sont appelés capteurs actifs, et opèrent dans le domaine des micro-ondes [2]. Les ondes

centimètriques permettent d’imager la Terre indépendemment de la nébulosité, [4], parce

que les atténuations atmosphériques sont faibles,[1]. Dans le table 2.2 sont présentées les

bandes traditionnellement utilisées en radar.

La bande est choisi par rapport a l’application de télédétection, parce que la pénétration

du sol est directement proportionelle avec la longueur d’onde ; [4]. Dans l’étude de déplace-

ment des glaciers les bandes X, C, L et P ont été utilisées sur des systèmes aéroportés et

les bandes X (pour TerraSAR-X), [1] et C (pour ERS et RADARSAT), [2], pour les systèmes

satellitaires.

Le système radar est un système bistatique si il est composé par un émetteur et un récep-

teur qui ont chacun une antenne, [13] : Lorsque l’émetteur et le récepteur du radar partagent

une antenne commune, ce système est appelés radar monostatique, [2], et offre plus de sim-

plicité d’utilisation.

L’antenne de l’émetteur émet une onde électromagnétique. L’onde électromagnétique se

réfléchit sur la cible. L’antenne du récepteur reçoit l’onde réfléchie.

2.1.2 Radar à Synthèse d’Ouverture

En 1951, Wiley a découvert qu’il était possible d’obtenir une meilleure résolution que

celle prévue par le faisceau de l’antenne. Il a découvert que le déplacement de la plate-forme

peut être utilisé pour obtenir une résolution beaucoup plus fine que la taille de l’empreinte

de l’antenne. Dans ces premiers systèmes RSO, la résolution a été améliorée par rapport aux

radars à ouverture réelle, [13].

Bande Fréquence [GHz] Longueur d’onde [cm]

P 0.225 - 0.390 133.00 - 76.90L 0.390 - 1.550 76.90 - 19.30S 1.550 - 4.200 19.30 - 7.10C 4.200 - 5.750 7.10 - 5.20X 5.750 - 10.900 5.20 - 2.70Ku 10.900 - 22.000 2.70 - 1.36Ka 22.000 - 36.000 1.36 - 0.83

TAB. 2.2: Les bandes utilisées en radar

2.1 Les satellites Radar 6

Pour les systèmes RSO ainsi que pour les radars traditionnels les deux configurations,

monostatique et bistatique, sont possibles.

2.1.2.1 Le principe d’acquisition

Le Radar à Synthèse d’ouverture a pour principe d’analyser l’onde électromagnétique

émise par une antenne et retrodiffusée par une surface que l’on souhaite observer. Donc l’an-

tenne réceptrice reçoit un grande nombre d’échos radar d’une cible supposée fixe alors que

le système RSO se déplace le long d’une trajectoire, appelé l’ouverture synthétique, comme

en 2.1. La résolution est une fonction de l’angle d’incidence, [13]. Le lien entre l’analyse tem-

porelle du signal reçu et la distance entre le satellite et le sol repose sur sur l’hypothèse que

la célérité des ondes électromagnétiques est constante dans le milieu traversé. Donc pour

un capteur RSO la résolution pour une certaine distance δr dépend seulement de l’angle

d’incidence de l’onde plane sur le sol [4].

δx =δr

sin θ(2.1)

L’angle d’incidence2 est un facteur déterminant pour la force du signal reçu en retour,

[1]. Si l’angle d’incidence est important le signal en retour est plus faible.

2.1.2.2 Caractéristiques des images RSO

Si les images optiques sont directement interprétables, leur transformation étant proche

de celle de la vision humaine, les images RSO nécessitent un traitement complexe pour être

interprétable, car leur géométrie est différente de la géométrie optique.

Dans le cas des images radar, l’échantillonnage se fait d’une manière différente dans les

deux directions :

– dans la direction de la visée du radar - résolution temporelle

– dans la direction du déplacement du porteur - résolution définie par les caractéris-

tiques du radar et du traitement appelé "synthèse d’ouverture".

Cet aspect devient problématique pour l’échantillonnage en distance dans le cas d’une

topographie accidentée où les distorsions sont accentuées, c’est à dire que les distances entre

les points du sol ne sont pas conservées dans une image radar. Dans l’image 2.1.2.2 on peut

distinguer les différentes distorsions géométriques qui peuvent apparaître dans la direction

de la visée du radar :

1. La compression - apparaît dans le cas de pentes légères dont la direction d’inclination

est dans le même sens que la direction de la visée radar où deux distances égales en

réalité, la première sur un terrain plat et la deuxième dans une pente légère, paraissent

différentes. Plus spécifiquement la distance obtenue entre deux points sur la pente

2L’angle d’incidence est défini par l’angle formé par le faisceau émis par la source radar le la normale à lasurface au point où le signal est retrodiffusé, [1]

2.1 Les satellites Radar 7

FIG. 2.1: Acquisition des images RSO

paraît plus petite que celle entre deux points sur un terrain plat. Dans l’exemple de

2.1.2.2 : | ab |>| cd |.

2. La dilatation - apparaît dans le cas de pentes légères dont la direction d’inclination est

opposée à la direction de la visée radar où deux distances égales en réalité, la première

sur un terrain plat et la deuxième dans une pente légère, paraissent différentes, plus

spécifique la distance obtenue entre deux points sur la pente paraisse plus grande que

celle entre deux points sur un terrain plat. Dans l’exemple de 2.1.2.2 : | ab |<| gh |.

3. Le repliement actif - apparaît dans le cas de pentes abruptes où l’angle d’incidence locale

est plus petit que la pente sur laquelle on a choisi les deux points. Dans l’exemple ci-

dessous les points E et F sont inter-changés dans la projection radar.

4. Le repliement passif - points recouverts - touche les points situés juste avant une zone de

repliement actif qui sont recouverts par d’autres points.

2.1 Les satellites Radar 8

5. Le repliement passif - points recouvrants - touche les points situés juste après une zone de

repliement actif qui recouvrent d’autres points.

6. L’ombre - touche les points qui ne sont pas atteints par l’onde radar, donc le point dont

l’angle d’incidence local est supérieur à 90 ou lorsqu’un obstacle s’interpose entre eux

et le radar.

Donc, dans le signal bidimensionnel enregistré, caractérisé par τ 3 et Ψ4, chaque point

représente la réflectivité des cibles ayant pour coordonnées la distance correspondante - R,

donnée par τ - et la coordonnée y, donnée par Ψ, 2.1. Le signal qui contient ces informations

doit être traite selon chacune des deux directions pour fournir une information interprétable

par un analyseur humain, [14].

Dans les images RSO, comme indiqué en 2.1, on dispose d’une information plus riche

qu’en optique : l’amplitude et la phase.

L’image d’amplitude enregistre la réflectivité, la capacité variable du terrain pour envoyer

l’énergie incidente vers le radar,[12]. Cette propriété est utilisée pour bien déterminer des

cibles avec des réflectivités fortes (coins réflecteurs) qui servent de points de contrôle pour

les étapes de traitement ultérieur. L’image d’amplitude présente les caractéristiques spa-

tiales et les variations temporelles du coefficient de rétrodiffusion, observé dans diverses

applications comme la détection du changement de la surface de la Terre, [15].

L’image de phase enregistre plusieurs effets de facteurs impliques dans le processus d’ac-

quisition, [12].

L’image de phase liée à la distance entre le satellite et les cibles élémentaires. La sur-

face du terrain représentée par un pixel d’une image radar contient généralement des cen-

taines de cibles élémentaires. Chacune de ces cibles contribue au pixel par un coefficient de

réflexion complexe. Donc, la phase du pixel est l’argument d’un nombre complexe qui est la

somme cohérente des réponses élémentaires inconnues. Sachant que la phase peut tourner

pendant la réflexion en fonction des propriétés diélectriques de la cible, [12] ou en fonction

de la pénétration des ondes, ou être retardée en fonction de la répartition des réflecteurs

élémentaires, [14], la phase résultante est aléatoire. Ce terme généralement inaccessible est

appelé phase propre Φpropre, [14].

La phase enregistrée dans l’image de phase contient néanmoins, dit géométriqueΦgeometrique

qui représente le temps de trajet aller-retour t entre l’antenne et une cible réelle en cas d’un

jonction ponctuelle ou virtuelle en cas d’une cible étendue.

Φgeometrique = 2πtT0

T0 = λc

⇒ Φgeometrique =4πR

λ(2.2)

La mesure de distance radar-cible est accessible modulo λ/2 parce que la phase est con-

nue modulo 2π,[14].3le retard temporel entre l’impulsion et l’écho4l’angle de vue par rapport à la direction de pointage de l’antenne

2.1 Les satellites Radar 9

(a)

(b) (c)

FIG. 2.2: (a) Les distorsions géométriques qui peuvent apparaître dans une image radar,[1] ; (b), (c)Les distorsions irréversibles qui peuvent apparaître dans une image RSO, [1].

2.2 Les satellites utilisés 10

Φ = Φpropre + Φgeometrique (2.3)

La phase devient exploitable en formant des différences de phase qui font disparaître la

phase propre. On observe alors les effets dus à la topographie, à l’atmosphère et à l’orbite

et un éventuel déplacement des cibles entre les acquisitions. On introduit ainsi le concept

d’interférométrie en télédétection, présenté plus en détail dans le chapitre 4.

2.2 Les satellites utilisés

Dans nos travaux nous avons utilisé des images acquises par deux satellites RSO, TerraSar-

X et RADARSAT1. Dans la suite nous présentons les caractéristique significatives de ces

deux satellites.

2.2.1 TerraSar-X

TerraSAR-X est est une famille de satellites d’observation de la Terre radar allemands

développée dans le cadre d’un partenariat privé-public entre l’agence spatiale allemande

DLR et EADS Astrium Allemagne équipés avec des capteurs a synthèse d’ouverture dont

l’antenne est construit dans la technologie multi-éléments actives, [16]. Trois modes d’acqui-

sition sont possible, le mode conventionnel stripmap et les modes spotlight et ScanSAR.

Le mode stripmap est le mode traditionnel, caractéristique aussi pour les autres satellites.

En ce cas, la scène est éclairée avec une séquence continue d’impulsions tandis que le fais-

ceau de l’antenne est pointée à un angle fixe en élévation et azimut, ce qui résulte en une

image avec une qualité constante en azimut, [16].

Pour le mode spotlight on utilise une orientation du faisceau électrique en azimut pour

augmenter le temps d’illumination, donc pour augmenter la taille de l’ouverture synthé-

tique. Ainsi, on obtient une résolution plus élevée en azimut mais pour une scène de taille

plus petite.

Le mode ScanSAR n’est pas utilisé dans nos travaux.

Le capteur SAR de TerraSAR-X a des caractéristiques différentes par rapport à les autres

capteurs de satellites en ce qui concerne la fréquence utilisée, le cycle de phasage, la polari-

sation d’acquisition et la résolution disponible, [15], résumés dans le tableau 2.3 et extraites

du [16].

Les images acquises ont les pixels équidistants aussi en azimut, l’espacement étant donné

par d’intervalle de répétition des impulsions, (PRF - Pulse Repetition Frequency), alors que

en range, l’espacement est donné par la RSF - Range Sampling Frequency.

Caractéristique Valeurs

Dimension de l’antenne

l = 0.7 m

L = 0.7 m

antenne rectangulaire

2.2 Les satellites utilisés 11

Fréquence de la porteuse f = 9.65 GHz

Longueur d’onde λ = 3.1 cm

L’inclinaison i = 97.44

Le cycle de phasage 11 jours

Hauteur nominale de l’orbite à

l’équateur

514 km

Nombre d’orbites par jour 152/11 km

Angle d’incidenceStripmap : 30 à 60

Spotlight : 20 à 55

Polarisations HH, VH, HV, VV

Fréquence de répétition des impul-

sions

PRF ∈ [2.0, 6.5] KHz

Bande passante en range 150 MHz (max)

Résolution en distance Stripmap : δdslant ∈ [1.0, 1.9] m

Polarisation : single ou dual Spotlight : δdslant ∈ [1.0, 1.9] m

Résolution en azimut Stripmap : δa ∈ [3.3, 6.6] m

Polarisation : single ou dual Spotlight : δa ∈ [1.1, 2.2] m

TAB. 2.3: Les caractéristiques du capteurs TerraSAR-X

2.2.2 RADARSAT-1

RADARSAT-1 est un satellite doté d’un radar a synthèse d’ouverture lancé par l’Agence

spatiale canadienne. Sept modes d’acquisition sont possibles :

1. Fine - avec une résolution nominale de 8 m, des angles d’incidence dans l’intervalle

[37, 47].

2. Standard - avec une résolution nominale de 30 m, des angles d’incidence dans l’inter-

valle [20, 49].

3. Wide - avec une résolution nominale de 30 m, des angles d’incidence dans l’intervalle

[20, 45].

4. ScansSAR narrow - avec une résolution nominale de 50 m, des angles d’incidence dans

l’intervalle [20, 49].

5. ScanSAR wide - avec une résolution nominale de 100 m, des angles d’incidence dans

l’intervalle [20, 49].

6. Extended high - avec une résolution nominale dans l’intervalle [18, 27] m, des angles

d’incidence dans l’intervalle [52, 58].

7. Extended low - avec une résolution nominale de 30 m, des angles d’incidence dans l’in-

tervalle [10, 22].

2.2 Les satellites utilisés 12

Le capteur SAR de RADARSAT-1 a des caractéristiques spécifiques, résumés dans le

tableau 2.4 et extraites du site officiel du satellite5.

Caractéristique Valeurs

Dimension de l’antenne

l = 1.5 m

L = 15 m

antenne rectangulaire

Fréquence de la porteuse f = 5.3 GHz

Longueur d’onde λ = 5.6 cm

L’inclinaison i = 98.6

Le cycle de phasage 24 jours

Hauteur nominale de l’orbite à

l’équateur

798 km

Nombre d’orbites par jour 14 km

Polarisations HH

Fréquence de répétition des impul-

sions

PRF ∈ [1.27, 1.39] KHz

Bande passante en range 11.6, 17.3, 30.0 MHz

TAB. 2.4: Les caractéristiques du capteurs RADARSAT-1

5http ://www.asc-csa.gc.ca/eng/satellites/radarsat1/components.asp

Chapitre 3

Différentes sources d’information

Pour mesurer les déformations à la surface du globe (déterminées par les volcans, les

glaciers, les tremblement de la Terre, etc.),les informations disponibles ont été principale-

ment celles prélevées jusque dans les années ’80, site, en effectuant des expéditions dédiées

qui pouvaient être dangereuses et coûteuses. Les données acquises servaient aussi pour l’in-

terprétation ou la validation des résultats. Dans bien des cas, les données acquises ont été

insuffisantes pour extrapoler les résultats sur l’ensable du problème considéré.

Dernièrement, les résolutions des images de télédétection spatiale se sont accrues avec

les nouveaux capteurs satellitaires, permettant l’extraction des informations nécessaires [1].

Ainsi les informations obtenues sur le terrain sont devenues des informations utilisées plutôt

dans l’étape de validation que pour l’analyse.

Dans la suite on présentera les différentes sources de données qu’on a classifié en des

sources directes et indirectes, en fonction d’un traitement préalable ou du processus d’ac-

quisition.

3.1 Les sources directes de données

Dans nos travaux nous avons utilisé comme sources directes de données des images

radar à synthèse d’ouverture, acquises par deux satellites différents, TerraSAR-X et RADARSAT-

1.

3.1.1 Les données de télédétection

La télédétection a reçu plusieurs définitions, selon le domaine d’application. On peut

citer les définitions les plus représentatives du terme, [8] :

1. La télédétection inclut toutes les méthodes d’acquisition d’images ou d’autres formes

d’artefacts électromagnétiques de la surface de la Terre à distance, et le traitement des

données acquises. La télédétection, dans le sens le plus large, concerne la détection

et l’enregistrement des rayonnements électromagnétiques à partir de régions cibles

13

3.1 Les sources directes de données 14

dans le champ de vision de l’instrument capteur. Ce rayonnement peut provenir di-

rectement de composants séparés de la région cible, il peut aussi être l’énergie solaire

réfléchie par les régions cibles, ou bien provenir des réflexions de l’énergie transmise

à la zone cible à partir du capteur lui-même.

2. La télédétection est la science d’acquisition d’informations relatifs à un objet à partir

de mesures effectuées à une certaine distance de l’objet, c’est à dire sans entrer effec-

tivement en contact avec lui.

3. La télédétection désigne les effets conjoints de l’emploi de capteurs modernes, du

matériel informatique, de la théorie de l’information et de la méthodologie du traite-

ment, de la théorie des communications et des dispositifs, des véhicules aériens (des

avions, des satellites) et des grands systèmes théorétiques et pratiques, afin d’observer

la surface de la Terre.

Les principales sources d’information utilisées dans la télédétection sont les images op-

tiques et les images radar à synthèse d’ouverture, acquises en utilisant soit les satellites, soit

des systèmes aéroportés.

Dans nos travaux nous avons utilisé seulement des données satellitaires radar à synthèse

d’ouverture, les images satellitaire optiques étant utilisés pour valider les résultats ou pour

bien localiser les points de contrôle.

3.1.1.1 Les données TerraSAR-X

Les données du satellite TerraSAR-X ne sont pas seulement des images RSO, mais aussi

des meta-données. Dans la figure 3.1 on expose la structure du produit fournis.

3.1 Les sources directes de données 15

FIG. 3.1: La structure du produit TerraSAR-X

Les données que nous utilisons se trouve dans le répertoire IMAGEDATA, d’un produit

standard. Dans ce répertoire on trouve seulement les images complexes (COSAR - COm-

plex SAR) quand on reçoit le produit. Dans la figure 3.1 on a représenté aussi les images

d’amplitude qui ne sont pas fournis, mais générées avec les outils EFIDIR.

Les échantillons de données RSO sont stockés dans le même ordre qu’ils sont acquis par

l’instrument RSO, ligne de range par ligne de range, l’échantillon correspondant à near range

étant stocké le premier.

Les échantillons des images complexes RSO sont stockés sous forme de complexes en-

tiers 16 bit/16bit (4 Octets), l’ordre étant big-endian (MSB).

Une autre source de données que nous utilisons dans notre approche est le fichier .xml

qui contient aussi bien des informations générales (PRF, RSF, etc.) que des informations spé-

cifiques (les vecteurs d’état, etc.). Dans la figure 3.2 on présente les modules qui résident,

aussi bien que les modules utiles pour nous.

3.1 Les sources directes de données 16

FIG. 3.2: La structure de meta-données utilisées

Dans nos travaux nous utilisons seulement quelques informations disponibles dans le

fichier .xml, ces données étant encadrées par des carrés bruns.

3.1.1.2 Les données RADARSAR-1

Les données fournis par RADARSAT-1, avec la structure illustrée dans la figure 3.3 re-

sultent d’un traitement initial realisé par le logiciel GAMMA1 qui génère deux fichiers avec

l’extensions .rslc et .rslc.par. Le fichier avec l’extension .rslc.par contient des informations

nécessaires dans le traitement ultérieur (les vecteurs d’état, etc.). Dans l’annexe 7.1.2 nous

présentons le format d’un tel fichier.

1Gamma est une collection de logiciels qui permettent le traitement de data RSO, RSO Interférométrique etRSO Interférométrique différenciel aussi bien pour les systèmes aéroportés que pour les systèmes satellitaires.

3.1 Les sources directes de données 17

FIG. 3.3: La structure du produit RADARSAT-1

3.1.1.3 La convergence de données de télédétection

Actuellement, il existe plusieurs satellites de télédétection qui fournissent des produits

avec un haut degré de spécificité. Les données peuvent être traitées en utilisant différents

outils parmi lesquels ROI-PAC2. Cet outil a été utilisé pour le traitement des données provenant

d’autres satellites. Pour réutiliser la chaîne de traitement déjà en place il était nécessaire

d’adopter une stratégie visant à assurer la convergence au niveau de meta-données.

Pour l’estimation de l’orbite nous avons choisi d’utiliser un format qui est compatible

avec le format de sortie de ROI-PAC, comme celui présenté dans l’annexe 7.1

La première colonne du tableau correspond au temps des vecteurs d’état, les trois colonnes

suivantes correspondent aux trois dimensions de la position dans le repère terrestre et les

trois colonnes suivantes correspondent aux trois composantes de la vitesse. Chaque ligne

dans le tableau correspond à un vecteur d’état.

Dans nos travaux nous avons implanter des outils pour amener les meta-données spéci-

fiques pour TerraSAR-X et RADARSAT-1 dans un format ROI-PAC. Cette partie est présenté

plus en détail dans la section ??.

2ROI-PAC est un ensemble de programmes Fortran et C liés avec des scripts perl pour effectuer certainestâches dans le domaine RSO. Plus précisément, les programmes individuels effectuer : conditionnement dedonnées, traitement de l’image SAR, formation de l’interférogramme, estimation de la corrélation, déroulementde la phase, estimation de la topographie, la suppression de la topographie dans une interférogramme déformée,et le géocodage

3.2 Les sources indirectes de données 18

3.2 Les sources indirectes de données

On peut considérer comme sources indirectes de données toutes les informations qui

sont obtenues en utilisant les résultat de traitements plus complexes qu’un filtrage ou un

ajustement radiométrique. Dans cette catégorie on trouve par exemple lesmodèles numériques

de terrain, les interférogrammes, ou encore les résultats des simulations s’appuyant sur les

méta-informations.

3.3 Modèle numérique de terrain

Le modèle numérique de terrain est une représentation de la topographie d’une zone

terrestre sous une forme adaptée à son utilisation par des logiciels tels que les SIG (Système

d’information géographique) qui permettent de calculer des surfaces ou des volumes, de

déterminer une trajectoire de survol du terrain, de tracer des profils topographiques ou de

manipuler de façon quantitative le terrain étudié. Le modèle numérique de terrain est une

donnée indispensable dans le processus de traitement d’images radar, en particulier dans

l’étape de rectification3 [1]. Dans ce cas, la Terre est modelisée par un ellipsoïde (parce qu’on

évite de trop nombreuses conversions pour l’utilisation d’une projection cartographique,

difficile de mettre en place pour la géométrie RSO), l’information d’altitude étant donnée

par le MNT.

On peut utiliser aussi un MNT pour simuler une images radar [1] qui va être utilisée

après comme image maître dans l’étape interférométrique. Dans la figure 3.4 on illustre les

étapes suivies pour obtenir le MNT.

3Processus équivalent à un recalage, qui consiste à mettre en correspondance une image RSO et une grillegéoréférencée à la surface du globe.

3.3 Modèle numérique de terrain 19

FIG. 3.4: Les étapes suivies pour obtenir un MNT

Pour obtenir le modèle numérique de terrain on peut utiliser soit des images optiques,

cette approche étant considérée par l’auteur de [1], soit des images radar. Des erreurs peu-

vent se produire dans le processus de calcul du MNT, quel que soit l’approche choisie, ces

erreurs étant résumées dans le tableau 3.1

Causes des erreurs

Images optiques

Topographie du terrain (pente orientée dans le sens contraire à l’an-

gle du capteur) [1].

Contraste insuffisant [1].

Phénomène d’occultation [1].

Caractéristiques du système optique [9].

Incertitude de la position du système [9].

Images radar

Caractéristiques du système radar [9].

Incertitude de la position du système [9].

Spécificité de la géométrie des images radar [1].

TAB. 3.1: Les sources d’erreurs dans le processus de calcul du MNT.

Dans nos travaux nous avons utilisé des modèles numériques de terrain pour deux ré-

gions avec une topographie bien différente, un MNT de la région de Chamonix (France) au-

tour des glaciers de la Mer de Glace et d’Argentiere, caractérisée par de grandes différences

d’altitude, et un de la région de Manaus (Brasil), caractérisée par la planéité du terrain. Les

deux MNT sont illustrés dans ??

Chapitre 4

Notions d’interférométrie

L’interférométrie en télédétection active désigne la technique ou les méthodes utilisant

au moins deux images complexes d’un radar à synthèse d’ouverture, afin d’obtenir des in-

formations supplémentaires sur les objets présents dans la zone imagée, en exploitant l’in-

formation contenue dans la phase du signal RSO, [2].

Pour que l’information de phase soit utile il faut qu’on calcule la différence de phase

(l’interférogramme) pour mesurer le déplacement de la cible entre deux acquisitions succes-

sives, [15]. Pour que l’information soit correcte il faut soustraire les contributions parasites.

La partie de la phase qui est exploitée par cette technique est la partie géométrique. Dans

cette approche on considère que la phase propre, comme elle a été définie dans la section

2.1.2.2, peut être éliminée, [14], si nous faisons la différence de la phase des deux images,

[12]. Nous obtenons cet effet si les deux images sont acquises dans le même temps et si les

réflecteurs élémentaires résidents dans un pixel contribuent de la même manière, [12].

4.1 La phase interférométrique

Le principe de l’interférométrie repose sur des différences de phase entre deux ou plusieurs

images radar. Les images utilisées pour calculer la différence de phase peuvent être acquises

soit avec une différence de position (satellites en tandem) soit avec une différence temps

lorsque le satellite repasse sur la même orbite. Après l’enregistrement ces deux images peu-

vent être comparées. La différence de phase qui résulte est un nouveau type d’image appelé

un interférogramme, [12], qui contient notamment de l’information sur la géométrie du ter-

rain. À la mesure de phase contribuent beaucoup des phénomènes physiques qui créent des

franges dans l’interférogramme. Les facteurs qui contribuent sont :

– La topographie - φtopo

– L’atmosphère - φatmo

– L’orbite - φorbitale

– Le bruit - φbruit

– Le déplacement - φdepl

Donc, la phase différentielle est constitué d’une somme de termes :

20

4.1 La phase interférométrique 21

φ = φtopo + φatmo + φorbitale + φbruit + φdepl

L’utilisation de la phase interférométrique nécessite d’isoler ou supprimer les effets dus

à la topographie, à l’atmosphère et aux orbites.

Pour pouvoir supprimer les effets parasites il faut comprendre les causes qui les pro-

duisent. Dans les sections suivantes nous présentons les facteurs les plus importants.

4.1.1 La contribution des trajectoires orbitales

La plupart des différences de phase correspond à la différence du point de vue due à un

changement de trajectoire orbitale entre deux acquisitions d’images. Pour que l’effet inter-

férométrique ne disparaisse pas dans l’alliasing il faut que les deux images qui sont com-

parées enregistrent un déplacement qui varie de moins qu’une demi-longueur d’onde par

pixel, [12]. Cette condition, dite la condition fondamentale pour l’interférométrie[12], est illustrée

au sens mathématique, en notant L la longueur perpendiculaire à la trajectoire d’un pixel

sur le terrain, λ la longueur d’onde et θ1 et θ2 les angles d’incidence dans l’image maître et

l’image esclave, par la relation :

2L(sin θ1 − sin θ2) < λ (4.1)

La convergence ou la divergence des trajectoires orbitales, illustrée dans la figure 4.1 sur

toute la durée de l’orbite fournie avec une image peut également créer des franges dans la

direction azimutale ("along-track"). La contribution de la topographie dans l’interférogramme

dépend de la baseline, comme on le va voir dans la section 4.1.2.

FIG. 4.1: L’évolution de la baseline entre deux trajectoires orbitales pour deux images acquises en2008.09.29 respectivement 2008.10.10 par le satellite TerraSAR-X.

4.1 La phase interférométrique 22

4.1.2 La contribution de la topographie

La topographie contribue aussi dans l’interférogramme avec un effet stéréoscopique qui

apparaît parce que la Terre est vue de deux points de vue légèrement différents. L’effet

se manifeste sous la forme des franges entourant les régions topographiques comme des

courbes de niveau, dites franges topographiques, [12].

Nous pouvons obtenir unemesure sur le nombre de franges topographiques en analysant

l’altitude d’ambiguïté.

L’altitude d’ambiguïté, ea, est définie en [14] comme l’élévation modulo laquelle l’alti-

tude d’un point peut être déterminée à partir de sa phase dans l’interférogramme en consid-

érant l’élévation d’un point, donnée par l’équation 4.2, dans le contexte d’un chemin simple

(et pas aller-retour). Une définition plus simple est donnée en [12] où l’altitude d’ambiguïté

est définie comme la différence d’altitude qui génère une frange topographique.

z = δdSxdS

hB= δdS

tan θMdS

B(4.2)

Dans le sens mathématique l’altitude d’ambiguïté est définie par la relation 4.3 où les

variables sont définies dans la figure 4.2 :

ea =λ tan θMd

2B(4.3)

FIG. 4.2: La relation entre la différence de chemin et l’altitude

Donc, l’altitude d’ambiguïté est inversement proportionnelle avec la baseline définie dans

la section précédente. Ainsi, si la baseline est grande, l’altitude d’ambiguïté est plus petite,

4.1 La phase interférométrique 23

ce qui correspond à une meilleure précision altimétrique mais à un nombre de franges to-

pographiques plus important, [14].

4.1.2.1 Effet des erreurs de MNT

L’altitude d’ambiguïté de l’interférogramme dépend directement de la base perpendic-

ulaire entre deux orbites, définit par l’équation 4.3. Il faut que nous nous assurions avant

d’utiliser un MNT que la mesure de déplacement ne sera compromise par les erreurs in-

troduites par l’imprécision du MNT. Nous avons calculé l’erreur introduite en fonction de

l’altitude d’ambiguïté pour un couple image acquise le 29.09.2008 et le 10.09.2008 par le

satellite TerraSAR-X. L’erreur altimétrique, δz introduit une erreur de phase, δφ, définie par

4.4 et une erreur sur le déplacement, εdepl définie par les relations 4.5, [14]

δφ = 2πδz

ea(4.4)

εdepl =λ

2· δz

ea(4.5)

Nous avons obtenu la valeur d’altitude d’ambiguïté dans le centre de l’image à partir des

informations suivantes :

θM = 0.662276401757

λ = 3.1 · 10−2m

d = 634962.533139843727m

B = 176.77149688628m

ea = λ tan θMd2B

ea = 3.1·10−2·tan(0.662276401757)·634962.5331398477272·176.771496188628

= 43.413812269

(4.6)

En prenant une précision altimétrique de l’ordre de 10 m pour le MNT utilisé nous pou-

vons calculer l’erreur de déplacement :

δz = 10 ⇒ εdepl =3.1 · 10−2 · 10

2 · 43.413812269= 0.0035703m = 3.5703mm (4.7)

Considérant que les mouvements étudies sont de l’ordre du centimètre tandis que les

erreurs introduites par les erreurs d’altimétrie sont de l’ordre de quelques millimètres on

peut utiliser notre MNT sans introduire des erreurs systématiques graves dans la chaîne de

traitement.

4.1.3 La contribution de l’atmosphère

Si les deux images satellitaires ne sont pas acquises dans le même temps, comme dans

notre cas, l’état de l’atmosphère n’est plus le même. Donc toutes les différences dans la tro-

posphère ou dans l’ionosphère entre les deux dates d’acquisition peuvent changer la dis-

4.1 La phase interférométrique 24

tance apparente entre le radar et le sol. Les variations ionosphériques peuvent également

affecter la propagation des ondes radar. Un changement homogène dans l’atmosphère (en

ce qui concerne la pression, l’humidité et la température) peut être présenté par un relief

contrasté qui module l’épaisseur de la troposphère que le signal doit traverser,[12].

Tous ces effets apparaîssent comme des changements de phase dans l’interférogramme.

4.1.4 La contribution du déplacement

Le radar mesure dans un sens mathématique la variation scalaire dans la distance radar-

sol, i.e. la composante du vecteur de déplacement dans la direction de l’axe radar. Donc tous

les déplacements d’une partie de la scène imagée le long de la visée apparaîssent directe-

ment comme des changements de phase par rapport au reste de la scène. En autres termes

chaque déplacement le long de la visée radar avec une demi-longueur d’onde crée une nou-

velle frange dans l’interférogramme, [12].

Cette composante de la différence de phase est la plus recherchée, celle composante, que

nous voulons garder après la soustraction des franges considérées parasites.

Chapitre 5

Modèles et mécanique satellitaire

Pour une meilleure localisation des points dans une image satellitaire, il faut que nous

considérions les aspects liées aussi à la mécanique satellitaire [4] qui à la forme de la Terre.

Cet aspect s’avère particulièrement important si nousmanipulons des images RSO où l’échan-

tillonnage spécifique introduit des distorsions géométriques qui peuvent ou non être cor-

rigées en utilisant des données supplémentaires [1] (comme le modèle numérique de ter-

rain). En sachant que la localisation d’un objet [4] ponctuel s’effectue selon le choix d’un

référentiel qui peut être géographique1, cartographique2 ou cartésien3 nous cherchons à lo-

caliser les objets en considérant un référentiel cartésien.

5.1 Les orbites pour les satellites de télédétection

Pour choisir l’orbite du satellite utilisé en télédétection, on considère les aspects suivants,

[3] :

1 Il faut qu’il fournisse une couverture globale ou quasi globale de la Terre.

2 Il faut que la répétitivité soit accomplie, et sans lacunes.

3 Il faut que l’altitude du satellite soit la même pour la même région mais à des moments

différents.

4 Il faut que les conditions d’illumination soient les mêmes pour la même région mais à des

moments différents.

5 Il faut que les perturbations n’influencent pas le processus d’acquisition.

Les quatre premiers conditions sont remplies si on considère une orbite héliosynchrone.

La cinquième condition est remplie par des ajustements du semi-axe majeur de l’orbite.

1Nous considérons des objets géographiques de référence.2Nous considérons des objets cartographiques placés sur une carte.3Nous considérons un référentiel absolu sans nécessité de localisation géographique ou cartographique.

25

5.2 Les modèles des orbites 26

5.2 Les modèles des orbites

Des modèles complexes ont été élaborés pour faire face aux exigences des applications

dédiées pour lesquelles la précision est l’un des préoccupations majeures. Néanmoins, les

caractéristiques des orbites peuvent être décrites en utilisant des approximations simples,

principalement basées sur la mécanique newtonienne. Les lois du mouvement planétaire

sont les résultats des lois de Kepler.

5.2.1 La forme de l’orbite

En faisant l’hypothèse que la Terre possède une symétrie sphérique [4] et que la masse

du satellite est négligeable [3] par rapport à la masse de la Terre -MT = 5.974 · 1024kg- on

peut exprimer la force exercée par la Terre sur le satellite, dans les termes newtoniens :

F = G · MT · mS

r2(5.1)

et dans un format vectoriel :

~F = − ~gradU (5.2)

Si nous introduisons µ = G · MT - le coefficient de gravité - il en résulte :

~F = −µmS~r

r3(5.3)

avec l’accélération gravitationelle :

~r = −µ~r

r3(5.4)

FIG. 5.1: La relation entre les vecteurs représentatifs, d’après [3]

5.2 Les modèles des orbites 27

La force d’attraction gravitationnelle,~F, est antiparallèles avec le vecteur de position,~r,

le résultat étant que le satellite ne peut pas quitter le plan de l’orbite, c’est à dire que l’ac-

célération perpendiculaire au plan orbital est nulle. Ça peut être exprimé mathématique-

ment comme ci-dessous [3] :

~r × ~r = −µ 1r3 (~r × ~r) = 0

~r × ~r = ~r × ~r + ~r × ~r = ddt(~r × ~r) = M

ms

=⇒ ~r × ~r = ~h = const (5.5)

où × est le produit vectoriel de deux vecteurs, ~r est la vitesse du satellite tandis que ~r est

l’acceleration du satellite.

La relation ci-dessus spécifie que l’orbite est limitée à un plan parce que ~h - appelé mo-

ment cinétique spécifique - est perpendiculaire à tous les vecteurs, position et vitesse, et il a

aussi une valeur constante [3]. Si nous exprimons l’aire en fonction de ces vecteurs on peut

obtenir :

∆A = 12 | ~r × ~r∆t |= 1

2 | ~h | ∆t~h = const

=⇒ 2emeloi de Kepler (5.6)

où ∆A est definie comme dans la figure 5.1

La deuxième loi de Kepler spécifie que si la Terre représente le foyer d’un ellipse qui est

le plan orbital d’un satellite alors le rayon d’ellipse balaie des aires égales dans des inter-

valles de temps égaux. Pour trouver les paramètres qui caractérisent l’ellipse, en sachant

que les vecteurs moment cinétique spécifique et accélération sont perpendiculaires, nous

considérerons le produit vectoriel entre ces deux vecteurs :

~h × ~r = 1µ 1r3 · (~h × ~r)

~h × ~r = (~r × ~r) × r = ~r(~r · ~r) − ~r(~r · ~r)ddt(

~rr ) = 1

r~r − ~r

r2~r

= 1r3 [~r(~r · ~r) − ~r(~r · ~r)]

=⇒ ~h × ~r = r3 ddt(

~rr )

=⇒ ~h×~r = −µd

dt(~r

r)

(5.7)

t

t+∆t~h × ~rdt =

t

t+∆t

−µd

dt(~r

r)dt =⇒

~h × ~r = −µ(

~rr

)

− A

(~h × ~r) · ~r = −µr − A · ~r(~h × ~r) · ~r = −(~r × ~r) · ~h = ~h · ~h

=⇒ h2 = µr+Ar cos v

(5.8)

où avec v est noté l’anomalie vrai qui est l’angle entre la direction des apsides 4 et la direction

terre-satellite d’après [4]. Si on divise par µ on obtient les valeurs des paramètres de l’ellipse.

h2

µ= r +

Ar cos v

µ=⇒

p = h2

µ

e = Aµ

(5.9)

4La semi-grande axe de l’ellipse.

5.2 Les modèles des orbites 28

où p est le semi latus rectum de l’ellipse tandis que e est l’excentricité de l’ellipse. On peut ainsi

obtenir la relation pour le rayon de l’ellipse en fonction de ces deux paramètres, comme

ci-dessous :

r =p

1 + e cos v(5.10)

L’équation 5.10 définit le trajet du satellite, car elle établit une relation entre le vecteur de

position associé au satellite et la direction de référence A, [3]. L’équation peut être aussi

assimilée comme une extension de la première loi de Kepler qui spécifie que les orbites des

planètes sont des ellipses ([3]). Comme nous avons déjà dit, lq trajectoire dans le plan orbital

est une ellipse, donc, on peut obtenir les valeurs maximum et minimum pour la distance du

satellite par rapport au centre de la terre :

rmin = p1+e

rmax = p1−e

(5.11)

Les points correspondants sur l’orbite sont appelés périgée, respectivement apogée. En

sachant les valeurs pour ces distances on peut obtenir la valeur de la ligne des apsides.

a =rmin + rmax

2=

p

1 − e2(5.12)

Nous avons obtenu ainsi les paramètres qui déterminent la forme de l’orbite.

FIG. 5.2: Les paramètres de l’ellipse, d’après [4]

En considérant la loi de conservation d’énergie ou la loi vis-viva [3] on peut obtenir les

valeurs pour les vitesses dans les points significatifs, le périgée et l’apogée, aussi bien que

dans n’importe quel point sur l’ellipse :

vper =√

µa

1+e1−e

vap =√

µa

1−e1+e

v =√

µ√

2r − 1

a

(5.13)

Même si nous savons la vitesse du satellite, nous ne savons pas où il se trouve sur l’orbite

à un certain moment, parce que nous n’avons l’information du temps dans aucune équation

définie jusqu’à présent, qui sera introduite dans la suite.

5.2 Les modèles des orbites 29

5.2.2 Le déplacement sur l’orbite

Pour inclure le temps on considère un cercle circonscrit à l’ellipse par rapport auquel on

peut définir un nouveau paramètre, l’anomalie excentrique, E.

FIG. 5.3: La définition pour l’anomalie excentrique, E, d’après [3]

En fonction de ce paramètre on peut exprimer la position du satellite sur l’orbite (x, y),

où x, y et E sont fonctions du temps.

r2 = x2 + y2

r = a(1 − e cos E)(5.14)

On peut ainsi exprimer le module du moment cinétique spécifique en fonction de E,

comme ci-dessous :

h =| ~h |= ~x · ~y − ~y · ~x= a(cos E − e) · a

√1 − e2 cos EE + a

√1 − e2 sinE · a sinEE

= a2√

1 − e2E(1 − e cos E)

h =√

µa(1 − e2)

a2√

1 − e2E(1 − e cos E) =√

µa(1 − e2)

n =√

µa3

⇒ (1 − e cos E)E = n

(5.15)

Dans cette équation nous avons noté avec n le mouvement moyen. On intégrera main-

tenant par rapport au temps pour obtenir une relation remarquable.

(t)E(1 − e cos E)dt =

(t)ndt ⇒ E(t) − e sin E(t) = n(t − tp) (5.16)

La relation ci-dessus est connue comme l’équation de Kepler, en sachant que tp est le

temps du périgée, qui correspond au moment où l’anomalie excentrique est nulle. Nous

définissons encore un autre paramètre pour simplifier l’équation de Kepler, l’anomaliemoyenne,

qui, en faisant l’hypothèse que la vitesse est constante le long de l’ellipse (peu réaliste d’après

5.2 Les modèles des orbites 30

[4]) croît linéairement avec le temps [4], contrairement aux anomalies vraie et excentrique

[3].

M = n(t − tp) ⇒ E(t) − e sin E(t) = M (5.17)

En sachant que la période orbitale est l’intervalle dans lequel l’anomaliemoyenne change

avec 2π on peut extraire maintenant la relation ci-dessous :

T =2π

n= 2π

a3

µ(5.18)

Pour exprimer le mouvement du satellite dans un autre système référentiel que le plan

orbital naturel nous rajoutons deux vecteurs unité P et Q, le premier vecteur pointe vers le

périgée, tandis que le dernier est perpendiculaire au premier et correspond à une anomalie

vrai de 90. En ce cas, le vecteur de position est exprimé comme ci-dessous :

~r = x~P + y ~Q

= r cos v ~P + r sin v ~Q

= a(cos E − e)~P + a√

1 − e2 sinE ~Q

(5.19)

Le système de coordonnées le plus utilisé est le système équatorial de coordonnées, il-

lustré dans la figure 5.4, qui est aligné avec l’axe de rotation de la Terre et avec l’équateur

et ayant l’origine au centre de la Terre, l’axe Oz pointe vers le Nord tandis que le plan xOy

forme le plan équatorial5

5L’axe Ox est alignée avec l’équinoxe de printemps γ qui est en fait l’intersection du plan équatorial avec leplan orbital de la Terre [3].

5.2 Les modèles des orbites 31

FIG. 5.4: Le système équatorial de coordonnées c©IMCCE

Dans la figure ci-dessus les paramètres α et γ représentent l’ascension droite6, respec-

tivement la déclinaison7.

Pour indiquer l’orientation du plan orbital et le périgée par rapport au système de coor-

données équatoriales il faut introduir trois nouveaux paramètres :

L’inclinaison - i - l’angle de l’orbite par rapport au plan équatorial [4]. Une inclinaison de

plus de 90 indique un déplacement rétrograde du satellite autour de la Terre [3].

L’ascension droite du nœud ascendant -Ω - l’angle entre équinoxe de printemps γ et la di-

rection du nœud ascendant8 [4]. Cet angle est exprimé dans le plan équatorial.

L’argument du périgée - ω - l’angle entre la direction du nœud ascendant et celle du périgée.

Cet angle est exprimé dans le plan de l’orbite.

6L’ascension droite est l’équivalent de la longitude terrestre.7La déclinaison est l’équivalent de la latitude terrestre projetée sur la sphère céleste.8Le point sur l’orbite où le satellite traverse l’Équateur du sud au nord [3]

5.2 Les modèles des orbites 32

FIG. 5.5: Les angles qui indiquent l’orientation du plan orbital et le périgée par rapport au systèmede coordonnées équatoriales9

Pour exprimer la position du satellite dans l’espace en fonction de ces trois angles il faut

introduir dans le système orbital un nouveau vecteur unité, W :

~W =~h

h(5.20)

Ainsi la correspondance entre les deux systèmes de coordonnées est obtenue en utilisant

la relation suivante :

(x, y, z) = (r cos v, r sin v, 0) (5.21)

Si on effectue trois rotations, une rotation autour de l’axe définie par W avec un angle de

−ω, l’autre autour de la nouvelle axe Ox avec un angle de −i, et la dernière rotation autour

de la nouvelle axe Oz avec un angle de −Ω autour de l’axe on peut obtenir la position du

satellite en utilisant les vecteurs gaussiens, P , Q, W qui sont définit comme ci-dessus :

(P, Q, W ) = Rz(−Ω)Rx(−i)Rz(−ω)

P =

+ cos ω cosΩ − sin ω cos i sinΩ

+ cos ω sinΩ + sinω cos i cosΩ

+ sinω sin i

Q =

− sinω cos Ω − cos ω cos i sinΩ

− sinω sinΩ + sin ω cos i cos Ω

+ cos ω sin i

W =

+ sin i sinΩ

− sin i cosΩ

+ cos i

(5.22)

5.3 Les modèles de la Terre 33

5.3 Les modèles de la Terre

La Terre n’est pas une sphère parfaite, le plus simple modèle étant une sphère aplatie

dont l’axe de symétrie est confondue avec l’axe de rotation [4]. Le standard utilisé le plus

courant pour modéliser l’ellipsoïde terrestre est WGS84 qui définit les deux rayons remar-

quables, a10 et b11, comme ci-dessus :

a = 6378.137 km

b = 6356.752 km(5.23)

En sachant ces deux valeurs, et en plus la valeur de la latitude, Ψ, on peut ainsi déter-

miner le rayon de la Terre en utilisant la relation :

R =√

a2 cos Ψ + b2 sinΨ (5.24)

La non-sphéricité de la Terre modifie aussi l’expression qu’on a considéré pour la force

d’attraction. Heureusement seulement deux paramètres ont une influence notable :

L’aplatissement aux pôles - modélisée par le paramètre J2 = 1.0827 · 10−3.

La forme elliptique de l’équateur - introduit les paramètres : J22 = 1.803 · 10−6 et λ22 =

14.91

Ces paramètres interviennent dans la relation du potentiel de gravité :

U =µ

r

(

1 −∞

n=2

(RT

r

)nJnPn cos Φ +

∞∑

n=2

∞∑

q=1

(RT

r

)nJnqPnq cos Φ cos(q(λ − λnq))

)

(5.25)

Où :

RT - le rayon terrestre

Φ - latitude de la projection sur le globe du point considéré

λ - longitude de la projection sur le globe du point considéré

Jn - harmonique zonale

Jnq - harmonique tesserale

λnq - longitude propre à l’harmonique tesserale

Pn - Polynôme de Legendre

En fait, le modèle elliptique n’est pas un modèle réaliste si on veux l’utiliser en consid-

érant aussi les altitudes de différentes points sur la Terre [1]. Le modèle elliptique est idéal

pour la cartographie à grande échelle. Donc on a besoin d’un modèle avec lequel on peut

aussi considérer les altitudes. Ce modèle est représenté par le géoïde.

10Le rayon à l’Équateur .11Le rayon aux pôles.

5.4 Conclusions 34

FIG. 5.6: Les modèles terrestres, [1]

5.4 Conclusions

Les modèles de la Terre et de l’orbite sont nécessaires dans le processus de recalage de

données (soit satellitaires ou aéroportées). La choix du modèle dépend de l’application ou

de la priorité des informations qui doivent être conservées pendant le traitement parce que

les transformations propres aux changement de référentiel sont irréversibles et le système

choisi peut conserver plus ou moins certaines informations. La choix est aussi influencé par

la géométrie des images utilisées. Dans la suite on va présenter la géométrie des images

radar pour lesquelles le meilleur système de coordonnées se révèle être WGS84 [1], parce

que : il est utilisable en tout point de la Terre et il évite de trop nombreuses conversions pour

l’utilisation d’une projection cartographique, difficile de mettre en place pour la géométrie

RSO.

Chapitre 6

Applications et résultats

6.1 Convergence des formats de méta-données

Jusqu’à présent, la chaîne est approprié pour le traitement d’un format commun, qui ré-

sulte d’un logiciel de pré-traitement, ROI-PAC, introduit dans la section 3.1.1.3. Pour rester

compatible avec l’infrastructure logistique nous avons choisi de réaliser des convertisseurs

pour le format .xml, qui accompagne les images acquises par le satellite TerraSAR-X, et

.rslc.par, qui décrit les images acquises par le satellite RADARSAT-1.

Les informations disponibles dans le fichier ROI-PAC ne sont pas suffisantes ni pour es-

timer l’orbite ni pour amener les Modèles Numériques de Terrain dans la géométrie SAR

si on travaille avec des images acquises par TerraSAR-X. Dans, le fichier .xml on dispose

d’informations qui concernent les aspects essentielles dans nos travaux, l’émulation de l’or-

bite et le re-échantillonage de l’image esclave sur l’image maître. Dans la figure 6.1 nous

présentons les informations qui sont extraites pour chaque étape de traitement.

6.2 Détermination fine des orbites

L’équation du mouvement, 5.16, et le modèle de la Terre, présentés dans le chapitre 5

fournissent le cadre de base pour décrire le mouvement du satellite par rapport à une sta-

tion au sol. Si on tient compte de sa position initiale, des vecteurs vitesse et de différents

paramètres du modèle, la position peut être calculé à instant quelconque, [3]. Le problème

devient complexe si nous voulons déterminer les éléments orbitalle ou les paramètres du

modèle étant donné un ensemble d’observations. Dans notre cas, l’ensemble d’observations

est représenté par les vecteurs d’état.

Même si les deux semblent équivalents, ils sont des aspects totalement distinctes. L’équa-

tion du mouvement est considéré par [3] comme une détermination préliminaire de l’orbite,

réalisé si on connaît les cinq éléments orbitale (l’inclinaison i, l’ascension droite du noeud

ascendant Ω, l’argument du périgée ω, la demi-axe grande de l’ellipse a et l’excentricité e)

tandis que la détermination des éléments de la position du satellite est considéré comme

estimation de l’orbite.

35

6.2 Détermination fine des orbites 36

FIG. 6.1: Les informations extraites d’un fichier .xml

La détermination préliminaire de l’orbite est nécessaire si on veut déterminer les erreurs

d’injection du lanceur, tandis que l’l’estimation de l’orbite est nécessaire, dans notre cas, pour

recaler les données RSO et pour extraire les franges orbitales des interférogrammes.

Pour l’estimation de l’orbite deux méthodes connues sous le nom de technique batch et tech-

nique séquentielle ont été proposées. La technique batch1 remonte à la fin du 18eme siècle, étant

introduite par Gauss, tandis que la technique séquentielle2 a été introduite il y a trente ans par

Kalman.

Notre approche converge vers la technique batch, étant fondé sur une adaptation de

la régression polynomiale sur cette technique. Dans la suite nous présentons les notions

théoriques sur les régressions polynomiales et les résultats obtenus avec notre méthode.

6.2.1 Technique batch

L’idée de base de cette technique appliquée à la détermination de l’orbite est de trouver la

trajectoire pour laquelle le carré de la différence entre l’observation modélisée et les mesures

réelles sont les plus petits possible, ou de trouver une trajectoire qui correspond le mieux

1La technique de moindres carrés2La technique du filtre

6.2 Détermination fine des orbites 37

aux observations au sens des moindres carrés pour les résidus.

Pour trouver la trajectoire qui correspond le mieux aux observations nous avons utilisé

le modèle de la régression polynomiale. Le modèle de la régression polynomiale de dégrée

n est définit, généralement, par la relation :

y(x) = a0 + a1x + a2x2 + . . . + anxn + ε (6.1)

Dans ce cas, la relation entre la variable indépendante x et la variable dépendante y est

modélisée en utilisant un polynôme. Le modèle de régression est non linéaire par rap-

port à la variable indépendante x, mais il est linéaire par rapport aux paramètres inconnus

a0, a1 . . . an, [11].

Dans la relation (6.1) ε est une variable aléatoire ayant une espérancemathématique nulle

(E[ε] = 0) et une variance égale à σ2 (E[ε2] = σ2, la même que la variance de la variable y,

[10]. Dans ce cas, x peut être aussi bien une variable aléatoire que un vecteur de variables

aléatoires.

6.2.1.1 Modèle polynomiale

Dans notre cas le dégrée de polynôme, préconise par les méta-données, est 7 et les vari-

ables impliquées dans le modèle sont les coordonnées, x, y, z comme des variables dépen-

dantes, tandis que le temps correspondant est la variable indépendante. Le modèle résultant

de la régression est exprimé par la relation :

xi = a0 + a1ti + a2t2i + . . . + a7t

7i + ε1i

yi = b0 + b1ti + b2t2i + . . . + b7t

7i + ε2i

zi = c0 + c1ti + c2t2i + . . . + c7t

7i + ε3i

(6.2)

où i prend des valeurs entre 1 etm,m étant le numéro des échantillons de x, y, z, disponibles à

l’instant t. Dans le cas des images TerraSAR-X par couple,m est 12, parce qu’on a 12 vecteurs

d’état. Donc on a un système de 12 équations avec 8 valeurs inconnus pour chaque coordon-

née. Le système d’équations correspondant à la coordonnée x s’écrit :

x1 = a0 + a1t1 + a2t21 + . . . + a7t

71 + ε11

x2 = a0 + a1t2 + a2t22 + . . . + a7t

72 + ε12

...

x12 = a0 + a1t12 + a2t212 + . . . + a7t

712 + ε112

(6.3)

Donc, la régression polynomiale est limité à l’estimation de paramètres, a0, a1 . . . a7, pour

x à l’estimation de leur qualité (l’erreur résiduelle) et à la vérification du modèle sur des

échantillons disponibles, [11]. Les échantillons disponibles sont des paires de valeurs (xi, ti),

(yi, ti) et (zi, ti).

6.2 Détermination fine des orbites 38

6.2.1.2 Modèle matriciel

Le système d’équations (6.3) peut être exprimé de façon plus compacte avec une notation

matricielle. En introduisant les notations suivantes :

X =

x1

x2

...

x12

C =

1 t1 t21 . . . t711 t2 t22 . . . t72...

1 t12 t212 . . . t712

E =

ε11

ε12

...

ε112

Θ =

a0

a1

...

a12

Nous pouvons ainsi écrire l’équation de définition pour le modèle de régression polynomi-

ale sous la forme matricielle :

X = CΘ + E (6.4)

6.2.1.3 Estimation des paramètres de régression

La méthode la plus utilisée pour la détermination des paramètres de régression est la

méthode des moindres carrés. Le principe de cette méthode est que les estimateurs des

paramètres doivent être choisit de manière à ce que la somme des différences au carré en-

tre les valeurs observées et les valeurs estimés soit minimum. Si nous définissons le résidu

comme la différence entre la valeur observée et la valeur estimée :

ei = xi − (a0 + a1ti + a2t2i + . . . a7t

7i ) (6.5)

on peut calculer l’Erreur Quadratique Moyenne :

Q =1

n

n∑

i=1

e2i =

1

n

n∑

i=1

[xi − (a0 + a1ti + a2t2i + . . . a7t

7i )]

2 (6.6)

qui est la quantité qui doit être minimisée.

Dans les conditions d’une régression polynomiale dont le modèle est exprimé par la

relation (6.1) et en disposant de m paires d’échantillons (y1, x1), (y2, x2) . . . (ym, xm) les esti-

mateurs sont obtenus en égalant à zéro les dérivées partiales par rapport à chaque paramètre

de l’erreur quadratique moyenne.

Dans notre cas, cette annulation est traduite par :

δQδa0

=∑12

i=1δ

δa0([xi − (a0 + a1ti + a2t

2i + . . . a7t

7i )]

2) = 0

δQδa1

=∑12

i=1δ

δa1([xi − (a0 + a1ti + a2t

2i + . . . a7t

7i )]

2) = 0...δQ

δ ˜a12=

∑12i=1

δδa12

([xi − (a0 + a1ti + a2t2i + . . . a7t

7i )]

2) = 0

(6.7)

6.2 Détermination fine des orbites 39

En termes de matrice, on peut facilement prouver que :

Q =[

e11e12

. . . e112

]

·

e11

e12

...

e112

= ETE= (X − CΘ)T (X − CΘ)

(6.8)

Donc, en dérivant cette dernière relation on obtient :

δQ = −δΘT CT (X − CΘ) − (X − XΘ)T CδΘ

= −2δΘT CT (X − CΘ)(6.9)

Le système présenté en (6.7) devient :

δQ = 0 =⇒

CT (X − CΘ) = 0

CT X − CT CΘ = 0 =⇒

CT X = CT CΘ

Θ = (CT C)−1CT X

(6.10)

Après avoir déterminé les valeurs des coefficients nous pouvons déterminer la valeur de

x, y, z quel que soit la valeur du t en utilisant l’équation (6.1).

Les coordonnées de la trajectoire du porteur pendant le vol x, y, z sont exprimer par

rapport a un referentiel terrestre cartesien de l’ellipsoide WGS-84.

6.2.2 Chaîne de traitement

Lemodèle théorétique peut être divisé en deux étapes de traitement, comme il est illustré

dans la figure 6.2 :

1. La détermination des coefficients

2. L’obtention des estimateurs de la trajectoire du satellite

6.2.3 Résultats d’émulation fine des orbites

La précision de l’approche a été vérifiée en comparant les résultats obtenus avec les fonc-

tions implantées en C, résumées dans le tableau 6.2 avec les résultats obtenus avec fonctions

natives Matlab, résumées dans le tableau 6.1 et avec les résultats obtenues avec le logiciel

DORIS3, illustrées dans la figure 6.3.

3DORIS - Delft Object−oriented Radar Interferometric Software est un nouveau logiciel de traitement InSARdéveloppé par l’Université de Technologie de Delft, écrit entièrement en C++ dans une manière modulaire,chaque module identifiant un algorithme diffèrent pour une étape de traitement.

6.2 Détermination fine des orbites 40

FIG. 6.2: La configuration du module d’estimation de l’orbite

FIG. 6.3: Les résultats obtenus avec le logiciel DORIS

6.2Déterm

ination

finedes

orbites

41

No x y z x − x y − y z − z EQR

1 5.126331e+06 1.990383e+05 4.587946e+06 1.765322e-05 1.495844e-05 1.271162e-05 2.640031e-052 5.076658e+06 1.801611e+05 4.643465e+06 -1.086444e-04 -9.575539e-05 -7.332023e-05 1.623224e-043 5.026341e+06 1.613349e+05 4.698415e+06 2.634274e-04 2.471019e-04 1.517422e-04 3.917640e-044 4.975386e+06 1.425630e+05 4.752790e+06 -3.012065e-04 -3.173135e-04 -9.290781e-05 4.472640e-045 4.923798e+06 1.238484e+05 4.806584e+06 1.383442e-04 1.972046e-04 -1.154244e-04 2.671172e-046 4.871586e+06 1.051946e+05 4.859789e+06 -2.433546e-06 -5.437147e-05 1.882873e-04 1.959957e-047 4.818754e+06 8.660454e+04 4.912400e+06 8.389354e-06 3.922460e-05 -1.760107e-05 4.380352e-058 4.765309e+06 6.808146e+04 4.964409e+06 3.549922e-05 -3.324106e-05 -1.091361e-04 1.194816e-049 4.711259e+06 4.962850e+04 5.015811e+06 -1.546741e-04 -3.849959e-05 4.471652e-05 1.655471e-0410 4.656609e+06 3.124876e+04 5.066599e+06 1.670225e-04 7.236802e-05 3.547780e-05 1.854516e-0411 4.601367e+06 1.294537e+04 5.116768e+06 -7.668231e-05 -3.899652e-05 -3.129989e-05 9.154555e-0512 4.545540e+06 -5.278616e+03 5.166310e+06 1.330767e-05 7.319951e-06 6.760471e-06 1.662467e-05max 2.634274e-04 2.471019e-04 1.882873e-04 4.472640e-04min -3.012065e-04 -3.173135e-04 -1.154244e-04 1.662467e-05moy -3.012065e-04 -3.173135e-04 -1.154244e-04 1.761098e-04

TAB. 6.1: Les résultats obtenus en utilisant les fonctions Matlab

6.2Déterm

ination

finedes

orbites

42

No x y z x − x y − y z − z EQR1 5.126331e+06 1.990383e+05 4.587946e+06 2.040993e-05 1.493006e-05 1.331978e-05 2.858126e-052 5.076658e+06 1.801611e+05 4.643465e+06 1.193387e-04 9.564584e-05 7.630885e-05 1.709178e-043 5.026341e+06 1.613349e+05 4.698415e+06 2.742223e-04 2.469788e-04 1.555271e-04 4.004811e-044 4.975386e+06 1.425630e+05 4.752790e+06 2.966104e-04 3.173510e-04 9.187125e-05 4.439930e-045 4.923798e+06 1.238484e+05 4.806584e+06 1.302212e-04 1.973078e-04 1.186198e-04 2.644969e-046 4.871586e+06 1.051946e+05 4.859789e+06 9.065494e-06 5.430369e-05 1.862328e-04 1.942003e-047 4.818754e+06 8.660454e+04 4.912400e+06 1.318287e-05 3.915146e-05 1.537148e-05 4.407842e-058 4.765309e+06 6.808146e+04 4.964409e+06 4.397519e-05 3.334413e-05 1.060106e-04 1.195152e-049 4.711259e+06 4.962850e+04 5.015811e+06 1.569893e-04 3.845637e-05 4.342012e-05 1.673614e-0410 4.656609e+06 3.124876e+04 5.066599e+06 1.572650e-04 7.249547e-05 3.163610e-05 1.760361e-0411 4.601367e+06 1.294537e+04 5.116768e+06 6.876327e-05 3.911005e-05 2.789497e-05 8.388154e-0512 4.545540e+06 -5.278616e+03 5.166310e+06 1.149252e-05 7.347316e-06 5.939044e-06 1.487728e-05max 2.966104e-04 3.173510e-04 1.862328e-04 4.439930e-04min 9.065494e-06 7.347316e-06 5.939044e-06 1.487728e-05moy 1.084614e-04 9.636850e-05 7.267933e-05 1.757017e-04

TAB. 6.2: Les résultats obtenus en utilisant les fonctions C

6.3 Fusion d’informations 43

6.3 Fusion d’informations

Dans nos travaux nous avons essayé de soustraire les franges orbitales et les franges

topographiques. Les régions étudiées, spécifiées par les Modèles Numériques de Terrain,

sont :

– la région de Chamonix (France) autour des glaciers Mer de Glace et Argentiére carac-

térisée par de grandes différences d’altitude. L’interférogramme de cette région con-

tient des franges orbitales (moins évidentes) et des franges topographiques (très évi-

dentes). La région de Chamonix est illustrée dans la figure 6.4.

– la région de Manaus (Brésil) caractérisée par la planéité du terrain. L’interférogramme

de cette région contient plutôt des franges orbitales que des franges topographiques.

La région de Manaus est illustrée dans la figure 6.5

FIG. 6.4: Le MNT de la région de Chamonix

6.3 Fusion d’informations 44

FIG. 6.5: Le MNT de la région de Manaus

Nos travaux se divisent en deux parties associées à la manière de traiter l’ensemble de

données utilisées. Le premier objectif a été de géolocaliser les images RSO. Dans ce cas,

nous voulons localiser le MNT dans l’image RSO et ainsi conaître, pour les points d’image

RSO qui appartiennent à la région imagée par le MNT, la latitude et la longitude. Nous

utilisons deux sources de données : les méta-données qui accompagnent les images RSO et

le MNT. Le deuxième objectif a été de calculer la déformation a priori liée à la topographie

et aux orbites. Dans ce cas nous utilisons trois sources de données : deux fichiers de méta-

données correspondants a deux images RSO,maître et esclave et unMNT. Dans la suite nous

présentons les algorithmes et les resultats obtenus dans les deux parties de nos travaux.

6.3 Fusion d’informations 45

6.3.1 Géolocalisation des images RSO

L’étape décrite dans la section 6.2 représente la partie initiale pour toutes les pistes que

nous avons essayé pendant le stage. Toutefois, nous nous sommes concentrés sur les images

acquises par le satellite TerraSAR-X, pour lesquelles on dispose des informations qui ont été

introduites dans la figure 6.1.

Les coordonnées de la trajectoire du porteur que nous obtenons dans la première étape

de traitement sont exprimées dans le référentiel terrestre cartésien tandis que tous les points

du MNT se trouve dans un système de projection lié à l’ellipsoïde WGS-84. Donc, dans une

première étape il faut que nous amenons les coordonnées des points du MNT dans le repère

cartésien.

La deuxième étape consiste a calculer pour chaque point du MNT sa projection sur la

trajectoire du porteur et on déduise également aussi le temps d’acquisition, c’est à dire l’in-

stant t sur la trajectoire où le point est vu par le satellite perpendiculairement à la trajectoire

(dans l’hypothèse dite "0 Doppler" où il y a pas de depointage de l’antenne). Pour arriver a

faire ça nous disposons :

– des coordonnées tridimensionnelles des points au solPij en considèrent le géoréférence-

ment du MNT

– la trajectoire émulée décrite par le couple (x, y, z, t)

Pendant le travail nous avons observé que la distance entre le point au sol Pij et chaque

point de la trajectoire par rapport au temps est une fonction quadratique comme illustré

dans la figure 6.6.

6.3 Fusion d’informations 46

FIG. 6.6: La fonction de distance entre le point au sol et la trajectoire

Cette hypothèse nous a permis d’implanter un algorithme de recherche du CPA - Closest

Point of Approach - très intuitif qui nous donne le minimum de la fonction en réalisant une

recherche dans l’ensemble de points de la trajectoires avec un pas de recherche de plus en

plus petit.

En sachant la distance entre le point au sol et sa projection sur la trajectoire aussi bien

que le temps d’acquisition du point au sol on peut facilement obtenir la position du point du

MNT dans l’image RSO. Ça sera possible parce que nous connaissons la fréquence d’échan-

tillonnage en range qui nous indique le pas en range et le temps d’acquisition de la première

colonne RSO et de la dernière colonne RSO.

L’organigramme de cette chaîne de traitement est présentée dans la figure 6.7

6.3 Fusion d’informations 47

FIG. 6.7: L’organigramme de module de géolocalisation d’image RSO

Pour vérifier les valeurs que nous avons obtenu, nous avons localisé dans l’image SAR

des cibles dont les coordonnées sont a priori connues. Les cibles que nous avons choisi sont

les coins réflecteurs dont les coordonnées sont données dans le tableau 6.3. Nous avons

obtenu des erreurs de quelques pixels de localisation, cf. tableau 6.3. La même expérience

a été répétée à partir des 5 points (4 coins et le centre de l’image) fournis dans les fichiers

.xml. On peut donc considérer que les images range et azimut, illustrées dans la figure 6.7

sont affectée par des erreurs négligeables.

Date Coordonnées Valeurs

Obtenus

Valeurs réelles Erreur

29.09.2008

Lat = 45.94161062N ligne = 8999 ligne = 9005 ∆ligne = 6

Long = 7.00493734E colonne = 9436 colonne = 9446 ∆colonne = 10

h = 2767 m

14.07.2009

Lat = 45.94176819N ligne = 14539 ligne = 14538 ∆ligne = 9

Long = 7.00450069E colonne = 12638 colonne = 12644 ∆colonne = 6

h = 2764 m

6.3 Fusion d’informations 48

TAB. 6.3: La vérité terrain pour géolocaliser une image SAR

Le résultats peuvent être vu dans la figure 6.9.

(a)

(b)

FIG. 6.8: Localisation du coin réflecteur installé sur le glacier d’Argentière dans les images TerraSAR-X (a) l’image acquise en 29.08.2009, (b) l’image acquise en 14.07.2009

Les images que nous avons obtenus en utilisant la chaîne de traitement décrite dans la

figure 6.7, dites LUT - Look-Up-Tables, sont utilisées pour permettre le passage entre les

6.3 Fusion d’informations 49

deux référentielles. Ces images constituent l’infrastructure pour le processus de rectifica-

tion radar pour obtenir des images géoreferences, elles fournissent les coordonnées radar

de chaque point au sol. Dans les images donnant l’azimut on peut observer les lignes de la

visée radar tandis que l’image de range contient la signature du relief (fig. 6.9(a)).

(a) (b)

FIG. 6.9: Localisation des points du MNT de Chamonix dans une image SAR (a) en range ; (b) enazimut

Une étape intermédiaire dans nos travaux a été d’obtenir des images de distance entre

chaque point du MNT et le point correspondant sur l’orbite (CPA). Cette valeur, si on con-

sidère aussi les information sur la première et la dernière colonne nous a permit d’obtenir

les indices en range des points du MNT. Si, en plus, on considère l’instant sur la trajectoire

où on voit les point du MNT, nous obtenons les en azimut, qui correspondent aux lignes de

visée radar. Les images de distance contiennent la signature du relief comme on peut l’ob-

server dans la figure 6.10 si nous faisons une comparaison entre l’image 6.10(a) et l’image

6.10(c). La région de Manaus est caractérisée par la planéité du terrain donc les distances

à la trajectoire varient d’une manière uniforme par rapport aux distances mesurées sur le

MNT de la vallée de Chamonix où les fortes différences d’altitude introduisent des fortes

différences en distances à la trajectoire.

6.3 Fusion d’informations 50

(a) (b)

(c) (d)

FIG. 6.10: La région de Chamonix (a) image de distance ; (b) image de temps ; La région de Manaus(c) image de distance ; (d) image de temps.

6.3.2 Calcules sur des couples d’images RSO

Undes objectifs de ce stage a été d’arriver à soustraire les franges orbitales et topographiques.

Dans ce cas, nous considérons deux images acquises dans des périodes différentes mais sur

des passes répétées : le satellite repasse pratiquement sur la même orbite a une distance

(baseline) qui varie de ± 150 m pour TerraSAR-X ou ± 1500 m pour RADARSAT-1, avec la

6.3 Fusion d’informations 51

Maître Esclave Valeurs fournies par Gamma Resultats

20060812 20061023 -369.9 -373.2120060812 20061116 -416.29 -419.820060812 20061210 193.11 195.7120060812 20070409 640.21 642.5320060812 20070527 732.47 735.6820060812 20070714 571.1 574.0820060812 20070924 -626.11 -631.3820060812 20071018 -458.72 -466.3620060812 20071111 -14.57 -36.820060812 20071205 -410.51 -414.5820060929 20061210 -644.03 -646.0320060929 20070409 -196.93 -197.6520060929 20070527 -104.67 -117.4720060929 20070714 -266.04 -272.0720061023 20061116 -46.39 -46.5920061023 20061210 563.01 565.1520061023 20070503 -614.16 -616.320061023 20070807 -419.97 -421.6520061023 20070924 -256.22 -258.1820061023 20071018 -88.82 -95.3620061023 20071111 355.32 356.5120061023 20071205 -40.61 -41.5820061116 20061210 609.4 611.6820061116 20070503 -567.77 -569.8920061116 20070807 -373.58 -375.1920061116 20070924 -209.83 -211.5820061116 20071018 -42.44 -52.13

TAB. 6.4: Les base perpendiculaires obtenues pour la région de Manaus avec des différentes couplesdes images

même orientation et la scène est vue des distances qui varient faiblement entre les acquisi-

tions, mais suffisamment pour créer des problèmes de recalage et des franges orbitales et

topographiques en InSAR.

Pour arriver à extraire les franges topographiques il faut que la baseline entre les deux

images n’introduise pas une altitude d’ambiguïté trop petite (pour éviter le problème d’alias-

ing), 4.1.2. Dans le tableau 6.4 nous présentons les valeurs que nous avons obtenus pour les

bases orthogonales pour la région deManaus. Pour la région deManaus les altitudes varient

entre 0 et 100 m donc il y a peut de franges topographiques. Dans les interférogrammes de

cette région, présentées dans la figure 6.13(b) les seules franges observables sont les franges

orbitales.

Dans le tableau 6.4 on trouve toujours une valeur plus grande en valeur absolue parce

que les valeurs qui sont fournis par le logiciel Gamma sont les valeurs obtenues pour "near

range". Par contre les valeurs obtenues en utilisant notre fonction correspondent au centre

de l’image.

6.3 Fusion d’informations 52

Pour observer les franges orbitales et topographiques il faut que nous calculons l’image

de différence des distances que nous avons introduit dans la section précédente. L’image

résultante contient les effets de la topographie, bien observables dans la région de Chamonix

sur les glaciers et sur la vallée de Chamonix et aussi les franges orbitales qui sont surtout

présentes dans la figure 6.3.2 qui correspond à la région de Manaus.

(a) (b)

FIG. 6.11: L’image de la différence des distances (a) région de Chamonix. (b) région de Manaus.

.

Maintenant nous pouvons obtenir l’interférogramme qui contient seulement les franges

topographiques et les franges orbitales. Cette images simulée doit être comparée avec la

vrai interférogramme qui résulte en différenciant les deux images RSO. L’interferogramme

est plus bruite parce qu’elle contient aussi les contributions de l’atmosphère et la contri-

bution que nous cherchons, du déplacement, mais nous pouvons encore repère les franges

topographiques sur les glaciers et au bord de la vallée de Chamonix et les franges orbitales,

bien observables sur l’interférogramme de Manaus.

6.3 Fusion d’informations 53

(a) (b)

(c) (d)

FIG. 6.12: La région de Chamonix acquise le 28.08.2008 et le 10.10.2008 (a) le MNT (b) l’interféro-gramme (c) l’interférogramme simulée (d) l’interférogramme simulée sur un terrain plat pour lememe couple.

.

6.3 Fusion d’informations 54

(a) (b)

(c)

FIG. 6.13: La région deManaus acquise le 29.09.2006 et le 27.05.2007 (a) le MNT (b) l’interférogrammesimulée (c) l’interférogramme simulée sur un terrain plat pour le meme couple.

.

Pour bien déceler les franges orbitales des franges topographiques sur la région de Cha-

monix on peut analyser l’image des franges orbitales que nous obtenons sur un MNT plat,

avec une altitude constante de 1000 m, que nous avons généré, 6.14(b).

6.4 Conclusion 55

(a) (b)

FIG. 6.14: (a)L’interférogramme sur la région de Chamonix pour le couple 2008.09.29 - 2008.10.10. (b)L’interférogramme simulée sur un terrain plat pour le meme couple..

Si nous observons les deux images résultats pour la région de Manaus, 6.13(b) et pour le

terrain plat, 6.14(b), on peut voir que elles se semblent très bien donc on peut conclure que

dans la région de Manaus on a plutôt des franges orbitales.

6.4 Conclusion

Les méthodes que nous avons proposées servent à l’analyse des franges orbitales et to-

pographiques dans une manière indépendante. Nous pouvons maintenant les extraire en

nous servant des images de différence de distance entre les points du MNT et les orbites.

En sachant la grandeur de la base perpendiculaire et la précision de MNT on peut pren-

dre la décision si pour un certain couple nous pouvons valider les résultats obtenus après

l’extraction des franges topographiques ou non.

En utilisant les images de range et azimut nous pouvons ensuite réaliser le récalage de

données.

Chapitre 7

Les donnees utilisees

7.1 Formats de meta-donnes

7.1.1 Le format ROI-PAC

56

7.1Form

atsdemeta-d

onnes

57

18823.5981031 4462731.96686455 1000533.88205218 5141711.71799737 5846.81199999999 -552.26900000000 -4954.0029999918830.1983386 4520923.73649014 994908.028225914 5091858.13684875 5791.42100000000 -572.87699999999 -5016.6130000018836.7985742 4578557.91410085 989076.836373121 5041381.50986397 5735.29399999999 -593.33600000000 -5078.6109999918843.3988098 4635627.18179380 983041.831560403 4990287.99391986 5678.43999999999 -613.63999999999 -5139.9889999918849.9990454 4692124.28949029 976804.570726169 4938583.82212789 5620.86399999999 -633.78599999999 -5200.7409999918856.5992810 4748042.06326728 970366.648983131 4886275.30331826 5562.57399999999 -653.77099999999 -5260.8569999918863.1995166 4803373.39806809 963729.694192429 4833368.82168166 5503.57700000000 -673.59199999999 -5320.3320000018869.7997522 4858111.26395112 956895.369470440 4779870.83204854 5443.88100000000 -693.24500000000 -5379.1580000018876.3999878 4912248.70488501 949865.373797074 4725787.86446139 5383.49399999999 -712.72599999999 -5437.3270000018883.0002234 4965778.84087320 942641.437102271 4671126.52199786 5322.42100000000 -732.03200000000 -5494.8320000018883.0002234 5018694.86589500 935225.324465837 4615893.47658046 5260.67299999999 -751.15999999999 -5551.6660000018883.0002234 5070990.05299783 927618.835865670 4560095.47320084 5198.25500000000 -770.10699999999 -5607.82200000

TAB. 7.1: Results obtained using Matlab

7.1 Formats de meta-donnes 58

7.1.2 Le format RSLC

Gamma Interferometric SAR Processor (ISP) - Image Parameter File

title: par_RSAT_SLC raw/20061210/LEA_01.001 slc/20061210.slc.par

raw/20061210/DAT_01.001 slc/20061210.slc

sensor: RSAT

date: 2006 11 16

start_time: 80470.073154 s

center_time: 80473.643460 s

end_time: 80477.213766 s

azimuth_line_time: 7.9685429e-04 s

line_header_size: 0

range_samples: 5790

azimuth_lines: 8962

range_looks: 1

azimuth_looks: 1

image_format: SCOMPLEX

image_geometry: SLANT_RANGE

range_scale_factor: 1.0000000e+00

azimuth_scale_factor: 1.0000000e+00

center_latitude: -3.1777296 degrees

center_longitude: -59.8693006 degrees

heading: -12.6439212 degrees

range_pixel_spacing: 4.638299 m

azimuth_pixel_spacing: 5.329375 m

near_range_slc: 1008778.4876 m

center_range_slc: 1022204.0441 m

far_range_slc: 1035629.6005 m

first_slant_range_polynomial: 0.00000 0.00000 0.00000e+00

0.00000e+00 0.00000e+00 0.00000e+00 s m 1 m^-1 m^-2 m^-3

center_slant_range_polynomial: 0.00000 0.00000 0.00000e+00

0.00000e+00 0.00000e+00 0.00000e+00 s m 1 m^-1 m^-2 m^-3

last_slant_range_polynomial: 0.00000 0.00000 0.00000e+00

0.00000e+00 0.00000e+00 0.00000e+00 s m 1 m^-1 m^-2 m^-3

incidence_angle: 41.6530 degrees

azimuth_deskew: ON

azimuth_angle: 90.0000 degrees

radar_frequency: 5.3000000e+09 Hz

adc_sampling_rate: 3.2317076e+07 Hz

chirp_bandwidth: 3.0299347e+07 Hz

7.1 Formats de meta-donnes 59

prf: 1254.934570 Hz

azimuth_proc_bandwidth: 900.00000 Hz

doppler_polynomial: -10092.48986 -1.34917e-02 4.44500e-08 0.00000e+00

Hz Hz/m Hz/m^2 Hz/m^3

doppler_poly_dot: 0.00000e+00 0.00000e+00 0.00000e+00 0.00000e+00

Hz/s Hz/s/m Hz/s/m^2 Hz/s/m^3

doppler_poly_ddot: 0.00000e+00 0.00000e+00 0.00000e+00 0.00000e+00

Hz/s^2 Hz/s^2/m Hz/s^2/m^2 Hz/s^2/m^3

receiver_gain: 0.0000 dB

calibration_gain: 60.0000 dB

sar_to_earth_center: 7173054.2675 m

earth_radius_below_sensor: 6378024.4999 m

earth_semi_major_axis: 6378137.0000 m

earth_semi_minor_axis: 6356752.3141 m

number_of_state_vectors: 9

time_of_first_state_vector: 80459.000000 s

state_vector_interval: 10.000000 s

state_vector_position_1: 3018792.7160 -6474459.7097 -651029.5209

m m m

state_vector_velocity_1: -1204.03002 -1290.85864 7340.95048

m/s m/s m/s

state_vector_position_2: 3006572.4184 -6486974.4624 -577633.3779

m m m

state_vector_velocity_2: -1238.24033 -1219.40710 7347.56808

m/s m/s m/s

state_vector_position_3: 2994010.9137 -6498776.2511 -504166.3912

m m m

state_vector_velocity_3: -1272.21883 -1147.76362 7353.39285

m/s m/s m/s

state_vector_position_4: 2981110.5524 -6509863.3316 -430636.2231

m m m

state_vector_velocity_4: -1305.96170 -1075.93600 7358.42413

m/s m/s m/s

state_vector_position_5: 2967873.7237 -6520234.0334 -357050.5604

m m m

state_vector_velocity_5: -1339.46513 -1003.93209 7362.66135

m/s m/s m/s

state_vector_position_6: 2954302.8550 -6529886.7590 -283417.1138

m m m

state_vector_velocity_6: -1372.72533 -931.75979 7366.10401

m/s m/s m/s

7.1 Formats de meta-donnes 60

state_vector_position_7: 2940400.4122 -6538819.9848 -209743.6181

m m m

state_vector_velocity_7: -1405.73855 -859.42703 7368.75168

m/s m/s m/s

state_vector_position_8: 2926168.8986 -6547032.2611 -136037.8321

m m m

state_vector_velocity_8: -1438.50107 -786.94177 7370.60404

m/s m/s m/s

state_vector_position_9: 2911610.8555 -6554522.2119 -62307.5387

m m m

state_vector_velocity_9: -1471.00919 -714.31205 7371.66082

m/s m/s m/s

Chapitre 8

Implementation Overview

This sections present some tools which were implemented during the elaboration of this

stage. The final goal was to permit the fusion of some different sources of information (as the

information provided by the meta-data accompanying the RSO images with the information

provided by the DEM). The twomain components are the parsers (a XML parser and a RSLC

parser) and the orbit propagator, described in detailed in section 8.1 and respectively 8.2.

The adjacent tools, functions and some generic considerations related to the design of the

processing chain are discussed in section ??.

8.1 Parsers

This section presents some tools which were implemented in order to permit a transpar-

ent work with metadata files provided with satellite products or that were generated using

different tools. The metadata formats supported are :

– .xml - which is the metadata file associated with TerraSAR-X products.

– .rsc - which is the metadata file generated using the ROI-PAC tool. The file should

contain seven columns. The first column contains the GPS time, the next three ones

contain the Cartesian coordinates of the satellite while the last three contain the veloc-

ity components.

– .rslc.par - which is the metadata file generated using the Gamma tool. It contains all

the information that we need in our work, presented in more detail in the section 8.2.

Some generic considerations related to the design of the processing chain are discussed

in section 8.1.1.

8.1.1 Processing Chain

The purpose is to implement a program able to generate a common format whichmay be

used in the next processing steps, this is the convergence in processing framework. For the

moment, the available EFIDIR tools are compatible with ROI-PAC file format. Themeta-data

may be provided as a XML file or as a RSLC file. We have created some tools that can extract

61

8.1 Parsers 62

the information available in a ROI-PAC file from XML and RSLC sources and present it in

a ROI-PAC format. We can imagine an operator that permits the convergence at this stage

described in the illustration 8.1.

FIG. 8.1: The functional diagram for the parsers usage.

Our work focuses on working with images provided by TerraSAR-X, therefore it was

necessary to implement some dedicated functions.We can address this in amodularmanner,

by considering two main objectives, one already mentioned and depicted in 8.1, the other

one being the extraction of some specific information from .xml files. The structure that can

summarize this approach is illustrated in the figure 8.2.

FIG. 8.2: The structure of the parsers concept.

We introduce the prototypes of the functions that perform the conversion between the

formats.

8.1.1.1 Conversion oriented parsing

For the beginning, the function which permits the conversion from XML to ROI-PAC :

void xml_2_roi_pac(char *data_in_file, char *data_out_file);

8.1 Parsers 63

is used in order to extract the values that resides in a ROI-PAC file from a XML file. Thus

*data_in_file is a XML file while *data_out_file is the ROI-PAC file obtained after

the parsing process.

Secondly, the function which ensures the conversion between RSLC format to ROI-PAC

format has the prototype :

void rslc_2_roi_pac(char *input_file, char *output_file);

As before, *input_file_name is the RSLC file, while *output_file is the ROI-PAC

file obtained after the parsing process.

8.1.1.2 Extraction oriented parsing

We introduce the signatures of the functions that perform the extraction of some specific

information from the .xml file.

General_xml_INFO get_general_xml_info (char *data_in_file);

The information and its signification are listed bellow :

1. nof_state_vectors - is the number of state vectors which resides in the .xml file.

2. nof_rows - is the number of rows of the SAR image.

3. nof_columns - is the number of columns of the SAR image.

4. time_gps_range_start - is the time stamp of the first row of the image.

5. time_gps_range_stop - is the time stamp of the last row of the image.

6. time_gps_fraction_start - is the fraction that should be added to the time_

gps_range_start in order to obtain the exact time of the acquisition start.

7. time_gps_fraction_stop - is the fraction that should be added to the time_gps_

range_range_stop in order to obtain the exact time of the acquisition end.

8. x_pos_antenna - is the x Cartesian dimension of the orientation of the antenna.

9. y_pos_antenna - is the y Cartesian dimension of the orientation of the antenna.

10. z_pos_antenna - is the z Cartesian dimension of the orientation of the antenna.

11. first_pixel - is the minimum range time of the entire scene.

12. last_pixel - is the maximum range time of the entire scene.

13. rsf - is the range sampling frequency

14. prf - is the pulse repetition frequency. It should be used to obtain the orbit emulation1

15. slant_range - is the pitch in slant.

16. spacing_azimuth - is the pitch in azimuth.

1For the programs that accept file formats other than xml there should be provided a parameter, this isdistance_between_points that is used to compute the number of points on the orbit. In those cases theprf is not considered.

8.2 Orbit Emulation 64

The prototype of the function that extracts the state vectors from the .xml file is :

State_vectors get_state_vectors_from_xml(

char *data_in_file,

General_xml_INFO gen_infos);

One can find interesting to hold the information extracted from a .xml or any other file in

another file .xml. To permit this we introduce a function having the prototype :

void write_general_informations_2_xml_file(

char *data_in_file,

int nof_state_vectors,

General_xml_INFO gen_infos,

State_vectors st_vect);

This function writes the values stored in the structures passed as parameters, gen_info

and st_vect respectively, in a .xml file. This function may be used even if the gen_info

structure is not available, by calling the function with a NULL value for the aforementioned

structure.

8.2 Orbit Emulation

This sections presents some tools which were implemented to permit the emulation of

the orbit in a very precise manner. This processing step assumes that the state vectors were

extracted in a previous processing stage in a file-format specific manner, this is, for .xml files

the position of the satellite embeds also the position of the antenna, while ROI-PAC and

RSLC files provide directly the position of the satellite.

Some generic considerations related to the design of the processing chain are discussed

in section 8.2.1.

8.2.1 Processing Chain

The purpose is to implement a tool which ensures the localization of the satellite in a

precise manner between two points well defined, with a approximated distance between

any two points decided by the user.

The approach we have considered is a polynomial regression in a least mean square

sense. Firstly, the coefficients of the polynomial are calculated. The degree of the polynomial

we use is 7. Secondly, the positions in all three dimensions are calculated. The framework is

depicted in the figure 8.3.

8.2 Orbit Emulation 65

FIG. 8.3: The functional diagram for the orbit emulation processing block.

We introduce the prototype of the function that performs the computation of the coeffi-

cients of the polynomial :

void polyfit(

double **x,

double **y,

int pol_deg,

int nof_stat_vec,

double *coefs);

The polynomial variable is x, and it should be computed in a previous step. The polyno-

mial values are stored in y. The values of the coefficients are stored in the variable coefs.

We can use this function to compute the coefficients for polynomials of different degrees,

but in our work we use the degree 7.

The prototype of the function that performs the estimation of the orbit, this is it calculates

the positions of the satellite in each dimension is given below :

void polyval(

double *coefs,

double **func_variable,

int pol_deg,

int nof_pairs,

double **func_value)

The coefficients computed using polyfit function are used to calculate the func_value,

this is the variable that stores the values of the position on one dimension. The points on the

orbit, this is the moments in time, are passed using func_variable. Before calling the

function the user should know the number of estimations and specify it using nof_pairs.

Both functions, polyval and polyfit should be used three times, one time for one

dimension as in the following example :

/* Compute the coefficients for each dimension, i.e. fit the polynomial*/

polyfit(st_vectors->x_pos, time_e, POL_DEG + 1, nof_st_vectors, coefs_x);

polyfit(st_vectors->y_pos, time_e, POL_DEG + 1, nof_st_vectors, coefs_y);

polyfit(st_vectors->z_pos, time_e, POL_DEG + 1, nof_st_vectors, coefs_z);

8.3 Geo-localisation in SAR Images 66

/* Interpolate on each dimension */

polyval(coefs_x, time_d, POL_DEG, nof_estim, estim->x_estim);

polyval(coefs_y, time_d, POL_DEG, nof_estim, estim->y_estim);

polyval(coefs_z, time_d, POL_DEG, nof_estim, estim->z_estim);

The user should be interested in doing this only if the propagation scenario is other than

the one imagined for the function orbit_propagation having the prototype :

Estimators orbit_propagation(

int nof_estim,

int nof_st_vectors,

State_vectors st_vectors,

double **time_e,

double **time_d)

This function fills a structure, Estimators, containing all the positions on all three di-

rections and also the normalized time, which is the same with time_d. This is the core

function of this processing stage in our approach.

8.3 Geo-localisation in SAR Images

This section presents some tools which were implemented to permit the geo-localisation

of SAR images in a precise manner. The processing step assumes that the trajectory of the

satellite is drawn using the principle described in the section 8.2.1. The geo-localisation of

SAR images consists some intermediary steps as the CPA computation for each point of a

certain DEM. This framework was designed to be compatible with all metadata files enu-

merated in the section 8.1 but some features are available only for TerraSAR-X product.

Some generic considerations related to the design of the processing chain are discussed

in section 8.3.1.

8.3.1 Processing Chain

The purpose is to implement a tool which ensures the geo-localisation, this is the map-

ping between a SAR image and a certain DEM. In order to accomplish this objective we

should localize each point of the DEM, both in time and Cartesian position, on the trajectory

described by the satellite. This aspect results in some artifacts of our approach, the range

image and the azimuth images.

The engine of this approach is a searching algorithm which looks for the CPA of a point

on the DEM on the drawn trajectory. The algorithm is a pseudo-selective one in a step-by-

step sense. This is, it decreases the boundaries of the searching interval by decreasing the

pitch of searching on every searching step.

An overview of the framework is given in the figure 8.4.

8.3 Geo-localisation in SAR Images 67

FIG. 8.4: The functional diagram for the SAR localisation processing block.

There are also some intermediate artifacts that can be obtained using the functions we

have implemented during this workout. The most important are the distance image and the

time of acquisition image considering the entire orbit. In order to compute the range and

azimuth images we consider only the acquisition interval.

We introduce the prototype of the function that computes the distance to the CPA :

traj_dist_in_time min_distance_point_traj(

int nof_estim,

coord_3d mnt_point,

Estimators estim)

This function localizes the CPA on a specific orbit, estim, for a specific point of the DEM,

mnt_point.

The functions used to generate the main artifacts of this processing stage are :

– azimuth_SAR - computes the lines of SAR image mapped on the current DEM

– range_SAR - computes the columns of SAR image mapped on the current DEM

The prototype of the function that generates the image of range is :

void range_SAR(

double firstPixel,

double lastPixel,

double rsf,

int ignored_val,

int nof_estim,

Estimators estim,

EFIDIRImage imMNT,

EFIDIRImage rangeImage)

This function generates the image of range considering some constraints that should be

provided, those are, firstPixel specifies the first column of the SAR image, lastPixel

specifies the last column of the SAR image, rsf is the range sampling frequency, estim is

8.4 Processing over Pairs of Images 68

the trajectory on which the estimation of the trajectory of the satellite of the current track,

imMNT is the imaged scene. Some of information related to the acquisition process are di-

rectly available for the TerraSAR-X product.

The prototype of the function that generates the image of azimuth is :

void azimuth_SAR(

int ignored_val,

int nof_estim,

Estimators estim,

EFIDIRImage imMNT,

EFIDIRImage acq_timeImage)

This function generates the image of azimuth, acq_timeImage for a specific orbit,

estim on a specific DEM, imMNT.

8.4 Processing over Pairs of Images

This section presents some tools which were implemented to facilitate the working with

pairs of satellite images. The processing step assumes that the trajectory of the satellite is

drawn using the principle described in the section 8.2.1. This processing stage permits to

compute some information characteristic to couples of images like the orthogonal baseline,

simple baseline or incidence angles. In order to accomplish this we do not consider any

specific processing chain.

Chapitre 9

Usage examples

In this section, excerpts from two basic examples are listed and commented, in order to

illustrate a usage model.

9.1 Parsers Usage

Define the input and output files as parameters of the program. This is handled by

EFIDIR functions :

define_param("input_file", STRING, "Input file: ", "(INPUT file)");

define_param("output_file", STRING, "Output rsc file: ", "(OUTPUT file)");

Retrieve the values provided by the user, operation handled also by EFIDIR functions :

input_file_name = get_string_value_param("input_file");

output_rsc_file_name = get_string_value_param("output_file");

Use either xml_2_roi_pac or rslc_2_roi_pac to generate the ROI-PAC file.

xml_2_roi_pac(input_file_name, output_rsc_file_name);

rslc_2_roi_pac(input_file_name, output_rsc_file_name);

The output file shall be created (it does not exist, otherwise overwritten) in the path spec-

ified as parameter for the output file. One should pay attention because the .rsc extension

is not added automatically, and should be provided by the user.

9.2 Orbit Emulation Usage

Define the input and output files as parameters of the program. This is handled by

EFIDIR functions :

define_param("file_type", INT, "Type of file:\n

0->xml file\n

1->ROI_PAC file\n

69

9.2 Orbit Emulation Usage 70

2->RSLC file", "(INPUT parameter)");

define_param("dist_between_points", DOUBLE,

"Approximation for the distance between orbit points: ",

"(INPUT parameter)");

define_param("ignored_val", INT, "The value in the mnt that

should be ignored: ", "(INPUT parameter)");

define_param("input_master_file", STRING,

"Input file for the master orbit: ",

"(INPUT file)");

define_param("input_slave_file", STRING,

"Input file for the slave orbit: ", "(INPUT file)");

define_param("mnt", STRING,

"Input mnt file: ", "(INPUT mnt file)");

define_param( "distance_offset", STRING,

"The image of distance offset between the master and slave images: ",

"OUTPUT image file");

Retrieve the values provided by the user, operation handled also by EFIDIR functions :

file_type = get_int_value_param("file_type");

dist_between_2_points = get_double_value_param("dist_between_points");

ignored_value = get_int_value_param("ignored_val");

input_file_master_file = get_string_value_param("input_master_file");

input_file_slave_file = get_string_value_param("input_slave_file");

input_mnt = get_string_value_param("mnt");

name_offset_img = get_string_value_param("distance_offset");

Get the state vectors from the file provided. One should not allocate memory for them

because this is handled internally in the functions that extract them.

If the input file is a XML file then you should follow the steps :

General_xml_INFO gen_info_master = get_general_xml_info(

input_file_master_file);

/* Update the nof_state_vectors variable */

nof_st_vectors_master_orbit = gen_info_master->nof_state_vectors;

/* Get the state vectors from the xml file */

st_vectors_master_orbit = get_state_vectors_from_xml(

input_file_master_file, gen_info_master);

If the input file is a ROI-PAC file then the following steps should be performed :

/* Update the nof_state_vectors variable */

nof_st_vectors_master_orbit = nb_lines(input_file_master_file);

9.2 Orbit Emulation Usage 71

/* Get the state vectors from the ROI-PAC file */

st_vectors_master_orbit = get_state_vectors_from_roi_pac(

input_file_master_file);

If the input file is a RSLC file one should pay attention because there is no specific func-

tion which extract the state vectors from it, but he may first generate the ROI-PAc file and

afterwards extract them from the resulting file.

char input_file_master_rsc[256];

/* Copy the name of the input master file */

strcpy(input_file_master_rsc, input_file_master_file);

/* Add the rsc extension */

strcat(input_file_master_rsc, ".rsc");

/* Convert the rslc files to ROI-PAC */

rslc_2_roi_pac(input_file_master_file, input_file_master_rsc);

/* Update the nof_state_vectors variable */

nof_st_vectors_master_orbit = nb_lines(input_file_slave_rsc);

/* Get the state vectors from the ROI-PAC file */

st_vectors_master_orbit = get_state_vectors_from_roi_pac(

input_file_master_rsc);

Compute the number of estimators that will be used based on the value of the parameter

dist_between_2_points.

nof_estims_master_orbit = compute_nof_points_on_orbit(

dist_between_2_points,

nof_st_vectors_master_orbit,

st_vectors_master_orbit);

Compute the variables of the polynomial for both the polynomial fitting and for polyno-

mial interpolation.

time_e_master_orbit = get_polynomial_variable_4_coeffs(

st_vectors_master_orbit,

nof_st_vectors_master_orbit);

time_d_master_orbit = get_polynomial_variable(

st_vectors_master_orbit,

nof_estims_master_orbit,

nof_st_vectors_master_orbit);

Propagate the orbit using the previous obtained values for the variables :

9.3 Orbit Computations Usage 72

estim_master_orbit = orbit_propagation(

nof_estims_master_orbit,

nof_st_vectors_master_orbit,

st_vectors_master_orbit,

time_e_master_orbit,

time_d_master_orbit);

9.3 Orbit Computations Usage

In this case the first steps should be those followed in order to compute the orbit, but

now considering two orbits, the master one and the slave one. Afterwards one should load

the DEM, using the functions already implemented in EFIDIR :

imMNT = read_image_open(input_mnt);

read_image_data(imMNT);

Allocate memory for the master and slave distance images and time of acquisition im-

ages. One should pay attention because if he want to save the images on the disk it should

consider to convert the resulting images to float.

MasterDistImg = (EFIDIRImage) new_image(imMNT->nr, imMNT->nc,

DATA_TYPE_DOUBLE);

MasterTimeImg = (EFIDIRImage) new_image(imMNT->nr, imMNT->nc,

DATA_TYPE_DOUBLE);

SlaveDistImg = (EFIDIRImage) new_image(imMNT->nr, imMNT->nc,

DATA_TYPE_DOUBLE);

SlaveTimeImg = (EFIDIRImage) new_image(imMNT->nr, imMNT->nc,

DATA_TYPE_DOUBLE);

Generate the images of distance and time.

distance_MNT_orbit(ignored_value, nof_estims_master_orbit,

estim_master_orbit, imMNT,

MasterDistImg, MasterTimeImg);

distance_MNT_orbit(ignored_value, nof_estims_slave_orbit,

estim_slave_orbit, imMNT,

SlaveDistImg, SlaveTimeImg);

Convert the image represented in double precision to a float, simple precision.

for (i = 0; i < imMNT->nr; i++)

for (j = 0; j < imMNT->nc; j++)

distance_offset_img->fl[i][j] =

9.3 Orbit Computations Usage 73

(float) tempDiffImg->db[i][j];

Georeference the resulting images :

info_map = get_image_param(imMNT, "map info");

set_image_param(distance_offset_img, "map info", info_map);

Write and close the resulting images :

/* Write and close the offset image */

write_image_data(distance_offset_img);

write_image_close(distance_offset_img);

If the image is a temporal one then one should not forget to free the memory before exit

the program :

/* Write and close the offset image */

free_image(tempDiffImg);

Those examples may be founded also in the srcsarlut_mains directory as : xml_or_

rslc_2_roi_pac.c that can be also used in order to convert any XML or RLSC file to

ROI-PAC file, compute_dist_diff_between_2_orbits.c which can be used to com-

pute the difference between the images of distance associated with two orbits, generate_

dist_time_img.cwhich can be used in order to compute the images of distance and time

for a specific orbit and base_line which can be used in order to generate the orthogonal

baseline image for a pair of orbits.

Liste des tableaux

2.1 Les avantages et les désavantages des images radar et optiques . . . . . . . . 5

2.2 Les bandes utilisées en radar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.3 Les caractéristiques du capteurs TerraSAR-X . . . . . . . . . . . . . . . . . . . 11

2.4 Les caractéristiques du capteurs RADARSAT-1 . . . . . . . . . . . . . . . . . . 12

3.1 Les sources d’erreurs dans le processus de calcul du MNT. . . . . . . . . . . . 19

6.1 Les résultats obtenus en utilisant les fonctions Matlab . . . . . . . . . . . . . . 41

6.2 Les résultats obtenus en utilisant les fonctions C . . . . . . . . . . . . . . . . . 42

6.3 La vérité terrain pour géolocaliser une image SAR . . . . . . . . . . . . . . . . 48

6.4 Les base perpendiculaires obtenues pour la région de Manaus avec des différentes couples des images

7.1 Results obtained using Matlab . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

74

Table des figures

2.1 L’acquisition des images RSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2.2 Distorsions géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3.1 La structure du produit TerraSAR-X . . . . . . . . . . . . . . . . . . . . . . . . 15

3.2 La structure de meta-données utilisées . . . . . . . . . . . . . . . . . . . . . . . 16

3.3 La structure du produit RADARSAT-1 . . . . . . . . . . . . . . . . . . . . . . . 17

3.4 Les étapes suivies pour obtenir un MNT . . . . . . . . . . . . . . . . . . . . . . 19

4.1 L’évolution de la baseline . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

4.2 La relation entre la différence de chemin et l’altitude . . . . . . . . . . . . . . . 22

5.1 La relation entre les vecteurs représentatifs . . . . . . . . . . . . . . . . . . . . 26

5.2 Les paramètres de l’ellipse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

5.3 L’anomalie excentrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

5.4 Le système équatorial de coordonnées . . . . . . . . . . . . . . . . . . . . . . . 31

5.5 Les angles representatifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

5.6 Les modèles terrestres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

6.1 Les informations extraites d’un fichier .xml . . . . . . . . . . . . . . . . . . . . 36

6.2 La configuration du module d’estimation de l’orbite . . . . . . . . . . . . . . . 40

6.3 Les résultats obtenus avec le logiciel DORIS . . . . . . . . . . . . . . . . . . . . 40

6.4 Le MNT de la région de Chamonix . . . . . . . . . . . . . . . . . . . . . . . . . 43

6.5 Le MNT de la region de Manaus . . . . . . . . . . . . . . . . . . . . . . . . . . 44

6.6 La fonction de distance entre le point au sol et la trajectoire . . . . . . . . . . . 46

6.7 L’organigramme de module de géolocalisation d’image RSO . . . . . . . . . . 47

6.8 Localisation du coin réflecteur installé sur le glacier d’Argentière . . . . . . . 48

6.9 Localisation des points du MNT de Chamonix dans une image SAR . . . . . . 49

6.10 Des artefacts pour la région de Chamonix . . . . . . . . . . . . . . . . . . . . . 50

6.11 Des images de la différence des distances . . . . . . . . . . . . . . . . . . . . . 52

6.12 Région de Chamonix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

6.13 Région de Manaus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

6.14 Interférogrammes sur la région de Chamonix . . . . . . . . . . . . . . . . . . . 55

75

TABLE DES FIGURES 76

8.1 Parsers configuration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

8.2 The modular structure of parsers . . . . . . . . . . . . . . . . . . . . . . . . . . 62

8.3 The functional diagram for the orbit emulation processing block . . . . . . . . 65

8.4 The functional diagram for the SAR localisation processing block . . . . . . . 67

List of Abbreviations

CPA - Closest point of approach

RSO - Radar à synthèse d’ouverture

SAR - Synthetic aperture radar

PRF - Pulse repetition frequency

RSF - Range sampling frequency

COSAR - Complex Synthetic aperture radar

MSB - Most Significant Bit

MNT - Modèle numérique de terrain

WGS - World Geodetic System

77

Bibliographie

[1] Ivan Pétillot, Combinaison d’informations hétérogènes : intégrations d’images RSO pour la

surveillance des glaciers alpins, Thèse de doctorat, Université de Savoie, Annecy, France,

Décembre 12 2008. 4, 5, 6, 9, 13, 18, 19, 25, 33, 34

[2] Gabriel Vasile, Imagerie Radar à Synthèse d’Ouverture interférométrique et polarimétrique.

Application au suivi des glaciers alpins, Thèse de doctorat, Université de Savoie, Annecy,

France, Juillet 20 2007. 4, 5, 20

[3] Oliver Montenbruck, Eberhard Gill, Satellite Orbits, Models, Methods and Applications,

Springer, pp. 3-46, 2000. 25, 26, 27, 28, 29, 30, 31, 35

[4] Jean-Marie Nicolas, Projet EFIDIR, SP1/WP1 : Recalage et rééchantillonage d’images com-

plexes, 2010. 5, 6, 25, 26, 27, 28, 30, 31, 33

[5] Sarah H. Parcak, Satellite Remote Sensing for Archaeology, Routledge, 2009.

[6] Jean-Marie Nicolas, Satellite Remote Sensing for Archaeology, 2010.

[7] R. Abdelfattah, J.M. Nicolas, M.R. Boussema, Impact of orbital parameters on DEM pro-

duction by SAR interferometry, 2000.

[8] James B. Campbell, Introduction to remote sensing, pp. 5-6, 2002. 13

[9] Sébastien Leprince, Sylvain Barbot, François Ayoub, Jean-Philippe Avouac, Auto-

matic and Precise Ortorectification, Coregistration and Subpixel Correlation of Satellite Images,

Application to Ground Deformation Measurements, 2007. 19

[10] T.T. Soong, Fundamentals of probability and statistics for engineers, pp. 335-341, 357-359,

2004. 37

[11] Douglas c. Montgomery, George C. Runger, Applied Statistics and Probability for Engi-

neers, pp. 447, 2003. 37

[12] Didier Massonet, Kurl Feigl Radar interferometry and its applicationto changes in the

Earth’s surface, Reviews of Geophysics, 36, 4, November 1998, pp. 441-500 3, 8, 20, 21,

22, 24

[13] Thomas Sjögren Development and evaluation of SAR Algorithms for image formation and

speed estimation in wideband SAR, Blekinge Institute of Technology Licentiate Disserta-

tion Series No.1010 :01, 2010, pp. 1-6 5, 6

[14] Emmanuel Trouvé, Imagerie interférentielle en radar à ouverture synthetique, Thèse de doc-

torat, Telecom Paris, Paris, France, Juillet 19 1996. 8, 20, 22, 23

78

BIBLIOGRAPHIE 79

[15] Renaud Fallourd, Olivier Harant, Emmanuel Trouvé, Jean-Marie Nicolas, Michel

Gay, Monitoring temperate glaciers by multi-temporal TerraSAR-X images and continuous

GPS measurements IEEE Journal of Selected Topics in Applied Earth Observations and

Remote Sensing, 2010, draft. 8, 10, 20

[16] TerraSAR-X Ground Segment Basic product specification Document, 2005 10

[17] TerraSAR-X Ground SegmentLevel 1b Product Format Specification, 2007