DEPARTEMENT D'INFORMATIQUE
MEMOIRE
Présenté par
SEKHRI AREZKI
Pour obtenir
LE DIPLOME DE MAGISTER
Spécialité Informatique
Option : Informatique et Automatique
Intitulé :
Soutenu le : / / à la salle de conférences de la Faculté des Sciences
Devant les membres du jury :
Président du jury HAFFAF Hafid Professeur - Université d’Oran
Encadreur BELDJILALI Bouziane Professeur - Université d’Oran
Co-Encadreur HAMDADOU Djamila Maître de Conférences B- Université d’Oran
Examinateur
Examinateur
ATMANI Baghdad Maître de Conférences A – Université d’Oran
EL-BERRICHI Zakaria Maître de Conférences A- Université Djilali Liabes (SBA).
Un Système d’Aide à la Décision Spatiale: Fouille de Données Spatiales
et Techniques de Traitement d’Images Satéllitales
REMERCIEMENTS
Ma philosophie dans la vie : Il ne faut pas avoir de Philosophie, Il ne faut pas trop penser avant d’écrire, pour écrire juste ce que tu penses!
Simplifier les choses et remercier ceux qui nous ont aidé, car derrière toute connaissance un maître, et derrière tout savoir, des savants!
Je remercie en premier lieu «Allah » de m’avoir éclairé et ouvert les portes du savoir, et de m’avoir donné le courage, la volonté, et la patience pour surpasser toutes les épreuves, pour réaliser ce laborieux mémoire. Je tiens à exprimer avec beaucoup de gratitude et sincérité, mes remerciements à mon encadreur Monsieur BELDJILALI Bouziane, Professeur à l’université d’Oran, pour son aide précieuse, tout au long de ces années, et de m’avoir offert tous les besoins matériels et moraux. Je remercie vivement mon co-encadreur Madame HAMDADOU Djamila, Docteur à l’université d’Oran, d’avoir accepté de diriger ce travail, pour sa patience, ses conseils, ses remarques pertinentes, et surtout la grande confiance qu’elle m’a accordée pour la réalisation de ce travail. Je la remercie aussi pour tous ses encouragements.
Mes remerciements s’adressent aussi à Monsieur HAFFAF Hafid, Professeur à l’université d’Oran, a qui je dois un grand respect, et c’est un grand honneur pour moi qu’il préside le jury. Je suis très honoré que Monsieur ATMANI Baghdad, Maître de Conférences à l’université d’Oran, ait accepté de juger mon travail, j’apprécie beaucoup ses idées, et j’espère être à la hauteur de ce qu’il m’a enseigné durant l’année de post-graduation. Au même titre, j’adresse mes remerciements à Monsieur Z. ELBERICHI, Maître de Conférences à l’Université Djilali Liabbes (Sidi Belabes), d’avoir accepté d’évaluer ce mémoire. Mon travail s’appuie grandement sur des entretiens menés avec des spécialistes de la géodésie et des systèmes d’informations géographiques. A ce titre, je remercie Mr. N. Laabidi, qui m’a donné généreusement de son temps, et m’a ouvert grandement son bureau d’étude (BEGT) et m’a offert toutes les données nécessaires. Mes remerciements vont aussi à tous les gens du CTS (Centre des Techniques Spatiales) en particulier Mr. Midoun et Mr. H. Saidi sans oublier Mr. N. Tyar de l’ONS (Office National des Statistiques).
L’équipe « Informatique et Automatique » de la faculté des sciences de l’université d’Es-Sénia Oran, a été un environnement de travail agréable, j’ai eu le plaisir de partager une ambiance sympathique avec l’ensemble de cette équipe. Ma profonde gratitude à tous ceux ou celles qui ont contribué de près ou de loin à l’aboutissement de ce travail.
DEDICACES
A A A A Ma très chère mère,
NNNNulle dédicace n’est susceptible de vous exprimer ma profonde affection, mon immense gratitude pour tout ce que
vous étiez pour moi.
AAAA Mon très Cher Père
AAAA qui j’accorde une grande reconnaissance, et Respect
EEEEt je tiens à être à la hauteur de l‘amour et le soutien que vous m’avez toujours donné.
QQQQue dieu le tout puissant vous préserve et procure santé et longue vie.
AAAA Mes Chères Frères et Sœurs et toute ma famille, A A A A Manel..
JJJJe vous Aime.
AAAA mes amis, ainsi qu’à tous ce qui m’aiment, je dédie ce modeste travail.
Table des matières
Remerciements
Dédicaces
Table des matières
Index des Figures
Index des Tables
Liste des abréviations
Introduction générale 1
Partie 1 : Synthèse de l’état de l’art.
Chapitre I : Systèmes d’Information Géographique
1. Introduction
2. Définitions
3. Les composants d’un SIG
3.1. Matériels
3.2. Logiciels
3.3. Les Données
3.4. Les Utilisateurs
4. Les domaines d’application des SIGs
4.1. Etat et collectivités locales
4.2. Recherche, Universités, Science et éducation
4.3. Prévention et Sécurité
4.4. Transports
4.5. Télécommunications
4.6. Santé
4.7. Gaz, eau et eaux usées
5. Les principales fonctionnalités d’un SIG
5.1. Saisie
5.2. Manipulation
5.3. Gestion
5.4. Interrogation -et-analyses
5.5. Analyse-spatiale
5.6. Visualisation
6. L’information géographique
6.1. Définition
6.2. Les composants de l’information géographique
6
6
7
8
8
8
8
8
9
9
9
9
9
9
10
10
10
10
10
11
11
11
11
12
12
6.2.1. La représentation graphique
6.2.2. La représentation non graphique
6.2.3. La représentation topologique
6.3. Représentation informatique des données spatiales
6.3.1. Formats de l’information géographique
6.4. Les couches de l’information géographique
7. Les fonctionnalités techniques d’un SIG (Modèle des 5 ‘A’) :
7.1. Abstraction
7.2. Acquisition
7.3. Archivage
7.4. Analyse
7.5. Affichage
8. La démarche pour la mise en place d’un SIG
8.1. Les étapes fondamentales
8.1.1. Les définitions
8.1.2. L’étude d’opportunité
8.1.3. Choix du prestataire
8.1.4. Mise en place de la solution
8.2. Les facteurs-clés de réussite
9. Les avantages et les inconvénients d’un SIG
9.1. Les avantages
9.2. Les inconvénients
10. Les méthodes de conception des SIG
10.1. La méthode MODUL-R
10.2. La méthode MECOSIG
10.2.1. Les types géographiques
10.2.2. Les relations
10.3. Perceptory et Géo-UML
10.3.1. Atelier supportant la méthode
10.4. La méthode OMEGA
10.4.1. Types géographiques
10.4.2. Relation spatiale
10.4.3. Atelier supportant la méthode
10.5. Synthèse des méthodes orienté objet
Conclusion
Chapitre II : Fouille de Données Spatiales
1. Introduction
2. Les méthodes d’apprentissages
12
12
12
13
13
14
15
15
15
16
16
16
17
17
17
17
17
17
18
18
18
19
19
19
21
22
22
23
24
24
25
25
25
26
29
30
31
2.1. Apprentissage Inductif Supervisé
2.2. Les approches Symboliques et Numériques
3. La fouille de données:
3.1. Présentation de quelques vocabulaires:
3.2. Les méthodes Statistiques:
3.3. Les Réseaux de Neurones:
3.4. Les réseaux de Kohonen:
3.5. Les Graphes d’Induction et Arbres de décision:
3.6. L’algorithm de l’Etoile:
3.7. Les Algorithmes Génétiques:
4. La fouille de données spatiales
4.1. Spécificités de la fouille de données spatiales
4.2. Caractéristiques des données spatiales
4.3. Matrice et graphe de voisinage
4.4. Travaux connexes
4.5. Panorama des méthodes de fouille de données spatiales
4.5.1. Phase exploratoire
4.5.2. Phase décisionnelle
Conclusion
Chapitre III : Traitement des Images Satéllitales
1. Introduction
2. Télédétection
2.1. Définitions
2.2. Processus de la télédétection
2.3. Rayonnement électromagnétique (REM)
2.3.1. Le spectre électromagnétique
2.3.2. Propriétés des ondes électromagnétiques
2.3.3. Les signatures spectrales
2.4. Le système d’acquisition
2.4.1. Les capteurs
2.4.2. Les satellites
2.5. Images satéllitales
3. Traitement numérique des images satéllitales
4. Segmentation et Analyse d'images Satéllitales
4.1. Définition de la segmentation
32
33
34
34
35
36
39
40
40
41
42
42
43
43
43
44
45
45
45
47
49
52
53
53
53
55
56
57
57
58
59
59
60
61
62
63
4.2. Les approches de la segmentation d’images
4.3. Approche frontière
4.3.1. Variations d’intensité
4.3.2. Les méthodes de l’approche frontière
4.4. Approche région
4.4.1. Segmentation par division
4.4.2. Segmentation par croissance de régions
4.4.3. Segmentation par division fusion (split&merge)
4.4.4. Les approches multi résolutions
4.4.5. Segmentation par classification
Conclusion
Partie 2 : Le système d’aide à la décision proposé FCM-AT
Chapitre IV : Le Système Décisionnel proposé
1. Introduction
2. Présentation globale du cadre d’application
2.1. Objectifs visés
3. Le Modèle Décisionnel proposé
3.1. La phase de structuration du modèle
3.2. La phase d’exploitation du modèle
3.3. La concrétisation des résultats
3.4. Acteurs
3.5. Les Outils d’investigation pour l’élaboration de FCM-AT
3.6. Le système d’aide à la décision FCM-AT
3.7. Démarche décisionnel adopté par FCM-AT
Conclusion
Chapitre V : Mise en œuvre de FCM-AT
1. Introduction
2. Principes de développement
3. Etude de cas
4. Nature des données
5. Expérimentations et discussion des résultats obtenus
63
63
64
64
67
67 68 69
69
70
71
73
73
74
75
77
77
78
78
79
80
81
81
87
88
88
89
90
90
90
5.1. Phase de chargement des images
5.2. Phase de coloration et d’amélioration
5.3. Phase de segmentation de l’image par FCM
5.4. Phase de transfert en niveau de gris
5.5. Phase de segmentation par le seuillage adaptatif
5.6. Fusion (FCM et Seuillage Adaptatif)
6. Synthèse des résultats
Conclusion
Partie 3 : Annexe A
Annexe A : La Théorie de l’Aide à la décision
1. Introduction
2. L’aide à la décision
2.1 Définition
2.2 Acteurs de l’aide à la décision
3. Décision et processus de décision
3.1. Définition d’une décision
3.2. Le processus de décision
4. Définition des systèmes d’aide à la décision
5. Les Systèmes interactifs d’aide à la décision : (SIAD)
6. L'aide à la décision territoriale (spatiale)
6.1. Processus pour la prise de décision spatiale
6.2. Processus de décision territoriale
6.3. Processus de décision dans le domaine territorial et urbain
Conclusion
Conclusion générale e Perspectives
Bibliographie
90
91
97
98
101
104
107
109
109
109
110
111
111
111
111
113
113
114
116
116
117
118
119
112
Liste des Figures
Liste des Figures
Liste des Figures
Figure 1.1 : Couches thématiques d’un SIG…………………………………………… 7 Figure 1.2 : Composants d’un SIG…………………………………………………….. 7 Figure 1.3 : Mode de représentation de l’information géographique dans un SIG…….. 13
Figure 1.4 : Différents type de modèles de données…………………………………… 20 Figure 1.5 : Composant de formalisme modul_R …………………………………….. 20 Figure 1.6. Entités géométriques et pictogrammes propres à la référence spatiale dans
MODUL-R………………………………………………………………….
21 Figure 1.7 : Exemple d’entité spatiale………………………………………………… 21 Figure 1.8 : Exemple de modèle CONGOO routes et bâtiments……………………… 23 Figure.1.9. Modèle réalisé avec Perceptory …………………………………………… 24 Figure 1.10. Exemple de Modèle OMEGA……………………………………………. 26 Figure 2.1 : Méthodes d’apprentissage…………………………………………………
Figure 2.2 : Schéma générale d’un Classifieur………………………………………… Figure 2.3: Le neurone Artificiel………………………………………………………. Figure 2.4: Un Perceptron Multi couche……………………………………………….
Figure 2.5: Un arbre de décision représentant la fonction XOR………………………. Figure 2.6 : Graphe de voisinage et matrice de voisinage……………………………..
32 35
38 39
41 44
Figure 3.1 : Processus de télédétection………………………………………………… 53 Figure 3.2 : Propagation d’une onde électromagnétique……………………………..... 55 Figure 3.3 : Le spectre électromagnétique………………………………………........... 56 Figure 3.4 : Les modes de réflexion……………………………………………………. 57 Figure 3.5 : Propriétés des ondes électromagnétiques……………………………......... 58 Figure 3.6.a : Capteur passif…………………………………………………………… 59 Figure 3.6.b : Capteur actif…………………………………………………………….. 59 Figure 3.7 : Type des satellites………………………………………………………… 60 Figure 3.8 : Le satellite LANDSAT 5………………………………………………….. 60 Figure 3.9 : Image satellitaire………………………………………………………... 61 Figure 3.10 : Définition d’un contour………………………………………………….. 64 Figure 3.11 : Les allures de la dérivée première et la dérivée seconde………………… 65 Figure 3.12 : Exemple de déroulement de l’algorithme de division de régions……... 68 Figure 3.13 : Structure d’un arbre quaternaire……………………………………….. 69 Figure 3.14 : Pyramide reliée…………………………………………………………... 69 Figure 4.1 : Modèle Décisionnel FCM-AT Proposé………………………………………. 76
Figure 4.2 : Outils d’investigation…………………………………….........................
Figure 4.3 : Système décisionnel FCM-AT ………………………..
79
80
Figure 4.4 : Exemple d’ensemble flou avec x = 3……………………………………... 81
Figure 4.5 : Trame hexagonale………………………………………………………… 85 Figure 4.6 : Matrice M1……………………………………………………………… 85
Liste des Figures
Figure 4.7 : Matrice M2……………………………………………………………… 86 Figure 5.1 : Délimitation de la zone d’étude………………………………………….. 89 Figure 5.2 : Les trois canaux TM 134 (de gauche à droite)………………………….. 90 Figure 5.3 : La composition colorée………………………………………………….. 91 Figure 5.4 : Etalement dynamique d’une image colorée……………………………... 91 Figure 5.5 .a: Image originale Oran Nord……………………………………….......... Figure 5.5 .b/ Image originale Oran sebkha………………………………………….....
92 92
Figure 5.6.a: FCM paramétrique k=4 et Uik équitable (Oran)………………………. 93 Figure 5.6.b: FCM paramétrique k=4 et Uik non équitable (Oran)…………………. 93 Figure 5.7.a: FCM paramétrique k=6 et Uik équitable (Oran)………………………. 93 Figure 5.7.b: FCM paramétrique k=4 et Uik non équitable (Oran)…………………. 93 Figure 5.8.a: FCM paramétrique k=10 et Uik équitable (Oran)……………………. 94 Figure 5.8.b: FCM paramétrique k=10 et Uik non équitable (Oran)………………... 94 Figure 5.9 : FCM automatique (Oran)……………………………………………….. 95 Figure 5.10 : Image originale (Sebkha)……..………………………………………… 95 Figure 5.11.a: FCM paramétrique k=3 et Uik équitable (Sebkha)…………………… 96 Figure 5.11.b: FCM paramétrique k=3 et Uik non équitable (Sebkha)……...………. 96 Figure 5.12.a: FCM paramétrique k=5 et Uik équitable (Sebkha)…………………… 96 Figure 5.12.b: FCM paramétrique k=5 et Uik non équitable (Sebkha)……………… 96 Figure 5.13 : FCM automatique (Sebkha)……………………………………………. 97 Figure 5.14 : Transfert en niveau de gris (Oran)……………………………………... 98 Figure 5.15 : Transfert en niveau de gris (Sebkha)…………………………………... 98 Figure 5.16: Seuillage adaptatif manuel avec masque central 1et seuil=50, 10,3(de
gauche à droite) (Oran)……………… …………………………………
98
Figure 5.17 : Seuillage adaptatif manuel avec masque central 0 et seuil=50, 10,3 (de gauche à droite) (Oran)……………………………………………….
99
Figure 5.18 : Seuillage adaptatif automatique (Oran)…………………………………. 99 Figure 5.19: Seuillage adaptatif manuel avec masque central 1 et seuil=20,3 (de
gauche à droite) Sebkha………………………………………………….
100 Figure 5.20 : Seuillage adaptatif manuel avec masque central 0 et seuil=20,3 (de
gauche à droite) Sebkha…….…………………………………………….
100 Figure 5.21 : Seuillage adaptatif automatique (Sebkha)……………………………… 101 Figure 5.22.a : Fusion de FCM paramétrique et seuillage automatique (Oran)………. 102 Figure 5.22.b : Fusion de FCM paramétrique et seuillage manuel (Oran)…………… 102 Figure 5.23.a : Fusion de FCM automatique et seuillage automatique (Oran)……….. 102 Figure 5.23.b : Fusion de FCM automatique et seuillage manuel (Oran)…………….. 102 Figure 5.24.a : Fusion de FCM paramétrique et seuillage automatique (Sebkha)……. 103 Figure 5.24.b : Fusion de FCM paramétrique et seuillage manuel (Sebkha)…………. 103 Figure 5.25.a : Fusion de FCM automatique et seuillage automatique (Sebkha)…….. 103 Figure 5.25.b : Fusion de FCM automatique et seuillage manuel (Sebkha)…………..
Figure.A.1 : Processus décisionnel selon [Sim, 77]
103 112
Liste des Figures
Figure A.2 : Principe des DSS selon Brouczek [Bou, 06]
Figure A.3 : Principe des SIAD selon Sprague [Spr, 87] Figure A.4 : Processus d’aide à la décision territoriale Figure A.5 : Processus de prise de décision spatiale Figure 5.6 : Processus territorial Figure A.7 : Processus de décision pour le domaine du territoire
116 116 117 118 119 120
Liste des Tableaux
Liste des Tableaux
Tableau 1.1. Comparaison entre le mode vecteur et le mode raster………………… 14
Tableau 1.2. Synthèse des méthodes orientées objets ……………………………… 28
Tableau 5.1. Synthèse des résultats………………………………………………….
106
Liste des Abréviations
Liste des Abréviations
AD : Analyse Discriminante.
AFD : Analyse Factorielle Discriminante.
AG : Algorithme Génétique.
AIGLE : Atelier VIsuel de Génération d’AppLications Géomatiques.
ANSI : American National Standards Institute.
API : Application Programming Interface : Interface exposée par un programme et
permettant de l'appeler depuis un autre programme.
ASAL : Agence Spatiale Algérienne.
CNTS : Centre National des Techniques Spatiale.
CONGOO : CONception Géographique Orientée Objet.
DGI : Direction Générale des Impôts.
DMS : Data Mining Spatiale
EDI : EDI (Electronic Data Interchange) : Echange de données électroniques
organisé scion des messages a plusieurs niveaux, avec en-têtes de trois
caractères et des collages longueur – champ, standardise dans les années 1980.
FDS : Fouille de Données Spatiales
GOES : Geostationary Operational Environmental Satellite
ID3: Inductive Decision Tree.
KDD: Knowledge Discovery in Database.
HTML : Hyper Text Markup Language : Le langage de balisage initial du Web,
base sur des tags fixes et des contents mixant données de fond et données de
présentation, généralement interprètes par un navigateur (Browser Internet
Explorer ou Netscape ou Opéra).
Liste des Abréviations
ID3 : Induction Decision Tree.
IFEN Institut Français de l’Environnement.
IGN : Institut Géographique National.
INSEE : Institut National de la Statistique et des Études Économiques.
ISO : International Organization for Standardization.
MADS : Model for Application Data with Spatio-Temporal Features.
MECOSIG: Méthode de Conception de SIG.
MLP : Multi Layer Perceptron : Le Perceptron Multi Couche.
NASA : National Aeronautics and Space Administration.
OCR : Optical Character Recognition.
ONS Office National des Statistiques
PVL: Plug-in for Visual Language.
RBF : Radial Basis Function.
RNA : Réseau de neurones artificiel.
SGBD : Système de Gestion de Bases de Données.
SGBDR : Système de Gestion de Bases de Données Relationnel.
SHOM : Service Hydrographique et Océanographique de la Marine.
SIG : Système d’Information Géographique.
SPOT Satellite pour l’observation de la terre
SQL : Structured query language.
SVM : Support Vector Machines.
TM Thematic Mapper
URL : Universal Resource Locator: Adresse logique normalisée d'une ressource
Internet accessible via HTTP, conçue au départ pour lier des pages web.
UML : Unified Modeling Language : Langage de modélisation objet compose d'un
Liste des Abréviations
ensemble de diagrammes permettant de représenter un système d'information d'un
point de vue aussi Bien statique (classe, association...) que dynamique (cas
d'usage, diagrammes d'états, etc).
VAS: Visible infrared spin-radiometer Atmospheric Sounder
XML : Extensible Markup Language. Métalangage développe par le W3C permettant de
définir des langages de marquage de documents ou de messages, au centre d'un
ensemble de standards dédies a la communication dans les systèmes d'information.
Introduction Générale
1
Introduction Générale
Contexte et Problématique
L’homme habite dans un lieu, travaille dans un autre et communique avec d’autres
gens dans beaucoup d’autres espaces. Afin de pouvoir localiser toutes ces données et pouvoir
s’y repérer, l’homme inventa la carte, cette création fut révolutionnaire en son temps, mais ne
répond plus actuellement aux besoins d’aide à la gestion et à la décision exprimées par les uns
et les autres.
La connaissance de notre environnement et des données socio-économiques qui le
décrivent, ramenées à une localisation devient de plus en plus une composante fondamentale
de la prise de décision concernant l’évolution de notre société moderne.
La nécessité de disposer d’information géographique numérique est ressentie par un
nombre d’utilisateurs de plus en plus élevé, que ce soit dans des services techniques,
administrations, bureaux d’études, industriels, etc.
Les territoires et leur environnement étaient jusqu’à présent appréhendés par des
représentations géographiques traditionnelles à l’aide de plan ou cartes, ou par des approches
comptables en constituant ou en exploitant des bases de données alphanumériques. Ces
approches ne sont plus d’actualité dans la mesure où elles ne permettent pas une vision
suffisamment globale des territoires [Ham et al, 07].
Si la manipulation des éléments du réseau routier s’effectuait moyennant des supports
papiers, il n’est plus le cas de nos jours, en effet, le numérique remplace et améliore les
anciennes façons de procéder. Si ces supports physiques (cartes, plans, images, satellites, etc.)
sont toujours utilisés, leur intégration et leur fusionnement avec d’autres données ne peut
s’effectuer qu’après différentes opérations de transformation. Ces opérations de
transformation se réalisent par numération et structuration, qui caractérisent en générale
toute donnée admise dans le domaine de l’information géographique ou traitée par des
Systèmes d’Information Géographique (SIG) [Mic, 93].
Les SIGs se composent de logiciels aussi importants que nécessaires pour les données
localisées ou localisables, les systèmes de gestion de base de données ou les tableurs usuels ne
Introduction Générale
2
sont généralement pas suffisants pour répondre aux exigences de gestion de ce type de
données [Eng, 04].
L’utilisation des Systèmes d’Information Géographique (SIG) constitue, d’une part,
une nouvelle approche pour la spatialisation de l’information et la mise à jour des travaux de
cartographie, en vue d’aide à la prise de décision, notamment en matière de gestion et
d’aménagement des territoires [Ham, 08].
D’autre part, un Système d’Aide à la Décision (SAD) est un outil d’observation et de
description qui vise, à partir de données de gestion et/ou de statistiques, à donner aux
utilisateurs ou aux managers d’une entreprise par exemple, les moyens d’identifier des alertes
de gestion, de suivre l’évolution de l’activité et de disposer d’outils d’investigation de sujets
ou phénomènes particuliers. Il ne fournit pas les explications ni les commentaires qui
relèvent d’une phase de travail postérieure à l’observation. Le SAD vise à fournir aux
utilisateurs un outil de consultation commode, d’une ergonomie aisée, de façon à minimiser
les tâches de recherche de l’information et de présentation des résultats.
Etant sélectif, le SAD ne peut pas répondre à toutes les questions imaginables mais
seulement à la plupart des questions. Il peut donc arriver qu’un utilisateur recherche une
information que le SAD ne fournit pas. Il faut pourtant que l’on puisse lui répondre. Ce sera la
tâche d’une équipe d’analystes en région et à la direction générale, habilitées à utiliser des
requêtes et à interroger la base de données intermédiaire pour répondre à l’utilisateur.
Toutefois le délai de réponse sera plus long (quelques heures ou quelques jours) que celui de
la consultation des hypercubes (quelques secondes). Cette technologie permet à l’utilisateur,
par la production de tableaux multidimensionnels intermédiaires, de construire par sélection
les séries chronologiques ou les tableaux croisés dont il a besoin. Le contenu de ces
hypercubes doit être défini a priori, à partir de l’analyse des besoins, de sorte qu’ils
satisfassent au mieux les besoins des utilisateurs.
C’est pour cela que La fouille de données est considérée comme l'une des dix
disciplines appelées à façonner le XXIe siècle [Lef, 01]. Elle offre de nouvelles perspectives
pour beaucoup d'applications à caractère décisionnel comme le géo-marketing ou l'analyse de
risques d'accidents et dont le volume de données ne cesse de croître. Cette tendance à
Introduction Générale
3
développer de grandes bases de données s'explique par les progrès dans l'acquisition de
données surtout dans le domaine spatiale.
Contribution
Nous nous intéressons, dans cette étude, au domaine du Data Mining Spatial (DMS).
Ce domaine de recherche soulève de réels problèmes, tant scientifiques que technologiques.
La résolution de ces problèmes a non seulement des répercussions sur les aspects scientifiques
et technologiques, mais a aussi un très net impact socio-économique [Han, 97]. A cet effet,
nous définissons l'extraction de connaissances à partir des images comme étant le processus
permettant de construire à partir d'un ensemble d’images une vision synthétique de leur
contenu. Il s'agit donc d'extraire des informations à partir des éléments des images qui sont
ensuite organisées sous forme de connaissances.
La Fouille de Données Spatiales (FDS) constitue un domaine de recherche à part
entière. En effet, sa spécificité par rapport à la fouille de données traditionnelle est qu’elle
prend en compte les relations spatiales entre objets. L’idée de base est la création d’un
système d’aide à la décision spatiale intégrant des outils de traitement d’images satéllitales et
des techniques de datamining spatiale.
L’objectif de notre travail est de proposer une nouvelle approche d’analyse et de
traitement d’images de télédétection afin d’enrichir le domaine des systèmes d’aide à la
décision spatiale (SDSS) (Spatial Decision Support System). Le système d’aide à la décision
proposé nommé FCM-AT prend en compte toutes les phases du traitement de l’image, depuis
les opérations de visualisation jusqu’à l’analyse des résultats.
Dans le cadre de la présente étude, nous nous intéressons aussi au traitement des
images satéllitales. En effet, notre objectif porte sur l’extraction automatique de réseaux de
régions homogènes (zone urbaine, forêt, etc.) à partir d’une image Landsat 5 TM pour la
région d’Oran (Algérie) selon une approche basée sur la fusion de deux méthodes : le K-
Means flou et le seuillage adaptatif. La première est appliquée sur des images multi spectrales
tandis que la deuxième méthode est utilisée pour segmenter les images après que celles-ci
aient été transformées en niveau de gris.
Introduction Générale
4
Organisation du mémoire
Ce mémoire présente un travail transversal qui se situe au carrefour de plusieurs
domaines à savoir: les Systèmes d'Informations Géographique (SIG), la fouille de données
spatiales et le traitement des images satéllitales. Il est organisé en trois parties :
- La première partie (Synthèse de l’état de l’art): nous présentons, dans cette partie, les
concepts fondamentaux liés à la problématique abordée par cette étude, elle comprend trois
chapitres :
Chapitre 1 : Les Systèmes d’Information Géographique (SIG)
Ce chapitre présente succinctement les systèmes d’information géographique et les outils
adéquats pour appréhender les problèmes de décision à référence spatiale.
Chapitre 2 : La Fouille de Données Spatiales
Dans ce chapitre, nous abordons les concepts fondamentaux de la fouille de données avec
une attention particulière aux fouilles de données spatiales.
Chapitre 3 : Le Traitement des Images Satéllitales
Ce chapitre constitue une présentation générale des concepts structurants la méthodologie de
traitement des images satéllitales.
- La seconde partie de ce mémoire détaille notre contribution qui porte sur l’élaboration d’un
système d’aide à la décision spatiale, cette partie comporte deux chapitres :
Chapitre 4 : Le système d’aide à la décision proposé FCM-AT
Ce chapitre est dédié à notre contribution. Nous présentons d’une manière détaillée notre
approche basée sur les méthodes adoptées : les K-Means Floues (FCM) et le seuillage
adaptatif (SA).
Chapitre 5 : Mise en Œuvre de FCM-AT
Ce chapitre présente la maquette informatique proposée ainsi que les données utilisées
relatives à l’étude de cas. Dans ce chapitre, nous discuterons les résultats obtenus et
évaluerons notre approche.
Introduction Générale
5
-La troisième partie de ce mémoire aborde, sous forme d’annexe, les concepts
fondamentaux relatifs à l’aide à la décision.
Ce mémoire s’achève par une conclusion et des perspectives où nous récapitulerons l’apport
de notre approche en ouvrant des perspectives à cette étude.
Première Partie
Synthèse de l’Etat de l’Art
Chapitre 1 Ce chapitre aborde l’aide à la décision,
Ce chapitre présente les systèmes d’information géographique (SIG) constituant des
outils adéquats pour appréhender les problèmes de décision à référence spatiale.
Les Systèmes d’Information Géographique
(SIG)
Chapitre 1
Plan
� � � � �
1.1. Introduction
1.2. Définitions
1.3. Les composants d’un SIG
1.4. Domaine d’application des SIG
1.5. Les principales fonctions d’un SIG
1.6. L’information géographique
1.7. Fonctionnalités techniques d’un SIG
1.8. Démarche pour la mise en place d’un SIG
1.9. Les avantages et les inconvénients d’un SIG
1.10. Les méthodes de conception de SIG
1.10.1. La méthode MODUL-R
1.10.2. La méthode MECOSIG
1.10.3. Perceptory et Géo-UML
1.10.4. La méthode OMEGA
1.10.5. Synthèse des méthodes orienté objet.
1.11. Conclusion
Les Systèmes d’Information Géographique(SIG)
Chapitre 1 Les Systèmes d’Information Géographique
6
Chapitre 1
Les Systèmes d’Information
Géographique
1. Introduction
Les systèmes d’information ont été mis en œuvre historiquement pour gérer des
informations de type documentaire ou de gestion. Les informations localisées disposant d’une
composante géographique étaient représentées de manière visuelle sur des cartes ou sur des
plans. Les systèmes d’information utilisent les possibilités de traitements sur des éléments
informatiques telles que les chaînes de caractères ou les valeurs numériques pour permettre
des recherches ou des traitements sur des textes ou des valeurs. L’utilisation des propriétés
géographiques (intersection, distance, proximité, forme) demande une approche globale dans
laquelle les propriétés sémantiques (traduites par des valeurs) sont utilisées conjointement
avec des caractéristiques liées à la forme ou à la position des objets.
De là, les spécialistes ont pensé à concevoir des systèmes qui combinent les données
géographiques et alphanumériques pour obtenir un système d’information et d’aide à la
décision : c’est le Système d’Information Géographique (SIG).
2. Définitions
Une base de données spatiale est un ensemble organisé d’objets géographiques :
chaque objet est une association d'une description qualitative ou quantitative et d’une
Chapitre 1 Les Systèmes d’Information Géographique
7
localisation spatiale. Cet ensemble est géré au sein d’un SIG et organisé en couches
thématiques comme illustré dans la figure (1.1) [Zei, 06].
Exemple : Découpage administratif, Réseaux routiers, Topographie (courbes de niveau), etc.
Un SIG est un système informatique permettant, à partir de diverses sources, de
rassembler, d’organiser, de gérer, d’analyser, de combiner, d’élaborer et de présenter des
informations localisées géographiquement contribuant notamment à la gestion de
l’espace [Che, 93] et [Jol, 96].
Dans [Eng, 04], un SIG est définit comme « un logiciel informatique offrant des
capacités de cartographie numérique, de gestion de base de données et d’analyse spatiale. Il
permet d’afficher, interroger, actualiser et analyser des données localisées (points
géographiques) et les informations qui leur sont associées ».
Figure 1.1. Les couches thématiques d’un SIG
3. Les composants d'un SIG
Un SIG est constitué de cinq composants majeurs [Ham et al, 07c]. La figure (1.2)
illustre ces composants.
Figure 1.2. Composants d’un SIG
Chapitre 1 Les Systèmes d’Information Géographique
8
3.1. Matériels
Les SIGs fonctionnent aujourd’hui sur une très large gamme d’ordinateurs, des
serveurs de données, aux ordinateurs de bureaux connectés en réseau ou utilisés de façon
autonome.
3.2. Logiciels
Les logiciels d’un SIG offrent les outils et les fonctions pour stocker, analyser et
afficher toutes-les-informations.-Parmi les principaux composants logiciels d’un-SIG, nous
citons :
• Les outils de saisie et de manipulation des-informations-géographiques.
• Les systèmes-de-gestion-de-base-de-données.
• Les outils-géographiques-de-requête,-analyse-et visualisation.
• Les interfaces-graphiques-utilisateur,-pour faciliter l’utilisation.
3.3. Données
Les données sont certainement les composantes les plus importantes des SIG. Les
données géographiques et les données tabulaires associées peuvent, soit être constituées en
interne (base de données), soit acquises-auprès-de-producteurs-de-données [Fal, 95].
3.4. Utilisateurs
Les SIGs s’adressent à une très grande communauté d’utilisateurs depuis ceux qui
créent et maintiennent les systèmes, jusqu’aux personnes utilisant dans leur travail quotidien
la dimension géographique. La communauté des utilisateurs de SIG s’agrandit chaque jour de
façon considérable avec l’avènement des SIGs sur Internet [Fal, 95].
4. Les domaines d’application des SIGs
Les domaines d’application des SIGs, nous citons dans ce qui suit les plus importants :
4.1. Etat et collectivités locales
Les organismes gouvernementaux font confiance à la technologie SIG, pour établir des
règles et pour renforcer l’aide sociale apportée à leurs concitoyens.
Les collectivités locales font appel à un SIG pour organiser entre autres, des
informations sur le cadastre, l’urbanisme, le développement économique, le patrimoine, les
réseaux et toutes les informations publiques [Jol, 96].
Chapitre 1 Les Systèmes d’Information Géographique
9
4.2. Recherche, Universités, Science et éducation
Un SIG représente l’outil idéal pour les chercheurs. C’est le meilleur pour modéliser le
monde réel, classer et observer des phénomènes et prévoir ainsi les changements à venir.
L’avancée des SIGs a donné naissance à des millions d’offres d’emplois. La plupart des
établissements d’enseignement supérieur et universités ont développé des cours et
programmes conduisant à des diplômes et certificats en SIG.
4.3. Prévention et Sécurité
Un SIG est un outil efficace dans la lutte contre la criminalité. Les experts de la police
se servent d’un SIG pour la planification et la modélisation d’événements, la planification
tactique et stratégique et la cartographie des lieux d’incidents.
Des programmes dirigés par des services de police offrent à tous leurs officiers un
accès aux informations sur les délits commis dans toute une ville. La défense utilise les SIG
pour les services de renseignements, l’analyse de terrain, la planification de mission et la
gestion d’infrastructures [Naf, 01].
4.4. Transports
En ce domaine, un SIG peut répondre à trois besoins différents: la gestion des
infrastructures, la gestion des parcs et de la logistique et la gestion des transits. Un SIG fournit
des informations sur l’analyse et la planification des réseaux, le suivi et l’acheminement des
véhicules, le suivi des stocks et l’analyse de la planification des itinéraires.
4.5. Télécommunication
Un SIG offre aux sociétés de télécommunication un éventail de solutions, qui
permettent l’analyse des relations entre la couverture des signaux, l’édition de résultats de
tests, la gestion des dossiers d’incidents, le suivi des requêtes clients et d’une façon plus
générale tout le reporting de l'entreprise.
4.6. Santé
Les experts de la santé se sont équipés de SIG pour surveiller l’épidémiologie et la
santé publique, on peut suivre géographiquement les indicateurs de santé à différentes
échelles, identifier les sites épidémiologiques et rechercher les sites à risques écologiques.
Certains services de santé publique en Afrique utilisent par exemple un SIG pour les
programmes de lutte contre les moustiques [Naf, 01].
Chapitre 1 Les Systèmes d’Information Géographique
10
4.7. Gaz, eau et eaux usées
La gestion des sources de gaz et des pipelines physiques se fait à partir d’un SIG qui
permet d’obtenir toutes les informations, allant des caractéristiques des stations de production
jusqu’aux conduites d’acheminement.
Dans les services des ressources hydrauliques, les cartes de haute résolution détaillent
la localisation géographique des pipelines souterrains, bassins versants, réservoirs et
installations hydroélectriques [Fer, 97].
5. Les principales fonctionnalités d'un SIG
Les principales fonctionnalités d’un SIG sont décrites dans ce qui suit.
5.1. Saisie
Avant d’utiliser des données papier dans un SIG, il est nécessaire de les convertir dans
un format informatique. Cette étape essentielle depuis le papier vers l’ordinateur s’appelle
digitalisation [Roc, 97]. Les SIGs modernes sont capables d’automatiser complètement
ces tâches pour des projets importants en utilisant la technologie des scanners. D’autres
projets moins importants peuvent se contenter d’une phase de digitalisation manuelle (table à
digitaliser).
5.2. Manipulation
Les sources d’informations (comme décrits précédemment) peuvent être d’origines très
diverses. Il est donc nécessaire de les harmoniser, afin de pouvoir les exploiter conjointement
(c’est le cas des échelles, du niveau de détail, des conventions de représentation, etc.). Les
SIGs intègrent de nombreux outils permettant de manipuler toutes les données pour les rendre
cohérentes et ne garder que celles qui sont essentielles au projet [Pie, 04].
5.3. Gestion
Quand le volume de données grandit et le nombre d’utilisateurs de ces mêmes
informations devient important, il est essentiel d’utiliser un SGBD (Système de Gestion de
Bases de Données) pour faciliter le stockage, et la gestion des données [Ram, 93].
Il existe de nombreux types de SGBD, mais dans le domaine des SIG, le plus utilisé est
le SGBDR (Système de Gestion de Bases de Données Relationnel). Les données y sont
représentées sous la forme de tables utilisant certains champs comme lien.
Chapitre 1 Les Systèmes d’Information Géographique
11
5.4. Interrogation -et-analyses
Disposant d’un SIG, on peut commencer par poser des questions simples telles que:
• A qui appartient cette parcelle ?
• Lequel de ces deux points est le plus loin ?
• Où sont les terrains utilisables pour une industrie ?
Et des questions intégrant une analyse, comme par exemple :
• Quels sont les terrains disponibles pour construire de nouvelles maisons ?
• Quels sont les sols adaptés à la plantation de chênes ?
5.5. Analyse-spatiale
L’intégration de données au travers des différentes couches d’information permet
d’effectuer une analyse spatiale rigoureuse. Cette analyse par croisement d’information, si elle
peut s’effectuer visuellement (à l’identique de calques superposés les uns aux autres)
nécessite souvent le croisement avec des informations alphanumériques. Croiser la nature
d’un sol, sa déclivité, la végétation présente avec les propriétaires [Ham, 08].
5.6. Visualisation
Pour de nombreuses opérations géographiques, la finalité consiste à bien visualiser des
cartes et des graphes. Une carte vaut mieux qu’un long discours. La carte est, en effet , un
formidable-soutil-de-synthèse-et-de-présentation-de-l’information.
Les SIG offrent à la cartographie moderne de nouveaux modes d’expression
permettant d’accroître de façon significative son rôle pédagogique. Les cartes créées avec un
SIG peuvent désormais facilement intégrer des rapports, des vues en 3D (trois dimensions) ;
des images photographiques et toutes sortes d’éléments multimédia [Ham, 08].
6. L’Information Géographique
Une adresse, un lieu, un plan et une carte sont les exemples les plus significatifs. Mais
l’information géographique n’est pas limitée qu’à cela, des informations portant sur la
population, les cultures, l’environnement sont aussi de nature géographique [Ham et al, 07c].
Chapitre 1 Les Systèmes d’Information Géographique
12
6.1. Définition
L’Information Géographique est une interprétation, une modélisation du territoire, de
notre monde réel. C’est une information reliée à une localisation dans un système de référence
sur la terre [Ham et al, 07c].
Exemple : Un système de référence, une adresse postale, qui permet de localiser un certain
nombre d’informations, en particulier toutes les constructions.
Il existe deux types d’Information Géographique :
• l’Information Géographique par nature : route, cours d’eau, bâtiment, etc.
• l’Information Géographique par destination.
Exemple : Les routes : Un nom (Nationale 7, Départementale 65), une longueur en Km, etc.
6.2. Composants de l’information géographique
6.2.1 Représentation graphique
Toute information géographique doit être sous l’une des formes suivantes :
• Ponctuelle : c’est la représentation la plus simple.
• Linéaire : c’est une jointure de deux points au minimum.
• Surfacique : c’est la représentation la plus complexe, elle est définie par une ou
plusieurs lignes en joignant trois point au minimum [Hou, 02].
6.2.2. Représentation non graphique
C’est toutes les données alphabétiques, alphanumériques et numériques qui offrent
une description sémantique à un objet localisé.
Exemple : Adresse postale, numéro de section cadastrale ou nom d’un propriétaire [Mic, 93].
6.2.3. Représentation topologique
Elle peut être définie comme étant une modélisation de l’information graphique d’une
carte, c'est-à-dire le mode de stockage des entités graphiques, plus les relations existant entre
ces entités. Cette topologie est stockée sous forme de fichiers dans la base de données
topologiques [Den, 04].
Chapitre 1 Les Systèmes d’Information Géographique
13
6.3. Représentation informatique des données spatiales
Nous nous intéresserons maintenant à l’organisation de bas niveau de l’information
géographique. Cela concerne les structures de données informatiques utilisées pour coder
l’information présente dans les SIGs. Les choix qui sont faits dans les différents systèmes à ce
niveau d’organisation ont des répercutions très importantes en termes de performances
d’accès aux données et de taille de stockage des bases de données [Mic, 93].
6.3.1. Formats de l’information géographique
Avant d’aborder les définitions sur les formats de l’information géographique, nous
allons présenter une figure illustrant les deux formats existants figure (1.3) pour mieux
assimiler leurs définitions :
Figure 1.3 : Mode de représentation de l’information géographique dans un SIG
a. Format Raster : utilise une description matricielle de l’espace géographique. La
matrice est une image, chaque élément de l’image ou Pixel (Picture element) contient
un niveau donné qui représente une thématique. Ces images sont issues généralement
de scanners ou d’images aériennes ou satellites [Rou, 93].
b. Format Vecteur : les objets sont représentés par des primitives graphiques (point,
ligne, polygone, etc.) Dans ce cas, l’espace de représentation est supposé continu,
contrairement au codage Raster où l’espace est quantifié et la précision géométrique
est limitée [Rou, 93].
Chapitre 1 Les Systèmes d’Information Géographique
14
c. Comparaison entre le mode vectoriel et le mode matriciel
Tableau 1 : Comparaison entre le mode vecteur et le mode raster.
6.4. Couches de l’information géographique
Un thème est un ensemble d’objets géographiques homogènes, c'est-à-dire qui ont le
même type spatial (zone, ligne, ou point).
Exemple : les cours d’eaux, les pays, les réseaux routiers, etc.
Au moment de l’affichage d’un thème sur un écran ou sur une imprimante, nous lisons une «
carte » au sens usuel avec des couleurs, une échelle. Dans un SIG, plusieurs thèmes peuvent
être associés au même territoire. On dit qu’ils ont la même couverture spatiale [Zei, 06].
Raster Vecteur
Avantages
-structure de données simple
-Puissance des opérations numériques.
-Modélisation simplifiée du fait de la
forme régulière des cellules.
-Technologie bon marché et en plein
développement.
-Supports idéaux pour de nombreux types
des données.
-Bonne représentation de la structure des données.
-Structure compact.
-Topologie explicite permettant une bonne analyse
en réseau.
-Projection géographique et translation aux
différentes échelles.
-Qualité de représentation aux différentes échelles.
Inconvénients
-Gros volume des données.
-Qualité graphique irrégulière et perte
d’information, due au choix des cellules.
- Projection géographiques nécessitants
algorithmes adaptés pour éviter distorsion.
-Structures complexes de donnés.
-Intersection nécessitant puissance de calcul.
-Visualisation et impression nécessitant important
temps d’affichage.
-Contenu homogène de chaque polygone rendant
l’analyse spatiale impossible.
-Simulation difficile car chaque polygone a une
forme propre.
Chapitre 1 Les Systèmes d’Information Géographique
15
On appelle couche un ensemble d’un ou de plusieurs thèmes ayant la même
couverture spatiale. Par exemple : Réseau routier, occupation du sol (urbain, agricole),
l’ensemble de différents sites touristiques, hôpitaux, etc. [Zei, 06].
Bien que ces thèmes soient saisis et mis à jour séparément, à des précisions et échelles
souvent très différents, l’analyse spatiale peut parfois nécessiter leur association non
seulement à l’écran mais également à l’intérieur de la base de données.
Une couverture spatiale peut être homogène, c'est-à-dire, ne représenter par exemple
que des polygones de même thème, ou hétérogène, par exemple associer des rues bordant des
zones habitées (immeubles) et des zones représentant les immeubles.
La représentation d’une couche varie selon la richesse des relations spatiales entre les
objets que l’on désire représenter.
Il existe trois modèles très courants [Col, 94]:
− Modèle spaghetti.
− Modèle topologique.
− Modèle réseau.
7. Les fonctionnalités techniques d’un SIG (Modèle des 5 ‘A’)
Les fonctionnalités techniques d’un SIG sont communément synthétisées selon le
modèle des 5 ‘A’ (Abstraction, Acquisition, Archivage, Analyse, Affichage) [Bou, 90]:
7.1. Abstraction
C’est la modélisation de la base de données en définissant les objets, leurs attributs et
leur relation.Elle répond à la question : à quoi va servir la base de données qu’on va
constituer ?
Cette étape est nécessaire avant toute numérisation, elle sert de point de départ de la
constitution des bases de données géographiques, et de support de dialogue entre les différents
intervenants (décideurs, utilisateurs, prestataires, etc).
7.2. Acquisition
C’est l’alimentation du SIG en données, il faut d'une part définir la forme des objets
géographiques et d'autre part leurs attributs et relations.Elle répond à la question : où trouver
l’information dont vous avez besoin ?
Auprès d’organismes nationaux ou internationaux producteurs ou revendeurs il s’agit:
Chapitre 1 Les Systèmes d’Information Géographique
16
a. De données de références : IGN (Institut Géographique National), INSEE (Institut
National de la Statistique et des Études Économiques), DGI (Direction Générale des
Impôts), etc.
b. De données thématiques: INSEE, SHOM (Service Hydrographique et
Océanographique de la Marine), IFEN (Institut Français de l’Environnement),
Météo France, concessionnaires de réseaux, etc [Bou, 94].
7.3. Archivage
Elle répond à la question : où et comment stocker les données ?Les données qu’on a
acquises ou créées doivent être transférées vers un espace de stockage (disque dur, serveur).
C'est l'une des fonctions les moins visibles pour l'utilisateur qui dépend de l'architecture
logicielle gérée ou non par un SGBD [Bel, 04].
7.4. Analyse
Elle répond à la question : Comment interroger au mieux le SIG ?Elle permet de
répondre aux questions qu’on a posé au travers de l’exploitation du SIG et peut se faire de
deux manières :
• Analyse spatiale à partir de la sémantique : cette analyse peut se faire par requête et
par calcul. La cartographie en est souvent le support.
• Analyse spatiale géométrique : cette analyse se base sur la position de l’objet, sa
forme et les relations qui existent éventuellement. La distance entre les objets est une des
fonctionnalités simples de l’analyse spatiale [Bel, 04].
7.5. Affichage
C’est la production des cartes de façon automatique. Elle répond à la question :
Comment exploiter les données en mode multi canal ?
Il permet d'appréhender les relations spatiales entre les objets dès lors que la représentation
graphique respecte les règles de cartographie.Il sert à communiquer :
− Sur un ordinateur lors de l’élaboration d’une étude,
− Sur Internet en respectant des contraintes de poids, de couleur, de format.
− Sur papier pour des documents de travail, des rapports, des documents de promotion.
Chapitre 1 Les Systèmes d’Information Géographique
17
8. La démarche pour la mise en place d’un SIG
8.1. Les étapes fondamentales
Il y a 4 étapes [Bel, 04]:
8.1.1. Les définitions
Un SIG, c’est :
• Une problématique, des besoins,
• Des données géographiques et alphanumériques,
• Des logiciels spécialisés,
• Du matériel, et surtout, du personnel et du savoir-faire.
8.1.2. Etude d’opportunité
L’étude d’opportunité doit :
• Définir le besoin d’enjeux, de risques, de rapport coût/avantage,
• Analyser l’existant (matériel, données, ressources humaines et compétences),
• Définir les orientations stratégiques en termes fonctionnels, organisationnels et
techniques.
• Recommander une solution et l’évaluer.
8.1.3. Choix du prestataire
Le système mis en place devra:
• Continuer à évoluer (mise à jour des données, intégration des nouveaux thèmes,
amélioration ou extension des traitements),
• Disposer des moyens financiers et humains suffisants pour assurer ces évolutions,
garantir la pérennité des investissements consentis et la permanence des compétences
professionnelles acquises.
8.1.4. Mise en place de la solution
• Développement,
• Déploiement,
• Formation - initiation et formation complémentaires spécifiques,
• Recette du système - vérification d’aptitude et vérification de service régulier,
8.2. Facteurs-clés de réussite
La réussite d’un projet SIG dépend pour une bonne part de facteurs non techniques tels
que l’analyse des besoins, la méthodologie de mise en place, les conditions économiques liées
Chapitre 1 Les Systèmes d’Information Géographique
18
aux investissements et au fonctionnement. Sa pérennité nécessite un personnel formé et
permanent, un fonctionnement quotidien, une adaptation à l’organisation des services,
l’élaboration d’un scénario d’évolution [Fer, 97].
9. Les avantages et inconvénients d’un SIG
9.1. Les avantages
a. Un SIG permet d'abaisser les coûts de production des cartes et des plans. Dans de
nombreuses mairies, les cartes et plans sont établis à la main, avec des délais et des
coûts de correction, de mise à jour, de dessin, etc. [Ham, 08].
b. Un SIG permet aussi d'établir des cartes et des plans que l'on ne pouvait pas réaliser à
la main. Grâce à l'informatique, il est possible de réaliser des produits nouveaux qu'il
était impossible de réaliser à la main [Zei, 06].
c. Un SIG évite d'avoir à refaire plusieurs fois les mêmes levers. Il évite que des services
différents procèdent à des levers topographiques sur la même zone et évite les pertes
d'information avec le temps en accumulant l'information recueillie sur le terrain
[Ham et al, 07c].
d. Mettre en place et installer nouvelle application SIG nécessite un investissement
modeste et le retour sur investissement est rapide.
e. Un SIG facilite la réalisation d'étude pour tous les projets ayant une composante
géographique. Il permet de multiplier les représentations visuelles et facilite ainsi la
prise de décision tout en diminuant les risques d'erreurs [Mic, 93].
f. Le SIG améliore le service rendu à l'usager en permettant de lui fournir avec rapidité
et fiabilité une information de qualité dont il a besoin. Par exemple, tous les
renseignements délivrés par le service urbanisme seront, en principe, à jour et
complets [Zei, 06].
g. Le SIG permet des calculs utiles à la prise de décision. Cela va du calcul simple, la
superposition cartographique, au calcul complexe d'analyse spatiale intégrant un
grand nombre de paramètres [Den, 04].
Chapitre 1 Les Systèmes d’Information Géographique
19
9.2. Les inconvénients
a. Nécessité d’une motivation et d’une formation des collaborateurs au nouveau système
[Mic, 93].
b. Manifestation-d’une-volonté-de-changement-en-vue-d’une-amélioration [Mic, 93].
c. Formation d’une personne pour la maintenance du SIG ou mise en place d’un mandat
de gestion [Mic, 93].
d. Nécessité de travailler selon une méthode définie, en concertation, afin d’obtenir des
données-communes-utilisables,-fiables,-à-jour, etc. [Ham, 08].
e. Léger-changement-des-habitudes-de-travail [Ham, 08].
f. Nécessité d’une autonomie des collaborateurs face au SIG, pour promouvoir un travail
efficace [Den, 04].
10. Les méthodes de conception des SIGs
Cette section présente une synthèse des méthodes de conception et formalismes
utilisés dans la modélisation des applications géomatiques des SIGs et des informations
spatio-temporelles. Notre étude se focalise sur les approches orientées objets. De plus, nous
n’avons considéré que les méthodes destinées à la modélisation conceptuelle.
Par l’étude de travaux existants, nous avons pu faire émerger précisément les besoins
principaux auxquels ces méthodes et formalismes répondent, à savoir :
• La modélisation des types géographiques [Fpi, 02].
• La modélisation des relations spatiales ; par exemple des relations topologiques ou
métriques, ou bien encore des relations d’agrégation spatiale1.
• L’expression de la temporalité [Den, 04].
10.1. La méthode MODUL_R
MODUL_R est une méthode basée sur une extension de Merise. Des notations
spécifiques aux informations spatiales sont intégrées aux MCD. Voir figure (1.4).
1 Une agrégation spatiale est un regroupement d’entités géographiques. Une relation d’agrégation spatiale Est une relation de type composé-composants. Dans les méthodes de conception pour la géomatiques existantes, la géométrie de l’objet composé est généralement l’union spatiale des géométries des objets composants [Fpi, 02].
Chapitre 1 Les Systèmes d’Information Géographique
20
Indépendant de la technologie dépendant de la technologie
Figure 1.4. Différents types de modèles de données
Le formalisme relatif à cette méthode nommé formalisme individuel étendu est un
formalisme de la famille entité-relation, développé dans le cadre de la méthode Merise. Le
formalisme individuel étendu est une extension du formalisme individuel à la référence
spatiale (voir figure (1.5).
Figure 1.5. Composant de formalisme Modul_R
Le formalisme individuel étendu présente des composantes sémantiques (entité, relation,
cardinalité) et des règles d’utilisation similaire à celles du formalisme individuel néanmoins.
Les notations présentent de légères différences par l’introduction des différents pictogrammes
reflétant la dimension spatiale des objets (voir figure (1.6).
Cardinalité 1, n
Entité Attribut #1 Attribut #2 Attribut #3 Attribut #4
Relation attribut
R E A L I T E
Conceptuel Logique Physique Base De Données
Schéma Externe
Schéma Externe
Schéma Externe
Chapitre 1 Les Systèmes d’Information Géographique
21
0 dimension (objet ponctuelle) 2 dimensions (objet surface) 1 dimension (objet linéaire) ----- 3-dimensions
(objet volumique)
Figure 1.6. Entités géométriques et pictogrammes propres à la référence spatiale dans
MODUL-R.
Figure 1.7. Exemple d’entité spatiale
10.2. Méthode MECOSIG
MECOSIG (Méthode de Conception de SIG) est une méthode complète de conception
des SIG. Elle est basée à la fois sur des outils traditionnels (Diagramme de Flux de Données,
organigrammes, enquêtes...) et des outils originaux (Matrices de conduite, pyramides,
formalisme, CONGOO (CONception Géographique Orientée Objet), etc.) [Pan, 96].
Composantes sémantiques Notations graphiques (le différent
Pictogrammes utilisées)
Entités Géométriques (Point, ligne,
polygone, volume)
Entité
Attribut # 1
Attribut # 2
Parcelle Commune Numéro
Chapitre 1 Les Systèmes d’Information Géographique
22
10.2.1. Les types géographiques
Les objets géographiques simples de CONGOO sont au nombre de quatre types :
point, ligne, polygone et de type surface. Au sein des objets de type ligne, on peut encore
distinguer si la ligne est orientée ou non et fermée ou ouverte [Pan, 96].
10.2.2. Les relations
Le formalisme CONGOO distingue trois types de relations :
a. Les relations de structure : il y a deux différentes relations de ce type :
• La relation de généralisation-spécialisation : traduit la spécialisation d’une classe
générale en d’autres classes qualifiées de spécialisées ou à l’inverse [Pan, 96].
• La relation de composé– composant: traduit la représentation de la composition
d’un objet simple composé, un objet complexe, une classe , une sous couche ou une
couche, et elle est appliquée entre des objets, des couches, des sous couche, ou des
combinaisons de ces éléments [Pan,96].
b. Les relations topologiques : le formalisme CONGOO définit deux relations
topologiques de bases : le voisinage (v) et la superposition (s). Elles peuvent être
appliquées entre instances, objets, couches et sous couches, et leurs combinaisons. Le
voisinage et la superposition entre deux objets géographiques peuvent être : partiel(e),
total (e), autorisé(e) ou interdit(e) [Sch, 92].
c. Les relations logiques : concernent toute relation qui n’est ni topologique, ni de
structure. Les relations logiques sont décrites par de simples lignes entre les objets
concernés.
La figure (1.8) présente un exemple de modèle CONGOO. Dans [Fpi, 02], l’auteur souligne
une trés grande complexité dans l’utilisation de la méthode, le concepteur étant souvent
confronté à une variété importante de concepts.
Chapitre 1 Les Systèmes d’Information Géographique
23
1, n
1, n 1, n
Figure 1.8. Exemple de modèle CONGOO routes et bâtiments
10.3. Perceptory et son Géo-UML
L’équipe d’Yvan Bédard de l’Université Laval au Québec a développé une méthode
générale qui permet d’étendre n’importe quel formalisme graphique de modélisation pour la
conception géographique. Cette méthode est une extension des diagrammes de classes UML
pour la définition des données spatio-temporelles. Plusieurs notations ont été reprises de la
méthode entités-relations Modul-R [Lar, 07].
GEO-UML est basées sur les PVL (Plug-in for Visual Language) que l’on pourrait traduire
par « extension pour langage visuel ». Il existe des PVL spatiaux et des PVL spatio-temporels
[Lar, 07].
En Géo-UML, une temporalité est représentée par un intervalle (une période) ou par un
instant (une date). Deux types principaux de temporalité sont modélisés grâce à Géo_UML :
Notations : +st/p : superposition totale/partielle obligatoires Contraintes +vt/p : voisinage total/partiel obligatoire
Topologiques -st/p : superposition totale/ partielle interdite -vt/p : voisinage total/ partiel interdit Relations composé- Composants
-st
Couche- bâtiment 1, n
1, n 1,1
Maisons OGS-Pol Identifiant
Blok-maisons
OGS-Pol Identifiant
+vt
-st
Couche-routes 1, n 1, n
Routes-nationales
OGS_L Numéro
Routes-départementales
OGS-L Numéro -st
Chapitre 1 Les Systèmes d’Information Géographique
24
la temporalité d’existence et la temporalité d’évolution. Ces deux types de temporalité sont
représentés dans les classes par des pictogrammes [Lar, 07].
La temporalité d’évolution qui s’applique aux changements d’état de l’objet. Par exemple, un
bâtiment est agrandi pour ajouter une annexe, ce qui se traduit par un nouveau polygone plus
grand. Associer une temporalité d’évolution à un attribut ou à une géométrie signifie que le
système conserve un historique des valeurs prises par l’attribut ou par la géométrie d’un objet
(figure(1.9)).
Figure.1.9. Modèle réalisé avec Perceptory
10.3.1. Atelier supportant la méthode
Perceptory est un atelier de génie logiciel commercialisé et régulièrement mis à jour.
Perceptory se présente comme une application supportant les notations Géo-UML. L’outil
permet :
• L’édition de diagrammes de classes Géo-UML.
• L’export du dictionnaire de classes vers une base de données (Ms Access,
Oracle, SQL Server).
• La génération de squelette de code (Oracle 8i Spatial, Ms Access, MapInfo,
GéoMedia, ArcView, format XML, etc [Lar, 07].
10.4. La méthode OMEGA
Telle qu’elle a été décrite dans, OMEGA (Object Modeling for End-user Geographic
Application), est la première méthode basée sur UML pour la conception d’application
géomantique en général et application SIG en particulier [Den, 04].
Chapitre 1 Les Systèmes d’Information Géographique
25
10.4.1. Types géographiques
Dans OMEGA, on peut associer trois types de références spatiales à une classe [Den, 04]:
• Une référence à géométrie simple : tous les objets de la classe sont associés à une
géométrie simple de même type (point, polyligne ou polygone).
C’est le cas pour une classe parcelle associée à une référence de type polygone; tous
les objets de la classe parcelle sont associés à une géométrie de type polygone.
• Une référence complexe : tous les objets de la classe sont associés à deux géométries
simples. Par exemple, une classe lac peut être associé à une géométrie de type
polygone et à une géométrie de type polygone. Ainsi, chaque objet de la classe lac
sera associé à un polygone et à une polyligne.
• Une référence alternative : chaque objet de la classe est associé à une seule
géométrie simple mais le type de cette géométrie doit être choisi entre deux types
défini la classe. Par exemple, un objet d’une classe ville peut être associé soit à un
point, soit à un polygone selon le mode de représentation spatiale de la ville.
10.4.2. Relation spatiale
OMEGA reprend les contraintes topologiques de superposition et de voisinage définies
dans MECOSIG. Les relations de type composé-composant sont aussi permises pour exprimer
l’agrégation spatiale.
La référence à des "détails d’agrégation" est spécifiée dans la classe Région. Il s’agit d’une
référence à un autre schéma OMEGA présentant le détail des classes ayant une relation de
type composé-composants avec la classe Région. La contrainte "–Sp" déclarée dans la classe
Pays s’applique entre toutes les instances de la classe Pays. La figure (1.10) présente un
exemple de modèle statique OMEGA. OMEGA est certainement une des méthodes de
conception les plus complètes. Elle considère, en effet, de nombreux diagrammes différents
selon la phase de développement et le point de vue considéré. Par contre, les aspects
temporels se retrouvent uniquement dans la description de l’évolution des objets dans les
modèles dynamiques [Roc, 97].
10.4.3. Atelier supportant la méthode
AIGLE (Atelier vIsuel de Génération d’appLications géomatiquEs) est un atelier
supportant la méthode OMEGA, l’outil est capable de générer des applications sur différentes
plates-formes à partir des modèles OMEGA. Les modèles sont d’abord traduits dans un
langage intermédiaire appelé "langage-pivot". Ensuite, une application finale est générée sur
Chapitre 1 Les Systèmes d’Information Géographique
26
la plate-forme correspondant au "driver cible" choisi. Apprêt l’étape de développement, les
utilisateurs finaux interagissent avec l’application grâce à un langage de requêtes spatiales
basé sur le langage Cigales [Fpi, 02].
1..1 1..* 1..*
0..*
1..1
0..*
Figure 1.10. Exemple de Modèle OMEGA
10.5. Synthèse des méthodes orientées objets
Les démarches proposées par les méthodes orientées objets pour la conception de SIG
restent souvent très sommaires à l’exception des méthodes MECOSIG et OMEGA [Eng, 04].
• Au niveau conceptuel, l’objectif est de pouvoir spécifier simplement au sein des
diagrammes de classes, les types géographiques (simples ou combinés) que l’on souhaite
affecter aux classes d’objet. De plus, souvent, les classes regroupant des objets
correspondants à une entité géographiques du monde réel sont appelées classes
géographiques. Les méthodes de conception de SIG emploient différents moyens pour
réaliser l’association d’une géométrie à une classe dite géographique :
• OMEGA propose d’intégrer dans les classes ; un attribut appelé OBJ. Cet attribut a un
type géographique-(point,-ligne,-polygone).
• GéoOOA utilise des pictogrammes afin d’indiquer les classes spécialisant des classes
abstraites prédéfinies décrivant les informations géographiques de base (classes abstraites,
ligne, polygone. etc.) [Rou, 93].
Pays Id Nom -Sp
Ville Zip code Nom
Lac Zip code Nom +ST
Région Id Nom Détails 7-12
Pays Id Nom -Sp
Ville Zip code Nom
Lac Zip code Nom +ST
Région Id Nom Détails 7-12
Pays Id Nom -Sp
Chapitre 1 Les Systèmes d’Information Géographique
27
• MADS (Model for Application Data with Spatio-Temporal Features) propose des
notations très complètes pour décrire les informations Spatio-temporelles mais la méthode
ne se focalise que sur la description des données par des diagrammes de classes [Frl, 00].
• MECOSIG, OMT-G, Géo-UML associent une géométrie aux classes par des moyens
spécifiques aux-méthodes [Frl, 00].
• Pour ce qui est des relations spatiales entre les classes, celles-ci, établissent des
associations entre la géométrie des phénomènes [Fpi, 02]. Elles sont spécifiées dans les
diagrammes par la modélisation-de-relations-prédéfinies-entre-les-classes.
• Pour ce qui est de l’expression de la temporalité, les méthodes modélisant les informations
spatio-temporelles propose le plus souvent la possibilité de définir un historique rattaché à
un objet. Celui-ci-permettra-de-capturer-l’évolution-de-l’objet-dans-le-temps [Mic, 93].
• Certaines méthodes permettant aussi d’énumérer les différents états et transitions par
lesquels un objet géographique passe durant son existence. Par exemple, un objet terrain
dans un état « constructible » peut passer à l’état « construit ». En revanche un terrain
« non constructible » ne peut pas passer à l’état « construit » [Mic, 93].
Chapitre 1 Les Systèmes d’Information Géographique
28
Tableau 1.2.Synthèse des méthodes orientées objets
Méthode
Année de
création
Méthode Ou Notation Sous- Jacentes
formalisme
démarche
Aspects temporels
Spécificités
AGL
MODUL_R
1993
Merise
Individuel étendu Notations spécifiques aux informations spatiales sont intégrées au MCD
Oui
Oui
Pictogrammes représentant les types géographiques et les différentes temporalités.
Perceptory
MECOSIG
1994
OOA
CONGOO Diagrammes de classe, diagrammes de flux de données
Oui
En cours
Représentation par thème, définition d’attributs de représentation
Non
Géo-OOA
1995
OOA
Diagrammes de classes
Non
Oui
Notation pour les réseaux
REGIS
OMEGA
1995
OMT Puis UML
Modèles statiques, dynamiques, Fonctionnels
Oui
Non
Utilisation de métaphore visuelle
AIGLE
Géo-UML
1999
UML
Diagrammes de classes
Non
Oui
*
Perceptor
y
OMT-G
1999
OMT
Diagrammes de classes, de transformation, de présentation
Oui
Non
Notation pour les réseaux, modélisation des données de types champs, modélisation des conversions géographiques, définition d’attributs de représentation
Non
MADS UML Diagrammes De classes
Oui Oui saisir des diagrammes de classes MADS et la génération de schéma de bases de données à partir des modèles.
COBALT
Chapitre 1 Les Systèmes d’Information Géographique
29
11. Conclusion
Les SIGs (Systèmes d’Information Géographiques) sont de plus en plus utilisés dans des
domaines différents où la localisation de l’information est importante. Leur succès revient à
leur capacité de traitement des données à référence spatiale. Ils fédèrent diverses
informations dans le but de leur donner une dimension territoire afin de produire et de
visualiser des cartes thématiques permettant la gestion des données géographiques et l’aide à
la décision.
Sachant que notre but par la suite est la création d’un système d’aide à la décision spatial,
il est primordiale de tenir compte de ses travaux, notamment des standards. En effet, les
développeurs de logiciels SIG participent activement à tous ces efforts de standardisation, et
la traduction du monde conceptuel au monde logique est une étape particulièrement
importante dans la conception des SIG. Les chercheurs dans le domaine des SIG ont constaté
que les objets dans le monde réel ne sont pas représentés uniquement par des données
descriptives, car l’apparition des systèmes d’information géographique ont conduit à la prise
en considération des composantes spatiales qui importent des informations de localisation
spatiale et des relations de voisinage par rapport aux autres entités.
Des méthodes de fouille de données spatiales sont apparues récemment, la plupart entre elles
sont une adaptation des techniques existantes avec une extension pour les opérations
topologiques et d’analyses spatiales.
Dans le chapitre suivant, nous aborderons la fouille de données dans un cadre général
et la particularité de la fouille de données spatiales.
Chapitre 2
La Fouille de Données Spatiales
Ce chapitre présente un état de l’art sur les principales méthodes de la fouille
de données spatiale en donnant quelques définitions, et présentant leurs avantages et
inconvénients ainsi qu’une comparaison avec les méthodes de fouille de données
ordinaires.
Chapitre 2
Plan
� � � � �
2.1. Introduction
2.2. Méthodes d’apprentissages
2.2.1. Apprentissage Inductif Supervisé
2.2.2. Les approches Symboliques et Numériques:
2.3. Fouille de données:
2.3.1. Présentation de quelques vocabulaires:
2.3.2. Les méthodes Statistiques:
2.3.3. Les Réseaux de Neurones:
2.3.4. Les réseaux de Kohonen:
2.3.5. Les Graphes d’Induction et Arbres de décision:
2.3.6. L’algorithme de l’Etoile:
2.3.7. Les Algorithmes Génétiques:
2.4. La fouille de données spatiales
2.4.1. Spécificités de la fouille de données spatiales
2.4.2. Caractéristiques des données spatiales
2.4.3. Matrice et graphe de voisinage
2.4.4. Travaux sur la fouille de données spatiales
2.4.5. Panorama des méthodes de fouille de données spatiales
2.4.5.1. Phase exploratoire
2.4.5.2. Phase décisionnelle
2.5. Conclusion
La Fouille de données spatiales
Chapitre 2 La Fouille de Données Spatiales
30
Chapitre 2
La Fouille de Données Spatiales
1. Introduction
L’Extraction de Connaissances à partir de Données (ECD) constitue aujourd’hui un
enjeu stratégique, économique, commercial et scientifique, en raison des intérêts majeurs
qu’elle promet. Elle suscite de grandes espérances chez les entreprises, les administrations, les
hôpitaux, les agences touristiques, etc. qui espèrent, grâce à elle, mieux évaluer les risques
financiers, mieux cibler les consommateurs, mieux comprendre les mécanismes sociaux,
mieux diagnostiquer les patients, etc. Hormis ces domaines, l’ECD peut être, globalement,
partout où le volume d’information est largement grand, ce qui fait de son domaine
d’application un domaine remarquablement vaste.
L’ECD est, d’un côté pratique, une démarche qui, en la suivant, permet d’extraire de
nouvelles informations à partir des données, donc le terme ECD englobe tout un processus de
découverte de connaissances dans des bases de données. Dans ce contexte, chaque nouvelle
information, utile, intéressante, non triviale et non redondante, extraite des données, entre
sous l’appellation de connaissance. Parmi les étapes qui rentrent en jeu dans le processus de
l’ECD nous pouvons citer [Kod, 94]:
• La collecte des informations et leurs organisations dans une base de données.
• Le nettoyage de la base par un prétraitement ou des transformations des données.
• L’élaboration du modèle en appliquant les méthodes de Fouille de Données.
• L’évaluation des résultats obtenus par l’extraction de connaissances.
Chapitre 2 La Fouille de Données Spatiales
31
Dans ce processus, c’est dans la troisième étape que des méthodes seront appliquées et
des modèles seront bâtis, elle est appelée ‘étape de Fouille de Données’, et est considérée
comme la plus importante.
2. Les méthodes d’apprentissage
Pour extraire de la connaissance d’un ensemble de données, et la présenter sous forme
d’un modèle, on fait appel aux méthodes d’ECD (phase de modélisation). Plusieurs
disciplines s’intéressent à la problématique d’extraction de connaissances comme le Data
Mining ou Knowledge Discovery in Database (KDD), la Reconnaissance de Formes, etc.
Ces disciplines s’appuient grandement sur les recherches réalisées dans d’autres domaines,
notamment en Apprentissage Automatique qui est à l’origine de nombreux algorithmes
exploités et utilisés en ECD.
L’Apprentissage Automatique avait été présenté vers la fin des années 70’s dans la
communauté ‘Intelligence Artificielle’ pour résoudre certains problèmes que rencontrait
l’ancien type d’apprentissage, l’Apprentissage par cœur [Tal, 05]. En effet, à la même
époque, l’approche Système Expert, qui concrétisait le type d’apprentissage par cœur, était
très répandue mais commençait à montrer certaines limites comme la difficulté à acquérir
l’expertise de l’expert humain et à la modéliser. Comme solution idéale à ces limites, est
apparu l’Apprentissage Automatique avec la caractéristique principale est que l’apprentissage
est effectué par la machine et non plus par l’homme [Tal, 05].
Il existe d’autres types d’apprentissage, ceux basés sur la manière d’apprendre comme
l’apprentissage par l’action, par l’explication et l’apprentissage inductif. Ce dernier se divise à
son tour, en apprentissage supervisé et non supervisé. Dans le premier cas, on suppose qu’on
possède un ensemble d’exemples pour lesquels on connaît à priori leurs classes. Le but est de
construire une fonction de classement capable d’attribuer une nouvelle observation à l’une des
classes prédéfinies. Dans le deuxième cas, on suppose avoir un ensemble d’observations, le
but étant la détection de classes ou de clusters. L’apprentissage inductif supervisé est le plus
utilisé. D’autres types d’apprentissage existent dans la littérature et qui sont liés à d’autres
disciplines comme la Discrimination ou la Reconnaissances de Formes [Atm, 07].
Chapitre 2 La Fouille de Données Spatiales
32
Figure 2.1. Méthodes d’apprentissage
2.1. L’apprentissage inductif supervisé
D’une façon générale, l’apprentissage inductif consiste en l’extraction de règles
générales, ce qui constitue la connaissance, à partir d’exemples d’un problème précis. Cette
extraction est réalisée par l’application d’inférences inductives sur ces exemples. Dans cette
démarche, on se trouve devant deux situations, ou bien nous connaissons que chacun des
exemples appartient à une classe prédéfinie, et on cherche à trouver une description générale
(des règles) de chaque classe par les regroupements de ses exemples, ou bien nous ne savons
pas si ces exemples appartiennent ou non à une même classe, et on cherche à effectuer les
meilleurs regroupements possibles de ces exemples. Dans le premier cas, il s’agit de
l’apprentissage supervisé, appelé encore discrimination ou reconnaissance de formes, tandis
que dans le deuxième, il s’agit de l’apprentissage non supervisé, dénommé aussi
segmentation1.
1 Dans un souci de confusion, on signale que le terme de " classification " est aussi utilisé pour désigner l'apprentissage supervisé, cependant, en statistique ce terme désigne l'apprentissage non supervisé.
Chapitre 2 La Fouille de Données Spatiales
33
Les méthodes d’ECD peuvent se diviser en deux grandes approches, une approche
symbolique et autre numérique. Nous tenterons dans ce qui suit d’introduire ces deux
approches.
2.2. Approches symboliques et numériques
En raison de la diversité des origines scientifiques des méthodes d’ECD, elles ne
s’appuient pas sur les même principes et fondement théoriques, et elles présentent pas mal
d’aspects différents. Il existe une classification de ces méthodes, qui consiste à les classer en
deux classes ou deux approches: Symbolique et Numérique [Atm, 07].
La division en symbolique et numérique est définie d’une part par rapport à la
représentation des données, et d’autre part par rapport au traitement des données. Les
méthodes de l’approche numérique donnent, dans un premier temps, une représentation
numérique aux connaissances, pour ensuite y appliquer la sémantique des nombres avec des
opérations algébriques, tandis que les méthodes de l’approche symbolique s’appuient sur les
propriétés sémantiques (la logique par exemple) pour effectuer les traitements. Donc on peut
parler de données numériques et symboliques et de traitements numériques et symboliques,
cependant on signale qu’une connaissance exprimée sous forme de nombre n’implique pas
nécessairement qu’il s’agit d’une donnée numérique, car elle peut ne pas s’apprêter à la
sémantique des nombres [Pre, 05].
Par exemple, le sexe d’une personne pourrait être représenté dans un problème quelconque
sous forme de nombres, par exemple Masculin = 1 et Féminin = 2, mais l’addition ou la
multiplication de ces nombres n’aura aucun sens, donc l’attribut sexe, même représenté sous
forme de nombres, reste un attribut symbolique. Cette notion de données numériques et
symboliques, trouve son complément dans les statistiques, où on trouve aussi la notion de
quantitatif et qualitatif, qui renvoient à leur tour et respectivement, au numérique et
symbolique [Pre, 05].
Au-delà de la différentiation entre ces méthodes dans leurs principes et fondements, la
clarté et le pouvoir de prédiction de leurs résultats sont à leur tour un point de séparation. Les
méthodes numériques sont connues par leur efficacité, en revanche, les méthodes symboliques
sont marquées par la simplicité de leurs résultats et leur capacité d’explication [Lef, 01].
Chapitre 2 La Fouille de Données Spatiales
34
Maintenant, et sans tracer beaucoup de limites entre les deux approches, on va essayer
de survoler quelques méthodes de fouille de données, donner quelques définitions, et
présenter quelques uns de leurs avantages et inconvénients.
3. La fouille de données
Les méthodes d’ECD forment par leur diversité une grande boîte à outils à la
disposition des utilisateurs. Dans cette section, nous définirons brièvement l’étape la plus
importante dans l’ECD qui est la fouille de données, mais avant cela, un petit paragraphe sera
consacré à fixer quelques vocabulaires.
3.1. Vocabulaires
Certains de ces vocabulaires ont été utilisés précédemment, certains le seront dans le
reste des chapitres, ce qui permettrait d’éclaircir un ensemble d’expressions techniques que
l’on rencontrera lors de l’introduction des méthodes2.
− L’apprentissage Inductif Supervisé a pour but de construire un modèle de prédiction
appelé Classifieur.
− Une population est un ensemble d’individus caractérisés chacun par un ensemble
d’attributs.
− En apprentissage supervisé, un de ses attributs est à prédire, que l’on nomme classe,
variable endogène, concept ou encore variable à prédire.
− Les autres attributs sont nommés variables exogènes, variables explicatives ou
variables prédictives.
− Un individu dont on dispose de sa classe est un exemple.
− Le Classifieur est une procédure qui, à partir d’un ensemble d’exemples, peut prédire
la classe de toute donnée.
2 Il existe plusieurs termes, autres que ceux cités au dessus, qui sont employés dans les différents domaines à partir desquels sont issues les méthodes d'ECD, mais il est impossible de les entourer dans ce bref survol.
Chapitre 2 La Fouille de Données Spatiales
35
Figure 2.2. Schéma général d’un Classifieur
− Une opération d’apprentissage supervisé se déroule en deux étapes, la première dite
d’apprentissage, où le modèle sera élaboré, et la deuxième dite de test, où le modèle
sera testé et validé.
− Lors de la phase d’apprentissage, ce ne sont pas toutes les données qui sont prises en
considération, mais plutôt un sous ensemble de la population nommé Base
d’apprentissage, le reste sert au test et à la validation du modèle, il est appelé Base de
test.
3.2. Méthodes statistiques
En statistique, les travaux en Discrimination (terminologie utilisée par les statisticiens
pour l’apprentissage inductif supervisé) datent depuis des décennies, à commencer par les
premiers travaux de Fisher sur l’Analyse Discriminante [Fis, 36]. Cette dernière est
considérée comme un ancêtre de plusieurs méthodes statistiques et est restée, avec ses
dérivées, jusqu’à la fin des années soixante comme la méthode la plus utilisée [Mic, 94].
Dans certaines méthodes, les exemples sont représentés sous forme de points dans un
espace. Le problème consiste à trouver un moyen de séparer les points les uns des autres de
façon à ce que les points se trouvant d’un même coté appartiennent à la même classe, donc la
classe d’une nouvelle donnée sera déterminée à partir de sa localisation dans cet espace [Pre,
05]. Dans ces méthodes, l’attribut endogène (la classe) des données peut être symbolique et
peut être continu (l’ensemble des valeurs qu’il peut prendre est infini), et dans ce deuxième
cas, il s’agit d’un problème de régression, et dans les deux cas, les attributs exogènes sont tous
numériques (discrets ou continus).
L’Analyse Discriminante traite le cas où l’attribut endogène est symbolique, et on
identifie dans cette analyse deux approches: l’Analyse Discriminante à but descriptif, et
l’Analyse Discriminante à but décisionnel [Fis, 36]. Dans la première, on cherche de
nouvelles variables qui synthétisent les attributs. Lorsque le nombre de ces derniers est
Classifieur
(φ) Classe Nouveaux
cas
Chapitre 2 La Fouille de Données Spatiales
36
supérieur à deux ou à trois, il devient difficile, voir impossible, de visualiser graphiquement
les données. Ces nouvelles variables vont permettre de représenter au mieux les données, et
discriminer au mieux les exemples selon les classes. Cette approche est appelée l’Analyse
Factorielle Discriminante (AFD). Dans la deuxième approche, une fonction de classement est
construite et, est définie à partir d’une probabilité à posteriori basée sur une distance. Cette
fonction permet d’affecter une classe à un nouvel exemple, et elle est nécessaire car la seule
identification de l’espace le plus discriminant est insuffisante, et il faut en plus des règles
d’affectation.
Revenant sur le cas où l’attribut endogène est continu, la prédiction de celui-ci à partir
des attributs exogènes est possible par le modèle de régression. Ce dernier diffère d’une
méthode à l’autre selon le nombre des attributs et de la relation géométrique qui existe. En
effet, s’il y a un attribut endogène et un attribut exogène, le modèle est simple, cependant s’il
y a plusieurs attributs exogènes, le modèle est multiple. D’un autre coté, s’il y a une
dépendance linéaire entre les attributs exogènes et l’attribut endogène, le modèle est linéaire.
Toutefois, si la dépendance est non linéaire (logarithmique, exponentielle, polynomiale, etc.),
le modèle est non linéaire. Parmi ces modèles nous trouvons le modèle linéaire multiple qui
est un outil statistique très utilisé et dans lequel on cherche un hyperplan qui ajuste au mieux
le nuage des points. Ces points sont la représentation des exemples par leurs attributs dans
l’espace [Mic, 94]. Dans ce modèle on cherche à identifier formellement une équation qui
exprime la relation linéaire entre les attributs, cette équation est de la forme:
Equation recherchée par le modèle de régression
)()(...)(...)()( 110 ωεωωωω ++++++=Υ ppii XaXaXaa
Où :
• ω représente un exemple quelconque.
• Y(ω) la valeur de sa classe.
• les Xі(ω) sont les valeurs de ses attributs exogènes.
• les αi sont les coefficients des modèles.
• ε(ω) est l’erreur aléatoire.
Chapitre 2 La Fouille de Données Spatiales
37
Outre ces méthodes de discrimination, d’autres méthodes dites non paramétriques existent
dans la littérature comme la méthode des noyaux de Parzen [Par, 62] et celle des k plus
proches voisins [Cov, 67] et [Bro, 05].
3.3. Réseaux de neurones
Historiquement, les réseaux de neurones sont connus depuis l’apparition du neurone
logique en 1943 grâce aux travaux de Mc Culloch et Pitts [Mcc, 43] qui ont introduit le
neurone logique, et depuis leur développement a continué jusqu’aux années 60 [Lef, 01].
Dans les années 80, les réseaux de neurones ont connu un regain d’intérêts grâce aux travaux
de Hopfield [Hop, 82] et Kohonen [Koh, 84] et surtout avec l’apparition du perceptron
multicouche (MLP) grâce aux travaux de Rumelhart [Rum, 86].
Un neurone artificiel est une simple entité, où un processeur élémentaire reçoit un
ensemble de variables d’entrées en provenance de neurones en amont, tel qu’à chacune de ces
entrées est associé un poids de connexion. Il est doté d’une sortie qui se ramifie pour
alimenter un nombre variable de neurones en aval. L’ensemble des neurones artificiels est
relié par des liens directs et orientés d’un neurone à l’autre, et chaque lien est caractérisé par
un poids qui constitue le poids de la connexion [Atm, 98, 03]. Chaque neurone artificiel i est
caractérisé par [Mej, 92]:
• Sa valeur ou son état qui peut être modifié en fonction des signaux d’entrée.
• Ses connexions avec les autres neurones, avec le poids de chaque connexion.
• Sa fonction de transition, appelée encore fonction d’activation ou fonction de transfert.
Grâce à la fonction de transition, les neurones calculent leurs états à partir des signaux
d’entrée, qui sont constitués par les états des neurones amont, et produisent un signal de
sortie. Cette architecture et le fonctionnement du réseau de neurones artificiels, permettent de
comprendre son analogie avec le modèle biologique du cerveau humain, car ce dernier reçoit
des informations d’un nombre important de récepteurs (yeux, nez, bouche, etc.), et les
transforme en impulsions électriques qui sont véhiculées à travers le réseau.
La figure (2.3) illustre le fonctionnement du neurone artificiel, avec sa fonction de
transition, son état et ses connexions en entrées :
Chapitre 2 La Fouille de Données Spatiales
38
Figure 2.3. Le neurone Artificiel
On peut définir une matrice des poids des connexions W où les lignes et les colonnes
correspondent aux neurones, et chaque intersection wij correspond au poids de la connexion
du neurone i avec le neurone j [Atm, 03].
La figure (2.3) schématise le principe de fonctionnement du réseau de neurones
artificiels, cependant il faut distinguer plusieurs catégories de réseaux de neurones qui se
distinguent par de nombreuses caractéristiques comme le fonctionnement individuel de
chaque neurone, l’architecture du réseau, les problèmes résolus, et enfin l’algorithme
d’apprentissage (supervisé ou non).
Depuis quelques dizaines d’années, de nombreuses méthodes d’apprentissage à base
de réseaux de neurones ont vu le jour, chacune est basée sur un modèle connexionniste du
réseau, chaque modèle est constitué d’une architecture et d’un algorithme d’apprentissage.
Parmi les principaux modèles connexionnistes, on peut citer:
− Le Perceptron [Ros, 58] et l’Adaline [Wid, 60] qui constituent les modèles les plus
anciens et les plus simples, et leurs algorithmes d’apprentissage sont supervisés.
− Les réseaux de Hopfield [Hop, 82] s’appuyant sur des algorithmes d’apprentissage
supervisé, et peuvent être utilisés pour la résolution de problèmes d’optimisation.
− Les modèles de Kohonen [Koh, 84], qui sont un type de réseaux de neurones
particuliers où l’algorithme d’apprentissage est non supervisé, et ils peuvent s’auto -
organiser au moyen de lois locales qui contrôlent l’évolution des poids des
connexions.
− Les modèles multicouches à base de Perceptron, où il y a autant de neurones d’entrées
que d’attributs, et autant de neurones de sorties que de classes, et un nombre
E1
E2
Ep
Neurone Sortie
jS
= ∑
=
p
iiijj EwfS
1
Etats des neurones en entrée
Chapitre 2 La Fouille de Données Spatiales
39
quelconque de couches cachées. L’exemple présenté en entrée est propagé de couche
en couche jusqu’à la sortie.
Le Perceptron Multi Couche (Multi Layer Perceptron) (MLP) a été crée par Rosenblatt
en 1959, il utilise un algorithme d’apprentissage supervisé appelé Rétro-propagation du
gradient [Lef, 01]. Un perceptron multicouche est constitué, comme son nom l’indique, d’une
couche d’entrée, d’une couche de sortie et d’une ou plusieurs couches intermédiaires (figure
(2.4)) [Tal, 05]. L’architecture du MLP est complétée par un algorithme d’apprentissage
permettant d’apprendre les poids de ce MLP. Cet algorithme, nommé rétro-propagation du
gradient, est une généralisation de la règle de Delta proposée en 1986 par Yan le Cun3 [Mic,
94]. Grâce au MLP et à son algorithme d’apprentissage, nous pouvons résoudre les problèmes
non linéairement séparables, ce qui permet de lever les limitations des modèles cités
auparavant. Dans cet algorithme on calcule le gradient de l’erreur en fonction de chaque poids
pour les corriger, donc on cherche à minimiser l’erreur quadratique commise sur l’ensemble
des exemples présentés (les carrés de la distance euclidienne entre les sorties obtenues et les
sorties désirées) [Pre, 05].
Nous conclurons cette section sur les réseaux de neurones par la figure (2.4) qui
présente l’architecture multicouches. Il s’agit d’un exemple avec une couche d’entrée, une
couche de sortie et deux couches cachées.
Figure 2.4: Un Perceptron Multi couche
3 Cette règle est apparue presque simultanément avec la règle Delta généralisée proposée aussi en 1986 par David E.Rumelhart, Geoffrey E.Hinton et Ronald J.Williams.
Neurones cachés Neurones d'entrée
Neurones de sortie
Chapitre 2 La Fouille de Données Spatiales
40
3.4. Réseaux de Kohonen
Ces réseaux sont un type particulier de réseaux de neurones où l’algorithme
d’apprentissage est non supervisé. Ils sont souvent connus sous le nom de Cartes de Kohonen,
car les unités (les neurones) sont organisées, dans la majorité des cas, dans des grilles à deux
dimensions, (ou grilles multidimensionnelles) [Koh, 84].
Bien que les cartes de Kohonen ont pas mal d’avantages, comme la capacité de
généralisation, le bon fonctionnement en présence de données bruitées, elles ne sont que peu
utilisées [Lef, 01].
3.5. Arbres de décision et graphes d’induction
Les premiers travaux sur les arbres de décision datent des années soixante, à
commencer par le premier programme d’apprentissage par graphe d’induction réalisé par
Sonquist et Morgan [Son, 63] suivis des travaux de Hunt [Hun, 66] et Quinlan [Qui, 83].
C’est dans les années 70 et 80 que les systèmes d’apprentissage par graphe d’induction ont
connu un essor important avec la naissance de plusieurs systèmes basés sur l’algorithme ID3
comme ASSISTANT 86 [Ces, 87], GID3 [Che, 88], KATE [Man, 91], O-BTree [Fay, 92], C4.5
[Qui, 93] et SAFI [Ram, 94]. D’autres méthodes ont vu le jour, comme ELISEE [Bou, 70],
CART [Bre, 84] et SIPINA [Atm, 07] et [Zig, 85].
La construction d’un arbre de décision consiste à utiliser les attributs pour subdiviser
progressivement l’ensemble d’exemples en sous ensembles de plus en plus fins, c’est-à-dire
que l’ensemble d’exemples va constituer le nœud racine de l’arbre, puis sera découpé en sous
ensembles, qui constitueront les nœuds intermédiaires [Zig, 00]. Chaque nœud correspond à
un test sur la valeur d’un ou plusieurs attributs, et chaque branche partant d’un nœud
correspond à une ou plusieurs valeurs de ce test, et enfin chaque feuille de l’arbre est associée
à une valeur de l’attribut endogène [Tal, 05].
Exemple : Utilisation d’un arbre de décision pour la représentation de la fonction logique
XOR:
Chapitre 2 La Fouille de Données Spatiales
41
Figure 2.5: Un arbre de décision représentant la fonction XOR
3.6. Algorithme de l’étoile
On définit l’étoile d’un exemple qui est obtenue par l’ensemble des expressions
(conjonctions de descripteurs obtenues par application de règles d’inférence inductive ou
constructive) admissible généralisant l’exemple, par rapport aux contre-exemples. En
pratique, le nombre de descripteurs dans l’expression est fixé, pour ne retenir que les
meilleurs, et ce nombre est identifié par le domaine ou par l’utilisateur [Mic, 81, 83].
L’algorithme de l’étoile va traiter les exemples un par un, en cherchant une
généralisation afin de générer des règles, et il constitue un schéma général d’apprentissage
plutôt qu’une méthode à part entière. Dans la démarche de cet algorithme, il y a une étape
centrale, qui consiste à engendrer l’étoile bornée (l’étoile dont le nombre de descripteurs dans
les conjonctions est fixé) de l’exemple en cours, et cette étape constitue le point de
différentiation entre les méthodes basées sur l’algorithme de l’étoile. Ces méthodes sont
désignées par le terme de la famille des algorithmes de couverture AQ dont les plus connues
sont : INDUCE [Mic, 83], CN2 [Cla, 89], DIVS [Seb, 95] et SIA [Ven, 93, 94]. L’algorithme
DIVS s’inspire à la fois de l’algorithme de l’étoile et l’Espace des Versions, tandis que la
méthode SIA utilise un algorithme génétique pour construire l’étoile d’un exemple.
Oui
s1 B=0
?
s2 B=0
?
Non s0
A=0
?
Oui Non Oui Non
0
s5
0
1
1
s3 s4 s5
Chapitre 2 La Fouille de Données Spatiales
42
3.7. Algorithmes génétiques
Les algorithmes génétiques ont été introduits par John Holland [Hol, 75, 87] et sont
relativement récents par rapport aux autres concepts d’extraction de connaissances. Les
algorithmes génétiques sont basés sur les mécanismes de la sélection naturelle comme les
principes de sélection de Darwin et les méthodes de combinaison des gènes de Mendel [Lef,
01]. Ils ont connu un grand succès dans la résolution des problèmes d’optimisation, cependant
ils sont indépendants du problème traité et sont appliqués dans de nombreux domaines
notamment en apprentissage automatique. Ils sont caractérisés par la simplicité à les mettre en
œuvre et par leur robustesse, ce qui leurs donnent un avantage sur les autres techniques,
notamment d’optimisation dans les problèmes où l’espace des solutions est très vaste. Nous
nous intéresserons aux algorithmes génétiques comme système d’apprentissage supervisé.
4. La fouille de données (data mining) spatiales
Les travaux sur le data mining ont été développés essentiellement dans le contexte de
données tabulaires simples, donnant lieu à des logiciels et des applications opérationnelles.
Cependant, l'extension aux données complexes (multimédia, temporelles ou spatiales)
constitue un problème de recherche ouvert [Zei, 98].
Le Data Mining Spatial (DMS) est né du besoin d'exploiter, dans un but décisionnel,
des données à caractère spatial produites, importées ou accumulées, susceptibles de délivrer
des connaissances par le moyen d'analyses exploratoires et de fouille de données. Les données
spatiales peuvent être de nature diverse comme des cartes thématiques, des images de
satellites ou même des fichiers d'adresses [Lon, 99].
La fouille de données spatiales (FDS) est un domaine de recherche en pleine
expansion. Elle s'attache à effectuer une analyse dirigée par les données sur des bases de
données spatiales [Lau, 94]. Elle offre de nouvelles perspectives pour beaucoup d'applications
à caractère décisionnel comme le géo-marketing ou l'analyse de risques d'accidents [Zei, 98]
dont le volume de données ne cesse de croître. Cette tendance à développer de grandes bases
de données s'explique par les progrès dans l'acquisition de données spatiales [Sch, 96].
Les tâches dans un processus de FDS sont définies comme une extension par les
critères spatiaux de celles utilisées dans la fouille de données [Zei, 00a]. Ces différentes
tâches permettent : (1) de résumer les données, (2) de trouver des règles de classification, (3)
de former des clusters d'objets similaires, (4) de trouver des associations et des dépendances
Chapitre 2 La Fouille de Données Spatiales
43
pour caractériser les données, et enfin (5) d'extraire des tendances et de détecter les déviations
[Fay, 96].
4.1. Spécificités de la fouille de données spatiales
La fouille de données spatiales est définie comme l'extraction de connaissances
implicites, de relations spatiales ou d'autres propriétés non explicitement stockées dans la base
de données spatiales [Han, 97]. Ces relations spatiales jouent donc un rôle primordial dans
l’analyse de données spatiales et la découverte de connaissances.
Ses avantages sont d'une part son aspect exploratoire dans le sens ou les hypothèses
sont générées, contrairement à l’analyse classique. D'autre part, les informations sur la
localisation spatiale et sur les liens de voisinage sont complètement intégrées.
4.2. Caractéristiques des données spatiales
Les relations spatiales traduisent une caractéristique essentielle du monde réel. Elles
mettent en évidence les relations et l’influence du voisinage entre les entités spatiales. La
notion de dépendance spatiale est endémique aux données géographiques et est connue
comme la première loi en géographie [Han, 97]. Il est donc essentiel d'en tenir compte dans
l'analyse et l'interprétation des données localisées.
Les indices d’auto-corrélation spatiale définis en analyse spatiale considèrent
uniquement les interactions sur une couche thématique. Or, en règle générale, les couches
thématiques sont fortement corrélées. Une carte des précipitations et de la densité de
population sont, par exemple, corrélées. En effet, la densité de population dépend de la
production agricole qui, elle même, est liée aux précipitations. Par conséquent, nous
distinguons deux types de relations spatiales :
(1) celles qui lient les objets d’une même classe (intra-thème) ;
(2) celles qui sont associées à plusieurs classes (inter-thèmes).
4.3. Matrice et graphe de voisinage
Les relations spatiales sont communément formalisées par la notion de graphe de
voisinage, et peuvent être représentées sous forme d’une matrice de voisinage. Celle-ci est
une matrice binaire M où M [i, j]=1 si l’objet i est voisin de l’objet j et M [i, j]=0 dans le cas
inverse. Ceci est illustré par la figure (2.6).
Chapitre 2 La Fouille de Données Spatiales
44
Figure 2.6 : Graphe de voisinage et matrice de voisinage
4.4. Travaux connexes
Les travaux de recherche dans le domaine de la FDS visent donc à proposer et à
optimiser des méthodes d'analyse en tenant compte des relations spatiales. Ce domaine est à la
croisée de plusieurs disciplines: les statistiques et les bases de données [Zei 00b].
Une littérature abondante existe dans le domaine de l’analyse spatiale [Get, 97] et [Fot 95],
domaine largement antérieur à l’apparition des premiers SIG. Beaucoup de travaux portent sur
la mesure de l’auto-corrélation locale et globale [Fot, 95]. La géostatistique [Mat, 63] se
préoccupe d’analyser des tendances à l’aide de techniques de krigging.
Des recherches récentes en analyse de données exploratoire et interactive ont été
développées [And, 99], [Ans, 95], [Kra, 99a] et [Kra, 99b]. Openshaw [Ope, 87] propose
l’utilisation du calcul parallèle pour identifier des clusters. D’autres travaux visent également
à étendre l’analyse de données multidimensionnelle pour prendre en compte les contraintes de
contiguïté [Leb, 97].
Dans le domaine des bases de données, des algorithmes de fouille de données spatiales
ont été proposés et des prototypes ont été développés : GeoMiner [Han, 92] et [Han, 97] est
une extension de DBMiner [Han, 96] et est couplé au SIG MapInfo. GeoMiner comme
DBMiner ont l’avantage d’intégrer les techniques OLAP (On-Line Analytical Process) et
fouille de données. Un moteur SQL étendu, appelé GMQL (GeoMiner Query Language),
permet d'exécuter les opérations de fouille de données définies. Certains algorithmes sont
basés sur une connaissance à priori exprimée par des hiérarchies de concepts.
Par ailleurs, les travaux d’Ester se sont essentiellement articulés autour d’une structure
de graphe de voisinage [Est, 97]. C’est le cas des méthodes comme la classification, la
caractérisation et la recherche de tendances. Dans cette approche, les auteurs ont intégré au
sein d’un SGBD géographique les opérateurs de graphe de voisinage. Citons d’autres travaux
comme STING [Wan, 99] centré sur le clustering et l'expression de requêtes dans un langage
SQL étendu. Pour une bibliographie plus approfondie, le lecteur pourra se référer à [Rod, 99].
Chapitre 2 La Fouille de Données Spatiales
45
4.5. Panorama des méthodes de fouille de données spatiales
Les méthodes types sont un prolongement des tâches de fouille de données intégrant
les données et les critères spatiaux. Ainsi, une première phase exploratoire permet une
description synthétique (indice d'auto corrélation globale, généralisation, densité, lissage), de
découvrir les écarts donnant les spécificités locales (auto-corrélation locale ou analyse
factorielle locale) ou de chercher des regroupements de données (clusters). Cette première
phase permet de guider la phase décisionnelle, où l'on procède à une analyse plus fine afin
d'expliquer les écarts ou de caractériser les groupes (caractérisation, règles de classement ou
d'associations). Nous allons maintenant décrire ces différentes méthodes et les illustrer à
l’aide d’exemples issus des travaux de recherche actuels.
4.5.1. Phase exploratoire
Bien avant l'ère des SIG, des mesures du degré de dépendance aux voisins, dites d'auto
corrélation spatiale globale ont été étudiées. Elles exploitent, hormis les attributs de l'objet, la
matrice de voisinage définie au paragraphe 2.3. Ces mesures sont calculées à l’aide de deux
méthodes complémentaires : l’indice de Moran (en 1948) et l’indice de Geary (1954) [Rod,
99]. Dans le cas où les données seraient corrélées, il faut les simplifier afin de faire apparaître
une tendance générale. Pour réaliser cela, il existe différentes approches dont celles basées sur
la densité, l'analyse multidimensionnelle lissée ou la généralisation.
• Généralisation spatiale
Cette méthode est une extension aux données spatiales de la généralisation basée sur
l'induction orientée attribut proposée dans [Han, 92]. Elle consiste à substituer les valeurs
estimées trop détaillées par des valeurs moins détaillées jusqu'au niveau de détail souhaité,
puis à agréger et compter les n-uplets identiques ainsi obtenus. Cette méthode permet de
résumer les données et constitue une première étape pour induire des règles d'associations.
Elle nécessite au préalable de disposer d’une connaissance a priori que l’on trouve dans des «
hiérarchies de concepts » définies par des experts. Une hiérarchie de concepts est définie pour
un attribut. Elle décrit le passage des concepts les plus spécifiques -correspondant aux valeurs
de l'attribut dans la base de données- aux concepts plus généraux de niveau supérieur. Pour un
attribut de type spatial, cette hiérarchie est appelée hiérarchie spatiale et correspond à une
relation spatiale d'inclusion entre objets. Le découpage administratif en pays, régions,
département, communes, etc. en est un exemple. Pour un attribut non spatial, on parle de
hiérarchie thématique.
Chapitre 2 La Fouille de Données Spatiales
46
La généralisation à dominante spatiale et la généralisation à dominante non spatiale
ont été définies dans [Luw, 93]. Cette méthode a été implémentée dans le prototype
GeoMiner. Elle permet de générer des règles d'association sur les attributs généralisés qui ne
sont pas déductibles au niveau de détail. Comme elle réduit le nombre de modalités des
variables généralisées, elle peut également constituer une étape préalable à d'autres analyses
telles que la recherche de règles caractéristiques [Est, 98a] ou des analyses de
correspondances. En outre, ce mécanisme est à la base de l'extension au spatial des techniques
OLAP dans GeoMiner [Han, 98] permettant d'explorer les données à différentes échelles
sémantiques et spatiales.
• Analyse globale par lissage
L'analyse multidimensionnelle lissée est obtenue en remplaçant chaque valeur de la
matrice de voisinage par le barycentre de ses voisins. L'application des méthodes d’analyse
factorielle se fait ensuite sur le tableau ainsi modifiée. L'extension des méthodes factorielles
pour la prise en compte de la contiguïté est décrite dans [Ben, 94].
• Analyse locale
A l'inverse de l'analyse globale qui cherche à gommer les particularités, l'analyse
locale vise à les faire ressortir pour mettre en évidence les données atypiques. Par exemple, si
nous considérons les variables taux de scolarisation et revenu moyen, il n’existe à priori pas
de corrélation au niveau global sur l’ensemble du territoire. Par contre, si l’analyse s’effectue
au niveau local sur une région bien précise, une corrélation pourra être trouvée. L’analyse
locale peut éventuellement contredire les résultats de l’analyse globale. L’auto corrélation
locale consiste à calculer un indice local d’association spatiale [Ans, 95], dérivé de la formule
de l'indice global où l'on remplace la matrice de voisinage par le vecteur ou la ligne de la
matrice correspondant à l'objet. L’analyse multidimensionnelle locale est analogue à celle
d'analyse lissée présentée ci-dessus. De la même manière, elle procède tout d'abord par
transformation du tableau initial en tableau contrasté. Ce dernier correspond à la différence du
tableau initial et du tableau lissé présenté dans l'analyse locale. La suite est une analyse
factorielle classique sur le tableau ainsi modifié.
Chapitre 2 La Fouille de Données Spatiales
47
• Clustering
Le clustering est une méthode de classification automatique non supervisée qui
regroupe des objets dans des classes. Son but est de maximiser la similarité intra-classes et de
minimiser la similarité inter- classes. Elle est couramment utilisée en fouille de données et elle
est bien connue dans le domaine des statistiques [Leb, 97]. La transposition au domaine
spatial des méthodes de clustering s'appuie sur une mesure de similarité d'objets localisés
suivant leur distance métrique. Néanmoins, la finalité du clustering en spatial n'est pas tant de
former des classes que de détecter des concentrations anormales (par exemple, détecter un
point chaud dans l’étude de criminalité, ou des zones à risque en accidentologie). Les travaux
sur le clustering spatial sont surtout axés sur l'optimisation des algorithmes. Ainsi [Est, 98b]
propose une extension de l’algorithme DBSCAN en utilisant l'index spatial R*tree, ainsi que
des extensions incrémentales des algorithmes DBCLASS, DBLEARN. Openshaw propose
l’utilisation de calculs intensifs et l'indexation spatiale dans sa machine GAM [Ope, 87]. Alors
que le clustering à l'origine traite des tableaux à plusieurs variables, l'application aux données
spatiales est basée uniquement sur la localisation (souvent sur un ensemble de points).
L'extension aux attributs non spatiaux et aux objets de forme autre que ponctuelle a été
proposée dans GDBSCAN en redéfinissant la fonction de similarité [Ope, 87].
Cette étape est souvent utilisée en amont d'autres tâches de type décisionnelles comme
la recherche d'associations entre groupes et d'autres entités géographiques ou la
caractérisation au sein d'un groupe. Un exemple d'application est de former des clusters
d'habitations puis de rechercher des caractéristiques communes par cluster.
4.5.2. Phase décisionnelle
Le terme explicatif ici est lié à une intervention de l'analyste qui, à la suite d'une
découverte de clusters ou de valeurs atypiques par rapport à une tendance, focalise son
analyse sur un sous-ensemble d'objets, sur une partie des variables ou encore sur une zone
géographique. Cette partie des données est ensuite analysée dans le but d'expliquer sa
particularité par des liens avec certaines valeurs ou par des règles caractéristiques. Ces
méthodes, à l'inverse des méthodes précédentes, opèrent sur plusieurs couches thématiques
pour permettre d'expliquer un phénomène suivant les propriétés de son entourage. Nous
décrivons les méthodes de caractérisation, de règles d'association et de classification.
Chapitre 2 La Fouille de Données Spatiales
48
• Caractérisation
Dans [Est, 98], l’auteur définit la caractérisation comme l'induction des propriétés
caractéristiques d'un sous-ensemble de données. Une règle caractéristique est une assertion
qui décrit un concept satisfait par tous ou une grande partie des objets sélectionnés. Appliquée
à des bases de données spatiales, la caractérisation découvre en plus le niveau d'extension de
ces propriétés aux "voisins". Une propriété caractéristique d'un sous-ensemble S est un
prédicat pi= (attribut= valeur) tel que :
(a) sa fréquence relative dans S et dans son voisinage jusqu’à un ordre n est
significativement différente par rapport à sa fréquence relative dans la base (rapport de
fréquences supérieur à un seuil donné).
(b) sa fréquence relative est significativement différente dans le voisinage d'une
proportion minimum d'objets du sous-ensemble S (proportion supérieure à un seuil de
confiance).
Le module Geo-Characterizer de GeoMiner permet la découverte de règles
caractéristiques après application de la méthode de généralisation à dominante spatiale.
Ces règles associent les données non spatiales avec leur localisation et ce pour chaque
localisation.
• Règles d'association
L'extension de la découverte de règles d'association [Agr, 93] aux données spatiales
permet de générer des règles de type :
X → Y (s, c) avec s comme support et c la confiance telles que X et Y sont des ensembles de
prédicats spatiaux et non spatiaux. En d'autres termes, ceci revient à trouver des associations
entre des propriétés des objets et celles de leur voisinage.
Le module Geo-associator de GeoMiner permet la découverte d'associations depuis un
ensemble de couches thématiques donné, en utilisant certains attributs et des seuils de support
et de confiance. Ainsi, la recherche d'associations impliquant les terrains de golf et les autres
entités géographiques (bâtis, infrastructure, etc.) génère un ensemble de règles comme par
exemple :
is_a (x, "golf") -> close_to (x, "zone pavillonnaire") (61%, 70%)
Chapitre 2 La Fouille de Données Spatiales
49
L'algorithme proposé dans [Kop, 95] propose deux phases dans l'évaluation du prédicat
spatial. La première fait un test approximatif et génère des candidats pour un test précis du
prédicat en seconde phase. Pour cela, des prédicats spatiaux généralisés ont été introduits.
• Classification
La recherche de règles de classement vise à structurer un ensemble d'objets en classes
d'objets ayant des propriétés communes. Cette tâche est réalisée par apprentissage supervisé
qui, à partir de classes fournies partiellement en extension (un échantillon de la base de
données), induit une description en intention permettant de classer les prochaines données. On
parle de segmentation ou de scoring en statistique. La classification s’exprime généralement
sous la forme d'un arbre de décision pour lequel l'algorithme de référence est ID3 [Qui, 86].
L’extension au domaine spatial a été définie par l'extension aux propriétés de leurs voisins
jusqu'à un ordre N de voisinage [Est, 97]. Ainsi, il est possible de trouver une règle de type :
Si population élevée et type de voisin = route et voisin de voisin = aéroport Alors puissance
économique élevée (à 95%)
Une approche similaire a été proposée dans [Kop, 98], à la différence de la précédente,
l'utilisateur précise les thèmes à explorer et l'ordre de voisinage est limité au premier (voisins
directs).
5. Conclusion
La fouille de données spatiales dérive de la fouille des données traditionnelles.
Néanmoins, elle présente une spécificité importante par la prise en compte des relations
spatiales. Les matrices et les graphes de voisinage constituent un pivot dans la conception
d’opérateurs dédiés à la fouille de données spatiales.
Ce domaine de recherche soulève de réels problèmes, tant scientifiques que
technologiques. La résolution de ces problèmes a non seulement des répercussions sur ces
deux aspects (scientifique, technologique), mais ont également un très net impact socio-
économique à cause de leur très large champ d’applications. Du point de vue scientifique, le
Data Mining Spatial étend la problématique du Data Mining aux données dépourvues de toute
structure, aux données semi-structurées, ainsi qu’aux données évolutives. A un niveau plus
général, il pose la problématique de la complexité opératoire (computationnelle) et aussi
systémique des outils à développer dans ce contexte. Cette complexité est très fortement liée à
Chapitre 2 La Fouille de Données Spatiales
50
la masse importante des données complexes (images satellitales par exemple), leur diversité,
leur distribution, leur aspect dynamique et au caractère ouvert du spatiale.
Il faut noter que cela nécessite la mobilisation de ressources assez rarement toutes présentes
dans la plupart des services :
- De bons thématiciens et staticiens.
- De bons spécialistes des bases de données ("data warehouse")
- De bons informaticiens programmeurs (Et des connaissances en algorithmique
avancée et des agents de "mining")
Nous avons détaillé, dans ce chapitre, l’importance du prétraitement dans le processus
d’ECD, surtout dans le cas de l'Extraction de Connaissances à partir des Images. Dans le
chapitre qui suit, nous présenterons les concepts généraux structurant la méthodologie de
traitement des images satéllitales.
Chapitre 3
Traitement des Images Satéllitales
Ce chapitre introduit, tout d’abord, les notions fondamentales de traitement d’images
et détaille par la suite le traitement des images satellitales tout en mettant l’accent sur
les principaux travaux réalisés dans le contexte de l’aide à la décision.
Chapitre 3
Plan
� � � � �
3.1. Introduction
3.2. Télédétection
3.2.1. Définitions
3.2.2. Processus de la télédétection
3.2.3. Rayonnement électromagnétique (REM)
3.2.4. Le système d’acquisition
3.2.5. Images satellitales
3.3. Traitement numérique des images satellitales
3.4. Segmentation et Analyse d'image Satellitales
3.4.1. Définition de la segmentation
3.4.2. Les approches de la segmentation d’images
3.4.3. Approche frontière
3.4.4. Approche région
3.5. Conclusion
Traitement des Images Satellitales
Chapitre 3 Traitement des Images Satéllitales
52
Chapitre 3
Traitement des Images Satéllitales
1. Introduction
Avec la conquête spatiale et la mise en orbite des satellites d’observation, l’homme a pu
gérer au mieux sa planète. Grâce à la télédétection, la surface terrestre est maintenant scrutée
avec un recul ajustable qui permet d’intégrer les distances et avec une prodigieuse capacité, de
passer du détail à la globalité et de jongler avec les échelles du temps et des distances [She,
02].
Une étape fondamentale dans la plupart des systèmes de vision par ordinateur est
d'engendrer une description compacte d'une image plus exploitable que l'ensemble des pixels.
Une grande variété de techniques dites de segmentation d'image permet d'atteindre cet
objectif. Elle est généralement fondée sur la recherche des discontinuités locales, et elle est
basée sur la détection des zones de l'image présentant des caractéristiques d'homogénéité.
Cette approche est duale à la détection de contours où «une « région » définit une « ligne »
par son contour, et la deuxième approche définit une « ligne fermée » comme une « région ».
Cette technique considérée comme un moyen efficace de réduction des données permet leur
analyse par un processus de niveau supérieur.
Par conséquent, la segmentation de l'image originale en plusieurs régions distinctes, dans les
nombreux problèmes de visions, est extrêmement difficile de mettre au point en utilisant un
algorithme de segmentation qui fonctionne correctement dans tous les cas. En plus l'image
numérique qui constitue les données de l'algorithme de segmentation est la projection d'une
scène réelle continue sur un plan.
Les possibilités de sélection d'un vecteur d'attributs sont très nombreuses et il n'existe
pas une méthode unique et standard pour segmenter une région. L'analyste doit en général
faire appel à son expérience afin de choisir les attributs les plus pertinents, en tenant compte
Chapitre 3 Traitement des Images Satéllitales
53
du type d'image analysée, de l'application envisagée, des connaissances disponibles à priori
et de la vitesse d'exécution recherchée.
2. La Télédétection
2.1.Définitions
La télédétection est définie comme étant l'ensemble des connaissances scientifiques et
techniques utilisées pour déterminer les caractéristiques physiques et biologiques d'un objet,
par des mesures effectuées à distance [Svi, 07]. Les données fournies par les satellites
d'observation de la terre jouent un rôle essentiel dans un grand nombre d'applications :
cartographie, agriculture, forêts, aménagement, météorologie, défense, télécommunications,
etc.
2.2.Processus de la télédétection
Le processus de la télédétection consiste à capter et à enregistrer l'énergie d'un
rayonnement électromagnétique émis ou réfléchi, à traiter et à analyser l'information, pour
ensuite la mettre en application. La télédétection est le fruit de l'interaction entre trois
éléments fondamentaux : une source d'énergie, une cible et un vecteur. Cette interaction
passe par sept étapes illustrées par la figure (3.1) [Agr, 08].
Figure 3.1 : Processus de télédétection
Figure 3.1 : Processus de télédétection
Chapitre 3 Traitement des Images Satéllitales
54
Etape 1. Émission d’un rayonnement
A la provenance de tout processus de télédétection se trouve nécessairement une source
d'énergie pour illuminer la cible en émettant une onde électromagnétique.
Etape 2. Interaction avec l’atmosphère
Une atmosphère est une couche de gaz entourant une planète ou un satellite naturel.
Durant son parcours entre la source d’énergie, la cible et le capteur, le rayonnement interagit
avec l’atmosphère.
Etape 3. Interaction avec la cible
La cible est la portion de la surface terrestre observée par le satellite, sa taille peut varier
de quelques dizaines de km² à plusieurs milliers. Une fois parvenue à la cible, l’énergie
interagit avec la surface de celle-ci, cette interaction dépend des caractéristiques du
rayonnement et des propriétés de la surface.
Etape 4. Enregistrement de l’énergie par le capteur
Le vecteur ou plate-forme de télédétection capte l'énergie réfléchie par la cible pour être
enfin enregistrée.
Etape 5. Transmission de l’énergie
L’énergie enregistrée par le capteur est transmise souvent par des moyens électroniques
à une station de réception où l’information est transformée en images numériques ou
photographiques.
Etape 6. Interprétation et Analyse
Pour mieux interpréter la cible et découvrir ces aspects, une interprétation visuelle et/ou
numérique de l'image traitée est nécessaire pour extraire l’information que l’on désire obtenir
sur la cible.
Etape 7. Application
La dernière étape du processus consiste à utiliser l’information extraite de l’image pour
mieux comprendre la cible.
Chapitre 3 Traitement des Images Satéllitales
55
Remarque
Le système d'observation de la télédétection fournit à l'utilisateur des données numériques ou
d'images sur la base de caractéristiques des détails observés. Il reçoit ces caractéristiques à
travers le rayonnement électromagnétique. Il est donc intéressant pour nous, d'étudier de
façon simple le rayonnement électromagnétique et son comportement face aux objets
observés.
2.3.Rayonnement électromagnétique (REM)
Le rayonnement électromagnétique est une forme d'énergie qui ne se manifeste que
dans son interaction avec la matière. Il se propage sous forme d'onde, obtenue de la
superposions d'un champ électrique (E) et d'un champ magnétique (B) [Chu, 00]. En
télédétection, le rayonnement électromagnétique, support de l'information, exprime par ses
propriétés certaines caractéristiques de l'objet détecté. La figure (3.2) illustre la propagation
d’une onde électromagnétique avec comme paramètres :
− T : période avec laquelle elle effectue une oscillation complète T=2µ /w.
− f : fréquence (nombre d'oscillations par seconde). f= 1/ T.
− ν : vitesse de propagation de l’onde dans l’espace.
− λ : longueur d’onde, équivalente à la distance parcourue par l'onde à une vitesse ν
pendant la période T.
Nous avons : λ = ν.T (3.1)
Figure 3.2 : Propagation d’une onde électromagnétique
Chapitre 3 Traitement des Images Satéllitales
56
2.3.1. Le spectre électromagnétique
Le spectre électromagnétique (figure (3.3)) est donc un ensemble du rayonnement
électromagnétique qui compose la lumière blanche, ou par analogie l'ensemble des longueurs
d'ondes correspondants [Elk ,05].
²
Les principales zones du spectre dans lesquelles des mesures sont possibles en télédétection sont : • L’ultraviolet Correspond aux plus petites longueurs d’ondes utilisées en télédétection, il est largement absorbé par les hautes couches de l’atmosphère. • Le visible Il représente une petite partie de l’ensemble du spectre, les longueurs d’ondes visibles s’étendent de 0.4µm à 0.7µm. • L’infrarouge Le domaine d’infrarouge correspond au processus d’interaction, onde-matière. Cette région se compose de trois domaines spectraux.
− L’infrarouge proche (proche du visible de 0.7 µm à 1.5 µm.
− L’infrarouge moyen de 1.5 à 3 µm
− L’infrarouge thermique de 3 µm à
15 µm. • Les micro-ondes de 1 mm à 1m.
Figure 3.3. Le spectre électromagnétique
Chapitre 3 Traitement des Images Satéllitales
57
2.3.2. Propriétés des ondes électromagnétiques
Les propriétés des ondes électromagnétiques sont nombreuses, nous pouvons citer
[Elk, 05]:
• L’Emission
Tout corps dont la température thermodynamique, c'est-à-dire l’agitation moléculaire,
est supérieure à 0 K (273°) émet un rayonnement électromagnétique.
• L’Absorption
Tout corps dont la surface reçoit un rayonnement électromagnétique peut absorber une
partie. Cette dernière absorbée sert à modifier l’énergie interne en augmentant sa température
interne.
• La Réflexion
Tout corps qui reçoit une certaine quantité d’énergie rayonnement d’une source
extérieure peut en réfléchir une partie. La réflexion s’accompagne aussi d’une modification
spectrale de rayonnement incident. On distingue deux modes de réflexions (figure (3.4)):
o Réflexion diffuse : elle se réalise sur une surface nuageuse où le
rayonnement est rediffusé dans toutes les directions.
o Réflexion spéculaire : elle se réalise sur une surface plane où l’angle de
réflexion est égal à l’angle d’incidence.
Figure 3.4 : Les modes de réflexion
Chapitre 3 Traitement des Images Satéllitales
58
• Transmission
Tout corps recevant une certaine quantité d’énergie rayonnante peut en transmettre une
partie. La transmission se produit lorsque l’énergie de rayonnement passe à travers la cible.
• Diffusion
L’existence de particules microscopiques dans un milieu de transmission, comme
l’atmosphère par exemple, amène la diffusion dans toutes les directions d’une partie de
l’énergie émise par la source. Le rayonnement électromagnétique, dans sa propagation
traverse l'atmosphère qui peut porter des modifications au signal reçu en perturbant certaines
propriétés de ce rayonnement. Les perturbations atmosphériques sont dues aux molécules de
gaz et à des particules liquides et solides qui le composent.
Remarque
Parmi ces propriétés, certaines sont fondamentales pour la compréhension des principes de
base de la télédétection, comme c’est le cas de : l'émission, l'absorption, la réflexion, la
transmission et de la diffusion (figure (3.5)).
2.4. Système d’acquisition
En télédétection, un système d’acquisition comprend des capteurs qui sont montés sur
la plate forme du satellite [Hay, 05].
Figure 3.5 : Propriétés des ondes électromagnétiques.
Chapitre 3 Traitement des Images Satéllitales
59
2.4.1. Les capteurs
Un capteur est un instrument qui recueille de l'énergie radiative provenant de la scène
visée et délivre un signal électrique mesurable. Selon le principe de fonctionnement, nous
pouvons dire qu’il existe deux types de capteurs à savoir le capteur passif et le capteur actif
illustrés, respectivement, par les figures (3.6.a) et (3.6.b).
Un capteur passif fait appel aux sources naturelles de rayonnement comme le soleil tandis que
le capteur actif produit sa propre énergie pour illuminer la cible. Les performances d’un
capteur sont mesurées en fonction de : la résolution spatiale, la résolution spectrale, la
résolution numérique et radio métrique et la résolution temporelle .
2.4.2. Les satellites
Les satellites sont des objets qui sont en orbite autour de la terre ou d’un astre. Ce sont
des plates formes idéales pour observer la terre à travers un ou plusieurs dispositifs chargés à
bord (capteurs, caméras), en fonction de leur orbite. Il existe deux types de satellites, les
satellites géostationnaires et les satellites à défilement [Liu, 08] montrés sur la figure (3.7).
a. Satellites Géostationnaires
La position d'un satellite géostationnaire paraît fixe aux yeux d'un observateur terrestre.
Il tourne dans le même sens et avec la même vitesse de rotation que la terre. Les
satellites géostationnaires décrivent une orbite circulaire dans le plan équatorial à 35790
Km d'altitude. Comme exemples de satellite géostationnaire, nous retrouvons, : GOES
(Geostationary Operational Environmental Satellite). C’est un satellite américain
possèdant un capteur VAS (Visible infrared spin-radiometer Atmospheric Sounder) [Chr,
90].
Figure 3.6.a : Capteur passif
Figure 3.6.b : Capteur actif
Chapitre 3 Traitement des Images Satéllitales
60
b. Satellites à Défilement
La position d'un satellite à défilement paraît variable aux yeux d'un observateur
terrestre. Ces satellites tournent sur une orbite quasi circulaire dont l'altitude est fixe, et
peut être choisie entre 600 km et 1500 Km, dont le plan passe pratiquement par les pôles
Nord et Sud. Ils tournent plus vite ou plus lentement que la terre, dans le même sens ou
dans le sens contraire. Comme exemple nous pouvons citer :
SPOT (Satellite Pour l’Observation de la Terre) est un satellite français.
LANDSAT : NASA (National Aeronautics and Space Administration) [Kai, 00].
Remarque
Dans le cadre de notre étude, nous avons utilisé des images captées par le satellite LANDSAT,
ce dernier est placé sur une altitude de 705 km avec une répétitivité de 16 jours (ils passent au
même endroit tous les 16 jours). En janvier 1984, la version 5 de LANDSAT embarque un
capteur "Thematic Mapper" permettant l'acquisition de données multi spectrale (7 canaux) et
fournit des images satellites en couleurs avec une résolution de 30 mètres pour un pixel et
couvrant la terre entière ce qui est parfait pour de vastes territoires. Le satellite LANDSAT est
illustré par la figure (3.8) [Baw, 04].
Figure 3.7 : Types de satellites
Figure 3.8 : LANDSAT5
Chapitre 3 Traitement des Images Satéllitales
61
Les données de la télédétection se présentent sous différentes formes en fonction des
capteurs employés. Elles sont photographiques, numériques ou images non numériques selon
le capteur utilisé d’où la notion d’images satéllitales.
2.5.Images Satéllitales
En télédétection, les images sont composées d’une matrice d’éléments appelés le pixel.
Il est normalement carré et représente la plus petite partie de l’image. On peut dire aussi que
l’image satéllitale est une fonction mathématique F (xi, yj) à deux variables entières x et y, qui
sont respectivement la ligne et la colonne fournissant une ou plusieurs valeurs entières
représentant les niveaux de gris de pixels dans les différents canaux. Chaque valeur radio
métrique est codée pour la plupart des systèmes sur huit bits ( figure (3.9)), nous avons donc
82 niveaux de gris [Baw, 04].
On distingue deux types d’images satéllitales [Ham et al, 07c]: image mono spectrale et image
multi spectrale.
3. Traitement numérique des images satellitales
L’image satéllitale est bruitée et peu contrastée dans une géométrie difficilement
exploitable. En effet, à l’état brut elles ne reflètent pas vraiment la réalité du terrain car les
mesures effectuées sont entachées d’erreurs dues à plusieurs facteurs liés à la position de
l’objet et aux effets du relief. Pour cela, différents traitements numériques sur cette image sont
nécessaires pour distinguer et identifier les classes d’objets et en extraire l’information utile
Le traitement numérique d’une image passe par 5 étapes [Liu, 08]:
Figure 4.9 : Image Satéllitale
Chapitre 3 Traitement des Images Satéllitales
62
a. Les prétraitements : ce sont les opérations requises avant l'analyse principale et
l'extraction de l'information, elles se divisent en correction radio métrique et en
correction géométrique.
b. La restauration : consiste en la reconstitution d’une image qui a subi des
dégradations plus ou moins importantes lors des divers processus à savoir :
− Filtrage : les filtres sont appliqués sur les images afin d'homogénéiser les images ou
au contraire d'en rehausser les contrastes.
− Rehaussement : a pour but d'améliorer l'apparence de l'imagerie pour aider
l'interprétation et l'analyse visuelle. Cette technique de traitement permet l'étirement
des contrastes pour augmenter la distinction des tons entre les différents éléments
d'une scène.
c. Transformation de l’image : ce sont des opérations similaires à ceux de
rehaussement de l'image sauf que la transformation de l'image combine le traitement
des données de plusieurs bandes spectrales.
d. Amélioration de l’image : afin de rendre plus aisée la tâche du photo-interprète et
d’améliorer son efficacité, il existe un ensemble de techniques visant à transformer les
données pour mettre en évidence les phénomènes ou les objets d’intérêt. Ces
techniques ne font qu’une sélection plus ou moins arbitraire des données, il n’y a pas
réellement une synthèse ou une extraction d’information.
e. Segmentation. : la segmentation sera détaillée en section (4.5).
4. Segmentation et Analyse d'images Satéllitales
Dans une image numérique, les couleurs ne sont en fait qu'une transposition
conventionnelle de valeurs numériques, il est également possible d'exploiter la puissance de
calcul d'un ordinateur pour classer les pixels en fonction de leurs valeurs numériques et des
propriétés spectrales des objets correspondants. Cette technique de traitement numérique est à
la base de notre contribution scientifique dans ce mémoire et à cet effet, elle sera détaillée
dans la section qui suit [Oul, 98].
Chapitre 3 Traitement des Images Satéllitales
63
4.1. Définition de la segmentation
La segmentation est un traitement de bas niveau travaillant directement sur les images.
Elle effectue des modifications sans « comprendre » l’image. Elle consiste à créer une
partition de l’image I en sous ensembles Ri, appelés régions, tels que :
1. [ ]niI i ...1, ∈∪ℜ=
2. [ ]niconnexeesti ...1, ∈∀ℜ
3. ( ) [ ]nivraiP i ...1, ∈∀=ℜ , avec P prédicat d’homogénéité.
4. connexes.régionsdej,icoupletoutpourj,ifaux,ji P
ℜℜ≠∀=
ℜ∪ℜ .
C’est une opération qui consiste à trouver des zones homogènes appelées régions selon
un critère déterminé comme, le niveau de gris, la couleur, la texture, le gradient, l’indice, etc.
La segmentation est utile pour des besoins de différentiation ou de reconnaissance, elle peut
aussi servir à reconnaître un élément et à suivre son évolution au cours du temps dans une
séquence d’images [Mau, 08].
4.2. Approches de la segmentation d’images
Plusieurs techniques existent dans la littérature et permettant de segmenter les images.
Elles sont généralement fondées sur la recherche de discontinuités locales comme la
« détection de contours », et la détection de zones de l’image présentant des caractéristiques
d’homogénéité « régions » [Rej, 08]. Il ya deux approches fondamentales la première est
l’approche région, et la deuxième est l’approche contour, qui définit un contour fermé par une
région. [Xia, 04] et [Rej, 08].
4.3. Approche frontière
La notion de frontière est associée à une variation d’intensité ou à une discontinuité
entre les propriétés de deux ensembles connexes de points. Donc l’approche frontière étudie
les variations des niveaux de gris des pixels. Grâce à ce type de méthode, on détermine un
ensemble de contours candidats, ensuite on effectue un filtrage de ces contours pour ne
garder que ceux qui ont une variation importante [Xia, 04]. Cette brusque variation de niveau
de gris dans une image d'une amplitude a et avec une pente p est appelée contour. Ce dernier
peut être "marche d'escalier" s’il est net, ou une "rampe" s’il est plus flou ou bien comme un
"toit" s'il s'agit d'une ligne sur un fond uniforme, (figure (3.10).
Chapitre 3
4.3.1. Variations d’intensité
Dans une image, les variations d’intensité représentent des changements de propriétés
physiques ou géométriques de la scène ou de l’objet observé. Comme
changement, on peut citer ceux
de surface, d’illumination des ombres et des variations d’absorption des rayons.
grand nombre de cas, ces variations d’intensité
opérations situées en aval de la segmentation. Elles constituent les frontières de régions
correspondant à des bords ou parties d’objets de la scène
4.3.2. Méthodes de l’approche frontière
L’approche frontière regroup
conduisent pas directement à u
rarement connexes. Il faut donc procéder à une fermeture des contours si l’on souhaite une
partition complète de l’image
régions apparaît nettement. Parmi ces méthodes on peut
méthodes Markoviennes [Svi, 07]
a. Méthodes dérivatives
continu monodimensionnel
en x0=0. Dans ces méthodes, on distingue la dérivée première et la dérivée seconde
(figure (3.11) [Car, 95].
Marche d'escalier
Figure 3
Traitement des
Variations d’intensité
ans une image, les variations d’intensité représentent des changements de propriétés
physiques ou géométriques de la scène ou de l’objet observé. Comme
ceux : d’orientation ou de distance à l’observateur, de réflectance
d’illumination des ombres et des variations d’absorption des rayons.
grand nombre de cas, ces variations d’intensité sont des informations importantes pour des
opérations situées en aval de la segmentation. Elles constituent les frontières de régions
correspondant à des bords ou parties d’objets de la scène [Xia, 04].
éthodes de l’approche frontière
’approche frontière regroupe les techniques de détection de contours. C
conduisent pas directement à une segmentation de l’image car les contours obtenus sont
l faut donc procéder à une fermeture des contours si l’on souhaite une
de l’image. En effet, après fermeture de contours, la dualité contours
. Parmi ces méthodes on peut citer les méthodes dérivatives et les
[Svi, 07] :
Méthodes dérivatives : le principe général de ces méthodes est illustré sur un signal
continu monodimensionnel A(x), présentant une transition avec un saut d’amplitude
Dans ces méthodes, on distingue la dérivée première et la dérivée seconde
3.11) [Car, 95].
d'escalier Rampe Toit
Figure 3.10 : Définition d’un contour
Traitement des Images Satéllitales
64
ans une image, les variations d’intensité représentent des changements de propriétés
physiques ou géométriques de la scène ou de l’objet observé. Comme exemples de
: d’orientation ou de distance à l’observateur, de réflectance
d’illumination des ombres et des variations d’absorption des rayons. Dans un
formations importantes pour des
opérations situées en aval de la segmentation. Elles constituent les frontières de régions
ques de détection de contours. Ces méthodes ne
car les contours obtenus sont
l faut donc procéder à une fermeture des contours si l’on souhaite une
la dualité contours/
les méthodes dérivatives et les
e principe général de ces méthodes est illustré sur un signal
, présentant une transition avec un saut d’amplitude
Dans ces méthodes, on distingue la dérivée première et la dérivée seconde
Chapitre 3 Traitement des Images Satéllitales
65
Dans la cas bidimensionnel, l’image est représentée par une fonction scalaire continue I(x,y).
Le vecteur gradient d’une image est défini par :
Le gradient en un pixel d'une image numérique est un vecteur caractérisé par son amplitude et
sa direction. L'amplitude est directement liée à la quantité de variation locale des niveaux de
gris. La direction du gradient est orthogonale à la frontière qui passe au point considéré.
Un contour est présent si la norme du gradient dépasse un certain seuil. Il existe plusieurs
opérateurs pour réaliser le calcul du gradient comme l’opérateur de Roberts, de Prewitt, de
Sobel et de Kirsch qui ont en général les mêmes propriétés [Car, 95].
− Opérateurs de Roberts
Le filtre de Roberts est une approche discrète de la dérivée première d'une fonction. Si I(x, y)
représente un pixel dans une image, alors les amplitudes des gradients en x (Gx) et en y (Gy)
peuvent s'écrire respectivement:
Gx = I(x+1, y) - I(x,y) (3.2)
Gy = I(x, y+1) - I(x,y) (3.3)
Cela revient à convoluer l'image avec les deux filtres Rx = [ ]11− et Ry =[ ] T11− .
L'amplitude du gradient peut être alors calculée de plusieurs manières:
( ) ( )22,1 GyGxyxG +=
( ) ( )GyGxyxG ,max,2 =
( )Υ∂∂
Χ∂∂ IIt
Figure 3.11 : Les allures de la dérivée première et de la dérivée seconde
( 3.4)
( 3.5)
Chapitre 3 Traitement des Images Satéllitales
66
( ) GxGxyxG +=,3
La direction du gradient D(x, y) est donnée par: D(x, y) = Arctg (Gy / Gx)
− Opérateurs de Prewitt-Sobel
Les filtres de Prewitt et de Sobel sont aussi des opérateurs de dérivation utilisés pour la
détection de contours. L'image est convoluée avec les masques suivants (Prewitt c=1, Sobel
c=2) :
Gx Gy
-1 0 1 -1 -c -1
-c 0 C 0 0 0
-1 0 1 1 C 1
L'amplitude peut être calculée de la même manière que pour les filtres de Roberts. Ces filtres
sont moins sensibles au bruit que ceux de Roberts car le fait d'introduire un moyennage local
sur le domaine couvert par le masque diminue leur sensibilité. Le filtre de Sobel donne une
meilleure estimation que celui de Prewitt car la série 1 2 1 est approximativement une
fonction gaussienne. Les contours rendus peuvent être larges si les contours sont de type
"rampe". De plus, si le contour est franc, les filtres de Prewitt et de Sobel donneront un
contour de 2 pixels d'épaisseur mais ils le placeront à cheval sur la ligne de contour.
Une fois le gradient effectué, il est nécessaire d'isoler les maximums locaux de l'image
dérivée pour déterminer les points exacts du contour afin de réduire ceux-ci à une courbe d'un
pixel d'épaisseur.
− Calcul du Laplacien
Le calcul du Laplacien est une deuxième façon de quantifier une transition de niveau de gris,
il est défini à partir des dérivées partielles 2222 // yetx ∂∂∂∂
2222 /2/ yIxII ∂∂+∂∂=∇
L’extraction des contours se fait en calculant le Laplacien et en déterminant ensuite les
passages par zéro. Ces méthodes ont l’avantage de ne plus nécessiter de seuil et donnent
toujours des contours fins d’épaisseurs unité.
( 3.6)
(3.7)
(3.8)
(3.9)
Chapitre 3 Traitement des Images Satéllitales
67
b. Méthodes markoviennes : le principal avantage des champs de Markov est de
fournir un modèle mathématique simple permettant de prendre en compte les
différents niveaux d’interprétation. Cette approche consiste à construire un modèle de
déformation ayant conduit à l’observation faite. Ces modèles sont ensuite combinés.
L’inconvénient des champs de Markov est le coût de calcul relatif aux algorithmes
qui est très élevée. Ces temps de calcul sont très fortement liés à la forme de l’énergie
utilisée et à la complexité de la tâche à effectuer [She, 02].
Remarque
Après avoir présenté les méthodes de détection de frontière, nous pouvons dire que le choix
d’une technique adaptée à un problème particulier est lié aux types d’images à segmenter et
aux matériels informatiques utilisés. On remarque aussi qu’une détection de contours produit
toujours un résultat imparfait. Ceci est dû à la présence de bruit dans l’image.
Dans ce qui suit nous entamerons l’étude de l’approche région que nous avons utilisé dans
notre travail.
4.4. Approche région
Contrairement à l’approche frontière, l’approche région s’intéresse à l’homogénéité
d’ensembles connexes de pixels pour détecter des régions. Donc, la notion de région est
associée à des regroupements de points ayant des propriétés communes. Le choix de ces
propriétés détermine ce qu’on appelle le critère de segmentation. Ces critères peuvent être la
valeur de niveau de gris, la couleur, la texture ou le mouvement [Xia, 04]. Dans l’approche
région, il existe plusieurs méthodes de segmentation en régions comme la segmentation par :
division, croissance de régions, division-fusion, multi-résolutions et classifications.
4.4.1. Segmentation par division
Cette technique de segmentation est basée sur la division de l’image originale en
régions homogènes selon un critère donné. Si une région ne respecte pas le prédicat
d’homogénéité, elle est divisée en sous régions de tailles égales qui seront ensuite analysées.
L’algorithme récursif s’arrête lorsque toutes les régions respectent le prédicat d’homogénéité
(figure (3.12)).
Chapitre 3
Remarque
La segmentation par division fournit une structure hiérarchisée qui permet d’établir des
relations de proximité entre les régions, mais qui peut fractionner une même région e
plusieurs ensembles distincts.
4.4.2. Segmentation par croissance de régions
La méthode de croissance de région,
technique ascendante qui consiste à regrouper itérativement des ensembles de points connexes
en régions plus importantes. Elle utilise des conditions dépendant de propriétés
d’homogénéité. L’idée de base de ce type d’approche est de définir des critères de
regroupement des pixels permettant l’obtention de régions homogènes
segmentation par fusion produit un nombre minimal de régions connexes, mais
dans une structure horizontale qui n’indique pas de relation de proximité.
4.4.3. Segmentation par division
Dans cette approche, au départ,
d’uniformité n’est pas vérifié pour cette région, elle est divisée en quatre sous régions et
l’opération est répétée pour les sous régions non uniformes. La procédure s’arrête quand les
régions sont uniformes ou quand elles sont trop petites pour être divisées
cette étape de séparation, les sous régions «
région mère ou des régions mères adjacentes, sont fusionnées. La fusion tente d
condition traduisant la maximalité de chaque région.
Figure 3.12 : Exemple de déroulement de l’algorithme de division de régions
Image initiale 1er niveau de division
Traitement des
segmentation par division fournit une structure hiérarchisée qui permet d’établir des
relations de proximité entre les régions, mais qui peut fractionner une même région e
.
Segmentation par croissance de régions
e croissance de région, également appelée fusion de régions, est
consiste à regrouper itérativement des ensembles de points connexes
en régions plus importantes. Elle utilise des conditions dépendant de propriétés
mogénéité. L’idée de base de ce type d’approche est de définir des critères de
regroupement des pixels permettant l’obtention de régions homogènes
segmentation par fusion produit un nombre minimal de régions connexes, mais
ans une structure horizontale qui n’indique pas de relation de proximité.
Segmentation par division-fusion (split and merge)
au départ, l’image entière représente une seule région. Si le critère
d’uniformité n’est pas vérifié pour cette région, elle est divisée en quatre sous régions et
l’opération est répétée pour les sous régions non uniformes. La procédure s’arrête quand les
nt uniformes ou quand elles sont trop petites pour être divisées
cette étape de séparation, les sous régions « filles » adjacentes, issues de la division d’une
région mère ou des régions mères adjacentes, sont fusionnées. La fusion tente d
condition traduisant la maximalité de chaque région. L’inconvénient de cette stratégie est dans
: Exemple de déroulement de l’algorithme de division de régions
niveau de division 2er niveau de division
Traitement des Images Satéllitales
68
segmentation par division fournit une structure hiérarchisée qui permet d’établir des
relations de proximité entre les régions, mais qui peut fractionner une même région en
de régions, est une
consiste à regrouper itérativement des ensembles de points connexes
en régions plus importantes. Elle utilise des conditions dépendant de propriétés
mogénéité. L’idée de base de ce type d’approche est de définir des critères de
regroupement des pixels permettant l’obtention de régions homogènes [Sri, 08]. La
segmentation par fusion produit un nombre minimal de régions connexes, mais elle les fournit
l’image entière représente une seule région. Si le critère
d’uniformité n’est pas vérifié pour cette région, elle est divisée en quatre sous régions et
l’opération est répétée pour les sous régions non uniformes. La procédure s’arrête quand les
nt uniformes ou quand elles sont trop petites pour être divisées [Oul, 98]. Après
» adjacentes, issues de la division d’une
région mère ou des régions mères adjacentes, sont fusionnées. La fusion tente de satisfaire la
’inconvénient de cette stratégie est dans
: Exemple de déroulement de l’algorithme de division de régions
3er niveau de division
Chapitre 3
la formation de contours en forme d’escaliers. D’autre part, cette technique de segmentation
crée un grand nombre de petites régions. Cela néce
éliminer ces petites régions.
4.4.4. Approches multi résolutions
Une approche multi résolutions ou pyramides est une représentation hiérarchique de
l’image. Parmi les structures pyramidales on peut citer
etc. Le principe de la segmentation par arbre quaternaire consiste à diviser par
Y toute zone qui ne vérifie pas le critère d’homogénéité, jusqu’à ce que le critère soit vérifié
(figure (3.13)).
En pyramide reliée, la structure de données possède un ensemble de liaisons beaucoup plus
étendu que celui de l’arbre quaternaire et offre donc une souplesse dans la représentation
des données (figure (3.14)).C’est une méthode conceptuellement attractive et p
Figure 3.13
Traitement des
la formation de contours en forme d’escaliers. D’autre part, cette technique de segmentation
crée un grand nombre de petites régions. Cela nécessite un traitement complémentaire pour
pproches multi résolutions
multi résolutions ou pyramides est une représentation hiérarchique de
l’image. Parmi les structures pyramidales on peut citer : arbre quaternaire, pyramide reliée,
rincipe de la segmentation par arbre quaternaire consiste à diviser par
toute zone qui ne vérifie pas le critère d’homogénéité, jusqu’à ce que le critère soit vérifié
structure de données possède un ensemble de liaisons beaucoup plus
étendu que celui de l’arbre quaternaire et offre donc une souplesse dans la représentation
C’est une méthode conceptuellement attractive et p
Figure 3.13 : Structure d’un arbre quaternaire
Figure 3.14 : Pyramide reliée
Traitement des Images Satéllitales
69
la formation de contours en forme d’escaliers. D’autre part, cette technique de segmentation
ssite un traitement complémentaire pour
multi résolutions ou pyramides est une représentation hiérarchique de
: arbre quaternaire, pyramide reliée,
rincipe de la segmentation par arbre quaternaire consiste à diviser par 2 en X et 2 en
toute zone qui ne vérifie pas le critère d’homogénéité, jusqu’à ce que le critère soit vérifié
structure de données possède un ensemble de liaisons beaucoup plus
étendu que celui de l’arbre quaternaire et offre donc une souplesse dans la représentation
C’est une méthode conceptuellement attractive et puissante po
Chapitre 3 Traitement des Images Satéllitales
70
4.4.5. Segmentation par classification.
Le but des méthodes de classification est d’établir une relation entre les individus de
l’image et l’ensemble des classes en exploitant la similarité de ces individus. Dans le cadre de
segmentation des images, les individus ne peuvent être que des pixels ou des sous images de
taille fixe. Chaque individu est affecté à une et une seule classe dans l’espace des attributs
utilisés. Ces attributs peuvent être ponctuels comme le niveau de gris ou calculés sur un
voisinage de pixel comme la moyenne des intensités. Ces méthodes de segmentation par
classification sont classées en deux grandes catégories [She, 02] :
a. Classification monodimensionnelles : ces méthodes ne prennent qu’un seul attribut,
en général le niveau de gris. La plupart d’entre elles extraient des seuils puis affectent
les pixels à une classe par une comparaison de leur niveau de gris à ces seuils [Kai,
00]. Ces méthodes reposent sur le calcul de l’histogramme, qu’on supposera normalisé
et qui caractérise la distribution des niveaux de gris [She, 02].
b. Classification multidimensionnelles : ces méthodes consistent à classifier des
individus en fonction d’un ensemble d’attributs. Le choix de ces attributs, à prendre en
compte, est très important. Il joue un rôle essentiel pour le bon fonctionnement de ces
méthodes de segmentation. Généralement, ces méthodes utilisent des algorithmes
d’analyse de données. Elles ont pour rôle d’extraire, parmi les nombreux attributs,
ceux qui peuvent être discriminants, de déterminer les limites entre les classes et puis
classifier les pixels en fonction de ces attributs [She, 02]. Elles sont séparées en deux
modes distincts: classification supervisée et non supervisée. Dans la première, un
échantillon d’observations commence par l'identification des classes d'information qui
sont ensuite utilisées pour définir les classes spectrales qui les représentent. Les
classifications supervisées nécessitent une connaissance préalable du site à classifier,
ainsi qu’une phase appelée apprentissage [She, 02]. La deuxième classification est
définie comme une identification de groupes naturels. Elle permet de répartir les
pixels entre un nombre fixé de classes sans aucune référence préalable à la nature de
ces classes [Oul, 98].
Chapitre 3 Traitement des Images Satéllitales
71
Remarque
Dans les méthodes de segmentation par classification, on trouve les méthodes hiérarchiques
qui constituent une suite de partitions emboîtées et les méthodes par partitionnement qui
fournissent une seule partition, tels que le K-moyennes ou FCM (Fuzzy C-Means) et leurs
variantes [Chr, 90]. Ces dernières seront détaillées dans le chapitre suivant et feront l’objet de
notre travail qui consiste à faire une segmentation par classification en utilisant les Fuzzy C-
Means dans le cas des méthodes multi dimensionnelles et le seuillage adaptatif dans le cas des
méthodes monodimensionnelles.
5. Conclusion
Dans ce chapitre, nous avons mis l’accent sur deux types d’opération : le
prétraitement et la détection de contour. La phase de prétraitement a pour but d‘améliorer
l’homogénéité des régions qui la compose, tout en la conservant, voir, en renforçant le
contraste entre régions adjacentes. Nous avons aussi abordé la notion de détection de contour
qui est considérée comme une étape première dans la vision. Cette approche nous permet
d’extraire les points de contour de l’image, mais malheureusement les techniques de filtrage
ne permettent pas en elles-mêmes de déterminer des contours ce qui nous a pousser à chercher
à définir les régions significatives de l‘image qui détermineront les contours fermés.
La segmentation d’images est une étape essentielle préalable à l’interprétation de celles-ci.
Elle consiste à réaliser une partition de l’image en zones homogènes correspondant aux
« objets » contenus dans cette dernière. Elle a fait l’objet de nombreuses recherches de la part
de la communauté scientifique de traitement d’images et dont le résultat est la diversité des
méthodes présentes dans la littérature.
Nous avons présenté dans ce chapitre plusieurs techniques de segmentation, et nous
avons remarqué qu’aucune technique ne se détache pour prétendre au titre de meilleure
méthode. Chacune d’entre elles possède des avantages et des inconvénients. Par les
algorithmes linéaires ou non linéaires, chacune d’entre elle fournit des régions homogènes. Ce
sont à notre connaissance les seuls algorithmes ayant toutes les fonctionnalités réunies et
s’exécutant en une seule passe sur l’image.
L’objet des chapitres suivants est de présenter, d’une manière détaillée, notre
contribution. La maquette informatique proposée ainsi que les données utilisées relatives à
des études de cas réelles tout en discutant les résultats obtenus seront aussi présentées.
Deuxième Partie
Le Système d’aide à la décision
proposé
FCM-AT
Chapitre 4
Le Système Décisionnel Proposé
(FCM-AT)
Ce chapitre décrit le système d’aide à la décision proposé FCM-AT. Ce dernier
intègre, principalement, les outils de traitement d’images satellitales, il utilise les
méthodes de data mining spatial, et permet de visualiser les résultats à travers un SIG.
Chapitre 4
Plan
� � � � �
1. 1. Introduction
4.2. Introduction
4.3. Présentation globale du cadre d’application
4.3.1. Objectifs visés
4.4. Système Décisionnel FCM-AT
4.4.1. La phase de structuration du modèle
4.4.2. La phase d’exploitation du modèle
4.4.3. La concrétisation des résultats
4.4.4. Acteurs
4.4.5. Les Outils d’investigation pour l’élaboration de FCM-AT
4.4.6. Le système d’aide à la décision FCM-AT
4.4.7. Algorithme générale De FCM-AT
4.5. Conclusion
Le Système décisionnel proposé (FCM-AT)
Chapitre 4 Le système décisionnel proposé
73
Chapitre 4
Le Système Décisionnel Proposé
(FCM-AT)
1. Introduction
Qu’il s’agisse d’un besoin de localisation, de gestion, d’analyse ou de communication,
le SIG Décisionnel intervient aujourd’hui dans de très nombreux métiers (gestion des risques
industriels, nucléaires, définition des contrats d’assurance en fonction des zones à risques,
etc.) pour rendre exploitables des informations ou des paramètres difficilement discernables
(cartographie des réseaux, identification des risques naturels ou techniques, suivi des
pollutions, urbanisation, études d’impact, etc.).
A l’état brut, les images satéllitales ou autres, ne reflètent pas vraiment la réalité du
terrain car les mesures effectuées sont bruitées et peu contrastées dans une géométrie
difficilement exploitable. Cela est dû à plusieurs facteurs liés à la position de l’objet, aux
effets du relief et aux transitions entre régions. Pour cela, l’application des différents
traitements numériques sur cette image est nécessaire afin d’extraire l’information utile [Mau,
08]. Actuellement, il existe plusieurs méthodes qui permettent d’analyser et de traiter ces
images. Parmi elles, nous pouvons citer l’utilisation des ensembles flous dans les étapes de
filtrage, les méthodes de segmentation, etc. [Guo, 08].
Dans le domaine de la segmentation des images, les algorithmes rencontrés dans la littérature
font généralement intervenir l’algorithme de classification dit du “C-moyens flous”
développé par J.C. Bezdeck [Bez, 80].
Chapitre 4 Le système décisionnel proposé
74
2. Présentation globale du cadre d’application
Nous travaillons dans le cadre d’un projet concernant la conception et la réalisation
d’un système d’acquisition et de gestion d’images satellitales pour un projet en Aménagement
du Territoire. Ce projet est initié par l’équipe « Diagnostic, Aide à la décision et Gestion de
Risques» du Laboratoire d’Informatique d’Oran (LIO) en collaboration avec :
- L’équipe du CTS « Centre des techniques spatiales » ;
- L’équipe DOC « Données, Objets et Connaissances » du laboratoire LIRMM de
MontpellierII
2.1. Objectifs visés
Dans le cadre de la problématique générale qui nous occupe, nous devons répondre à
un objectif principal et des objectifs spécifiques, respectivement :
2.1.1. Objectif principal
Elaborer un SDSS (Spatial Decision Support System) appelé FCM-AT (Fuzzy C-
Means –Adaptive Thresholding) destiné à des utilisateurs avertis (les géographes et
thématiciens) ayant de fortes compétences techniques dans les domaines satéllitales et
l’exploitation de données graphiques. Cet outil est basé sur une fusion Fuzzy C-Means et
Adapttative (FCM-AT) susceptible d’apporter une aide aux décideurs du domaine spatial dans
la réalisation des différents projets d’aménagement.
2.1.2. Objectifs spécifiques
• Intégrer les méthodes de traitement et d’analyse d’images de télédétection dans un
système d’aide à la décision spatiale;
• Intégrer les méthodes de fouille de données spatiales dans un système d’aide à la
décision spatiale ;
• Exploiter les fonctionnalités des SIGs pour la visualisation des résultats après
traitement.
Dans le cadre de cette présente étude, nous nous intéressons au traitement des images
satéllitales. En effet, notre objectif est d’extraire d’une façon automatique, des réseaux à partir
d’une image LANDSAT 5 TM pour la région d’Oran (Algérie) en procédant par fusion de deux
méthodes : le K-Means flou (Fuzzy K-Means) ou FCM, que nous appliquerons sur des images
multi spectrales, et la méthode de Seuillage Adaptative ou Adaptive Thresholding (AT).
Chapitre 4 Le système décisionnel proposé
75
Le système proposé permet d’une part de segmenter l’image originale par les K-Means
flous et, d’autre part d’appliquer la méthode du seuillage adaptative sur une image mono
spectrale. A cet effet, nous aurons besoin des trois canaux de LANDSAT dans la mesure où les
K-Means flous ne sont applicables qu’à des images multi spectrales, et nous transformerons
ensuite l’image obtenue en niveau de gris afin qu’elle soit segmentée par la méthode du
seuillage adaptatif.
3. Le modèle décisionnel spatial proposé
Le modèle décisionnel proposé est largement inspiré du modèle d’aide à la
décision adapté au domaine de l’environnement et à la décision spatiale proposé par Pictet
[Pic, 96] et repris par Hamdadou [Ham, 08]. Le modèle opère, principalement, en trois
phases à savoir: La structuration du modèle, son exploitation et la concrétisation des
résultats.
La figure (4.1) illustre, en détails, le modèle décisionnel adapté par le système FCM-AT.
Chapitre 4 Le système décisionnel proposé
76
Figure 4.1. Le modèle décisionnel proposé
Prétraitement : Préparation des données
-Formulation du problème -Identification des acteurs
(homme d’étude et décideur) - Choix de régions et découpage de l’image Multi-spectrale par le thématicien. -Chargement des canaux -Coloriage et Amélioration
Traitement : Segmentation -Paramétrage FCM Nombre de classes, Matrice de partition, Automatique ou Manuel - Niveau de Gris -Paramétrage SA Masque à 1 ou 0 Automatique ou manuel - Fusion (Intégration FCM et SA). - Affichage des résultats
Mise en œuvre et
Contrôle
Recommandations
Phase de Structuration du modèle
Phase d’exploitation du modèle
Phase de concrétisation du modèle
Analyse Spatiale
Data mining Spatial (DMS)
Et
Systèmes d’Information Géographique
(SIG)
Traitement des images satéllitales
Résultats : Cartes Coloriées Histogrammes
Acteur=Homme d’étude
Acteur= Décideur
Chapitre 4 Le système décisionnel proposé
77
3.1. La phase de structuration du modèle
Elle a pour objectif l’identification du problème et les choix fondamentaux sur la
manière de l’aborder. Le prétraitement est une étape trés sensible dans toute démarche d’aide
à la decison, en particulier lorsque la méthode d’analyse procède par fusion de méthodes, où
le traitement est non supervisé. Le but de cette phase est de limiter les possiblités, réduire
l’intervalle de traitement, compte tenu que le traitement s’effectue sur des données
complexes (images Multi-Spectrals). La structuration consiste à préparer les images,
identifier les acteurs à savoir l’homme d’étude qui prend en charge la structuration et
l‘exploitation du système, et le décideur qui peut exprimer ses préférences. Les principales
tâches effectuées lors de cette étape sont:
- Formulation du problème : fixer des buts initiaux.
- Choix des régions : on utilise une image multi spectral landsat Tm d’Oran Algerie, et
découpage de l’image LANDSAT 5 TM, pour la région d’Oran (Algérie) qui contient,
à son tour, plusieurs régions.
- Chargement des canaux 1,3, et 5: chaque canal contient des valeurs radiométriques.
- Coloriage et Amélioration : affectation des couleurs (R (rouge), V(vert), B (bleu) aux
canaux (1,3,5) (une couleur pour chaque canal), et amélioration de l’image.
3.2. La phase d’exploitation du modèle
C’est la partie la plus analytique du processus décisionnel. C’est là où les
méthodes de fouille de données spatiales seront intégrées. Il s’agit essentiellement du FCM
et le Seuillage Adaptative.
FCM-AT est dédié à des thématiciens experts dans les systèmes d’information
géographique et la spatialisation des données , l’objectif visé par l’exploitation du système est
de mettre à leur disposition un système simple, souple, robuste, et efficace qui a pour objectif
de réaliser la segmentation par région et l’exploitation des méthodes FCM, et SA, puis la
fusion des deux méthodes. Les principales tâches effectuées lors de cette étape sont:
- Affichage de l’image coloriée ;
- Paramétrage de la méthode FCM ;
• Définir le nombre de classes,
• Définir la matrice de partition,
• Choisir le mode automatique ou manuel,
- Niveau de Gris
Chapitre 4 Le système décisionnel proposé
78
- Paramétrage d la méthode du Seuillage Adaptative ;
• Choisir un Masque à 1 ou 0,
• Choisir un mode Automatique ou manuel,
- Intégration FCM et SA : quatre types de fusion de base sont opérationnels à savoir :
• FCM Automatique - Seuillage Adaptative Automatique
• FCM Automatique - Seuillage Adaptative Manuel
• FCM Manuel -Seuillage Adaptative Automatique
• FCM Manuel - Seuillage Adaptative Manuel
- Visualisation graphique afin de comparer les différents résultats obtenus en
exploitant les différentes possibilités de fusion.
3.3. La concrétisation des résultats
Elle vise essentiellement l’acceptation (décideur) du résultat. Cependant, elle
comprend aussi la mise en œuvre de la décision ainsi que son contrôle (test et validation).
3.4. Acteurs
Le concept d’acteur se réfère à une entité concrète, localisée (dans un contexte) ; c’est
une unité d’action et de décision, individuelle ou collective. Dans FCM-AT, on peut
identifier deux types d’acteurs:
- Le premier c’est l’homme d’étude, il a pour rôle d’élaborer la structuration et
l’exploitation du modèle en général c’est l’informaticien ;
- Le deuxième acteur c’est le Décideur, il est chargé de la concrétisation du modèle, la
mise en œuvre ainsi que le contrôle de l’application, et de tester et valider les
résultats obtenus.
Chapitre 4 Le système décisionnel proposé
79
3.5. Les Outils d’investigation pour l’élaboration de FCM-AT
La puissance du système d’aide à la décision FCM-AT réside dans sa
pluridisciplinarité. En effet, il exploite (voir figure (4.2)):
- Le Data Mining Spatial: exploité pour extraire les connaissances à partir des
données, ici on utilise le Datamining Spatial car les données utilisées sont des
images multi spectrales, on peut dire aussi, que c’est de la fouille de données
complexe, car on traite des données complexes (images).
- Traitement d’images satellitales : exploité afin, de charger des images, colorier,
améliorer, détecter des régions et des contours et segmenter, pour en final afficher
les résultats.
- Le SIG : utilisé comme outil d’analyse et de décision afin d’interpréter les résultats
obtenus sous forme de cartes coloriées avec des thèmes.
Figure 4.2. Outils d’investigation
SIG
DMS
Traitement d’images
SDSS-FCM-AT
Chapitre 4 Le système décisionnel proposé
80
3.6. Le système d’aide à la décision FCM-AT
La démarche d’aide à la décision adaptée par le système FCM-AT est illustrée par la
figure (4.3).
Figure 4.3. Système Décisionnel FCM-AT Proposé.
Data Mining Spatial
DMS
et
SIG
Traitement d’images
Satéllitales
S D S S --
F C M - A T
Décision prise
Archivage : Résultats et paramètres utilisés
Oui
Non
Oui
Non
Seuillage Adaptative
Images TM 1, 3, 4
Prétraitement : Coloriage et amélioration
Segmentation FCM Paramétrique
Segmentation FCM Automatique
Transformation Niveau de Gris
Résultats satisfaisants
Image Segmentée
Chapitre 4 Le système décisionnel proposé
81
3.7. Démarche décisionnelle adoptée par FCM-AT
Le processus d’aide à la décision adopté par FCM-AT procède en six phases :
Phase 1 : Chargement des images des 3 canaux (TM1, TM2, TM3).
Cette phase permet l’ouverture des trois fichiers contenant les valeurs radio métrique des
trois canaux de l’image multi spectral landsat TM.
Phase 2 : Coloriage et Amélioration.
On affecte pour chaque canal une couleur parmi les couleurs standard R(Red), G(Green),
B(Blue). Ensuite fusionner les trois couleurs pour obtenir une seul image multi spectral.
Phase 3 : Segmentation de l’image par la méthode FCM.
Phase 4 : Transfert du résultat de la segmentation par FCM en niveau de gris.
Phase 5 : Segmentation du résultat, de l’image obtenue en niveau de gris, par le seuillage
adaptatif.
Phase 6 : Interprétation et Critiques.
3.7.1. K-moyennes Floues (Fuzzy C-Means) FCM
a. Définitions
Un ensemble flou est un ensemble dont les bords sont mal définis. Cela se traduit par
une fonction d'appartenance comprise dans l'intervalle [0, 1], alors que dans le cas classique,
la fonction d'appartenance prend deux valeurs 0 ou 1 [Bez, 80]. Un exemple d’ensemble flou
est celui contenant des nombres réels "proches" de 3. Ainsi, 3 appartient complètement à cet
ensemble et il a, par conséquent, un degré 1 et plus on s'éloigne de 3, plus le degré
d'appartenance diminue comme montré par la figure (4.4).
Figure 4.4. Exemple d’ensemble flou avec x = 3
Chapitre 4 Le système décisionnel proposé
82
Cette propriété est exploitée en traitement d'images, plus précisément en classification
où les classes, appelées aussi régions, sont représentées par des ensembles flous. Cela est fort
utile lorsque les régions ne peuvent pas être définies de manière nette et précise. Leur
manipulation, en gardant le caractère flou, permet de traiter des données imprécises,
incertaines et/ou redondantes d'une manière plus flexible [Ham et al, 07c]. Dans ce qui suit
nous présentons un algorithme de classification basé sur la logique floue, connu et utilisé pour
son efficacité et sa robustesse.
L'algorithme des C- moyennes floues (fuzzy C-Means) est un algorithme de
classification non supervisée flou issu de l’algorithme C-moyennes (C-means). L’algorithme
introduit la notion d’ensemble flou dans la définition des classes. Chacun des points de
l'ensemble des données appartient à une classe avec un certain degré d’appartenance, et toutes
les classes sont caractérisées par leurs centres de gravité. L’algorithme est basé sur
l'optimisation d'un critère quadratique, du type des moindres carrés, exige au préalable la
connaissance du nombre de classes et génère les classes par un processus itératif en
minimisant une fonction objective [Haf, 05].
L'algorithme utilise l'ensemble des pixels }{ nxxxxA ,....,,, 321= où ix est un vecteur
de trois composantes rouge (R), vert (V), bleu (B), et le nombre de région K. Les valeurs des
degrés d'appartenance sont regroupées dans une matrice U = [uik] où chaque élément
désigne le degré d'appartenance du pixel i à la classe k [Mau, 08].
Pour avoir une bonne partition, on impose aux éléments de U les contraintes
suivantes :
� [ ]1,0∈iku ;
� ∑ ∀=k ik iCeciu ;1 ;
L'algorithme du FCM fait évoluer la partition (Matrice U) en minimisant la fonction
objectif ( )CUJm , suivante appelée aussi fonction de coût [Mau, 08]:
( ) ( )∑ ∑ −=i k ki
mikm cxuCUJ
2.,
Avec :
� m >1 : est un paramètre contrôlant le degré de flou appelé le facteur de flou.
� kC : Le centre de la classe k.
� : Une distance quelconque entre pixel i et le centre Ck.
(4.1)
Chapitre 4 Le système décisionnel proposé
83
b. Démarche de l’algorithme FCM
1- Choisir le nombre de classes K.
2- Initialiser la matrice de partition iU d’une manière aléatoire et les centres kC à l’aide de la
relation (3)
3- Faire évoluer la matrice de partition et les centres selon les deux équations (2) et (3);
On montre que la minimisation de la fonction de coût (1) s’effectue lorsque les conditions
d'optimalité de Kuhn-Tucker suivantes sont vérifiées [Guo, 08]:
( ) ( )( )( )∑−
== 1/2,1 //1 m
ijikcjik ddU
(4.2)
Cette condition fait la mise à jour des degrés d’appartenance où : ji cxdij −=
( )( ) ( )( )∑∑=i
miki i
mikk uxuC /. (4.3)
4-Test d’arrêt: ( ) ( ) seuiljj tt <−+1
La partition optimale est obtenue par des itérations successives jusqu’à la convergence
des résultats. Autrement dit après une initialisation des différents paramètres de l’algorithme,
notamment, le nombre de classe K, la partition initiale, le facteur de flou “m” et le seuil de
convergence désiré [Guo, 08].
On détermine les centres des nouvelles classes à partir l’équation (4.3). La position
initiale des centres de gravité conditionne le résultat final de telle sorte que les centres de
gravité doivent être initialement placés le plus loin possible les uns des autres. Ceci signifie
que les objets à l'intérieur de chaque classe soient aussi proches que possible les uns des
autres et aussi loin que possible des objets d’autres classes [Mau, 08]. Ensuite on détermine
les degrés d’appartenance des formes à ces classes par l’équation (4.2).
On répète ces deux phases jusqu’à ce que l’écart entre deux vecteurs centres successifs
satisfasse le test d’arrêt.
Remarque. Le choix de m pour le Fuzzy C-means (FCM) joue un rôle très important.
L’équation (4.2) montre que si m se rapproche de 1, le FCM tend à produire des degrés
d’appartenance ‘‘durs’’ c'est-à-dire la partition tend à être classique. Par conséquent, la mise à
jour basée sur l’équation (4.2) fait qu’une certaine valeur Uik est trop proche de 1. Cela
Chapitre 4 Le système décisionnel proposé
84
entraîne que la classe correspondante à cette valeur est mise à jour de façon beaucoup plus
importante que les mises à jour faites pour les (k-1) classes restantes. Ce phénomène peut
créer une propriété indésirable vu que certains prototypes convergent rapidement vers les
clusters alors que d’autres convergent beaucoup moins vite et inversement, lorsque m
augmente, la partition devient floue [Mau, 08].
L’algorithme proposé donne un résultat appréciable mais présente deux inconvénients
majeurs : D’une part, il nécessite le choix préalable du nombre K de classes, ce qui rend
l’automatisation de la méthode impossible et, d’autre part il requière un temps de calcul
souvent élevé du fait de sa nature itérative [Guo, 08].
3.7.2. Seuillage Adaptative (Adaptive Thresholding)
Dans cette section, nous exposerons le seuillage adaptatif et que nous appliquerons
sur les images satéllitales afin de réaliser une segmentation par classification. Cette approche
utilise la valeur d'un seuil qui est changé dynamiquement afin de rendre compte de l'intensité
locale des différentes zones de l'image d'entrée (en niveau de gris). Elle présente l’avantage de
rehausser le contraste et les contours, par contre elle a le désavantage de représenter les
grandes surfaces de pixels à un niveau d'intensité constant. La méthode du seuillage adaptatif
présente quelques caractéristiques [Gon, 02] :
a. L'image de sortie présente une résolution spatiale ainsi qu'un contraste supérieur à
l'image en niveau de gris (originale). Le contraste de l'image originale doit être
rehaussé bien qu'il y ait une perte d'information au niveau des intensités du fond de
l'image.
b. Bien que l'entropie de l'image de sortie soit relativement faible, l'image binarisée peut
être compressée en utilisant les mêmes techniques permettant le stockage de données
comme que le texte ou les graphiques alors que les images en niveau de gris ne
peuvent pas être compressées par ces techniques.
c. L'algorithme du seuillage dynamique peut être implémenté en hardware à moindre
coût.
d. Ce même algorithme peut être aussi appliqué à du texte ou à des informations
graphiques avec une qualité garantie, pour les images résultantes.
Chapitre 4 Le système décisionnel proposé
85
Tout le problème réside dans le choix de la décision, lors de la binarisation, d'affecter la
valeur 1 ou 0 aux différents pixels de l'image. Le principe de cette méthode est de déplacer
sur toute l'image un masque et de calculer en chaque pixel la valeur I (i, j) comme indiqué sur
la figure (4.5). Il y aura donc encore une fois des problèmes pour le traitement des bords.
Trame hexagonale : est un élément structurant que nous déplaçons sur la totalité de l’image.
Figure 4.5. Trame hexagonale
Etape1 : On applique le masque à 1 sur toute l’image comme indiqué sur la figure (4.6).
Figure 4.6. Matrice M1
Chapitre 4 Le système décisionnel proposé
86
Etape 2. Une deuxième matrice sera appliquée comme montré sur la figure (4.7).
Figure 4.7. Matrice M2
On obtient :
M2(i,j)=1/9[f(i,j)+f(i-1,j-1)+f(i+1,j+1)+f(i,j+1)+f (i+1,j)+f(i-1,j)+f(i-1,j+1)+ f(i,j-1)+f(i+1,j-
1)]
Pour segmenter l’image originale par le seuillage adaptative on effectue l’opération suivante :
Si (i,j )-M1(i,j)< I(i,j )-M2(i,j) Alors IS (i,j) = 255 noir
Sinon 0 blanc.
Chapitre 4 Le système décisionnel proposé
87
4. Conclusion
Dans ce chapitre, nous avons proposé le système décisionnel FCM-AT fusionnant
deux méthodes de traitement d’images satéllitales. La première utilise le Fuzzy C-Means et
est dédiée aux zones uniformes tandis que la deuxième est basée sur le seuillage adaptatif et
est applicable sur les zones texturées (pour délimiter les frontières de chaque région).
Dans le chapitre suivant, l’approche suggérée sera appliquée à une étude de cas
accompagnée d’une étude de performances de l’algorithme proposé .
Chapitre 5
Mise en œuvre de FCM-AT
L’objectif de ce chapitre est de présenter l’aspect technique du système
décisionnel proposé FCM-AT ainsi que les choix adoptés au niveau du langage de
programmation. Ce chapitre détaille deux études de cas afin de valider l’outil proposé.
Chapitre 5
Plan
� � � � �
5.1. Introduction
5.2. Principes de développement
5.3. Description de la zone d’étude
5.4. Nature des données
5.5. Expérimentations et discussion des résultats obtenus
5.5.1. Phase de chargement des images
5.5.2. Phase de coloration et d’amélioration
5.5.3. Phase de segmentation de l’image par FCM
5.5.4. Phase de transfert en niveau de gris
5.5.5. Phase de segmentation par le seuillage adaptatif
5.5.6. Fusion (FCM et Seuillage Adaptatif)
5.5.7. Phase d’Interprétation et résultats
5.6. Conclusion
Mise en œuvre de FCM-AT
Chapitre5 Mise en Œuvre de FCM-AT
88
Chapitre 5
Mise en Œuvre de FCM-AT
1. Introduction
Les SDSS (Spatial Décision Support Systems) sont destinés à faciliter les prises de
décision au niveau de l’entreprise ou autre. Un système d'aide à la décision spatial bien conçu
est un logiciel interactif qui aide les décideurs à dégager des informations utiles à partir de
données spatiales, de connaissances personnelles et de modèles métier, afin d’identifier et
résoudre des incidents et prendre des décisions.
2. Principes de développement
FCM-AT est un système interactif et informatisé conçu pour soutenir un utilisateur ou
un groupe d'utilisateurs en réalisant une efficacité plus élevée de prise de décision tout en
résolvant un problème spatial de décision.
FCM-AT a été développé avec Borland C++Builder 6, et il présente les caractéristiques
suivantes :
• une conception explicite pour résoudre des problèmes d’images satéllitales ;
• une interface utilisateur puissante et facile à utiliser ;
• une capacité de combiner, avec souplesse, les modèles analytiques avec des
données ;
• une capacité d'explorer l'espace de solution par des solutions de rechange ;
• une possibilité de soutenir une variété de modèles de prise de décision ;
De plus, il offre les possibilités suivantes :
Chapitre5 Mise en Œuvre de FCM-AT
89
o fournir des mécanismes pour l'entrée des données spatiales ;
o permettre la représentation des relations spatiales et des structures ;
o inclure les techniques analytiques de l'analyse spatiale ;
o fournir le rendement dans une variété de formes spatiales, telle que la forme
cartographique.
Le but principal de FCM-AT étant d’améliorer l'efficacité de la prise de décision en
incorporant des jugements du décideur et des programmes sur ordinateur dans le processus
décisionnel. Mais le SDSS ne doit pas remplacer le jugement de l’utilisateur, mais doit l’aider
à prendre de « meilleures » décisions.
3. Etude de cas
3.1 Description de la zone d’étude
L'Agence Spatiale ALgérienne (ASAL) a été créé le 16 janvier 2002 à Bouzareah,
Alger afin de prendre en charge le programme spatial algérien.
Les procédures utilisées dans l’approche de segmentation proposée ont été testées sur
des données numérisées des images satellitales de type LANDSAT 5–TM fournis par le Centre
des Techniques Spatiales (CTS) d’Arzew et montré par la figure (5.1) où se trouvent les
locaux de suivi et de la maintenance des satellites en orbite et qui datent de 2006.
Zone d’étude
Figure 5.1. Délimitation de la zone d’étude
Chapitre5 Mise en Œuvre de FCM-AT
90
4. Nature des données
Notre approche commence par la segmentation de l’image originale en utilisant le
FCM. Du moment où le FCM ne s’applique que sur des images multi spectrales, nous
utiliserons les trois canaux TM 1, 3,4 de LANDSAT illustrés par la figure (5.2) Ce sont des
fichiers contenant des valeurs radio métriques de chaque pixel dans l’image.
5. Expérimentations et discussion des résultats obtenus
L’application de notre approche passe essentiellement par quatre phases [Sek et al, 10]:
5.1. Chargement des images
On charge les trois canaux qui constituent l’image nécessaire à notre application.
5.2. Coloriage et Amélioration
Les composantes RVB (coloration) sont obtenues par acquisition de la scène à travers
trois filtres: rouge, vert et bleu. Le filtre bleu correspond à un bleu profond. Les filtres vert et
rouge permettent des effets de contraste en photographie industrielle et en micrographie. Le
filtre rouge est également utilisé pour la correction du voile atmosphérique en photographie
aérienne et pour la suppression du bleu en photographie infrarouge. Le Résultat final
correspond à une unification trichrome appelée composition colorée dans laquelle les thèmes
se distinguent par les différentes nuances dans ces trois couleurs de base. La figure (5.3)
montre la coloration de trois canaux TM1, TM3 et TM4. Ce sont des données numérisées par
le satellite LANDSAT 5-TM.
Figure 5.2. Les trois canaux TM 1, 3, 4 (de gauche à droite)
Chapitre5 Mise en Œuvre de FCM-AT
91
On procède à des étalements de la dynamique pour obtenir le maximum de contraste
sur la plage radio métrique qui nous intéresse. On parle donc d’amélioration de contraste
comme montré par la figure (5.4).
5.3. Segmentation de l’image par FCM
Les k-moyennes floues donnent un résultat très intéressant pour notre application.
Dans notre travail nous avons appliqué les FCM sur des images multi spectrales (RVB).
Les images utilisées dans nos expérimentations présentent la zone d’Oran, on voit :
� Sur la figure (5.5.a.), l’image d’Oran partie Nord chargée et coloriée.
� Sur la figure (5.5.b.), l’image multi spectral d’Oran Partie Sebkha chargée et
coloriée aussi.
Figure 5.3 La composition colorée
Figure 5.4. Etalement dynamique d’une image colorée
Chapitre5 Mise en Œuvre de FCM-AT
92
Figure 5.5.b. Interface Principale (Oran Sebkha)
a. Image Originale Oran Nord
• Test1 : les paramètres utilisés sont :
a/ m=2, on a fixé un nombre de classes K=4, et un degré d’appartenance équitable Uik=0.2
pour les classes. Les résultats obtenus après segmentation sont illustrés sur la figure
(5.6.a.).
Figure 5.5.a. Interface Principale-(Oran Nord)
Chapitre5 Mise en Œuvre de FCM-AT
93
b/ On garde les mêmes paramètres que dans a/ sauf que le degré d’appartenance est non
équitable, la première classe a un degré =0.5 et les classes restantes Uik=0.1. Les résultats
obtenus après segmentation sont illustrés sur la figure (5.7.b).
• Test2: les paramètres utilisés sont :
a/ m=2, on fixe le nombre de classe à K=6 et on a pris degré d’appartenance équitable
Uik=0.15 pour les classes .les résultats obtenus après segmentation sont présentés par la
figure (5.7.a).
b/ On garde les mêmes paramètre que a/ sauf que le degré d’appartenance est non équitable,
la première classe a un degré =0.4 et les classes restantes Uik=0.1. Les résultats obtenus
après segmentation sont présentés par la figure (5.7.b).
Figure 5.6.a. FCM paramétrique k=4 et Uik équitable (Oran)
Figure 5.6.b. FCM paramétrique k=4 et Uik non équitable (Oran)
Figure 5.7.a. FCM paramétrique k=6 et Uik équitable (Oran)
Figure 5.7.b. FCM paramétrique k=6 et Uik non équitable (Oran)
Chapitre5 Mise en Œuvre de FCM-AT
94
• Test3 : les paramètres utilisés sont :
a/ m=2, on fixe le nombre de classes à K=10 et on a pris degré d’appartenance équitable
Uik=0.1 pour les classes. Les résultats obtenus après segmentation sont présentés par la
figure (5.8.a.).
b/ On garde les mêmes paramètre que a/ sauf que le degré d’appartenance est non équitable,
la première classe a un degré =0.2 et les classes restantes Uik=0.08. Les résultats obtenus
après segmentation sont présentés par la figure (5.9.b.)
• Discussion
Nous avons remarqué que le FCM est efficace lorsque la variation de la luminance est
trop importante (on parle ici de la notion de texture). Nous avons aussi remarqué qu’à chaque
fois que l’on augmente le nombre de classes, le FCM produit un bon résultat mais nécessitant
un temps de calcul très élevé. Ce problème peut être réduit si l’on utilise un matériel puissant.
Ce problème persiste aussi lorsqu’on utilise des images de grande taille.
Selon les résultats obtenus, nous pouvons affirmer que le choix du degré
d’appartenance joue un rôle fondamental pour le partitionnement des régions. Ce choix pose
le problème de la favorisation des régions lorsqu’on attribue des degrés sans une
connaissance préalable du terrain.
Pour y remédier à ce problème, nous avons reformulé les relations de notre algorithme
en ajoutant des connaissances de l’expert du domaine (le thématicien), afin d’automatiser le
Figure 5.8.a. FCM paramétrique k=10 et Uik équitable (Oran)
Figure 5.8.b. FCM paramétrique k=10 et Uik non équitable (Oran)
Chapitre5 Mise en Œuvre de FCM-AT
95
traitement. Nous avons constaté qu’avec l’automatisation de l’algorithme, nous éliminons
tous les inconvénients du FCM .
b. Image originale : Oran Sebkha
• Test 4 : les paramètres utilisés sont :
a/ m=2, on fixe le nombre de classe à K=3 et on prend le degré d’appartenance équitable
Uik=0.3 pour les classes. Les résultats obtenus après segmentation sont présentés par la
figure (5.11.a).
Figure 5.9. FCM automatique (Oran)
Figure 5.10. Image originale (Sebkha)
Chapitre5 Mise en Œuvre de FCM-AT
96
b/ On garde les mêmes paramètres que dans a/ sauf que le degré d’appartenance est non
équitable, la première classe a un degré =0.5 et le degré d’appartenance pour les classes
restantes est Uik=0.2. Les résultats obtenus après segmentation sont présentés par la
figure (5.11.b).
• Essais 5 : les paramètres utilisés sont :
a/ m=2, on fixe le nombre de classe à K=5 et on a pris degré d’appartenance équitable
Uik=0.15 pour les classes .les résultats obtenus après segmentation sont présentés dans la
figure (5.12.a.).
b/ On garde les mêmes paramètres que dans a/ sauf que le degré d’appartenance est non
équitable, la première classe a un degré =0.5 et pour les classes restantes un Uik=0.12.
Les résultats obtenus après segmentation sont présentés sur la figure (5.12.b.).
Figure 5.11.a. FCM paramétrique k=3 et Uik équitable (Sebkha)
Figure 5.11.b. FCM paramétrique k=3 et Uik non équitable (Sebkha)
Figure 5.12.a. FCM paramétrique k=5 et Uik équitable (Sebkha)
Figure 5.12.b. FCM paramétrique k=5 et Uik non équitable (Sebkha)
Chapitre5 Mise en Œuvre de FCM-AT
97
Remarque
Là aussi, notre curiosité scientifique nous a mené à automatiser l’algorithme en
prenant l’image Sebkha pour essai, les résultats sont donnés par la figure (5.13.).
5.4. Transfert en niveau de gris
Le transfert en niveau de gris consiste à extraire, à partir de l’image colorée,
l’information des trois couleurs RVB.
Les figures ci-dessous illustrent le transfert du résultat de la segmentation obtenu par le FCM
automatique en niveau de gris. La figure (5.14) représente la transformation d’Oran partie
nord et la figure (5.15) illustre la Sebkha.
Figure 5.13 : FCM automatique (Sebkha)
Chapitre5 Mise en Œuvre de FCM-AT
98
5.5. Segmentation par le seuillage adaptatif
Nous avons réalisé le transfert en niveau de gris car le seuillage adaptatif est
applicable sur des images mono spectrales [Gon, 02].
a. Image originale : Oran partie nord. Les deux figures suivantes montrent les images
obtenues par l’application d’un seuillage manuel avec un masque central 1 et un
masque central 0 et ceci en utilisant différentes valeurs de seuil, figure (5.16.).
� Seuillage adaptatif manuel avec masque central 1
Figure 5.14. Transfert en niveau de gris (Oran)
Figure 5.15. Transfert en niveau de gris
(Sebkha)
Figure 5.16. Seuillage adaptatif manuel avec masque central 1et seuil=50, 10,3 (de gauche à droite) (Oran)
Chapitre5 Mise en Œuvre de FCM-AT
99
� Seuillage adaptatif manuel avec masque central 0
• Discussion
Le seuillage manuel donne de bons résultats sur une image bruitée. Nous remarquons que :
� Plus le seuil de comparaison est bas et plus il y a du bruit.
� Plus le seuil de comparaison est haut et plus le bruit est gommé (diminue).
� La trame centrale à 1 est moins sensible au bruit que celle à 0. Ceci est dû au fait que
la moyenne effectuée est beaucoup plus meilleure et efficace.
Le seuillage adaptatif manuel présente un inconvénient majeur : l’introduction de la
valeur du seuil risque de dégrader les résultats. Pour résoudre ce problème nous avons utilisé
un seuillage adaptatif automatique figure (5.18.).
Figure 5.18. Seuillage adaptatif automatique (Oran)
Figure 5.17. Seuillage adaptatif manuel avec masque central 0 et seuil=50, 10,3 (de gauche à droite) (Oran)
Chapitre5 Mise en Œuvre de FCM-AT
100
• Interprétation
Après avoir segmenté l’image par le seuillage automatique nous constatons que cette
méthode extrait toutes les régions connexes. D’après les tests effectués, nous avons remarqué
que lorsque les contours ne sont pas bien définis (zones uniformes), la seuillage adaptatif
donne de bons résultats.
b. Image originale : Oran Sebkha
Les deux figures ci-dessous montrent les résultats obtenues par l’application d’un
seuillage manuel avec un masque central 1 illustré par la figure (5.19) et un masque central 0
comme indiqué par la figure (5.20). On a utilisé différents seuils pour chaque type de masque
(de gauche à droite).
� Seuillage adaptatif manuel avec masque central 1
� Seuillage adaptatif manuel avec masque central 0
Figure 5.19. Seuillage adaptatif manuel avec masque central 1 et seuil=20,3 (de gauche à droite) Sebkha
Figure 5.20. Seuillage adaptatif manuel avec masque central 0 et seuil=20,3 (de gauche à droite) Sebkha
Chapitre5 Mise en Œuvre de FCM-AT
101
� Seuillage adaptatif automatique
Dans ce test, nous avons appliqué le seuillage automatique sur l’image Sebkha, les
résultats sont donnés par la figure (5.21).
• Discussion
Nous constatons que quelque soit l’image (Oran nord ou Sebkha), les résultats obtenus
par le seuillage automatique sont plus performants que ceux obtenus par le seuillage manuel.
5.6. Fusion (FCM et Seuillage Adaptatif)
La fusion consiste, d’abord, à segmenter l’image originale par les K-moyennes floues,
ensuite à transformer l’image obtenue en niveau de gris pour être enfin segmentée par le
seuillage adaptatif.
a. Test 1 : Image originale : Oran partie nord
Dans cette expérimentation, nous avons utilisé les K-means floues paramétriques et
les K-moyennes floues automatiques et ceci en utilisant les deux types de seuillage (manuel et
automatique). Les résultats obtenus sont consignés dans les figures (5.22 (a, b)) et les figures
(5.23 (a, b)) en prenant comme paramètres les valeurs suivantes : nombre de classe égale à 10
et des degrés d’appartenance équitable.
Figure 5.21. Seuillage adaptatif automatique (Sebkha)
Chapitre5 Mise en Œuvre de FCM-AT
102
� Avec un K-means floue paramétrique
� Avec un K_means automatique
Figure 5.22.a. Fusion de FCM paramétrique et seuillage automatique (Oran)
Figure 5.22.b. Fusion de FCM paramétrique et seuillage manuel (Oran)
Figure 5.23.a. Fusion de FCM automatique et seuillage automatique (Oran)
Figure 5.23.b. Fusion de FCM automatique et seuillage manuel (Oran)
Chapitre5 Mise en Œuvre de FCM-AT
103
b. Test 2 : Image originale : Oran Sebkha
Dans ce test, nous avons refait les mêmes expérimentations que précédemment mais
cette fois ci en utilisant l’image Oran avec la partie Sebkha et en gardant les mêmes
paramètres. Les résultats sont illustrés par les figures (5.24 (a,b)) et les figures (5.25. (a,b)).
� Avec un K-means paramétrique
� Avec un K_means Automatique
Figure 5.24.a. Fusion de FCM paramétrique et seuillage automatique (Sebkha)
Figure 5.25.b. Fusion de FCM paramétrique et seuillage manuel (Sebkha)
Figure 5.26.a. Fusion de FCM automatique et seuillage automatique (Sebkha)
Figure 5.26.b. Fusion de FCM automatique et seuillage manuel (Sebkha)
Chapitre5 Mise en Œuvre de FCM-AT
104
6. Synthèse des résultats
OUTILS Oran-Nord Oran-Sebkha
Entrées
Sorties
Image Originale
F
C
M
FCM- Automatique
FCM-
Paramétrique
Uik équitables.
FCM-
Paramétrique
K=4
Uik non équitables.
FCM-
Paramétrique
K=10
Uik équitables.
Chapitre5 Mise en Œuvre de FCM-AT
105
FCM-
Paramétrique
K=10
Uik non équitables.
Niveau
de
Gris
Niveau de Gris
AT
Seuillage
Adaptative
Automatique.
Seuillage
Adaptative Manuel
Mask=1.
Seuil=10
Seuillage
Adaptative Manuel
Mask=1 et
seuil = 3
Chapitre5 Mise en Œuvre de FCM-AT
106
F
U
S
I
O
N
Fusion FCM
Automatique
et Seuillage
Automatique
Fusion FCM
Automatique et
Seuillage Manuel
Fusion FCM
paramètrique et
Seuillage
Automatique
Fusion FCM
paramétrique et
Seuillage Manuel
Tableau 5.1. Synthèse des résultats
On remarque que FCM-AT permet 4 possibilités de Fusion suivant le choix initial
paramétrique ou automatique de chaque méthode. Et Via le Seuillage, chaque possibilité
donne une infinité d’autres possibilités, suivant le seuil choisi. Cela permet à FCM-AT
d’avoir un domaine d’application très large.
On ne peut pas dire précisément quelle sont les meilleurs paramètres à utiliser, même
si on remarque les résultats obtenus par le seuillage automatique sont plus performants que
ceux obtenus par le seuillage manuel par exemple. Car c’est selon les besoins chaque
Chapitre5 Mise en Œuvre de FCM-AT
107
utilisateur, et les classes qu’il recherche, et il se peut qu’il veut négliger tout les détails, car le
seuillage manuel est plus approprié. Si on veut obtenir plus de précision,
Sachant aussi que l’image multi spectrale Landsat TM 5 utilisé contient douze classes de
bases qui sont : Brûlis- Céréaliture- Forêt- Jachère- Maquis- Maraichage- Mer- Ressac- Sable-
Sebkha1- Sebkha 2- Urbain.
Et pour bien valider les résultats, il faut un très grand jeu d’essai. Et l’inconvénient
majeur est le manque d’images satéllitales.
Les résultats obtenus et les essais réalisés montrent que cette approche est efficace et
robuste pour la segmentation en régions des images satéllitales.
7. Conclusion
Parmi les différentes méthodes de traitement d’images, la segmentation a pour objectif
d’exploiter les informations concernant une image. Elle peut servir à reconnaître un élément
et à suivre son évolution au cours du temps dans une séquence d'images.
Au terme de ce chapitre, nous avons exposé la mise en œuvre de notre outil réalisé,
consistant en l’élaboration d’un SDSS (Spatial Decision Support System), nommé FCM-AT.
Nous l’avons appliqué à une étude de cas consistant en des images satéllitales réelles d’Oran
Nord et d’Oran coté Sebkha captées par le satellite LANDSAT 5.
La fusion consistait d’abord à segmenter l’image originale par les K-moyennes floue
ensuite à transformer le résultat obtenu en niveau de gris pour être enfin segmenter par le
seuillage adaptatif.
Le Système FCM-AT est destiné à des utilisateurs avertis (les géographes et
thématiciens) ayant de fortes compétences techniques dans les domaines satéllitales et
l’exploitation de données graphiques. Cet outil est basé sur une fusion FCM-AT susceptible
d’apporter une aide aux décideurs du spatiale dans la réalisation des différents projets
d’aménagement. Les résultats obtenus sont jugés très encourageants et très intéressants et ont
montré en conséquence l’efficacité et la robustesse de l’approche proposée.
101
Troisième Partie
Annexes
Annexe A
La Théorie de l’Aide à la Décision
Ce chapitre aborde l’aide à la décision, d‘une manière générale en mettant le point sur
les systèmes interactifs d’aide à la décision et les systèmes d’aide à la décision
territoriale et spatiale.
Annexe A
Plan
� � � � �
A.1. Introduction
A.2. L’aide à la décision
A.2.1 Définition
A.2.2 Acteurs de l’aide à la décision
A.3. Décision et processus de décision
A.3.1. Définition d’une décision
A.3.2. Le processus de décision
A.4. Définition des systèmes d’aide à la décision
A.5. Systèmes interactifs d’aide à la décision : (SIAD)
A.6. L'aide à la décision territoriale (spatiale)
A.6.1. Processus pour la prise de décision spatiale
A.6.2. Processus de décision territoriale
A.6.3. Processus de décision dans le domaine territorial et urbain
Conclusion
La Théorie de l’Aide à La Décision
Annexe La Théorie de l’Aide à la décision
110
Annexe A
La Théorie de l’Aide à la Décision
1. Introduction
La majeure partie des activités humaines nécessite de prendre quotidiennement des
décisions; que cela soit au niveau d’un pays, d’une région, d’une administration, d’une
collectivité locale, d’une entreprise, au sein de la cellule familiale ou tout simplement à
l’échelle de l’individu [Roy, 85].
La décision est avant tout un choix que l’on doit réaliser devant différentes possibilités
qui sont offertes et qui ne sont pas directement comparables ou qui présentent des aspects
contradictoires.
Même si la responsabilité de la décision incombe à un acteur clairement identifié, que
l’on désigne par le terme de décideur, cette décision est généralement le fruit d’une
interaction entre ses préférences et celle d’autrui.
2. L’aide à la décision
2.1 Définition
Roy [Roy, 85] Propose pour l’aide à la décision la définition suivante:
« l’aide à la décision est l’activité de celui qui, prenant appui sur des modèles clairement
explicités mais non nécessairement complètement formalisés, aide à obtenir des éléments de
réponses aux questions que se pose un intervenant dans un processus de décision, élément
concourant à éclairer la décision et normalement à prescrire, ou simplement à favoriser, un
comportement de nature à accroître la cohérence entre l’évolution d’un processus d’une part,
Annexe La Théorie de l’Aide à la décision
111
les objectifs et le système de valeurs au service desquels cet intervenant se trouve placé
d’autre part » .
L’aide à la décision ne consiste que partiellement en une « recherche de la vérité »
mais est plus souvent utilisée comme une aide à la réflexion et à la communication destinée
au décideur ; elle l’aide à construire et à faire partager ses convictions.
Les caractéristiques de l’aide à la décision ainsi que la conduite du processus
dépendant fortement des objectifs fixés par le décideur, il est nécessaire d’identifier
clairement celui-ci avant de débuter une étude.
Cependant, le décideur n’arrive parfois pas à fixer aussi clairement les objectifs de l’aide à la
décision car il est parfois conscient de l’existence d’un problème, sans que celui-ci soit
clairement formalisé [Veu, 94] [Bem, 00].
Le processus de décision est défini par [Roy, 85] comme étant le déroulement des
confrontations et des interactions régulées par différents processus compensatoires,
apparaissant successivement entre les différents acteurs.
La décision globale s’élabore progressivement, à tel point que « la décision finale peut n’être
qu’un acte de ratification des décisions antérieures ou une synthèse d’un faisceau de
décisions ».
2.2 Acteurs de l’aide à la décision
« Un individu ou un groupe d’individus est acteur d’un processus de décision si, par
son système de valeurs, que se soit au premier degré du fait des intentions de cet individu ou
groupe d’individus ou au second degré par la manière dont il fait intervenir ceux d’autres
individus, il influence directement ou indirectement la décision » [Roy, 85].
Pour qu’un groupe d’individus soit identifié comme un acteur unique, il faut que
«relativement à ce processus, les systèmes de valeurs des membres de ce groupe soient
identiques » [Roy, 85].
Il est possible de définir les acteurs suivants dans un processus de décision [Eri, 81] :
a. Le décideur : est la personne à qui s’adresse l’aide à la décision, il occupe une place
centrale dans le processus d’étude dont les caractéristiques dépendent de ces attentes.
Il s’agit parfois d’une entité un peu floue, mais son identification est primordiale.
b. L'intervenant : c’est une personne qui cherche à influencer le décideur dans une phase
du processus, en raison de la nature de ses valeurs et donc en fonction de son système
de préférences.
Annexe La Théorie de l’Aide à la décision
112
c. Les Agis : ils sont concernés par les conséquences de la décision. Ils interviennent
indirectement dans le processus par l’image que d’autres acteurs se font de leurs
valeurs et plus concrètement de leurs systèmes de préférences.
d. Les Demandeurs : ils demandent l’étude et allouent les moyens.
e. L’homme d’étude (l’analyste) : est un individu ou un groupe d’individus, qui a pour rôle
d’établir un système de préférences, de définir le modèle d’aide à la décision, de
l’exploiter afin d’obtenir des réponses et d’établir des recommandations pour
conseiller le décideur sur les solutions envisageables. L’homme d’étude est à
distinguer du négociateur et du médiateur.
f. Le Négociateur : mandaté par un décideur en vue de faire valoir la position de celui-ci
dans une négociation et de rechercher une action compromis.
g. Le Médiateur : intervient en vue d’aider les décideurs (ou les négociateurs) à rechercher
une action compromis.
h. L'Arbitre (juge) : intervient en se substituant aux acteurs dans la recherche d’une action
compromis.
3. Décision et processus de décision
3.1. Définition d’une décision
Dans la vue de plusieurs chercheurs la décision est définie comme un choix entre
plusieurs alternatives. Pour d’autres, la décision concerne aussi le processus de sélection de
but et d’alternatives [Pic, 96].
Les approches cognitives traitent la décision comme étant le résultat d’un processus
global de résolution de problèmes.
3.2. Le processus de décision
La décision ne peut être définie indépendamment de la notion de processus
décisionnel. C’est pourquoi nous nous attacherons particulièrement à l’étude du processus de
décision dans sa globalité. Cette optique permet en outre de mettre en évidence l’importance
relative des différentes étapes composant ce processus [Tre, 96].
De manière générale, un processus de décision consiste à restreindre un ensemble de
possibilités à un sous ensemble stricte et à évaluer cette restriction. Simon [Sim, 77] détaille
Annexe La Théorie de l’Aide à la décision
113
ce processus en quatre étapes, non nécessairement séquentielles comme montré par la figure
(A.1).
Figure.A.1 : Processus décisionnel selon [Sim, 77]
• L'Information: C'est la phase qui détermine l’ensemble des données nécessaires (mais pas forcement suffisantes) qui seront utilisées lors des phases suivantes;
• La Conception: Cette phase génère les différentes alternatives qui forment
l’ensemble des possibilités. Les différentes solutions sont donc élaborées à ce stade;
• Le choix : C’est la phase consistant à restreindre l’ensemble des possibilités au
sous-ensemble des possibilités sélectionnées ;
• L’évaluation : En regard des trois phases précédentes, de la solution provisoirement
retenue comme satisfaisante, cette phase peut amener à la réactivation de l’une des
trois phases précédentes ou, au contraire, à la validation de la solution.
Ces quatre niveaux de processus décisionnel sont dans l’ordre de leurs types de
problématiques proposées par Simon et reprises par [Lev et al, 89] :
a. Problème structuré : problème posé d’une façon claire, les données sont fiables et
numériques. Les modèles associés sont clairement définis, ils permettent une
résolution algorithmique programmable du processus décisionnel.
b. Problème semi structuré : le problème peut ne pas être clairement posé, les données
sont souvent qualitatives et la résolution est difficilement exprimable sous forme de
programme, telle que la problématique de choix du site adéquat pour une construction
donnée en AT.
Information Conception Choix Evaluation
Annexe La Théorie de l’Aide à la décision
114
c. Problème non structuré : le problème n’est pas clairement posé, le principe de la
rationalité limitée1 s’applique à toutes les étapes du processus décisionnel. La décision
prise est difficilement justifiable.
4. Définition des systèmes d’aide à la décision
Le concept de système d'aide à la décision (DSS, Décision Support System) est
extrêmement vaste et ses définitions dépendent du point de vue de l'auteur. Un DSS peut
prendre de nombreuses formes et peut s'utiliser de diverses manières. Certains définissent un
DSS d'une façon générale comme "un système informatique qui facilite le processus de prise
de décision" [Tre, 96].
D'une manière plus précise, d'autres définissent un DSS comme "un système
d'information informatique, interactif, flexible et adaptable, spécialement développé pour
aider à trouver . Une solution à un problème de gestion non structuré, en vue d'une meilleure
prise de décision. Il utilise des données, offre une interface conviviale et permet au décideur
d'apporter ses propres idées.
5. Les systèmes interactifs d’aide à la décision : (SIAD)
Les Systèmes Interactifs d’Aide à la Décision (SIAD) mettent l’accent sur le processus
de recherche de solutions. Ces systèmes n’ont pas pour objectif d’identifier une décision
optimale qu’il « suffirait » ensuite de mettre en application. Leur finalité consiste à «
amplifier le raisonnement du décideur sur la base de ses propres représentations » [Cou, 93].
Ces systèmes ont une place privilégiée lorsque les problèmes sont peu, voire non
structurés [Lév et al, 89]. Parallèlement au courant SIAD se sont développées des approches
visant à aider des groupes, soit pour faire émerger une solution commune (Group Décision
Support System) [Jel et al, 87], soit dans le cadre de négociation (Negociation Decision
Support System) [Bui, 94]. Comme les SIAD pour l’aide à la décision individuelle, les Group
Décision Support System (GDSS) sont conçus pour fournir des outils d’aide à la décision
orientés systèmes d’informations, base de modèles et d'interface homme/machine. Ces
1 Ce principe a été proposé par Herbert Simon afin de montrer que l’être humain est capable de justifier son comportement (ou sa décision) mais à certaines limites, car ses capacités mentales sont limitées.
Annexe La Théorie de l’Aide à la décision
115
approches sont donc fondées sur un dispositif particulier de réunion, le travail essentiel étant
dans le partage d’informations brutes ou issues de modèles.
Utilisateur
Figure A.2 : Principe des DSS selon Brouczek [Bou, 06]
Figure A.3 : Principe des SIAD selon Sprague [Spr, 87]
6. L'aide à la décision territoriale (spatiale)
Elle se concentre sur les décisions qui ont un effet sur le territoire. Il peut s'agir de : [Lab,
07]
• La localisation d'une infrastructure publique ou privée.
• L'organisation d'un réseau de services.
• La mise en place d'une politique publique à incidence spatiale, telle qu'une politique
de transport ou d'aménagement d'un quartier.
Donc, elle vise, essentiellement, deux objectifs complémentaires :
• Aider à prendre une bonne décision.
• Permettre sa mise en œuvre.
LS PPS KS
LS: Language system.
PPS: problem processing system
KS: Knowledge system
Modèles Données
Dialogue
Utilisateur
Annexe La Théorie de l’Aide à la décision
116
L'aide à la décision territoriale opère sur des processus basés sur la récolte, l'analyse et
l'échange d'information qui permettent aux acteurs concernés par la décision de construire, de
renforcer ou de modifier leurs préférences comme illustré par la figure (A.4).
Le modèle de Simon ainsi que les extensions qui y sont apportées ne prennent pas en
compte trois éléments clés de la prise de décision dans un contexte spatial : [Cha et al, 05 b]
• Participation : mettre à contribution l’expérience et le savoir-faire de chaque
participant.
• Négociation : valable dans un contexte conflictuel, caractérisé par l’affrontement et
l’antagonisme.
• Concertation : s’opère dans un climat coopératif, caractérisé par la synergie et la
volonté de résolution des problèmes.
Pour pallier à ces problèmes, d’autres processus de décision dans le domaine territorial
et urbain ont été proposés :
Figure A.4 Processus d’aide à la décision territoriale
Annexe La Théorie de l’Aide à la décision
117
6.1. Processus pour la prise de décision spatiale [Cha et al, 05 b]
Figure A.5 Processus de prise de décision spatiale
6.2. Processus de décision territoriale
Dans son processus [Joe, 02] propose de procéder comme suit :
• Formalisation du problème : En fixant les critères, les variantes, la pondération, etc.
• Agrégation : Cela revient à la recherche de la solution au problème en procédant par
l’agrégation mathématique.
• Choix : Suggestion de la solution trouvée.
Identification et Formulation du
problème
Analyse
Négociation
Evaluation/Choix
Prise de conscience Production des données
→ Outils de gestion des données : SIG
Concertation
Faire surgir les actions supportées par les différents intervenants → Outils de communication et de Participation : Carte décisionnelle
Définition des critères, des actions, évaluer les conséquences → Outils de définition et modélisation du problème : SIG + Carte Décisionnelle + modèles de prévision et de simulation
Evaluation et comparaisons des actions → Outils d’évaluation pour prendre en compte des critères multiples et conflictuels: AMC
Recommandation → Outils de diffusion et de « décision visuelle »: SIG + Carte décisionnelle
Implémentation
Annexe La Théorie de l’Aide à la décision
118
6.3. Processus de décision dans le domaine territorial et urbain [Lao, 05]
Ce type de processus procède en quatre étapes comme indiqué par la figure (A.7)
• Constituer l’état des lieux
C’est une étape de description du territoire, elle met le point sur l’ensemble des
informations disponibles relativement à la question posée et en recherche d’autres
lorsque le besoin est défini.
• Réaliser le diagnostic
Cette étape vise à évaluer ces données pour mieux définir les problèmes à traiter, les
informations manquantes, les acteurs à intégrer au processus et les moyens
disponibles.
• Elaborer les scénarios
Cette étape concerne la définition des actions et de leurs conséquences, ainsi que
l’élaboration des scénarios correspondants.
• Choisir les stratégies
C’est l’étape de choix d’un scénario. Elle définit la mise en œuvre concrète des
actions, ce qui peut se traduire par des aménagements ou des règlements fournissant
des contraintes pour les niveaux décisionnels intérieurs comme la définition d’objectifs
au niveau européen.
Figure A.6 : Processus territorial
Annexe La Théorie de l’Aide à la décision
119
7. Conclusion
Un système d’aide à la décision est un système d’informations qui supporte la prise de
décision. Cet outil est utile pour les aménagistes qui sont confrontés à des circonstances
complexes, exigeant des décisions fondées sur de nombreux objectifs, qui se chevauchent sur
de grandes superficies et sur un long horizon de temps. Au coeur d’un système d’aide à la
décision, sont intégrés des modèles informatiques qui peuvent prédire ou interpréter les
conséquences des activités d’aménagement. De cette façon, la complexité liée à la
superposition des objectifs, des actions et des conséquences a long terme et sur des grandes
superficies peut être prise en compte et évaluée objectivement.
Constituer l’état des lieux
Réaliser le diagnostic
Elaborer les scénarios
Choisir les stratégies
Figure A.7 : Processus de décision pour le domaine du territoire
119
Conclusion et Perspectives
ans notre travail, nous avons abordé le problème complexe de l’analyse des images
satéllitales dans le but de créer un système d’aide à la décision spatiale dédié aux
spécialistes dans le domaine spatiotemporel en l’occurrence FCM-AT. Ce système
permet l’extraction automatique des classes à partir des données complexes qui sont
dans notre cas des images satéllitales et la représentation des résultats sous forme
thématique par l’une des méthodes de conception des systèmes d’information
géographique.
Nous avons constaté tout au long de notre étude, que l’analyse des images est un
traitement très complexe que l’on peut scinder en deux étapes fondamentales; la première,
correspond aux différents traitements effectués sur les images pour les améliorer et les
préparer à des traitements automatiques ; la deuxième étape concerne l’ensemble des
traitements permettant l’interprétation des images permettant d’identifier les objets espérés
parmi les autres existants.
L’introduction de la phase de segmentation par région dans un système complet
permet de faciliter l’extraction des objets significatifs dans des images satéllitales.
La segmentation automatique des images est toujours considérée comme une tâche
intermédiaire importante pour extraire la signification sémantique de pixels.
Dans la présente étude, nous avons exploité deux procédures de classement : le
Fuzzy C-Means et le Seuillage Adaptative qui ont été appliquées pour classer des images
Multispectrales,
Afin d’appliquer notre approche sur une étude de cas, nous avons utilisé une image captée par
le satellite LANDSAT5 visualisant la région Oran Ouest.
Les résultats auxquels nous avons abouti montrent que l'approche Fuzzy C-Means
(FCM) est très efficace pour la segmentation d'images multispectrales. Ils montrent aussi que
les structures sous-jacentes et les modèles de données d'images satellitaires peuvent être
classés plus précisément que les classiques.
Comme prolongements futurs à ce travail, nous proposons d’appliquer et de tester cette
méthode à d'autres régions d’Algérie ou dans d'autres pays.
D
120
Nous avons visé par la présente étude d’apporter les bases nécessaires pour aider le
décideur à traiter et analyser des images de télédétection à travers différentes applications
relevant du domaine de l’environnement et de l’aménagement. Notre travail comprend des
opérations classiques de visualisation des images, de corrections géométriques, mais aussi
ouvre les portes à l’apprentissage et la comparaison de différentes méthodes de classification
d’images (non supervisées, supervisées, contextuelles…) intégrant des approches novatrices
et efficaces d’extraction d’informations utiles, telles que l’approche orientée-objet. Nous
avons appliqué certain d’entre elles e et nous recommondans les restantes pour
l’apprentissage supervisé par exemple.
En perspective, nous proposons d’optimiser les résultats et rechercher des solutions
voisines par l’une des méthodes d’optimisations telle que la Recherche Tabou.
. Nous espèrons que FCM-AT apporte une aide à obtenir des éléments de réponse à
des questions que se posent les acteurs (décideurs) impliqués dans un processus de décision
spatial, et qu’il soit un élément concourant à éclairer la décision en vue de favoriser un
comportement des acteurs qui soit de nature à accroître la cohérence entre l'évolution du
processus d'une part, les objectifs et ou les systèmes de valeurs au service desquels ces acteurs
se trouvent placés d'autre part.
Bibliographie
Bibliographie [Agr, 93] Agrawal, R., Imielinski, T., Swami, A., Association Rules between sets of items
in large databases. Proceedings of the ACM SIGMOD. Washington, DC, pp. 207-216, 1993.
[Agr, 08] Agrawal Shubham, Panigrahi B. K., Manoj Kumar Tiwari, Multiobjective Particle Swarm Algorithm With Fuzzy Clustering for Electrical Power Dispatch, ,Senior Member, IEEE, and IEEE transactions on evolutionary computation, vol. 12, No 5, October 2008.
[And, 99] Andrienko, N., Andrienko, G., Interactive Maps for Visual Data Exploration, International Journal of Geographical Information Sciences 13 (4), pp. 355-374, 1999.
[Ans, 95] Anselin, L., Local indicators of spatial association, LISA, Geographical Analysis, 27, 2, pp. 93-115, 1995.
[Atl, 05] Alatas, B., Akin, E., FCACO: Algorithm d’extraction de règles avec optimisation par colony. Proc. Advances Natural Comput., vol. 3612, pp. 789–797, 2005.
[Atm, 98] Atmani, B., Beldjilali, B. : Réseau de Neurones pour des Systèmes d’Inférences à base de Règles (RNSIR). 5ème Conférence Maghrébine sur le Génie Logiciel et l’Intelligence Artificielle. Tunis, 1998.
[Atm, 03] Atmani, B., Beldjilali, B., Neural Network for the Selection and the Elimination of the Exogenous Variables and the non applicable Individuals, The Second International Workshop on Advanced Computation For Engineering Applications (ACEA03), Electronics Research Institute (ERI), Cairo, Egypt, December 21-22, 2003.
[Atm, 07] Atmani, B., Beldjilali, B., Knowledge Discovery in Database : Induction Graph and Cellular Automaton, Computing and Informatics Journal, Vol. 26, N±2, 2007.
[Baw, 04] Bawahidi S., Hizir, Affan Muzailin, L'application de Fuzzy Clustering aux images satellites, Springer 2004.
[Bel, 04] Belesgaa, Z., Dynamique urbaine en périphérie orientale de la ville d’Oran-Analyse et mesure par l’outil des SIG, Thèse de Magister en géographie, Université d’Oran 2004.
[Ben, 90]
Benali, H., Escofier, B., Analyse factorielle lissée et analyse factorielle des différences locales, Revue Statistique Appliquée, XXXVIII (2), pp 55-76, 1990.
[Bem, 00] BenMena. S.,: « Introduction aux méthodes multicritères d’aide à la décision ».Unité de Mathématique. Faculté universitaire des Sciences agronomiques de Gembloux. Passage des Déportés, 2. B–5030. Gembloux Belgique, 2000.
[Bez, 80] Bezdek, J. C., Un theorem de convergence pour l’algorithm de clustering Fuzzy, IEEE Trans. Pattern Anal. Machine Intell. 2, 1980.
Bibliographie
[Bou, 70] Bouroche, J.P., Tenenhaus, N., Quelques méthodes de segmentation. RIRO, 1970.
[Bou, 90] Boursier, P., Jean Quezola, Guide de la cartographie numérique. Paris. 1990. [Bre, 84]
Breimann, L., Freidman, J.H., Olshen, R.A., Classification and Regression Trees. Chapmen & Hall, 1984
[Bro, 05] Brostaux, Y., Etude du classement par forêts aléatoires d'échantillons perturbés à forte structure d'interaction. Université Gembloux, Belgique, 2005.
[Bui, 94] Bui.T., «Evalauting Negotiation Support Systems: A Conceptualization» presented at 27TH Hawaii International Conference on System Science, Maui, Hawaii, 1994.
[Car, 95] Carron, T.,Segmentation d’images couleur dans la base Teinte-Luminance-Saturartion : Approche numérique et symbolique, Thèse de doctorat, Spécialité : Electronique- Electrotechnique-Automatique, Université de Savoie 1995.
[Ces, 87] Cetnik, B., Kononenko, I., Brackto, I., Assistant 86: A knowledge-elicitation tool for sophisticated users. Progress in Machine Learning, 2nd European Working Session on Learning, 1987.
[Cha et al, 05] Chakhar. S., et Pusceddu. C., « Un processus pour la prise de décision spatial » ROADEF'2005 , 14-16 Février · Tours, France, 2005.
[Che, 88] Cheng, J., Fayyad, Irani K. B., Improved Decision Trees: A Generalized Version of ID3, Proceedings of the 5th Internationnal Conference on Machine Learning, pages 100-105, 1988..
[Che, 93] Cheylan, J.P., Miellet, P., Waniez, P., Les SIG, un état de l'art, Mappemonde n°4. 1993.
[Chr, 90]
Christian Darken, John Moody, Fast adaptive K-means clustering: some empirical results, Proceedings of International Joint Conference on Neural Networks, San Diego, pp.233-238, Jun. 1990.
[Chu, 00] Chumsamrong, W., Thitimajshima, P., and Rangsanseri, Y., Syntetic aperture radar (SAR) segmentation d’image utilisant un nouveau fuzzy c-means algorithm modifié, IEEE Transactions sur les géosciences et la télédétection,,Vol. 2, pp. 624–626, 2000.
[Cla, 89] Clark, P., Niblett T., The CN2 induction algorithm, Machine Learning. 3, pages 261-283, 1989.
[Cla, 94] Claude Cobichon, L'information géographique,nouvelles technologies, nouvelles pratiques. Hermes, Paris, 1994.
[Cli, 73]
Cliff, A.D., Ord J.K.,: Spatial autocorrelation, London, 1973.
[Col, 94]
Colin, A., La représentation des données géographiques: statistiques et cartographie. Collection cursus, 1994.
Bibliographie
[Cou, 93] Courbon. J. C.,: Systèmes Interactifs d'Aide à la Décision, PUF ed. 1993.
[Cov, 67] Cover, T. M., Hart P. E., Nearset neighbor pattern classification. IEEE Trans. Info, Theory, 13, pages 21-27, 1967.
[Den, 04] Denègre Jean., Salgé François, Les systèmes d'information géographiques, éditions PUF collection Que sais-je, 2ème édition, ISBN 2130539238, 2004.
[Elk ,05]
Elkhayraty, B., Etude de méthode de clustering pour la segmentation d’images
en couleur. Faculté Polytechnique de Mons, 5ème
Electricité, Certificat Applicatifs Multimédia, 2005.
[Eng, 04] Engels P., Bock L., Hecq P., Développement de systèmes spatiaux d’aide à la décision en environnement : applications de l’Outil Géo-Environnemental d’Aide à la Décision (OGEAD) valorisant les données sols. Biotechnol. Agron. Soc. Environ. 8 (2), 95–100, 2004.
[Eri, 81]
Eric Jacquet-Lagrèze., (1981). « PREFCALC, évaluation et décision multicritère », EURO-DECISION.
[Est, 97] Ester, M., Kriegel, H.-P., Sander J.: Spatial Data Mining: A Database Approach, Proceedings of the 5th Symposium on Spatial Databases, Berlin, Germany, 1997.
[Est, 98] Ester M., Kriegel H., Sander J., Xu X., Clustering for Mining in Large Spatial Databases, Special Issue on Data Mining, KI-Journal, ScienTec Publishing, No. 1, 1998.
[Fal, 95] Falque, M.C., Evolution des paysages de l'Hérault : une approche méthodologique et une une application SIG adaptée. Mappemonde n°2. 1995.
[Fay, 92]
Fayyad, K., The Attribute Selection Problem in Decision Tree Generation. Proceedings of th 10th National Conference on Artificial Inteligence, 1992.
[Fay, 96] Fayyad, K. et al., Advances in Knowledg e Discovery and Data Mining, AAAI Press / MIT Press 1996.
[Fer, 97]
Ferrand, N., Modèles multi-agents pour l’aide à la décision et la négociation en aménagement du territoire. Thèse de doctorat en informatique de l’université Joseph Fourier. Grenoble : UJF, 1997.
[Fis, 36] Fisher, R.A, The use of multiple measurements in taxonomic problems. Ann, Eugenics, 1936.
[Fot, 95] Fotheringham, S., and Rogerson, P.: Spatial Analysis and GIS, 1995.
[Fpi, 02] Pinet François., Vers une Méthode de Conception pour la Télégéomatique : Intégration et Validation au sein d’un Atelier de Développement. Thèse de doctorat“ .Spécialité informatique ; L’Institut National des Sciences appliquées de Lyon Ecole doctorale : Ecole Doctorale Informatique et Information pour la Société (EDIIS). 2002.
[Frl, 00] Laplanche François, Aperçu des méthodes de conception de SIRS disponibles et proposition d’alternatives pour la Modélisation de la dynamique des données
Bibliographie
spatio-temporelles. Laboratoire Surfaces - Université de Liège. [Fug, 09]
Fugui Wang, Xu juin, Y., Comparaison des changements des techniques de télédétection pour évaluer les dégâts du cyclone à la forêt. Media Springer Science + Business B.V. 2009.
[Get, 97]
Getis, A., Fisher, M., Spatial analysis – spatial statistics, behavioural modelling and neurocomputing, Berlin, Springer, 1997.
[Gon, 02] Gonzalez, Rafael C., Woods, Richard E., Thresholding. Dans traitement
d’images, pp. 595–611. Pearson Education.ISBN 81-7808-629-8. 2002. [Guo, 08]
Guo Chen, Yu Jie, Peihuang et al, Classification des images satellitales Basé sur l'amélioration Fuzzy C-Means, Geo-Information Science spatiale 11 (2) :90-94 Juin 2008.
[Jel et al, 87] Jelassi. M. T and Beauclair. R. A., (1987): «an integrated framework for group decision support systems design» Information & Management, vol. 13, pp.143-153.
[Joe, 02] Joerin. F.,: « Introduction à l’Aide à la Décision », Présentation, Centre Universitaire d'Ecologie Humaine et des Sciences de l'Environnement, Suisse,2002.
[Jol, 96] Joliveau Thierry. SIG et gestion environnementale, de nouveaux outils pour des pratiques nouvelles, Revue de Géographie de Lyon. Volume 71. N°2. 1996.
[Haf, 05]
Hafiane A., Zavidovique, B. FCM with Spatial and Multiresolution Constraints for Image Segmentation , Springer Berlin / Heidelberg, 2005.
[Han, 92]
Han J., Cai Y. and Cerone N., Knowledge Discovery in Databases; An Attribute-Oriented Approach, Proceedings of the 18th VLDB Conference, Vancouver, B.C pp. 547-559. 1992.
[Han, 96] Han J., et al, A System for Mining Knowledge in Large Relational Databases, Proc. 1996 Int. Conf. on Data Mining and Knowledge Discovery (KDD'96) , Portland, Oregon, pp. 250-255, 1996.
[Han, 97] Han J., Koperski K., and Stefanovic N.: GeoMiner: A System Prototype for Spatial Data Mining, Proc. 1997 ACM-SIGMOD Int'l Conf. on Management of Data (SIGMOD'97), Tucson, Arizona, System prototype demonstration, 1997.
[Han, 98] Han J., Stefanovic N., Koperski K., Selective Materialization: An Efficient Method for Spatial Data Cube Construction, Proc. 1998 Pacific-Asia Conf. on Knowledge Discovery and Data Mining (PAKDD'98) , Melbourne, Australia, 1998.
[Ham, 08] Hamdadou D., Un Modèle pour la prise de décision en Aménagement du Territoire : Une Approche Multicritère et une Approche de Négociation. Thèse de doctorat en Informatique, université d’Oran, 2008.
Bibliographie
[Ham et al, 07a]
Hamdadou D., Labed K., Beldjilali B. Proposal for a Decision-making process in Regional planning : GIS, Multicriterion Approach, Choquet’s Integral and Genetic Algorithms. ERIMA07, European Research on Innovation Management Alliance, Biarritz, France, pp 51-59, 2007.
[Ham et al, 07b] Hamdadou D., Labed K., Benyettou A., Beldjilali B., Proposition d’un Processus Décisionnel En Amènagement du territoire: SIG, Approche Multicritère et Algorithmes Génétiques MultiObjectifs. COSI’2007, Colloque sur l’Optimisation et les Systèmes d’Informatiob, Oran, Algérie 2007.
[Ham et al, 07c] Hamdadou D., Slimani Y., Beldjilali B., Proposal for a Spatial Decision Support System in Territory Planning : A Hybrid Approach : Linear Programming, Fuzzy Measurement, Multicriterion Methods and GIS, ACIT’2007, the International Arab Conference on Information Technology, Syria, pp 54-60, 2007.
[Hay, 05] Han Yeon JongGyu, KwangHoon Chi, et YeonKwang Extraction aquaculturelle a partir des images satellitales par analyse en composantes indépendantes, Springer-Verlag Berlin Heidelberg, 2005.
[Hol, 75]
Holland, J., Adaptation in natural and artificial system. The University of MiciganPress, Ann Arbor, 1975.
[Hol, 75] Holland, J., Genetic algorithms and classifier systems: foundations and future directions. Proceeding of the Second International Conference on Genetic Algorithms, pages 82-89, 1987.
[Hop, 82] Hopfield, J.J., Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences USA.
79, pages 2554-2558. 1982
[Hou, 02] Houssa R., Abdellaoui B., Application SIG :élaboration d’une carte de bathymétrie de la Méditerranée marocaine et de la lagune de Nador, Avril 2002
[Hun, 66] Hunt, E. B., Martin, j., Stone P. J., Experiments In Induction. Academic Press, 1966.
[Jel et al, 87] Jelassi. M. T., Beauclair. R. A.,: «an integrated framework for group decision support systems design» Information & Management, vol. 13, pp.143-153. 1987.
[Joh, 03] Johann Dréo, Alain Petrowski, Éric Taillard, Patrick Siarry, Métaheuristiques pour l’optimisation difficile, Français, Éd. Eyrolles, Paris, septembre 2003, Broché, 356 pages,
[Kai, 00] Kaichang Di, Deren Li, and Deyi Li, Remote sensing image classification method study on spatial data mining, Journal Wuhan Technical University of Surveying and Mapping, Vol. 25, No.1, pp.43-47, Feb. 2000.
[Kod, 94] Kodratoff, Y., Technical and scientific issues of KDD, Algorithm Learning Theory. LNAI, 1994.
[Koh, 84] Kohonen, T., Self orgainsation and associtive memories. Springer series in information sciences. Springer Verlag, 1984.
[Kop, 95] Koperski, K., and Han J., Discovery of Spatial Association Rules in Geographic Information Databases, Advances in Spatial Databases (SSD'95), pp. 47-66, Portland, ME, 1995.
Bibliographie
[Kop, 98] Koperski, K., Han J., and Stefanovic N., An Efficient Two-Step Method for Classification of Spatial Data, Proc. International Symposium on Spatial Data Handling (SDH'98) , pp. 45-54, Vancouver, Canada, 1998.
[Kra, 99a] Kraak, M.J. and MacEachren, A.M., Visualisation for exploration of spatial data. International Journal of Geographical Information Sciences 13 (4), pp. 285-287, 1999.
[Kra, 99b] Kraak, M.J., Visualizing spatial distributions. Chapter 11 in Longley, P., M. Goodchild, D. Maguire & D. Rhind (editors) Geographical information systems: principles,techniques, management and applications. New York: J. Wiley & Sons pp.157-173, 1999.
[Lab, 07] Labed. K., : «Expérimentation des Algorithmes Génétiques Multiobjectifs dans un Processus Décisionnel Multicritère en Aménagement du Territoire» Thèse Magister, option informatique et automatique, Département d'informatique, Université Es_Senia, Oran, Algérie. 2007.
[Lar, 07] Larrivée S., Bédard Y., Spatial Databases Modeling with Pictogrammic Languages, Encyclopedia of Geographic Information Sciences. NSERC Industrial Research Chair in Geospatial Databases for Decision Support, Canada, 2007.
[Lau, 94] Laurini R., Thompson D.: Fundamentals of Spatial Information Systems, Academic Press, London, UK, 680 p, 3rd printing, 1994.
[Lao, 05] R.Laouar.,: « Contribution pour l’aide à l’évaluation des projets de déplacements urbains », Thèse Doctorat, Laboratoire d'Automatique, de Mécanique, et d'Informatique industrielles et Humaines (LAMIH), Université de Valenciennes et du Hainaut Cambrésis France, 2005
[Leb, 97] Lebart L. et al, Statistique exploratoire multidimensionnelle, Editions Dunod, Paris, 2° édition, 1997.
[Lef, 01] Lefébure, R., Venturi, G., Data mining, Gestion de la relation client, Personnalisation des sites web. Eyrolles, 2001.
[Lev et al, 89] Levine P., Pomerol J. C., : «Systèmes Interactifs D’Aide à la décision et Systèmes Experts-coll», Traité des nouvelles echnologies, série décision assistée par ordinateur, Hermès, Paris, 1989.
[Liu, 08] Liu Xiaoping et al., Une methode innovatrice pour classifier les images de télédetection utilisant une optimization Ant Colony. IEEE Transactions sur les géosciences et la télédétection, Vol. 46, No. 12, Decembre 2008.
[Lon, 99] Longley, P.A., Goodchild, M.F., Maguire, D.J., Rhind, D.W.Geographic Information Systems , Volume 1, Wiley, 1999.
[Luk, 06] Lukin, V., Ponomarenko, N., Kurekin, A., et al., Approaches to Classification of Multichannel Images. CIARP 2006, LNCS 4225, pp. 794 – 803, 2006.
[Luw, 93] Lu W., Han J. and Ooi B. C., Discovery of General Knowledge in Large Spatial Databases, Proc. of 1993 Far East Workshop on Geographic Information Systems (FEGIS'93), Singapore, pp. 275-289, 1993.
[Man, 91] Manago, M., intégration de techniques symboliques te numériques en apprentissage. In Induction symbolique et numérique à partir des données.
Bibliographie
Cépadues, pages 125-149, 1991.
[Mat, 63] Matheron, G., Principles of geostatistics. Economic Geology, pp.1246-1266, 1963.
[Mau, 08] Maulik Ujjwal, Sanghamitra Bandyopadhyay, Partitionnement par Fuzzy à l'aide d'une longueur variable réélle et codé algorithme génétique pour la classification de Pixel. IEEE Transactions sur les géosciences et la télédétection, Vol. 5, No. 2, Avril 2008.
[Mcc, 43] Warren McCulloch & Walter Pitts, A Logical Calculus of Ideas Immanent in Nervous Activity, Bulletin of Mathematical Biophysics 5:115-133, 1943.
[Mej, 92] Mejia, C. E., Architectures Neuronales pour l'approximation des fonctions de transfert, application à la tèlèdetection. Thèse de Doctorat en Sciences, 1992.
[Mic, 81] Michalski R. S., Stepp, R. E., Diday, E., A recent advance in data analysis: clustering objects into classes characterized by conjunctive concepts. In Progress in Pattern Recognition. Kanal and Rosenfeld, pages 33-56, 1981.
[Mic, 83] Michalski, R. S., Theoty and methodology of inductive learning. In Machine Learning: an artificiall intelligence approach, vol 1, Morgan Kofmann, 1983.
[Mic, 93] Michel D., Guide économique et méthodologique des SIG. Hermes. paris. 1993 [Mic, 94] Michie, D., Spiegelhalter, D.J., Taylor, C.C., Machine Learning, Neural and
Statistical Classification. 1994.
[Naf, 01] Projet Nafref (North African Reference Frame). Organisation Africaine de Cartograpie et de Télédétection. 2e Atelier Nord Africain de Géodésie Alger, Algérie 26-27 Mai 2001
[Ope, 87]
Openshaw, S.,Charlton, M.,Wymer C. and Craft, A mark 1 geographical analysismachine for the automated analysis of point data sets, International Journal of Geographical Information Systems, Vol. 1 (4), pp. 335-358 1987.
[Oul, 98] Ould, H., Bonnet, N., Etude comparative de différentes méthodes de classification non supervisée.Application a la segmentation d’images multivariables. Laboratoire d’études et de recherches informatique(LERI) université de REMS, France, 1998.
[Pal, 77] Pal, S. K., Majumder, D. D. Approches Fuzzy sets et decision making, dans la reconnaissance de la parole et des voyelles, IEEE Trans. Syst., Man,Cybern., vol. SMC-7, pp. 625–629, 1977.
[Pan, 96] Pantazis D., Donnay G., La méthode de conception des SIG MECOSIG et son formalisme CONGOO, paris 1996.
[Pic, 96] J. Pictet. Dépasser l’évaluation environnementale, procédure d’étude et d’insertion dans la décision globale. Collection Meta, Presses polytechnique et universitaires Romandes, Volume 1015, Lausanne, suisse, 1990
[Pie, 04] Pierre, G., Verger F., Dictionnaire de la géographie, Avril 2004.
[Pre, 05] Preux, P., Fouille de données, Notes de cours. Université de Lille, 2005.
[Qui, 83] Quinlan, J.R., Learning efficient classification procedures and their applications te chess endgames. In Machine Learning: An Artificiall Intelligence Approach,
Bibliographie
Volume 1. Morgan Kofmann, 1983.
[Qui, 86] Quinlan J.R., Induction of Decision Trees, Machine Learning. vol.1, pp.81-106, 1986.
[Qui, 93] Quinlan, J. R., C4.5: Programs for Machine Learning, Morgann Kofmann, 1993.
[Ram, 93] Ramon Laplana, Henri Beuffe, Cécile Peynichout. Développement d'un outil d'aide à la décision en matière de défrichement à vocation agricole. CEMAGREF. 1993
[Ram, 94]
Ramdani, M., Système d'induction formelle à base de connaissances imprécises. Thèse de Doctorat, université de Paris VI, 1994.
[Rej, 08] Rejaur Rahman Md., Saha, S.K., Segmentation multi-résolution pour une classification basés sur les objets. Évaluation de l'exactitude et de l'utilisation des terres / couverture des terres. Classification des données de télédétection. J. Soc indiennes. Sens à distance Springer, Juin 2008.
[Roc, 97] Roche S., Les SIG, un regard nouveau sur l'espace et sa gestion, étude de cas en France et au Québec. L'Espace Géographique. N°1. 1997
[Rod, 99]
Roddick, J.F, Spiliopoulou, M., A Bibliography of Temporal, Spatial and Spatio-Temporal Data Mining Research, ACM SIGKDD Explorations, volume 1, Issue 1 1999.
[Ros, 58]
Rosenblatt, F., The perceptron: a probabilistic model for information storage and organisation of the brain. Psychological Review, 65, pages 386-407, 1958.
[Rou, 93] Rouet P., Les données dans les SIG. Paris. Hermes. 1993.
[Roy, 78] Roy. B., : «Electre III, un algorithme de classement fondé sur une représentation
floue des préférences en présence de critères multiples», rapport de recherche 81. Paris : Sema, 32 p. ; publié ensuite dans les Cah. Cent. Etud. Rech Opér. 20 (1) p. 3–24, 1978.
[Roy, 85] Roy. B. : «Méthodologie Multicritères d’Aide à la Décision», Collection Gestion, Série Production et techniques quantitatives appliquées à la gestion, Economica, Paris, 1985.
[Roy, 88, P. 3] Roy. B : «Des critères multiples en recherché opérationnelle : Pourquoi ?». Elsevier science publishers, North Hollande, 1988.
[Roy et al, 71] Roy. B., Bertier P. : «La méthode Electre II, une méthode de classement en présence de critères multiples». Note de travail 142.Paris : Direction scientifique, Sema, 25 p, 1971.
[Roy, 97] Roy. B., 1997 : «Un chaînon manquant en RO-AD, les conclusions robustes», Cahiers N0 144, LAMSADE, Laboratoire d’Analyse Multicritère et Modélisation de Systèmes pour l’Aide à la Décision, Université de Paris Dauphine, Place du Maréchal de Lattre de Tassigny, 75775 Paris CEDEX 16.
[Roy et al, 93] Roy. B, Bouyssou, D., : «Aide multicritère à la décision ».Méthodes et Cas, Economica, Paris, 1993.
Bibliographie
[Roy et al, 82a] Roy. B., Hugonnard. JC. : «Classement des prolongements de Lignes de métro en banlieue parisienne». Cah. Cent. Etud. Rech.Opér. 23, p. 153-171, 1982.
[Roy et al, 85] Roy. B., Skalka. JM. : «Electre Is, aspects méthodologiques et guide d’utilisation». Document 30, Lamsade. Paris : Université de Paris Dauphine, 119p, 1985.
[Rum, 86] Rumelhart, D. E., Hinton, G. E., Williams, R. J., Learning Internal Representations by Error Propagation. Parallel Distrubuted Processing, MIT press, 1, 8, 1986.
[San, 98] Sander J., Ester M., Kriegel H.-P., Xu X., Density-Based Clustering in Spatial Databases: The Algorithm GDBSCAN and its Applications, in Data Mining and Knowledge Discovery, An International Journal, Kluwer Academic Publishers, Vol. 2, No. 2 1998.
[Sch, 92] Scholl M., Voisard A., SGBD géographique : spécificité.. Hermes. 1992. [Sch, 96] Scholl M. et al. SGBD Géographiques, Spécificités, International Thomson
Publishing, Paris, France 185 p, 1996.
[Scg, 96] Schârlig. A., «Pratiquer Electre et Prométhée», Collection Diriger l’entreprise,
Volume 11. Presses Polytechniques et Universitaires Romandes (PPUR),
Lausanne.
[Seb, 95] Sebag, M., 2nd Order Understandability of Disjunctive Version Spaces, Workshops of the 14th International Joint Conference on Artificial Intelligence. 1995.
[Sek et al, 10] Sekhri. A., Hamdadou, D., Beldjilali, B., Remote Sensing Image Classification using Fuzzy C-Means and Adaptive Thresholding, CECS Batna, Algèrie, 2010.
[She, 02] Shekhar, S., Schrater, P., Raju, W. R., Wu, W., Models contextuels de prediction et de classification des données géospatiales, IEEE Transactions on Multimedia 4 (2), Juin 2002.
[Sim, 77] Simon. H. E., «Administrative Behaviour» MacMillan, New York, 1947.
[Son, 63] Sonquist, J. A., Morgan, J. N., The detection of interaction effects. An Arbor: Institute for social research. University of Michigan, 1963.
[Sri, 08] Sriparna Saha, Sanghamitra Bandyopadhyay, « Application d’un nouveau index de validité base sur clustering, pour la segmentation d’images satéllitales ». IEEE Transactions sur les géosciences et la télédétection, Vol. 5, NO. 2, Avril 2008.
[Svi, 07] Svitlana Kokhan. Classification des données de télédétection. Département SIG de l'Université nationale agricole de l'Ukraine, Springer, 2007.
[Tal, 05] Taleb Zouggar, S., Apprentissage automatique neuro-symbolique, Une nouvelle technique hybride pour la sélection et la segmentation de données. Mémoire de
Bibliographie
Magister, Université d’Oran, Algérie, 2005.
[Tob, 79] Tobler W., Gale S., Olsson G., Cellular geography, Philosophy in Geography, Dortrecht, Reidel, 379-386, 1979.
[Tre, 96] Trentesaux. D., «Conception d’un système de pilotage distribué, supervisé et
multicritère pour les systèmes automatisés de production» Thèse doctorat,
Institut Nationale polytechnique de Grenoble, France, 1996.
[Veu, 94] Veuve. L.,«Urbanisme et génie civil». Support du cours enseigné à école
polytechnique de Lausane, Département de génie civil, Lausanne, Semestre
d’hiver 1994 -1995.
[Ven, 93] Venturini, G., SIA: a supervised inductive algorithm with genetic search for learninig attributes based concepts. Proceedings of the European Conference on Machine Learning, pages 280-296, 1993.
[Ven, 94] Venturini, G., Apprentissage Adaptatif et Apprentissage Supervisé par Algorithme Génétique. Thèse de doctorat. Université de Paris-Sud, 1994.
[Wan, 99] Wang, W., Yang, J. and Muntz, R., STING+: An approach to active spatial data mining, Proceedings of the Fifteenth International Conference on Data Engineering, Sydney, Australia. IEEE Computer Society. pp. 116-12, 1999.
[Wid, 60] Widrow, B., Hoff, M. E., Adaptative Swithing Circuits. IRE WESCON Convention Record, 4, pages 96-104, 1960.
[Xia, 04] Xiao Zhi-Qiang, Bao Guang-shu, Jiang Xiao, L'extraction du réseau routier classé à la RS des images en utilisant un algorithme génétique, Ecole de Physique Info-et en génie géomatique, Université centrale du Sud, Changsha 410083, Chine, 2004.
[Yan, 06] Yanfei Zhong, Liangpei Zhang, Bo Huang, and Pingxiang Li, Un cassificateur Immunitaire artificial unsupervisé, pour des images multi/Hyperspectral de télédetection. IEEE Transactions sur les géosciences et la télédétection, VOL. 44, NO. 2, Fevrier 2006.
[Zei, 98] Zeitouni K., Etude de l’application du Data Mining à l’analyse spatiale du risque d’accidents routiers par l’exploration des bases de données en accidentologie, Rapport de contrat PRISM -INRETS, 1998.
[Zei, 00a] Zeitouni K., Yeh L., Les bases de données spatiales et le dataming spatial, Revue internationale de géomatique, Numéro spécial "Data mining spatial", Vol. 9, N° 4 (99). Journées sur le Data Mining spatial et l’analyse du risque, Versailles, 2000.
[Zei, 00b] Zeitouni K., A Survey on Spatial Data Mining Methods Databases and Statistics Point of Views, IRMA 2000, Information Resources Management Association International Conference, Data Warehousing and Mining Track, Anchorage,
Bibliographie
Alaska, USA, 2000.
[Zei, 06] Zeitouni K. Fouille de données complexes, Master COSY, Université de Versailles Saint-Quentin Edition 2005-2006
[Zig, 85] Zighed, D.A., Méthodes et outils pour les processus d'interrogation non arborescents, Thèse de Doctorat, Université Lyon 1, 1985.
[Zig, 00] Zighed, D.A. and R. Rakotomalala, Graphs of induction, Training and Data Mining, Hermes Science Publication, 21-23, 2000.
Résumé
L’utilisation des Systèmes d’Information Géographique (SIG) constitue une approche privilégiée pour la spatialisation de l’information et la mise à jour des travaux de cartographie, en vue d’aide à la prise de décision, notamment en matière de gestion et d’aménagement des territoires.
La Fouille de Données Spatiales (FDS) constitue un domaine de recherche à part entière. En effet, sa spécificité par rapport à la fouille de données traditionnelle est qu’elle prend en compte les relations spatiales entre objets.
L’objectif de notre travail est de proposer une nouvelle approche d’analyse et de traitement d’images de télédétection afin d’enrichir le domaine des systèmes d’aide à la décision spatiale (SDSS) (Spatial Decision Support System). Le système d’aide à la décision proposé nommé FCM-AT prend en compte toutes les phases du traitement de l’image, depuis les opérations de visualisation jusqu’à l’analyse des résultats.
Dans le contexte de la présente étude, nous nous intéressons aussi au traitement des images satéllitales. En effet, notre objectif porte sur l’extraction automatique de réseaux de régions homogènes (zone urbaine, forêt, etc.) à partir d’une image Landsat 5 TM pour la région d’Oran (Algérie) selon une approche basée sur la fusion de deux méthodes : le C-Means flou et le seuillage adaptatif. La première est appliquée sur des images multi spectrales tandis que la deuxième méthode est utilisée pour segmenter les images après que celles-ci aient été transformées en niveau de gris.
Mots Clés— Système d’Information Geographic (SIG), Système d’aide à la décision spatial, Seuillage
adaptatif, Fuzzy C-Means, Classification d’Images Satéllitales, Télédetection.
Abstract
The use of Geographic Information Systems (GIS) is a preferred approach for the spatial information
and the update of mapping, for decision support, including management and territory planning. Spatial Data Mining (SDM) is a research field in itself. Indeed, its specificity compared to traditional data mining is that it takes into account the spatial relationships between objects.
The objective of our work is to propose a new approach to analyze and process remote sensing images to enrich the field of Spatial Decision Support Systems (SDSS). The proposed system namely FCM-AT takes into account all the phases of image processing, from the display operations to analysis results.
As part of this study, we are also interested in satellite image processing. Our focus is on automatic extraction of homogeneous regions networks (urban, forest, etc..) from a Landsat 5 TM for the region of Oran (Algeria) using an approach based on fusion of two methods: the Fuzzy C-Means and Adaptive Thresholding. The first is applied to multispectral images while the second method is used to segment the images after they have been transformed into grayscale.
Key words— Geographic Information System (GIS), Spatial Decision Support System (SDSS), Adaptive Thresholding, Fuzzy C-Means, Satellite Image Classification, Remote Sensing.
Top Related