des erreurs de modèle de DRASTIC - Library and Archives...
Transcript of des erreurs de modèle de DRASTIC - Library and Archives...
Michelie Fortin
Analyse de la propagation des erreurs spatiales
induites par l'intégration de données multisources
dans le modèle de vulnérabilité de la nappe d'eau souterraine DRASTIC
Mémoire
présenté
à la Faculté des études supérieures
de l'université Laval
pour l'obtention
du grade de maître ès Sciences (M.Sc.)
Département des sciences géomatiques
Faculté de foresterie et géomatique
Université Laval
Mai 1998
O Micheiie Fortin, 1998
National Library 191 of Canada Bibliothèque nationale du Canada
Acquisitions and Acquisitions et Bibliographic Services services bibliographiques
395 Wellington Street 395. rue Wellington OttawaON K 1 A W Ottawa ON K1A ON4 Canada Canada
The author has granted a non- L'auteur a accordé une licence non exclusive licence allowing the exclusive permettant à la National Library of Canada to Bibliothèque nationale du Canada de reproduce, loan, distribute or sell reproduire, prêter, distribuer ou copies of this thesis in microform, vendre des copies de cette thèse sous paper or electronic formats. la forme de rnicrofiche/~ de
reproduction sur papier ou sur fonnat électronique.
The author retains ownership of the L'auteur conserve la propriete du copyright in this thesis. Neither the droit d'auteur qui protège cette thèse. thesis nor substantial extracts fiom it Ni la thèse ni des extraits substantiels may be printed or otherwise de celle-ci ne doivent être imprimés reproduced without the author's ou autrement reproduits sans son permission. autorisation.
RÉsUMÉ
Dans le cadre du programme PREDIR, conduit par le Centre de recherche en géomatique de
l'Université Laval en collaboration avec MIR Télédétection, un modèle de vulnérabilité de la
nappe d'eau soutemine a été implanté sur Arc/Info'N U s'agit du modèle DRASTIC,
onguialement d6veloppé aux États-unis et maintenant reconnu par les agences gouvernementales
canadiennes et américaines. L'objectif du présent projet était de développer un modèle d'erreur
permettant d'évaluer la fiabilité des résultats du modèle DRASTIC. DRASTTC est basé sur
l'évaluation de sept pararnktres qui influencent la vulnérabilité de la nappe d'eau souterraine: la
profondeur de l'eau, la recharge, le milieu aquifêre, le type de sol, la topographie, L'impact de la
zone vadose et la conductivité hydraulique. Un poids est attribué à chaque paramètre selon son
influence sur la vulnérabilité. Pour une région homogène domée, l'indice DRASTIC est d c d é
par la somme pondérée des wtes attribuées à chaque param&re, selon les chartes du modèle
DRASTIC. Pour évaluer les différents paramètres, des données de diverses sources ont été
utilisées, incluant des données ponctuelles de forages, des cartes numénsdes, un modèle
numérique de terrain et une image Landsat classinée. Tel qu'il a eté implanté, le modèle foumit
une surface de vulnhibilit6 en format matriciel. Pour créer le modèle d'erreur, trois différents
modèles ont été combinés: (1) la variable interpolée, (2) le modèle polygonal flou et (3) un
modèle de classification mixte adapté à une image classinée. C'est par une approche statistique
que les trois modéles ont pu être intégrés afin de produire le modèle d'erreur global.
L'application du modèle d'erreur s'est faite sur le paramètre "recharge". Le calcul de la recharge
fait intervenir les trois différents modèles d'erreur et c'est le seul paramètre de DRASTIC qui
introduit une image satellitaire. L'application du modèle d'erreur a permis d'obtenir une surface
d'incertitude associée B la d a c e de la cote de recharge. Il a aussi permis d'isoler la contribution
des différents modèles sur I'erreur finale. Les résultats demontrent que le modèle polygonal flou
est celui qui contribue le plus fortement à la variabilité spatide de l'incertitude W e , suivi du
modèle de classification mixte. C'est l'apport du modèle de la variable interpolde qui est le plus
faible. Le modèle développé constitue une version pdliminnire B laquelle des arn6liorations
pourraient encore être apportées. Il est bas6 sur une méthodologie originale qui pourrait être
transposée a d'autres modèles impliquant l'int6gration de données multisources.
Avant-propos
J'aimerais remercier toutes les personnes qui ont contribué à appuyer les travaux de recherche
présentés dans ce mémoire. Je tiens à adresser particulièrement de sincères remerciements aux
personnes suivantes. À mon directeur Keith Thomson pour son appui de même que pour son
support financier du début a la fin des travaux. À mon codirecteur, GeofEey Edwards pour son
apport indispensable qui fut grandement apprécié. Je tiens à les remercier pour l'encouragement
et la grande aualité de su~ervision que j'ai eu la chance de recevoir de leur part, grâce auxquelles
ces deux années se sont avérées riches en apprentissage. J'aimerais aussi remercier Madame
Jacynthe Pouliot pour ses travaux originaux sur le modèle DRASTIC, ainsi que pour sa
disponibilité lors de la poursuite des travaux.
Michelle Fortin
Table des matières
Liste des tableaux ....................................................................................................... .......................................................................................................... Liste des figures
Liste des annexes ..................... ... ............................................................................ ............................................................................................. Chapitre 1 : Introduction
1.1 ProbIématique ....................................................................................................... .................................................................................... 1.2 Objectifs du projet
................................................................................... Chapitre 2 : Travaux antérieurs
2.1 La télédétection en hydrogéologie ............................................................ 2.1.1 Introduction ...............................................................................
2.1.2 La télédétection appliquée à l'exploration hydrogéologique ..... 2.1.3 La télédétection comme outil de gestion des eaux souterraines
............................................................................... 2.1 -4 Conclusions
2.2 La propagation des erreurs dans les modèles spatiaux ............................... ............................................................................. 2.2.1 Introduction
2.2.2 Les difficultés de représentation dues à la continuité et
.......................... l'hétérogénéité des classes dans le monde réel
2.2.3 Les erreurs d'acquisition des données ....................................... 2.2.4 Les erreurs introduites par le traitement ....................................
2.2 .4.1 Introduction ........................ ..... .............................. 2.2.4.2 Les données en format matriciel .................................
................................. 2.2.4.3 Les données en format vectoriel
2.2.4.4 Les données ponctuelles .................. ... .....................
...................................... 2.2.4.5 La combinaison des données
2.2.4.6 La propagation des erreurs ......................................... 2.2 .4.6.1 Théorie de propagation des erreurs .......... 2.2 .4.6.2 La propagation d'erreurs dans les SIRS .....
............................................................................... 2.2.5 Conclusions
................................................................. Chapitre 3: Le modèle DRASTIC original
3.1 Le modèle théorique ................................................................................. 3.2 Application du modèle original ................................................................
.................................... .. Chapitre 4: Méthodologie proposée et modèle d'erreur ....... 4.1 Méthodologie proposée ............................................................................
.................................................... 4.1.1 Le modèle de base
4.1 -2 Approche méthodologique ..........................................
............................................. 4.1 -3 Phase 1 : la modélisation
4.1.4 Phase 2 : application du modèle d'erreur au SIRS ArclInfoTY .. ................................................................................... 4.2 Le modèle d'erreur
................. 4.2.1 Description des sources d'erreurs sur le modèle DRASTIC
4.2.1.1 Erreurs sur le modèle lui-même ..................................... ... ...... 4.2.1.2 Description des sources d'erreurs pour l'application de
..................................................... DRASTIC au SIRS
4.2.1.2.1 Modifications de la structure du modèle dues à
......... son implantations dans un SIRS (ArclInfoM)
..................... 4.2.1.2.2 Détermination nappe libre ou captive
...................................... .... . 4.2.1 2.3 La profondeur de l'eau ..
4.2.1.2.4 La recharge .............................................................. ................................................... 4.2.1.2.5 Le milieu aquifère
..................................................... 4.2.1.2.6 La texture du sol
........................................................ 4.2.1.2.7 La topographie
................................ 4.2.1.2.8 L'impact de la zone vadose ..... .................................... 4.2.1.2.9 La conductivité hydraulique
............................................................ 4.2.2 Conception du modèle d'erreur
......................................... 4.2.2.1 Le modèle polygonal flou
4.2.2.2 La variable interpolée ............................................. ............................... 4.2.2.3 Le modèle de classification mixte
4.3 Application du modèle d'erreur .........................................................
............................................................................... 4.3.1 Introduction
4.3.2 Application du modèle à la recharge ...................................... 4.3.3 Application du modèle à la détermination du CN et de son
................................................................................. incertitude
........ ..................................... 4.3.3.1 Texture du sol .... ..................................................................... 4.3 -3 -2 Drainage
4.3.3.3 Utilisation du temtoire ................... ... ...................... 4.3.3.4 Pente ...........................................................................
4.3.3.5 La combinaison des modèles pour la détennination
du CN ..........................................................................
4.3.4 Calcul de l'incertitude sur le ruissellement, la recharge et
la cote de recharge .................................................................... ....................................................................... Chapitre 5 : Les résultats et discussion
5.1 Ajustement du modèle de ruissellement par les précipitations
........................... (surfaces de CN, de ruissellement et de recharge)
.......... 5.2 La cote de recharge : étude de sensibilité des différents modèles
5.3 Description de la surface finaie d'incertitude sur la cote et discussion
............................................ sur l'apport des différents modèles
..................................................... 5.4 Généralités sur les résultats
............................................................................................. Chapitre 6: Conclusions
Liste de références .................................... ... .........................................................
Liste des tableaux
Tableau 3 . 1
Tableau 3-2
Tableau 3-3
Tableau 3-4
Tableau 3-5
Tableau 3 -6
Tableau 3 -7
Tableau 3-8
Tableau 4- 1
Tableau 4-2
Tableau 5- 1
Pondération pour les paramètres de DRASTIC ................................... Cotes pour la profondeur .....................................................................
Cotes pour la recharge ........................................................................ ............................................................... Cotes pour le milieu aquifère
.................................................................... Cotes pour le type de sol
Cotes pour la pente .............................................................................. Cotes pour le matériel de la zone vadose .............................................
.......................... ...............**................. Cotes pour la conductivité ... Valeurs de CN pour les différentes combinaisons de classes des
............................................................................................ paramètres
Synthèse des sources d'erreurs dans le modèle DRASTIC .................
Comportement du ruissellement en fonction des valeurs de
........................................................................................ précipitations
Liste des figures
............... Figure 4-1 Représentation des approches pour modéliser l'incertitude
Figure 4-2 Variation du niveau d'eau pour une nappe libre et une nappe captive ...
.... Figure 4-3 Modélisation de la recharge. exemple d'application à une cellule i j
......................................................... Figure 4-4 Modèle polygonal flou
Figure 4-5 Modèle de classification mixte ........................... ... ............................ Figure 4-6 Modélisation de l'incertitude sur la recharge, exemple
................................................ d'application à une cellule i j
Figure 4-7 Vecteur de probabilité d'appartenance aux différentes classes de
............................................................. texture dam l'évaluation du CN
.... Figure 4-8 Exemple d'un cas de somme des appartenance différente de l'unité
Figure 4-9 Vecteur de probabilité d'appartenance aux différentes classes
................................ d'utilisation du temtoire dans l'évaluation du CN
.................................... Figure 4-10 Graphique de lacote en fonction de larecharge
Figure 5-1
Figure 5-2
Figure 5-3
Figure 5-4
Figure 5-5
Figure 5-6
Figure 5-7
Figure 5-8
Surface de CN moyen ............................................................................
Surface de ruissellement pour une valeur de précipitations de
.......................................................................................... 1 . 065 pouces
Surface de recharge pour une valeur de précipitations de
1 . 065 pouces ..........................................................................................
Surface d'appartenance a la classe "sable et gravier" du CN selon
........................................................................ le modèle polygonal flou
Surface de ruissellement pour une valeur de précipitations
........................................................................................ de 3.53 pouces
Surface de recharge pour une valeur de précipitations
........................................................................................ de 3.53 pouces
Cote de recharge pour une valeur de précipitations de 3.53 pouces ......
Surface d'incertitude sur la cote de recharge pour une fenêtre
......................................... de 9 * 9 pixels et une zone tampon de 300 rn
Figure 5-9 Incertitude sur la cote de recharge pour une fenêtre de 9 * 9 pixels
et une zone tampon de 1 OOm ...................... ................... ............... .... .... Figure 5-10 Incertitude sur la cote de recharge pour une zone tampon de 300111
et une fenêtre de 3 * 3 pixels .. .. . .. .. .. .. .. .. .. . . . . . . . . . .. .... . . .. . .. .. . . . .... . ... .. .. .. . . ... Figure 5-1 1 Incertitude sur la cote de recharge pour une zone tampon de 300m
et une fenêtre de 19 * 19 pixels ............................................................. Figure 5- 12 Surface représentant la distribution des 4 classes d'utilisation
d'après le processus de classification .................................................... Figure 5-13 Surface d'incertitude sur le CN moyen pour une zone tampon
de 300m et une fenêtre de 9 * 9 pixels ......... .. ......................................
Figure 5- 14 Surface d'incertitude sur le ruissellement pour une zone tampon
de 300111 et une fenêtre de 9 * 9 pixels ..................... .. ......................... Figure 5-1 5 Surface d'incertitude sur la recharge pour une zone tampon de
300m et une fenêtre de 9 * 9 pixels ....................................................... Figure 5- 16 Surface d'incertitude avec l'apport unique du modèle de la variable
interpolée . . . .. .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Figure 5-1 7 Surface d'incertitude avec l'apport unique du modèle de
classification mixte (fenêtre 9 * 9) ......................................................... Figure 5- 18 Lncertitude sur la cote de recharge avec l'apport unique du modèle
polygonal flou (zone tampon de 300m) .................................................
Figure 5- 19 Régression entre la surface d'incertitude finale sur la cote et
l'incertitude avec le seul apport du modèle polygonal flou ...................
Figure 5-20 Régression entre la surface d'incertitude finale sur la cote et
l'incertitude avec le seul apport du modèle de la variable interpolée .... Figure 5-21 Régression entre la surface d'incertitude finale sur la cote et
l'incertitude avec le seul apport du modèle de classification mixte . .. ....
Figure 5-22 Régression entre la surface d'incertitude finaie sur la cote et
l'incertitude avec le seul apport du modèle polygonal flou,
pour une valeur de précipitations de 1 .O65 pouces ................................
Figure 5-23 Régression entre la surface d'incertitude finale sur la cote et
l'incertitude avec le seul apport du modèle de la variable interpolée
pour une valeur de précipitations de 1 .O65 pouces .............................. 90
Figure 5-24 Régression entre la surface d'incertitude h a l e sur la cote et
l'incertitude avec le seul apport du modèle de classification mixte
pour une valeur de précipitations de 1.065 pouces ................................ 90
Liste des annexes
Annexe 1
Annexe 2
Annexe 3
Annexe 4
Annexe 5
Annexe 6
Annexe 7
Annexe 8
Annexe 9
Annexe 10
Annexe 11
Surfaces intermédiaires calculées avec des précipitations
de 1 -065 pouces ........ .... . .. . .. ............ . .................. ..... .... ...... . .. .. .....-......- Surfaces d'incertitudes générées avec l'apport de chaque modèle
isolé pour des précipitations de 1 .O65 pouces .................... .... ..... ....... Programme AML: calcule l'appartenance aux différentes classes
de pente .............................................................................................
Programme AML: appartenance à la texture "sable et gravier",
classe A . .. . .. .. . . . . .... . .. . . .... . . . - .. . . . . .. . .. . . . .. . . .. ..-... . .. .. . .. . .. . .. .. .. -. . . . . . ... . . . . . . . .. . . Programme AML: appartenance à la classe 3 d'occupation du sol ...
Programme AML: calcule le CN moyen et son incertitude ............... P r o g r m e AML: recharge et son incertitude associée .................... Programme AML: cote de recharge et son incertitude associée ........
Programme AML: exemple du calcul de l'incertitude nulle pour
le modèle polygonal ........................................................................... Programme AML: exemple du calcul de l'incertitude nulle pour
le modèle de la variable interpolée (pente) ...................................... Programme AML: exemple de calcul d'une incertitude nulle pour
le modèle de classification mixte (classe 3, culture intensive) .... . .. . . . .
xii
Chapitre 1 Introduction
1.1 Problématique
Le présent projet de recherche s'intègre dans la poursuite du programme PREDIR (Projet de
Recherche sur l'Exploitation des Données Images Radar) conduit par le Centre de recherche en
géomatique de l'université Laval, en collaboration avec MIR Télédétection. Dans le cadre du
module 2 de PREDIR, orienté vers les possibles applications géologiques des images radar, deux
domaines d'étude distincts ont été déterminés: l'exploration minière et l'hydrogéologie.
L'implantation d'un modèle de vulnérabilité de la nappe d'eau souterraine (DRASTIC) sur
ArcIIdom constitue l'essentiel du travail qui a été effectué dans le volet hydrogéologique. Parmi
les diverses sources de données nécessaires à l'élaboration de ce modèle, une image satellitaire
(Landsat TM) est utilisée.
L'intégration de la télédétection aux systèmes d'information à référence spatiale est une pratique
de plus en plus courante. Malheureusement, l'utilisation de données multisources dans un modèle
nécessite des opérations particulières qui introduisent des erreurs supplémentaires. On sait que
des erreurs sont introduites dans les données depuis l'acquisition, en passant par toutes les
opérations que subissent les données brutes jusqu'au produit final. Généralement, en
télédétection, deux types d'emeurs sont évaluées. La première est l'erreur locationnelle qui
évalue l'exactitude du positionnement des pixels sur les projections de coordonnées, par le RMSE
(root-rnean-square-error). Le deuxième type est l'erreur thématique qui est évaluée par la matrice
de confusion et les coefficients qui en sont dérivés. Ces deux formes d'évaluation ne suffisent
pas a bien caractériser l'erreur et nous discuterons plus en détails de leurs limitations dans les
chapitres qui viennent. Mais il y a plus. Lorsque des images sont intégrées à d'autres ensembles
de données dans les SIRS, on peut faire face à une incompatibilité a plusieurs niveaux: structure
des données (matriciel, vectoriel), type de données (binaire, ordinal, nominal), niveau de
généralisation. Des opérations sont nécessaires pour permettre la combinaison des divers
ensembles de données. Jusqu'a maintenant, on a porté peu d'attention à la contribution de ces
opérations sur la précision du produit final. Or, l'élaboration de la plupart des modèles sur SIRS
se fait dans l'éventualité qu'ils soient utilisés comme outils d'aide a la décision. L'évaluation de
la fiabilité de ces produits devient donc un facteur qu'on ne peut plus se permettre de négliger.
C'est pourquoi nous pensons que, avant de poursuivre le projet avec l'évaluation de l'imagerie
radar, l'analyse de la propagation des erreurs spatiales dans DRASTIC est une étape
indispensable. Ainsi, le projet de recherche vise essentiellement à évaluer la fiabilité du modèle
de vulnérabilité, tel qu'il a été implanté sur Arc/InKoTM.
1.2 Objectifs du projet
L'objectif principal du projet est d'élaborer un modèle d'erreur permettant de quantifier,
localement, l'incertitude sur les résultats du modèle DRASTIC.
Les objectifs spécifiques se présentent comme suit:
Détermination détaillée des sources d'erreurs dans Ie modèle DRASTIC
Détemination de modèles d'erreurs spécifiques caractérisant chaque ensemble de données
utilisés dans DRASTIC
Conception du modèle global d'erreurs par la combinaison des différents modèles d'erreurs
Obtention d'une surface de fiabilité associée à la cote h a l e par l'application du modèle
conceptuel sur ArcAnfom
Chapitre 2 Travaux antérieurs
2.1 La télédétection appliquée à l'hydrogéologie
La prochaine section est extraite d'un article publié dans la revue Arpenteur géomètre (Fortin
1996). Il résume l'essentiel des éléments tirés d'une revue de littérature sur la télédétection
appliquée à l'hydrogéologie.
2.1.1 Introduction
La conservation de la qualité de l'environnement fait l'objet d'une préoccupation omniprésente
dans nos sociétés en cette fin de siècle. Dans cette optique, l'eau souterraine est de plus en plus
reconnue comme une ressource précieuse et tous réalisent l'importance de la préserver, comme
source d'eau potable, des diverses formes de contamination. Au delà du domaine préventif, le
manque de ressources en eau constitue déjà un problème sérieux dans certaines régions du
monde. Assurément, on accueillerait favorablement d'une part, le développement d'outils
favorisant une meilleure gestion des ressources en eau et des activités à risque de contamination,
et d'autre part, les innovations sur les techniques existantes d'exploration hydrogéologique. Un
aperçu de la contribution de la télédétection envers ces deux domaines distincts est présenté ici.
2.1.2 La télédétection appliquée à l'exploration hydrogéologique
Dans certains pays en voie de développement, la rareté de l'eau potable entraîne de nombreux
problèmes aux populations locales. Trop souvent, d'importantes sommes d'argent allouées au
développement ont été inutilement perdues dans l'aménagement de puits qui se sont avérés
improductifs. C'est pourquoi il existe actuellement une demande pour des techniques permettant
d'améliorer l'efficacité des campagnes d'exploration afin de mieux cibler les zones présentant les
meilleurs potentiels en eau potable. De toutes les applications de la télédétection aux ressources
terrestres, l'anaiyse hydrogéologique d'images satellitaires et aériennes est une des plus
complexes. Le fait que les eaux souterraines ne soient évidemment pas disponibles a
l'observation directe représente la difficulté majeure. Pour être en mesure d'utiliser efficacement
la télédétection, l'emphase doit être mise sur l'interprétation d'indicateurs visibles sur image, qui
suggéreraient la présence de structures souterraines contrôlant l'écoulement.
Afin d'aider le lecteur à mieux comprendre la problématique, introduisons ici quelques notions
hydrogéologiques de base. On appelle aqu@re un massif de matériaux géologiques perméables
comportant une zone saturée qui conduit suffisamment d'eau pour permettre l'écoulement
significatif d'une nappe souterraine et le captage de quantités d'eau appréciables (Gélinas et
Lefebvre, 1990). L'histoire géologique du massif rocheux est responsable des conditions
hydrauliques qui prévalent aujourd'hui dans l'aquifêre. Pour ne donner qu'un exemple, lorsque le
socle rocheux subi des déformations par le tectonisme et la météorisation, la roche est cisaillée,
les hctures se multiplient et s'élargissent. Ces modifications tendent à créer un meilleur réseau
d'écoulement favonsant l'emmagasinement et la circulation d'eau. Dans un socle ainsi altéré par
le tectonisme, plusieurs fractures seront perceptibles en surface sous forme de linéaments
géologiques.
Plusieurs études visaient à évaluer le potentiel de la corrélation entre une grande densité de
linéaments géologiques correctement identifiés sur une image et une zone de conductivité et
porosité fortes dans le socle rocheux. Utilisée à des fins d'exploration hydrogéologique, la
corrélation permettrait de détecter une zone de fort potentiel, en plus de donner des indices sur la
direction de l'écoulement; cependant, plusieurs facteurs contribuent à compliquer l'interprétation
(Waters 1990). Par exemple, le fait qu'une structure géologique perceptible en surface puisse
avoir un effet autant positif que négatif sur l'écoulement explique en partie pourquoi
l'identification d'une forte densité de linéaments ne suffit malheureusement pas à conclure qu'on
est en présence d'une zone potentiellement productive. Une deuxième corrélation applicable à
l'exploration a été identifiée. Cette approche suggère, à partir d'images, l'étude du patron de
drainage de surface en tant qu'indicateur du mouvement d'eau souterraine (Wencai et Deliao
1993) (Waters 1990). Le patron de drainage est fondamentalement déterminé par la lithologie
sous-jacente, donc, fournit une des plus importantes informations sur les conditions
hydrogéologiques. A la suite de diverses études, il est maintenant reconnu que la télédétection
foumit un apport intéressant et utile dans les campagnes d'exploration des eaux souterraines à
l'aide des corrélations mentionnées. Mais étant donné la complexité des phénomènes impliqués
dans l'écoulement, le succès de l'approche repose fortement sur la justesse de l'interprétation des
indicateurs hydrogéologiques. En plus d'une bonne connaissance des processus
hydrogéologiques, la collecte et l'analyse de données complémentaires sur la géologie sont
indispensables à la réussite de la démarche (Biémi et d., 1992) (Waters 1990).
2.1.3 La télédétection comme outil de gestion des eaux souterraines
La préservation de la qualité des eaux souterraines ne peut être assurée que par une gestion des
activités à risque de contamination, basée sur l'évaluation de la vulnérabilité des nappes d'eau.
Pour évaluer cette vulnérabilité à la contamination, de nombreux facteurs physiques doivent être
pris en considération et les interactions complexes entre ces facteurs rendent la modélisation
difficile. Certains modèles de vulnérabilité ont quand même été élaborés et implantés sur
système d'information à référence spatiale. Jusqu'à maintenant, il semble que le rôle de la
télédétection dans ces modèles demeure très restreint, cantonné à la délimitation de classes
d'utilisation du sol, soit une application connue depuis longtemps (Broers et al., 1990). Dans le
cadre d'un sous-projet de PREDIR (Projet de Recherche sur l'Exploitation des Données Images
Radar), conduit par I'llniversité Laval en collaboration avec MIR télédétection, une compagnie
privée de Montréal, un modèle de vulnérabilité de la nappe d'eau souterraine a été implanté sur
ArcAdom. 11 exploite déjà une base de données multisources comprenant des images
satellitaires. Dans la poursuite du projet, l'apport de l'imagerie RADARSAT sera étudié.
Dans la recherche dune exploitation optimale des ressources en eau, les systèmes d'information à
référence spatiale devraient pouvoir être utilisés avantageusement parce qu'ils pemettent une
analyse plus globale en combinant l'information recueillie sur tous les facteurs à considérer.
Certaines des informations nécessaires à ces bases de données seraient fournies par les images
satellitaires. Il existe quelques exemples intéressants de telles applications. Bukata et al. (1 99 1)
ainsi que Zevenberg et Rango (1992) donnent l'exemple de l'utilisation d'un indice de végétation
(NDVI) comme indicateur de recharge du réservoir d'eau souterraine. L'indice NDVI est utilisé
pour évaluer le pourcentage de couverture végétale au sol qui est par la suite converti en valeurs
relatives de recharge, élément important de la dynamique de l'écoulement souterrain.
La télédétection fournit une présentation synoptique du territoire, des informations en temps réel
et l'on reconnaît son efficacité dans la détermination de classes d'utilisation du sol. Grâce à ces
caractéristiques, combinées avec l'apport d'information sur les directions d'écoulement par
l'analyse des linéarnents, les images satellitaires s'avèrent de bons outils pour aider a déterminer
l'emplacement de puits d'observation. Elles ont fourni l'information nécessaire pour compléter un
réseau d'observation existant, ayant pour but d'étudier l'impact des différents types d'utilisation du
sol sur la qualité des eaux (Zevenberger et Rango 1992, Broers et al., 1990).
Dans certaines régions côtières, le problème de salinisation de l'eau douce par l'eau de mer
menace l'approvisionnement en eau potable. 11 existe des exemples où des images satellitaires
ont été utilisées avec succès en contribuant à la compréhension des conditions d'intrusion de l'eau
de mer dans la nappe d'eau douce. Les informations fournies par les images ont aidé à cerner
différents aspects du problème nécessaires à une action efficace, notamment en permettant
l'analyse des structures géoiogiques (Stefouli 1990).
2.1.4 Conclusions
Ce sont là quelques exemples d'une utilisation réussie de la télédétection appliquée à une
meilleure gestion des ressources en eau. La géologie et l'hydrogéologie sont des domaines dans
lesquels une grande part d'interprétation et de subjectivité est chose commune. Les ambiguïtés et
difficultés inhérentes à ces disciplines se reflètent dans les études de télédétection appliquées à
l'hydrogéologie.
En gestion des ressources, l'intégration d'images satellitaires dans les SIRS est une procédure de
plus en plus commune. Cependant, comme nous l'avons mentionné plus haut, l'utilisation qu'on
fait des images demeure restreinte à la détermination de l'occupation du territoire. Étant donné
que de nombreux facteurs entrent en interaction complexe pour influencer le comportement de
l'eau souterraine, il serait intéressant d'évaluer le potentiel des images (visible ou radar) à foumir
des informations supplémentaires sur certains de ces facteurs.
En gestion des ressources, l'intégration d'images satellitaires dans les SIRS est une procédure de
plus en plus commune. Cependant, si les produits finaux doivent être utilisés dans les processus
de prise de décision, il est d'abord essentiel d'évaluer la précision de ces modèles. C'est ce qui
nous amène à introduire la deuxième partie de la revue de littérature qui se concentre sur la
propagation des erreurs dans les modèles spatiaux.
2.2 La propagation des erreurs dans les modèles spatiaux
2.2.1 Introduction
Pour présenter un survol des travaux antérieurs sur la propagation des erreurs dans les modèles
spatiaux, nous tenterons de diviser le sujet en trois catégories d'erreurs plus ou moins distinctes,
qui, en réalité, se recoupent inévitablement. Dans la première catégorie on fait référence aux
données de type a catégoriées D. À chaque élément spatial est assignée une classe ou catégorie
définie par un ou plusieurs attributs. Il existe nécessairement un écart entre cette forme simplifiée
de représentation thématique et la complexité du monde physique. Pour l'illustrer par un
exemple, mentionnons le cas très connu des cartes forestières. Généralement, les classes des
différents peuplements ne sont pas parfaitement homogènes et les transitions entre les classes
s'étalent sur des distances variables. Or, sur les cartes forestières, les divers peuplements sont
séparés en polygones de classes homogènes par des frontières distinctes. Dans la deuxième
catégorie, on discutera des erreurs qui sont introduites par l'inaptitude des instruments à
« mesurer » la réalité. On fait d o n référence aux erreurs présentes dans les domees brutes, qui
sont dues aux limites expérimentales. Dans la troisième catégorie, on se penchera sur les erreurs
introduites par toutes les opérations effectuées sur les données brutes avant l'obtention d'un
produit final. Finalement, on abordera le sujet de la propagation de ces erreurs, lorsque des
données multisources sont combinées.
2.2.2 Les difficultés de représentation dues a la continuité et l'hétérogénéité des
classes dans le monde réel
Les objets contenus dans une base de données spatiales correspondent à des modèles abstraits du
monde réel. Comme tous les modèles, ils représentent la réalité de façon imparfaite. Ces
modèles sont adaptés à partir de concepts mathématiques classiques qui limitent la justesse de la
représentation. En mathématiques, on apprend qu'il n'y a que deux situations acceptables pour
un élément : appartenir ou ne pas appartenir à un sous-ensemble d'un référentiel. La logique
booléenne repose sur cette base. En réalité, la presque totalité de l'action réciproque des humains
avec le monde extérieur implique des constructions abstraites qui ne sont pas des « ensembles n
dans le sens classique du terme, mais plutôt des « ensembles flous ». C'est à dire que les classes
sont séparées par des frontières indéterminées dans lesquelles la transition d'appartenance à non-
appartenance est plutôt graduelle que brusque. Contrairement aux instruments informatiques
existants, l'intelligence humaine possède cette aptitude de penser et de raisonner en termes
imprécis, non-quantitatifs, « flous ». Dans la recherche d'une plus grande précision, on a tenté
d'ajuster le monde réel à des modèles mathématiques ne permettant pas le flou. Évidemment, la
conscience de cette discordance devait faire appmAtre la nécessité de trouver de nouvelles
méthodes permettant de traiter le flou d'une manière systématique. C'est de là qu'un nouvel outil
mathématique a été élaboré. Le concept des sous-ensembles flous a été introduit par Zadeh
(1965) pour décrire l'imprécision qui est caractéristique du raisonnement humain. Cette théorie
est, en fait, un pas dans le rapprochement entre la précision des mathématiques classiques et la
subtile imprécision du monde réel.
La théorie des sous-ensembles flous fournit un outil mathématique, avec lequel les opérations
classiques sur les ensembles sont possibles. Cependant, il possède la particularité de permettre
qu'un élément appartienne partiellement à plus d'une classe. Pour indiquer le degré
d'appartenance, le concept de fonction caractéristique (d' appartenance) est introduit. La fonction
prend ses valeurs dans un ensemble d'appartenance couvert par I'intervalle [O, 11.
L'utilisation de la théorie des sous-ensembles flous a été expérimentée dans de nombreux
domaines des sciences appliquées. Entre autres, plusieurs auteurs l'ont utilisée dans les systèmes
d'information à référence spatiale, sous diverses formes intéressantes.
A partir d'une base de données à références spatiales, Wang er al. (1990) ont développé une
méthode d'évaluation de N l'aptitude )) d'une terre a recevoir une culture particulière. Avec la
méthode conventionnelle, la portion de terre était classifiée selon une hiérarchie, de très
convenable (SI) à non convenable (S5 par exemple), par l'évaluation de plusieurs
caractéristiques. Le processus de classification demeurait alors conforme aux principes de la
théorie classique des ensembles. La caractéristique la plus limitante pour une terre donnée, était
utilisée pour déterminer la classe d'aptitude de cette terre. Donnons un exemple simplifié. Une
région présente les caractéristiques suivantes : D'après le critère (< conditions de drainage N la
tene serait classifiée S2. D'après le critère « texture D, on la classifierait S3 et, pour le critère
profondeur des racines D, elle serait classifiée SS (non convenable). Dans cet exemple, la classe
d'aptitude de la portion de terre sera S5 (non convenable). Pour une autre portion de terre, si les
critères mentiornés (drainage, texture et profondeur des racines) sont conformes aux classes S1
(très convenable) , S1 et S5 respectivement, la classe h a l e sera encore S5. Ainsi, aucune
information ne permettrait de faire une distinction entre les deux régions. Wang (1990) introduit
la notion des sous-ensembles flous de la façon suivante. Il associe à chacune des régions, un
vecteur caractéristique X, et à chaque classe, un vecteur classe pi, représentatif de la classe i. Les
vecteurs sont de la forme:
oll n est le nombre de caractérktiques physiographiques à considérer,
qj est la valeur de la jième caractéristique pour la région x
u, est la valeur de la jième caractéristique requise pour la classe d'évaluation i.
La distance Euchdieme est calculée (opération sur les sous-ensembles flous) entre le vecteur-
région X et le vecteurclasse pi . La distance donne un indice de la similarité entre les vecteurs,
qui indique le degré pour lequel la région x appartient à la classe i. Selon une partition dite
dure », la portion de terre serait classifiée dans la classe pour laquelle la similarité est la plus
grande (distance plus faible). Mais l'auteur introduit une partition floue, en calculant un niveau
d'appartenance à la classe la plus proche, par la détermination d'une fonction d'appartenance Fc.
Fc (x) = distance entre X et la classe correspondante / * facteur de normalisation (2-3)
( * somme des distances entre le vecteur-région et les autres vecteurs-classes )
L'utilisation de la logique booléenne n'est pas bien appropriée a l'évaluation des terres à cause de
la nature continue des variations dans les caractéristiques du sol. Davidson (Davidson et al.,
1994) a démontré les avantages de l'utilisation de la théorie des sous-ensembles flous pour
l'évaluation des sols, en la comparant avec la méthodologie booléenne de classification
conventionnelle. Sa méthode implique une conversion des propriétés continues du sol en valeurs
d'appartenance aux diverses classes d'évaluation. De plus, il attribue une pondération a chaque
paramètre selon son importance relative dans l'évaluation. Davidson (1994) conclue qu'il y a
deux avantages principaux à l'application du concept des sous-ensembles flous dans un tel
contexte. Le premier est l'élimination de l'effet masquant N des caractéristiques qui ont moins
d'importance dans l'évaluation (avec la méthode conventionnelle, la région est classée selon la
caractéristique la plus limitante, indépendamment de l'influence relative de la caractéristique).
Le deuxième avantage est la possibilité de tenir compte des effets causés par certaines propriétés
dont les valeun se trouvent près des limites des classes établies.
Suryana (1993) a appliqué les concepts des sous-ensembles flous et de la théorie de l'évidence
dans un modèle d'érosion ainsi que dans un processus de classification d'une terre. Dans les
deux cas, l'imprécision est représentée par un facteur de certitude, CF.
Dans le premier exemple, le modèle d'érosion est basé sur la théorie de l'évidence, telle que
développée par Shafer (1976). La théorie débute avec l'utilisation d'un nombre de O à 1 pour
indiquer le degré de support N qu'une évidence foumit à une proposition donnée, c'est à dire le
degré de croyance qu'on pourrait accorder à une proposition en se basant sur l'évidence connue.
La théorie de l'évidence permet la déduction d'un degré de croyance attribuable à la proposition
évaluée à partir de la combinaison des degrés de croyance provenant d'évidences distinctes.
L'exemple de Suryana permet de clarifier le concept. La présence d'érosion, pour une région
donnée, est déterminée par plusieurs facteurs de formation interreliés et inséparables (évidences).
Le modèle d'érosion, tel qu'il est conçu, consiste en une relation dans laquelle la variable
dépendante (présence d'érosion) est de type vraie/faux. Cette expression est dépendante de la
présence de certains critères, qui sont les variables indépendantes (propositionnelles ou logiques).
Chaque variable (évidence) est caractérisée par un facteur de certitude (CF), selon son effet
augmentant ou abaissant (-1 à 1) sur la probabilité de présence d'érosion. Le CF est employé
pour représenter le degré de confiance des experts sur la proposition de base (présence d'érosion)
en estimant ['effet augmentant ou diminuant d'évidence(s) simple ou combinées. Par exemple,
une unité de terrain est couverte de forêt (première évidence) et présente une pente entre 15% et
35% (deuxième évidence). La variable présence de forêt » a un effet diminuant sur la
probabilité de présence d'érosion ; un facteur de certitude CF = -1 lui est appliqué. Les
observations de terrain ont démontré qu'il n'y avait jamais d'importante érosion dans une région
de forêt dense. La variable pente N a un effet augmentant la probabilité de présence d'érosion ;
un facteur de certitude CF = 0'6 lui est appliqué. La combinaison des CF sur les évidences
recueillies permet de déterminer un facteur de certitude sur l'hypothèse de base qui est la
présence d'érosion. Ainsi, selon le degré de certitude (exprimé par le CF) sur l'expression
logique (présence ou absence d'érosion), on peut classer l'unité de terrain dans une catégorie
d'érosion (présence d'érosion absolument probable, à absolument improbable).
Dans son deuxième exemple, Suryana emploie la théorie des sous-ensembles flous pour la
cartographie de classes d'évaluation des terres. Le concept est utilisé pour gérer l'incertitude liée
à I'assignement des paramètres nécessaires à l'évaluation. Confornément aux concepts qui sous-
tendent la théorie des sous-ensembles flous, on se base sur l'expérience des experts pour
déterminer l'incertitude. Grâce à leur expérience, ils ont généralement une inhution sur la qualité
des données. Leur jugement peut être exprimé verbalement, avec des termes tels que: absolument
certain que l'unité appartienne à la ciasse i, probable, non probable, etc. Dans l'exemple présenté
par Suryana, on a demandé aux experts de ranger ces idenfiants flous en termes de facteurs de
certitude, CF, avec des valeurs de O à 1. Le CF peut alors être utilisé pour gérer I'incertitude,
avec les opérateurs de la théorie des sous-ensembles flous, tels que la conjonction et disjonction.
Ainsi, la théorie permet de prédire la classe d'évaluation du sol avec un facteur de certitude
associé à Ia classification.
Dans les deux exemples de Suryana (1993)' la théorie des sous-ensembles flous telle qu'elle est
appliquée dans la classification des terres et la théorie de l'évidence sur laquelle est basé le
modèle d'érosion de Suryana se rapprochent étroitement. Dans le cas du modèle d'érosion, un
CF est appliqué a chaque évidence accumulée afin de déterminer un CF final sur l'hypothèse de
base, pour une unité de terrain donnée. Dans le processus de classification d'une terre, le CF est
appliqué directement à l'unité de terrain selon une probabilité basée sur l'expérience des experts.
En faif ce qui permet aux experts de fournir leur jugement sur l'appartenance aux diverses
classes, ce sont des évidences qui sont présentes sur le terrain et qu'ils ont appris à reconnaître. 11
est propre à chaque personne de savoir interpréter l'effet augmentant ou diminuant de ces
évidences, pour en déduire la qualité des données. C'est donc l'application plus ou moins directe
de la théorie de l'évidence, puisque l'intuition qui permet de déterminer 17incertitude, est possible
grâce à l'expérience, qui automatise ou rend inconscient l'accumulation des évidences. Tandis
que la théorie de l'évidence sépare et analyse les effets des évidences, le même processus,
accumulation d'évidence, se fait plus ou moins inconsciemment par l'expérience qui forme
1' intuition.
Un exemple de l'utilisation des sous-ensembles flous applique à l'analyse spatiale dans une base
de données est apporté par Altman (1994). Son approche permet de représenter, dans la base de
données, les relations spatiales qualitatives linguistiques de proximité ou de direction, telles que
PRÈS de, à l'OUEST de, etc. Il est possible d'évaluer les relations spatiales imprécises entre des
éléments représentés par des régions floues dans la base de données.
Quand à Gopal (Gopai et al.,1994), il a proposé une nouvelle méthode pour l'évaluation de la
précision d'une carte thématique, basée sur la théorie des sous-ensembles flous. L'hypothèse
selon laquelle chaque région peut être attribuée à une catégorie unique, sans mélange de classes et
sans ambiguïté est à la base des évaluations conventionnelles. L'approche de Gopal tient compte
de l'incertitude de la classification sur le terrain même. Sa méthodologie est basée sur le fait que
Les experts, la plupart du temps, utilisent des constructions linguistiques pour décrire la précision
des cartes. Pour construire une vérité terrain mieux adaptée, des experts ont attribué à chaque
unité de terrain, une cote d'appartenance de 1 à 5 aux différentes classes, dépendant des
conditions. Cette approche permet de répondre aux questions suivantes : à quelle fiéquence la
catégorie assignée sur la carte est le meilleur choix pour le site, a quelle fiéquence la catégorie
assignée sur la carte est acceptable, en plus de donner des informations sur la magnitude des
erreurs.
Finalement, en télédétection, la théorie des sous-ensembles flous a aussi été exploitée pour les
opérations de classification. L'algorithme a funy-C-means )) partitionne un espace de données
de façon à ce que les échantillons individuels puissent appartenir à plus d'un groupe. (Bezdek et
al. 1984) (Cannon et al., 1986). Fisher et Pathirana (1989, 1990) et Pathirana (1992) ont
démontré que la proportion de chaque classe d'utilisation du sol à laquelle appartient un mixed
pixel )) est reflété dans la valeur d'appartenance floue dérivée de l'algorithme FCM. Quant à
Iomata et Ogata (1992)' ils ont proposé l'utilisation de l'histogramme comme fonction
d'appartenance pour une classification floue, autant supervisée que non s u p e ~ s é e .
La théorie des sous-ensembles flous foumit des outils mathématiques qui permettent de
déterminer une valeur d'appartenance résultant d'une union ou intersection de différents sous-
ensembles (Bevington 1969). Ces opérations peuvent être utilisées pour propager les erreurs dans
un contexte de combinaison de données spatiales.
En terminant, il est intéressant de noter l'apport des travaux de Aubert et al. (1994) sur
l'incertitude des frontières en cartographie forestière. Par des interprétations multiples sur
photographies aériennes, ils ont démontré que sur plusieurs interprétations, la position de la
frontière entre deux classes (peuplements forestiers) est distribuée de façon gaussienne autour
d'une position médiane. Des travaux se poursuivent actuellement pour le perfectionnement d'une
vérité temin qui tient compte de l'incertitude due au (< flou >>, à partir des interprétations
multiples.
On constate qu'avec l'outil mathématique des sous-ensembles flous, il est possible d'introduire
l'aptitude humaine à raisorner en termes flous dans les bases de données à référence spatiale.
L'approche peut servir à gérer un aspect de l'incertitude spatiale, dans le cas où il n'est pas
possible de calculer de façon systématique les probabilités associées à la détermination des
paramètres utilisés. Cependant la technique demeure contestable quant à la subjectivité qu'elle
nécessite. C'est dans la détermination de la fonction d'appartenance et de la valeur que prendra
celle-ci pour un élément spatial donné que le problème demeure. L'opération est généralement
faite à partir de l'expérience de certaines personnes dans le domaine. Or, l'expérience varie, et il
est légitime de douter de la constante validité de ces interprétations. C'est à ce niveau que
l'apport des travaux sur les interprétations multiples est intéressant. En connaissant la
distribution de la position d'une frontière à partir de plusieurs interprétations, la position
moyenne ou médiane peut être considérée comme la plus juste, ou la probabilité d'appartenance
aux classes voisines est de 0.5. La connaissance de la distribution par interprétations multiples
permet d'introduire des probabilités pour gérer l'incertitude spatiale sur la position des frontières.
L'attribution de la probabilité d'appartenance à chacune des classes serait alors faite de façon plus
systématique que par l'interprétation subjective de la théorie des sous-ensembles flous. En effet,
les valeurs seraient basées sur une expérimentation avec un échantlllomage significatif. Les
travaux introduisent l'incertitude due au (< flou » de la réalité, en permettant de la caractériser de
façon mathématique, statistique.
2.2.3 Les erreurs d'acquisition des données
Toute mesure directe d'un phénomène est ((contaminée » par des éléments aléatoires plus ou
moins contrôlables. Des opérations sont généralement nécessaires pour tenter de nettoyer les
données brutes, de façon a en tirer l'information désirée. Dans cette deuxième catégorie, on
s'intéresse aux erreurs sur les données brutes, avant traitement, qui sont dues aux limites
instrumentales de mesure.
II serait d'abord intéressant de faire une distinction entre les termes précision et exactitude. La
précision d'une mesure est liée à l'échelle de graduation de I'instnunent de mesure. Pour donner
un exemple simple, la précision d'une mesure faite avec une règle graduée au millimètre est plus
grande que celle d'une mesure faite avec une règle graduée au cm. Par ailleurs, lorsqu'on parle
d'exactitude d'une mesure, on fait référence à un décalage possible dans les valeurs mesurées,
indépendamment de la précision. L'inexactitude d'une mesure peut être introduite par une erreur
de manipulation telle une mauvaise calibration d'un appareil.
En télédétection, la précision est liée à la résolution du capteur, aux niveaux spatial et spectral.
La limite de résolution spatiale est responsable des effets de pixel mélangé (mixed pixel), tandis
que la limite de résolution spectrale empêche la distinction entre des objets qui possèdent des
caractéristiques spectrales rapprochées. Parmi les erreurs d'acquisition qui affectent l'exactitude
des données au niveau spectral, mentionnons les effets atmosphériques. Ils peuvent introduire
une erreur indésirable si on veut f&e une mesure des caractéristiques spectrdes au sol. Dans le
domaine spatial, les distorsions géométriques peuvent affecter l'exactitude du positionnement des
données. Les causes des distorsions spatiales peuvent être nombreuses: relief du terrain,
particulièrement en imagerie radar (effets de repliement et raccourcissement), turbulence, dans le
cas d'un capteur aéroporté, qui affecte l'altitude et l'attitude de l'avion, etc.
Présentons maintenant un survol de l'aspect statistique lié aux erreurs d'acquisition de données.
Pour toute observation ou mesure d'un phénomène, il existe un écart entre la valeur mesurée et la
valeur réelle caractérisant le phénomène. La différence entre ces deux valeurs définit l'erreur sur
la mesure. Étant donné que dans la plupart des cas, la valeur réelle demeure inconnue, on connaît
rarement l'erreur exacte sur une mesure. Pour tenir compte de l'imperfection des moyens utilisés
pour mesurer ou obtenir une valeur caractérisant un phénomène, on exprime plutôt la valeur avec
une incertitude associée-
Imaginons la répétition d'une mesure d'un phénomène, avec les moyens imparfaits que nous
possédons (la mesure d'une table avec une règle par exemple). Si le nombre de répétitions
tendait vers l'infini, on pourrait observer une distribution normale des valeurs mesurées xi. Sur
cette population de mesures, la moyenne des valeurs correspondrait à la meilleure représentation
de la valeur réelle.
p = l i m ( l / N L x i ) N-w
où xi : la valeur de l'observation i
N: le nombre d'échantillons
Chacune des déviations di entre la valeur moyenne p et la valeur mesurée xi correspondrait à
l'erreur sur cette mesure.
Et la déviation moyenne a, correspondant à l'erreur moyenne serait:
Pour éviter la valeur absolue qui rend l'analyse statistique plus difficile, les ternes de variance et
écart-type sont généralement utilisés pour caractériser la distribution.
La variance et l'écart-type (la racine carrée de la variance), sont des mesures de dispersion de la
population qui caractérisent, dans le présent contexte, l'incertitude associée aux limites
expérimentales pour déterminer la valeur réelle du phénomène.
2.2.4 Les erreunr introduites par le traitement
2.2.4.1 Introduction
Avec la technologie existante aujourd'hui et la prolifération des SIRS autant dans l'industrie que
dans les affaires publiques, les donnés brutes sont de plus en plus manipulées avant d'être
utilisées en format final. Que les données soient introduites dans les systèmes sous forme
vectorielle ou matricielle, elles subiront nécessairement des modifications. Le troisième niveau
d'erreurs que nous abordons concerne les erreurs qui sont introduites par toutes les opérations que
subiront les données brutes. La compréhension des effets de ces opérations sur l'incertitude, quoi
qu'on y porte de plus en plus d'attention, demeure faible.
2.2.4.2 Les données en format matriciel
Le modèle matriciel identifie la classe dominante dans chaque cellule et l'exemple typique est
représenté par une scène en télédétection. Lunetta (Lunetta et al., 199 1) a publié un intéressant
sommaire des différentes sources d'erreurs et de leur accumulation lors de l'intégration d'images
satellitaires dans les SIRS. Au cours des étapes subséquentes à l'acquisition, les erreurs
continuent de s'accumuler lors du traitement, de l'analyse, des conversions de formats, des
généralisations, etc. La présence des erreurs géométriques sur les données brutes a été notée
précédemment. Si les images doivent être combinées avec d'autres données spatiales, la
correction de ces erreurs est nécessaire. Les techniques de corrections géométriques existantes
impliquent généralement un rééchantillonnage dont l'effet sur l'intégrité des données originales
est peu connu. Par ailleurs, les effets du traitement des images sur l'intégrité radiométrique des
données onginales ne sont pas toujours connus ou considérés. De plus, une des importantes
sources potentielles d'erreurs en analyse d'images est le processus de classification, pour
plusieurs raisons, mentionnées dans la première partie: inhabilité du système à classifier les
classes mixtes, zones de transition, systèmes dynamiques, classes de définition ambiguës ou mal
définies. La classification introduit un élément d'erreur particulièrement difficile à quantifier.
Les convenions de formats appliquées aux images et les généralisations aux niveaux spectral
(filtres), thématique ou spatial, sont toutes des opérations qui introduisent des erreurs
supplémentaires. Finalement, les transformées dans les formules ou modèles mathématiques
appliquées aux données introduisent de nouveaux coefficients, qui, étant eux-mêmes estimés,
possèdent leur propre erreur qui se propage.
Généralement, en télédétection, l'évaluation des erreurs n'est effectuée qu'après toutes les étapes
mentionnées précédemment. L'évaluation est alors faite sur deux types d'erreur différents. La
première est l'erreur locatiomelle qui réfère à l'exactitude avec lequel les algorithmes placent les
pixels sur les projections de coordonnees, indépendamment de la précision des fkontières entre les
classes. Elle est évaluée par le RMSE (root-mean-square-error), qui est dérivée d'algorithmes qui
géoréférencent l'image. Le RMSE ne reflète pas vraiment la précision locationnelle de tous les
pixels de l'image, mais seulement celle des points de contrôle, et seulement par rapport une carte
de référence utilisée, qui comporte elle-même une certaine erreur (acquisition, interprétation).
Quant à l'erreur thématique, elle est évaluée à partir de la matrice de confusion. La matrice
exprime le nombre de pixels assignés à une certaine classe, par rapport à la classe réelle sur le
terrain. Elle sert ensuite de base pour une série de mesures statistiques descriptives et
analytiques, telles que le coefficient Kappa (Rosenfield et Fitzpatrick, 1986). La matrice donne
des estimations empiriques des probabilités de trouver la classe i en un point si, en réalité, la
classe j est présente, pour tous i j . Sa principale limite est l'assomption implicite que les
probabilités sont constantes sur toute la région couverte par la scène classifiée. La matrice ne
fournit pas d7infonnation locale sur les erreurs, et on sait que l'imprécision peut être plus grande
dans les zones de transitions ou de mélange de classe sur le terrain.
2.2.43 Les données en format vectoriel
Lorsque les données sont introduites dans les SIRS en format vectoriel, la réalité est représentée
par des éléments tels que points, lignes ou polygones. Si l'ensemble de données provient de
cartes thématiques, on l'introduit dans la base de données avec I'opération de numérisation. La
numérisation introduit une incertitude supplémentaire sur les données, principalement à cause des
variations significatives dans l'interprétation d'une carte entre différents opérateurs. Le niveau de
généralisation variera en créant un effet adoucissant plus ou moins important sur les contours, en
plus d'introduire une variation dans le nombre de polygones numérisés. Le modèle d'erreur
epsilon de Perkal (1956) a été repris par Chrisman (1982) pour tenir compte de l'incertitude de
frontière introduite de façon aléatoire dans un contexte de numérisation. À l'intérieur de la bande
epsilon, la probabilité de kouver la fkontière est de 1. Pour ce qui est de la classe et de ses
attributs, la probabilité d'appartenance aux classes voisines est de 0.5. Ce modèle ne tient pas
compte de l'incertitude liée au nombre de polygones qui peut varier selon l'opérateur et ne fournit
pas d'information sur la distribution de l'incertitude autour de la fkontière. L'incertitude due à la
numérisation est ajoutée à celle qui existe déjà sur la carte initiale. Cependant, selon Goodchild
et al., (1992), les erreurs introduites lors du processus de numérisation de données catégoriées
sont généralement négligeables si on les compare aux erreurs déjà présentes dans le document de
base et qui seront transférées dans la base de domees spatiales (acquisition, interprétation).
2.2.4.4 Les données ponctuelles
Si des données sont recueillies de façon ponctuelle puis introduites dans les SIRS, les erreurs
d'acquisition sur la mesure elle-même et les erreurs possibles de positionnement seront
introduites dans la base de données. Souvent, afin de combiner les données ponctuelles à d'autres
ensembles de données, on voudra obtenir une couverture continue et une opération
d'interpolation sera alors nécessaire. Il existe plusieurs techniques d'interpolation qui sont basées
sur la modélisation d'une variable spatiale continue par des fonctions mathématiques.
Cependant, la nature de la plupart des propriétés spatiales est telle qu'elle défie une simple
description mathématique. Les propriétés physiques naturelles semblent se comporter comme
des variables essentiellement aléatoires' avec une certaine structure spatiale (Oliver et Webster
1990). Une meilleure description de la variation spatiale est fournie par la théorie de la variable
régionalisée, développée par Matheron (1965, 1971). La méthode d'interpolation krigeage est
basée sur cette théone et c'est en partie pourquoi eiie est considérée par Oliver et Webster comme
la meilleure méthode d'interpolation pour les applications dans les SIRS. Par une approche
stochastique, le comportement de la variable est décrit, en tenant compte de l'aspect aléatoire et
de l'aspect structural de la variation spatiale. L'interpolation est sous-tendue par une hypothèse
de base et la validité de l'opération en dépend. 11 faut que la variation spatiale du phénomène
représenté par les valeurs ponctuelles soit statistiquement homogène sur toute la surface, c'est à
dire que le même patron de variation puisse être observé à toutes les positions de la surface. La
variation est mesurée en utilisant la semi-variance, qui peut être estimée à partir d'un échantillon
de données avec l'équation:
où Z(xJ : valeur du paramètre à interpoler, à la position q
y: semi-variance, exprimée dans les mêmes unités que les valeurs z à interpoler,
h: distance entre la paire de points
n: nombre de paires de points de l'échantillon séparés par la distance h qui varie.
La clé de l'investigation de la semi-variance est la construction du semivariogramme. Le semi-
variogramme est un graphique de la semi-variance y (h) sur l'axe des y en fonction de la distance
h entre les paires de points de l'échantillon sur l'axe des x. Le semivariogramme représente la
forme générale de la variation, sa magnitude et son échelle spatiale (Arc/InfoTU 1991). Le
semivariogramme est caractérisé par trois éléments principaux. Le seuil indique la valeur pour
laquelle la fonction demeure constante tandis que la distance augmente. Le a rayon
d'influence », défini seulement pour les semivariogrammes dits limités correspond à la distance
critique pour laquelle la structure de corrélation cesse d'exister et les valeurs varient de façon
aléatoire. Finalement, le (( nugget » (Co) indique la contribution à la variance par le bruit. 11 peut
être défini comme la limite de la fonction lorsque la distance h tend vers O.
Un des grands avantages qu'offre la méthode du krigeage par rapport aux autres techniques
d'interpolation est qu'il fournit une estimation de l'erreur (la variance) pour chaque valeur
prédite. La théorie de la variable régionalisée sur laquelle se base la méthode d'interpolation
krigeage fait intervenir L'importante notion d'autocomélation spatiale dans les données.
L'autocorrélation spatiale fait référence à l'innuence d'une valeur en une position donnée sur les
valeurs aux positions voisines et devrait être considérée dans la modélisation de la plupart des
phénomènes naturels. La difficulté à définir exactement la structure de l'autocorrélation dans
différents types de données (matriciel, vectoriel) amène une des plus grandes difficultés en
propagation des erreurs. Les modèles de propagation développés jusqu'à maintenant ne
s'appliquent qu'à des données qu'on considère non corrélées spatialement.
2.2.4.5 La combinaison des données
Il existe une demande grandissante pour les produits qui intègrent des données multisources, aux
SIRS. Cependant, les ensembles de données spatiales qui proviennent de sources variées
modélisent la réalite de façon différente, ce qui les rend souvent incompatibles. Pour combiner
des données spatiales multisources, il est d'abord nécessaire de les rendre compatibles. Les
principales différences entre les ensembles de données se trouvent (Wang et Howarth, 1994):
dans la structure des données, vectorielle ou matricielle
dans les types de données, binaire, nominal, ordinal, etc.
dans le contexte spatial et les caractéristiques géométriques
dans le niveau de généralisation
Des transformations seront nécessaires pour rendre compatibles les différents ensembles de
données et chaque transformation introduira une erreur supplémentaire par rapport a la réalité
initiale. A mesure que la donnée est manipulée, elle risque de s'éloigner de la réalité qu'elle
servait a représenter par modélisation.
2.2.4.6 La propagation des erreurs
2.2.4.6.1 Théorie de propagation des erreurs
Après avoir mentionné les différentes sources d'erreurs présentes dans les données, dues à la
difficulté de représentation de la complexité de la réalité, aux limites expérimentales l o s de
l'acquisition et aux opérations nécessaires sur les données brutes, introduisons maintenant la
notion de propagation des erreurs qui permet de faire un lien entre les différents niveaux
d'erreurs.
Lorsqu'un attribut est difficilement mesurable ou observable directement, on peut avoir recours à
la modélisation. On se sert alors de paramètres plus faciles à mesurer pour dériver l'attribut en
question.
Dans un tel cas, la problématique, en propagation des erreurs est la suivante: connaissant la valeur
moyenne et l'écart-type sur les attributs d'entrée, déterminer la moyenne et l'incertitude (écart-
type) sur l'attribut dérivé. La valeur la plus probable de x est donnée par:
- et l'incertitude sur la valeur résultante de x peut être déterminée en considérant la distribution des valeurs xi résultant de la combinaison des mesures individuelles u fi . v ZP . ..-
Pour un nombre infini d'expérimentations, la moyenne de la distribution correspondra avec la
moyenne x de l'équation 2-1 0 et la variance sera exprimée par l'équation 2- 12.
4 - - Si on exprime les déviations (xi - x) en tennes de déviations (ui - u) , (vi - v) des paramètres
observés par l'expansion des séries de Taylor suivante:
2- 12 devient
Les deux premiers termes peuvent être exprimés en termes de variance
- - cru2= lim l / N (~ i - u)' q 2 = l i m l / N ~ ( v i - v ) '
et pour exprimer le dernier terme sous la même forme, on introduit la notion de covariance
ainsi, l'équation 2- 14 devient
où les deux premiers termes, qui domineront probablement (Bevington, 1 969), correspondent aux
apports des paramètres respectifs sur l'incertitude h a l e tandis que le dernier terme tient compte
de la corrélation entre les fluctuations des différents facteurs. Si on présume que les fluctuations
de u et v sont non corrélées, l'équation peut être réduite en négligeant le terme de covariance.
L'incertitude finale correspondra à l'addition des iduences respectives des incertitudes apportées
par chaque paramètre.
2.2.4.6.2 La propagation d'erreurs dans les SIRS
Les paragraphes précédents présentent la théorie de propagation des erreurs lorsque différentes
données d'entrée sont combinées par une fonction quelconque. Il est intéressant de noter les
applications de cette théorie dans le contexte spatial des SIRS (système d'information a
références spatiales). Les utilisateurs des SIRS ne désirent pas seulement retrouver des entités
spatiales et leurs attributs associés mais aussi, désirent combiner les bases de données pour en
former des modèles. Les utilisateurs réalisent de plus en plus l'importance d'obtenir de
l'information sur la qualité des résultats si la modélisation doit servir d'argument pour des prises
de décision. Dans le contexte spatial des SIRS, le problème de la propagation des erreurs peut
être approché de deux façons distinctes: la simulation stochastique ou l'approche analytique.
L 'approche stochastique
Dans l'approche stochastique, il s'agit d'effectuer un grand nombre de simulations du modèle
jusqu'à l'obtention d'un nombre suffisant de réalisations qui permette de connaître la forme de la
distribution d'une population (qui correspond aux formes possibles du résultat du modèle). La
connaissance de la distribution permet de dériver la valeur moyenne et l'écart-type des résultats,
qui correspondent respectivement à la valeur résultante la plus près de la réalité et a l'incertitude
sur le résultat du modèle.
Selon Goodchild et al., (1992) un modèle d'erreur pour une base de données spatiales peut être
défini comme un « processus stochastique, pouvant générer une population de versions
distorsionnées d'un même patron de variation géographique D. La différence entre les membres
de la population représente les incertitudes dans les données brutes, interprétées ou traitées. La
plus simple représentation d'un modèle d'erreur est la distribution gaussienne, qui constitue une
base pour la description des erreurs plus qu'un modèle exact. Ce modèle implique que le
processus d'induction d'erreurs combine un large nombre de distorsions aléatoires, indépendantes
et additives, d'origine inconnue. Lorsque plus d'information est disponible sur les sources
d'erreurs, le modèle gaussien doit être remplacé par un modèle plus spécifique. Le modèle
d'erreur présenté par Goodchild s'applique a des données catégoriées en format matriciel. Il
propose l'attribution d'un vecteur de probabilité d'appartenance à chaque classe présente, pour
chaque pixel. La probabilité que la cellule i j , tombe dans la catégorie k est donnée par hj. Le
vecteur associé à chaque cellule est de la forme:
En télédétection les probabilités peuvent être interprétées comme une indication d'une
classification incertaine (inclusions ou mélange de classes, créant Le pixel mélangé, transitions
floues, classes hétérogènes, inclusions). En cartographie interprétative, (tramfornée en format
matriciel pour les besoins du modèle), l'approche par vecteur de probabilité peut être utilisé pour
caractériser des classes hétérogènes (90% classe A et 10% classes B) ou les zones de transition
entre des classes. Par exemple, la transition entre un polygone de classe A et polygone de classe
B peut être représenté par des cellules avec vecteurs de probabilités variant graduellement ( (1, O )
( O , O ) ( O , 1 ) Le degré de flou d'une limite est représenté par un gradient de probabilité.
Le vecteur de probabilité associé avec chaque pixel caractérise l'information connue à propos de
la variation géographique détaillée dans la région cartographiée. Chaque échantillon de carte
produite par le modèle d'erreurs est une réalisation d'un processus stochastique défini par les
probabilités du vecteur. Si une cellule de la matrice est comparée sur un grand nombre de
réalisations, la proportion de réalisations dans laquelle cette cellule sera assignée à une catégorie
donnée correspondra à une approximation de la probabilité du vecteur.
L 'approche analytique
Pour ce qui est de l'approche analytique, elle est basée sur les équations de propagation de la
section 2.2.4.5. Selon cette approche, Heuvelink et al., (1989) ont proposé un modèle de
propagation des erreurs qui s'applique au contexte spatial des SES. Le modèle s'applique plus
particulièrement au cas ou des données quantitatives de plusieurs couvertures sont combinées par
une fonction mathématique continue pour dériver une variable de sortie. La discussion est limitée
aux modèles qui utilisent les opérations arithmétiques simples (+ - I * exp, puissance, etc) ou une
combinaison de ces dernières, comme dans les équations de régression multiple. Chaque cellule
est traitée comme une position spatialement indépendante, x. Les valeurs P dérivées du modèle
provie~ent du vecteur vertical des valeurs des attributs à la position x, a travers les
superpositions, pour chaque cellule x. Le modèle peut généralement être exprime par
P = f ( Al, A2, A3, ... An) (2- 1 9)
où Al, A2, ... An sont les valeurs des propriétés originales à la position x utilisées pour calculer P
à la position x. La carte ha le de P pour toute la surface est obtenue en effectuant l'opération
indépendamment pour chaque cellule. Pour effectuer la propagation des erreurs dans un tel
modèle, Heuvelink et al. ont repris l'extension de séries de Taylor (équation 2-17). Connaissant
les valeurs et écart-type des attributs d'entrée, il est possible de dériver, en plus de l'attribut fmal
P, son incertitude (écart-type) associé q. La contribution de chaque donnée d'entrée sur l'erreur
h a l e peut être analysée indépendamment.
Les modèles existant dans la réalité ne se limitent pas toujours à la combinaison de données par
des opérations simples selon un vecteur vertical. II existe un autre type de modèle pour lequel la
nouvelle valeur dérivée P' au point x dépend des associations spatiales dans une région W autour
de la position x.
P' = f (Alw, A2w, ..., Anw) (2-20)
où Al w, A2w, ..., Anw sont les valeurs des propriétés originales dans toute la région W.
On peut se demander de quelle façon l'autocorrélation spatiale dans les données d'entrée affectera
l'erreur sur le résultat d'une combinaison de ces données. Le modèle d'erreur développé par
Heuvelink et al. et basé sur I'équation (2-17) ne permet pas de toucher à ce problème. Jusqu'a
maintenant, il n'existe pas d'outil mathématique au point qui permette d'effectuer la propagation
des erreurs en tenant compte de l'autocorrélation spatiale des données, par une approche
analytique. Le facteur de corrélation de la formule 2- 17 s'applique à la relation existant entre les
données propagées verticalement et non a l'autocorrélation existant dans les différents ensembles
de données. La seule façon présente de tenir compte totalement de l'autocorrélation spatiale des
données est de déterminer l'erreur par simulation stochastique.
2.2.5 Conclusions
A la fin de ce survol sur la propagation des erreurs spatiales, on perçoit aisément que l'on
s'attaque à un domaine très complexe dans lequel beaucoup d'éléments doivent être considérés.
Jusqu'à maintenant, on a vu que plusieurs problématiques principales ont été ciblées. Pour les
présenter dans les sections précédentes, nous avons choisi une subdivision en trois catégories. La
difficulté de représentation de la continuité des classes dans le monde physique avec les outils
mathématiques conventio~els constitue la première de ces problématiques principales. La
théorie des sous-ensembles flous et les interprétations multiples sont les principales avenues
empruntées pour tenter de caractériser l'erreur à ce niveau. La deuxième problématique touche
aux erreurs dues aux limites des instruments par lesquels on acquiert les domees. La partie
considérée comme aléatoire de cette erreur est depuis longtemps gérée en la représentant par une
distribution statistique normale. La troisième catégorie comprend probablement les erreurs les
plus complexes et difficiles à caractériser. Ces erreurs sont introduites par les opérations
effectuées sur les données brutes. Avec la technologie aujourd'hui accessible pour traiter
l'information des bases de données, ces opérations sont de plus en plus nombreuses et
nécessaires. Finalement, il est aisément possible de propager des erreurs apportées à différents
niveaux dans un modèle, comme le démontre la théorie mathématique présentée dans la section
précédente. Cependant, les ensembles de données et les erreurs doivent être de même type,
contrairement à la réalité de bien des bases de données actuelles. De plus, la propagation est
limitée à un vecteur de données vertical, impliquant l'hypothèse que les données sont exemptes
d'autocorrélation spatiale. Chacun des travaux mentionnés auparavant se penche sur un aspect
particulier du problème de propagation et les pas se font graduellement.
La modélisation des erreurs dans un modèle spatial qui implique l'intégration de données
multisources demanderait de tenir compte et de combiner tous les niveaux d'erreurs qui ont été
étudiés plutôt séparément jusqu'à maintenant. Le travail demanderait de faire ressortir les
sources les plus signincatives et de combiner plusieurs modèles d'erreurs. Cette tentative de
combiner les différents modèles d'erreurs, est ce qui constitue la nouveauté dans l'effort entrepris
au cours du présent projet de maîtrise.
Chapitre 3: Le modèle DRASTIC original
3.1 Le modèle théorique
Le modèle DRASTIC a été originalement développé aux États-unis afin de permettre l'évaluation
du potentiel de pollution des nappes d'eau souterraines (Aller et al., 1987). Le développement du
modèle est basé sur quatre hypothèses majeures:
La contamination provient de la surface du sol.
Le contaminant se propage dans le sous-sol par les précipitations (infiltration efficace).
Le type de contaminant n ' in te~en t pas sur le degré de vulnérabilité.
La zone d'étude est plus grande que 100 acres (environ 400 000m2).
Pour concevoir le modèle, les divers paramètres affectant la vulnérabilité de la nappe
d'eau souterraine ont été évalués afin de déterminer leur importance relative. Suite à cette
évaluation, les facteurs qui ont été retenus pour la détermination de l'indice DRASTIC sont les
suivants :
D - (Depth to water) Profondeur de la nappe d'eau
R - (Recharge (net)) Recharge nette
A - (Aquifer Media) Milieu aquifère
S - (Soi1 media) Type de sol
T - (Topograhpy) Pente
1 - (Impact of the vadose zone) Impact de la zone vadose
C - (Conductivity) Conductivité hydraulique de l'aquifère
Un poids (de 1 à 5) a été attribué à chaque facteur selon son importance relative sur la
vulnérabilité de la nappe. Les facteurs les plus significatifs ont un poids de 5 tandis que les
moins significatifs ont un poids de 1. (tableau 3-1)
Tableau 3- 1 Pondération pour Ies param&tres de DRASTIC
1
1 Impact de la zone vadose 1 5 1
- -
Paramètre L
Profondeur de la nappe d'eau Recharge
Milieu aquifêre Type de sol
1
1 Conductivité hydraulique 1 3 1
Pondération 5 4 3 2
Pour chaque paramètre, le modèle propose des chartes pour l'attribution de cotes, qui sont parfois basées sur des fonctions continues. (Les tableaux 3-2 à 3-8)
Relief 1
TabIeau 3-4 Cotes pour le milieu aquifère
Tableau 3-2 Cotes pour la profondeur Tableau 3-3 Cotes pour la recharge Recharge
t
Intervalle 1 - 2 2 - 4 4 - 7 7 - 10 10 +
I
Cote 1 3 6 8 9
Milieu aquirere
1 Grès massif 1 4 - 9 1 6
Roche Ignée/Métamorphique Ignée/Métamorphique météorisée
Till glaciaire Calcaire, grès lités et Séquences Shale
1 Calcaire massif 1 4 - 9 1 6
Cote typique 2
Intemalle Shale massif
I 1
1 Sable et gravier 1 4 - 9 1 8
Cote 1 - 3 2 - 5 3 - 5 4 - 6 5 - 9
3 4 5 6
~ a s & e Karst calcaire
2 - 10 9 - 10
9 10
Tableau 3-5 Cotes pour le type de sol Tableau 3-6 Cotes pour la pente
Type de sol 1 Intervalle 1 Mince ou absent 1 10 1
Gravier Sable
Tourbe
10 9 8
~ x r e « aggregated and or Shrinking N Glaise sableuse
7 6
Glaise Glaise silteuse
1 non< aggregated and Shrinking » 1 1 1
5 4
Glaise argileuse Fumier
1 Relief (%pente) 1
3 2
1 Intervalle 1 Cote 1
Tableau 3-7 Cotes pour le matériel de la zone vadose TabIeau 3-8 Cotes pour la conductivité
Impact de la zone vadose Intervalle
Couche confinée Siltkrgile
Shale Calcaire
Grès Calcaire, Grès, S hale
lités Sable et gravier avec silt
et argile significafifs Roche
Basalte
Cote 1
2 - 6 2 - 5 2 - 7 4 - 8 4 - 8
Ignée/Métamorphique Sable et gravier
Karst calcaire 1 8 - 1 0 1 10 1
Cote typique 1 3 3 6 6 6
4 - 8
2 - 8
6
4
6 - 9
L'indice DRASTIC, pour une région homogène donnée, se calcule à l'aide d'un modèle additif,
représenté par l'équation 3- 1.
~onductivitéhydraulique -
8
Intervalle 1 - 100
100 - 300 300 - 700 700 - 1000 1000 - 2000
Cote 1 2 4 6 8
où y: cote attribuée au paramètre selon les chartes DRASTIC
q: poids du paramètre selon le modèle DRASTIC
Lorsque l'indice est calculé, il est possible d'identifier les zones où la nappe d'eau est plus
susceptible à la contamination. Plus l'indice est élevé, plus le potentiel de pollution est élevé.
L'indice DRASTIC est conçu pour effectuer une évaluation relative de la vulnérabilité et non
pour fournir des réponses absolues.
3.2 Application du modèle original
Dans le document original du modèle DRASTIC, le concept de G contexte hydrogéologique »
(hydrogeological setting) est utilisé. Un contexte hydrogéologique est caractérisé par une
description de tous les facteurs majeurs hydrogéologiques et hydrologiques qui affectent et
contrôlent le mouvement de l'eau souterraine dans une région. Elle est définie comme étant une
unité cartographiable dont les caractéristiques hydrogéologiques sont communes à l'unité, et par
conséquent, dont la vulnérabilité à la contamination introduite par des polluants est commune à
l'unité. Les compositions hydrogéologiques, déterminées a priori par observation, sont
représentés par des diagrammes de blocs correspondant à un environnement hy drogéologi que
dont les conditions sont homogènes. Ces compositions servent de guide lors de la création d'une
carte DRASTIC de vulnérabilité pour une région donnée. Les étapes suggérées pour la création
d'une carte DRASTIC selon le modèle original sont les suivantes:
Identification de la région sur laquelle portera la cartographie de vulnérabilité. Familiarisation
avec l'hydrogéologie de la région et identification préliminaire du (( contexte
hydrogéologique N qui correspond le mieux aux conditions de la région.
Récolte de toute l'information disponible sur la région et pouvant être utile pour définir les
paramètres de DRASTIC (rapports, cartes, forages, etc.). Lecture et évaluation de ces
données.
Choix préliminaire de l'aquifere ou des aquifères qui devraient être évalués. Différents
aquifères peuvent être évalués sur une carte. Ceci est nécessaire lorsque l'aquifere n'est pas
continu dans la région. Le modèle DRASTIC demande de caractériser l'aquifère comme étant
captif ou libre (le choix d'un état intermédiaire n'est pas possible). Le choix entre nappe
captive et libre aura un influence sur la détermination de plusieurs autres paramètres.
Début de la cartographie sur des cartes topographiques. La cartographie est possible à partir
de la création d'une série de transparents superposés qui représentent les différents paramètres
DRASTIC. En théorie, un transparent est nécessaire pour chacun des paramètres. Cependant,
les facteurs DRASTIC sont souvent étroitement associés. Par exemple, dans certaines régions,
le sol et la topographie sont intimement reliés. Daos ces circonstances, il n'est pas nécessaire
de créer sept superpositions séparées. On propose de débuter la cartographie avec le paramètre
« milieu aquifère » parce que les valeurs pour les autres paramètres peuvent dépendre du choix
de l'aquifere (exemple la profondeur). En se référant à l'information disponible, il faut
délimiter les unités homogènes pour le paramètre DRASTIC, en utilisant les catégories
proposées (intervalles de valeurs et catégories). Puisque les données proviennent de sources
différentes, elles sont produites à diverses échelles. Lorsque la carte de potentiel est créée, il
est alors important de faire correspondre les échelles, soit en recueillant de l'information
supplémentaire pour combler les manques, en effectuant des interpolations prudentes dans
certains cas (conductivité) ou en généralisant l'uiformation dans d'autres cas. Cet effort pour
essayer d'évaluer les données à des échelles relativement égales produit une meilleure carte
finale. La délimitation de zones d'après les intervalles des paramètres doit être faite pour
chacun des paramètres.
Superposition des transparents des différents paramètres et traçage de toutes les lignes de
limites qui ont été faites. Si les régions ainsi délimitées deviennent plus petites que 100 acres
(400 000 m2), il faut à nouveau généraliser. Le choix des lignes restantes, lorsqu'il faut
généraliser, sera basé sur la superposition de plusieurs lignes, la fiabilité des données, le poids
des paramètres délimités par la ligne à éliminer ou conserver, etc. Une part de subjectivité est
inévitable.
Identification des « contextes hydrogéologiques » présente sur la carte résultante.
Sommation et identification de l'indice résultant pour chaque région délimitée. Pour chaque
unité, on note l'indice DRASTIC et le contexte hydrogéologique correspondant.
Une fois la carte de vulnérabilité finalisée, les lignes de contour impliquent une progression
séquentielle entre les unités et non un changement abrupt.
Chapitre 4
Méthodologie proposée et modèle d'erreur
4.1 Méthodologie proposée
4.1.1 Le modèle de base
Dans le cadre du programme PREDIR (programme de recherche sur l'exploitation des domees
images radar) le modèle DRASTIC a été implanté sur le système Arc/XnfoTM par Jacynthe Pouliot.
La région pour laquelle le modèle DRASTIC a été appliqué se trouve au Nord-Ouest de Montréal
(Lachute), Québec, Canada Elle couvre une superficie d'environ 40 lan * 30 km. Différentes
sources de données ont été utilisées pour élaborer le modèle : cartes numérisées, données
ponctuelles provenant de forages et de stations météorologiques, une image satellitaire et un
modèle numérique de terrain. De nombreuses opérations étaient requises pour rendre les données
compatibles et concevoir le modèle. Toutes les opérations nécessaires a la combinaison des
données pour créer le modèle DRASTIC ont été effectuées a partir des commandes disponibles
avec le SIRS Arc/Infow et automatisées à l'aide du langage de programmation AML (Arc Macro
Language). Toutes les données ont été transformées en format matriciel afin de fournir, comme
produit final, une couverture matricielle de l'indice DRASTIC. L'objectif du présent projet était
de concevoir un modèle d'erreur qui permettrait de générer une couverture matricielle des valeurs
d'incertitude associée à la couverture des valeurs fournies par le modèle DRASTIC. Les détails
du modèle dans sa version Arc/Infom sont présentés a la section 4.2.1.2 avec l'inventaire des
sources d'erreur.
4.1.2 Approche méthodologique
Comme nous l'avons mentionné dans la section 2.2.4.6, deux orientations peuvent être
considérées pour caractériser les erreurs dans un modèle spatial : une simulation stochastique du
modèle ou une propagation analytique. Dans le présent projet, l'approche analytique est
favorisée, mais rappelons quand même brièvement ce qui caractérise chacune de ces approches.
Soit un modèle simple représenté par l'équation 2-9 :
l'approche stochastique demande d'opérer le modèle un grand nombre de fois, de façon à obtenir
une distribution des différents résultats 'Y. Cette distribution permet d'estimer la valeur
résultante qui sera la plus proche de la réalité ainsi que son incertitude associée, à partir de
paramètres qui décrivent la distribution (tels que la moyenne et la variance).
Quant à l'approche analytique, elle implique une modélisation mathématique basée sur l'équation
de propagation des erreurs 2-1 7 dont le développement est présenté à la section 2.2.4.6.
Dans le cas de domees en format matriciel, le modèle est conçu pour être appliqué cellule par
cellule, pour une propagation verticale des erreurs. La figure 4-1 représente la différence entre les
deux approches.
Parce qu'elle est empirique (on regarde les résultats pour estimer l'incertitude), la simulation
stochastique est présentement la seule approche qui permet de traiter adéquatement
l'autocorrélation spatiale. La propagation modélisée par l'approche analytique est verticale et ne
tient pas compte de l'effet qu'aura l'autocorrélation spatiale sur la distribution de l'incertitude
résultante. Malgré cette faiblesse, c'est l'approche analytique qui a été retenue pour deux raisons
principales. D'abord, un modèle complexe comme DRASTIC (section 4.2.1.2) implique un très
grand nombre de paramètres et d'opérations qui rendraient la simulation stochastique trop lourde
à opérer. De plus, il est important de noter que notre intérêt principal portait sur les erreurs
introduites par les données satellitaires. Comme nous l'avons mentionné auparavant, l'approche
analytique permet d'analyser l'apport de chaque attribut d'entrée de façon indépendante dans la
propagation des erreurs tandis que la simulation stochastique ne permet pas cette dissociation.
Figure 4- 1 Représentation des approches pour modéIiser I'incertitude
La simulation stochastique L'approche analytique
x = f (qv, ...)
t & = f (u, V, du, dv, ...) Modklisation basée sur l'équation 2- 17
- x moyen o,
Ainsi, la contribution de la télédétection sur l'erreur finale du modèle peut être isolée. Les
difficultés potentielles causées par l'autocorrélation spatiale seront rapportées à la h de l'étude
et on se concentrera pour l'instant sur le problème d'intégration verticale des erreurs dans le
modèle.
Le projet a été divisé en deux phases : d'abord la conception du modèle d'erreur, puis son
application sur Arcfidom.
4.1.3 Phase 1 : la modélisation
Pour un modèle simple dont on connaît l'incertitude associée aux paramètres d'entrée (u et v de
l'équation 2-91, l'équation de propagation 2-1 7 permet de dériver l'incertitude sur le résultat «x »
du modèle. L'incertitude sur x est simplement estimée par la sommation des dérivées partielles
de la fonction (le modèle) par rapport a chacun des paramètres (u et v) multipliées par
l'incertitude de ces paramètres. On y additionne le facteur de corrélation, dernier terme de
l'équation. Avec un modèle comme DRASTIC l'équation ne peut pas être appliquée telle quelle.
DRASTIC est modélisé a partir de différents types de données combinés par de multiples
opérations (rappelons que les détails de la version Arc/Infom de DRASTIC sont présentés à la
section 4.2.1.2). En observant l'équation 2-17, on voit que le modèle d'erreur sera lui-même
encore plus complexe que le modèle DRASTIC auquel il sera appliqué. La difficulté du présent
projet était de mettre de l'ordre dans cet ensemble de données et d'opérations afin de donner une
structure logique à un modèle d'erreur qui sera applicable à DRASTIC. Pour initier cette
entreprise, le modèle DRASTIC a été décomposé de façon à permettre l'inventaire de toutes les
sources d'erreurs présentes pour le calcul de chaque paramètre. Par la suite, il fallait tenter de
hiérarchiser les erreurs des différentes sources, selon leur apport respectif sur l'erreur finale. En
se basant sur cette pondération, il fallait trouver des modèles globaux d'erreur qui
représenteraient de façon juste I'incertitude sur les différents ensembles de données. Finalement,
il fallait trouver la façon de combiner ces différents modèles d'erreurs, pour former le modèle
d'erreur global.
4.1.4 Phase 2 : application du modèle d'erreur au SlRS Arcllnfom
Pour la deuxième phase du projet, le modèle conçu a été appliqué directement sur Arc/Infom.
Pour ce fiiire, les commandes Arc/Infom ont été utilisées et les opérations ont été automatisées à
l'aide de la programmation AML (Arc Macro Language). Tel que mentionné précédemment, le
modèle d'erreur est appliqué cellule par cellule, verticalement. Pour cette deuxième phase, de
nombreuses couvertures intermédiaires ont dû être créées. Étant donné que les opérations
demandaient beaucoup de mémoire, nous n'avons pas pu traiter la surface totale que couvrait le
modèle DRASTIC original. Nous avons dû nous limiter à une sous-région, en prenant soins de
nous assurer de sa représentativité. Seule la sous-région choisie est présentée dans les résultats
du chapitre suivant. De plus, pour alléger la présente version du modèle d'erreur, le facteur de
corrélation de l'équation 2-1 7 n'a pas été calculé. Selon Bevington (1969)' les deux premiers
termes de l'équation domineront probablement, c'est pourquoi nous nous sommes permis cette
simplification. L'omission du facteur de corrélation dans le modèle sera rapportée en discussion.
DRASTIC est composé de la sommation pondérée de cotes attribuées à sept paramètres (tableaux
3-1 à 3-8) : profondeur, recharge, milieu aquifère, etc., décrits à la section 3-1. Nous avons limité
la programmation du modèle au paramètre (mecharge >> de DRASTIC. Le calcul de la recharge
fait intervenir tous les différents types de données présents dans DRASTIC. La principale raison
pour laquelle l'analyse a été concentrée sur la recharge est qu'il s'agit du seul paramètre de
DRASTIC qui fait intervenir une image satellitaire, tel que décrit a la section 4.2.1.2. Dans le
calcul du paramètre arecharge » on retrouve toutes les difficultés de modélisation de la
propagation d'erreurs présentes dans le modèle DRASTIC intégral. Le modèle d'erreur développé
pour le paramètre recharge peut par la suite être facilement adapté aux six autres paramètres pour
créer le modèle estimant l'incertitude sur l'indice DRASTIC final.
La version ArcAnfow de DRASTIC développée par Mme Pouliot fournit une couverture en
format matriciel de l'indice DRASTIC. L'objectif était de développer un modèle d'erreur
applicable à cette version (( SIRS )) de DRASTIC, mais en fait, étant donné la nature de la
modélisation, le modèle lui-même (DRASTIC) ne peut pas être dissocié du calcul de son
incertitude. Il est important de saisir que le modèle développé dans le cadre de ce projet produit
une couverture matricielle de la valeur finale de cote de recharge (tableau 3-3) et une couverture
de l'incertitude associée a cette cote. Ces couvertures sont présentées et décrites au chapitre 5, de
même que quelques-unes des nombreuses couvertures intermédiaires qui ont dû être générées
pour concevoir le modèle. Ainsi, seules les couvertures initiales de Mme Pouliot ont été utilisées
et non son modèle intégral. Sa méthodologie originale pour implanter le paramètre recharge de
DRASTIC a été généralement respectée (même sources de données et opérations). Les quelques
modifications qui ont été apportées sont décrites à la section 4.3.
4.2 Le modèle d'erreur
4.2.1 Description des sources d'erreurs sur le modèle DRASTIC.
Même si le modèle d'erreur n'a été appliqué qu'au paramètre recharge, nous avons choisi de
présenter une description des sources d'erreurs sur les sept paramètres DRASTIC. La Section
4.2.1.2 présente la façon dont chacun de ces paramètres a été implanté sur ArcMo selon
l'approche de Mme Pouliot. Pour chacun des paramètres, une couverture matricielle a été créée.
Les valeurs de la matrice (composée de i colonnes et j rangées) correspondent à la cote attribuée
au paramètres a la position i j, selon les tableaux 3-2 à 3-8 et les conditions présentes. Toutes les
opérations nécessaires à la modélisation sont décrites, suivies de l'inventaire des sources
d'erreurs liées à cette modélisation. Les paramètres autres que la recharge sont présentés à titre
informatif seulement et le lecteur peut facilement en éviter la lecture s'il le désire.
Même si nous nous intéressons aux sources d'erreurs attribuables à l'intégration de données
multisources dans un modèle implanté sur un SIRS nous soulignons, à la section 4.2.1.1 qu'il
existe toujours des sources d'erreurs attribuables au modèle original lui-même (DRASTIC).
4.2.1.1 Erreurs sur Ie modèle lui-même
Tout modèle est une représentation approximative de la réalité et il en est de même pour le
modèle DRASTIC. Nous ne donnerons pas une description détaillée des points qui pourraient
être discutés sur la validité du modèle DRASTIC (certains experts dans le domaine pourraient
fournir beaucoup plus d'uiformation sur le sujet) mais mentionnons quand même quelques
éléments.
Le respect des quatre hypothèses de base: le modèle est basé sur quatre hypothèses qui ne sont
peut-être pas toujours respectées là où le modèle est appliqué (section 3-1).
Le choix des paramètres du modèle: dans la réalité, la combinaison des différents facteurs qui
influencent la vulnérabilité est complexe. Pour élaborer le modèle, un choix a été fait sur les
paramètres qui devaient être retenus dans le calcul de l'indice de vulnérabilité. Sept facteurs
ont été retenus (profondeur, recharge, milieu aquifère, etc.). Tel que mentionné dans le livre
de base, ce choix fut basé sur I'influence des paramètres mais aussi sur la possibilité de
mesurer les parametres (Aller et al., 1987).
Les coefficients du modèle (la pondération accordée aux différents paramètres tableaux 3-1 à
3-8): les coefficients sont attribués selon des relations surtout empiriques. Ces relations ne
s'appliquent peut-être pas aussi aisément à tous les cas rencontrés. Par exemple, le modèle
DRASTIC est appliqué au Québec mais les coefficients ont été détermines à partir
d'observations sur le terrain aux ~tats-unis. Les coefficients sont estimés et les erreurs qui y
sont associées sont inconnues.
Même si le modèle DRASTIC est maintenant utilisé par des agences gouvernementales
américaines et canadiennes, qu'il est intégré dans des programmes de formation universitaire et
qu'il est sans doute le meilleur modèle de vulnérabilité actuellement disponible, il n'en demeure
pas moins critiqué par les hydrogéologues. La vulnérabilité est évaluée selon un indice généré
par DRASTIC. L'indice permet de comparer la vulnérabilité de différents sites, mais en tant que
tel, de façon absolue, il n'a pas de signification particulière.
4 3 - 1 2 Description des sources d'erreurs pour l'application de DRASTIC au SIRS
Présentons maintenant la description des opérations effectuées pour modéliser DRASTIC de
même que les différentes sources d'erreurs associées à ces opérations pour chacun des
paramètres. Mais auparavant la section 4.2.1.2.1 soulève un problème d'échelle qui est du à
l'implantation de DRASTIC sur un SIRS. Ce problème a été identifié dès le début du projet.
4.2.1.2.1 Modifications de la structure du modèle dues à son implantation dans un SIRS
(ArclInfoy
L'implantation du modèle DRASTIC sur Arc4nfoTM exige certaines modifications dans la
structure du modèle original. Rappelons que le modèle DRASTIC original, donne comme
produit final, une carte de polygones homogènes caractérisés par un indice DRASTIC variant de
1 à 9. L'indice permet de comparer la vulnérabilité des différentes régions homogènes
(polygones). Plus l'indice est élevé, plus la vulnérabilité est grande. Des le début du projet, un
problème d'échelle a été identifié. La quatrième hypothèse sur laquelle est basé le modèle
original stipule que la région couverte doit être plus graude que 100 acres, c'est à dire environ
400 000 m2. Lon de la détermination finale des zones homogènes (polygones), lorsque l'unité
devient plus petite que 400 km2 après superposition des différents paramètres, il est suggéré de
faire à nouveau des généralisations (section 3.2). Donc, les plus petits polygones suggérés ont
une superficie d'environ 400 km2. Or, la version Arc/infofM du modèle a été implantée pour une
région d'environ 30 * 40 km, une superficie inférieure à l'unité homogène minimale proposée par
DRASTIC. Étant donnée la nature des données utilisées et leur transformation pour
l'implantation dans un SIRS, il est nécessaire d'effectuer une dissociation des unités homogènes
par rapport au modèle original. Toutes les données sont transformées en format matriciel, avec
des cellules unitaires de 12.5 ou 25 m2. Le problème d'échelle se trouve au coeur d'une
problématique importante en modélisation environnementale sur SIRS. Dans un contexte de
prises de décisions on est généralement intéressé aux attributs applicables à des régions plus
grandes que la cellule unitaire introduite dans les SIRS. Il sera alors désirable d'effectuer une
agrégation des valeurs résultantes afin d'obtenir des unités homogènes plus grandes. Ce
problème fait intervenir l'autocorrélation spatiale et la façon dont elle influencera la propagation
des erreurs lors de l'étape d'agrégation. Cependant, dans cette première version du modèle
d'erreur, comme nous avons mentionné précédemment, on se penchera sur la propagation
verticale des erreurs, sans effectuer l'agrégation et sans tenir compte de l'influence de
I'autocorrélation spatiale. Ce problème d'échelle n'est soulevé qu'à titre informatif puisque dans
le cadre du présent projet, le modèle d'erreur devait être appliqué au modèle conçu par Mme
Pouiiot, sans qu'il soit question de modifier la base de données.
4.2.1.2.2 Détermination nappe iibre ou captive
Le type de nappe (libre ou captive) ne correspond pas à un des sept paramètres DRASTIC mais sa
détermination est nécessaire à l'évaluation de plusieurs paramètres : la profondeur de l'eau
souterraine, la recharge annuelle, l'impact de la zone vadose et la conductivité hydraulique. Une
couverture du type de nappe a dû être créée pour servir de masque lorsque le calcul de certains
paramètres variait en fonction du type. Par exemple, dans le cas d'une nappe captive, la
profondeur de la nappe d'eau ne correspond pas au niveau physique de la nappe. Dans une nappe
captive, l'eau est emmagasinée sous pression par une couche imperméable. Lorsqu'un forage
atteint la nappe, la pression fait remonter le niveau d'eau au-dessus du niveau physique de la
nappe (figure 4-2).
Figure 4-2 Variation du niveau d'eau pour une nappe libre et une nappe captive
1 Forage 1 Forage
Nappe libre Nappe captive
La mesure du niveau d'eau varie selon le type de nappe même lorsque la profondeur de l'aquifere est la même.
Le type de nappe a été déterminé à partir de l'information obtenue par forages (type de matériel,
perméabilité et profondeur d'eau) de la façon suivante : s'il y a une couche imperméable (limite
de perméabilité de 1odm/s) et que la différence entre la profondeur de cette couche (toit
supérieur) et le niveau d'eau est différent (niveau d'eau plus haut que la couche), on assume que
la différence est due à la pression et qu'il s'agit d'une nappe captive. Si le niveau d'eau est plus
bas ou égal à la couche imperméable, on assume qu'il s'agit d'une nappe libre. S'il n'y a pas de
couche imperméable, il s'agit d'une nappe libre.
Sources de données originales ~ o u r évaluer le ~ararnètre
Données ponctuelles provenant de forages, compilées dans un fichier «points ».
Les o~érations DOW produire une couverture pour le modèle
détermination nappe libre ou captive pour tous les points de forages
interpolation des points pour obtenir une surface nappe libre ou captive
transformation en polygones pour permettre la superposition (masque) nécessaire au calcul des
autres paramètres
Sources d'erreurs dans le processus de création de Ia couverture
erreurs d'interprétation du matériel lors des forages
erreurs de positionnement des forages
erreurs dues au processus de détermination nappe libre-captive. Par exemple, si la couche est
mince et inefficace, et que l'eau monte au-dessus non par pression mais de façon naturelle, on
l'interprète de façon erronée comme nappe captive. Il y a une possibilité d'eneur due à la
subjectivité de 1' interprétation
erreurs dues au processus d'interpolation
erreurs dues à la transformation en polygones
4.2.1.2.3 La profondeur de I'eau
Pour une nappe libre, la profondeur correspond au niveau statique compilé lors des forages. Dans
le cas d'une nappe captive, la profondeur correspond au toit supérieur de la couche imperméable
(figure 4.2, à cause de la pression, le niveau statique dans le forage montera au-dessus du niveau
physique de la nappe). L'observation des valeurs compilées le long des cours d'eau a démontré
que le niveau de la nappe était plus haut à proximité des cours d'eau. À partir de cette
observation, l'hypothèse suivante a été faite : la profondeur de la nappe sous les cours d'eau
principaux et les lacs est de 1.5 m et elle est de 3.0 m sous les cours d'eau secondaires. En se
basant sur cette hypothèse, des points supplémentaires ont été ajoutés à l'ensemble des points
existants. Cette opération a été effectuée lors de l'implantation du modèle sur Arc/Infom, sur la
couverture originale ((profondeur de l'eau » .
Source de données DOW évaluer le ~ararnètre
Données ponctuelles provenant de forages et compilées dans un fichier ((points »
Les opérations
superposition de la surface nappe librekaptive
ajout des points sous les cours d'eau et les lacs.
interpolation des données ponctuelles (valeurs de profondeur) pour obtenir une couverture en
format matriciel
attribution de la cote de profondeur, selon le tableau 3-2
On obtient une couverture matricielle de la cote de profondeur selon le tableau 3-2
Sources d'erreurs
erreurs de mesure de profondeur lors du forage
erreurs de positionnement des forages
erreurs sur la profondeur aux points ajoutés sous les cours d'eau
L'hypothèse des cours d'eau a pour objectif de réduire l'erreur due a l'interpolation en
augmentant la densité des points de contrôle. Mais elle induit une incertitude de source
différente, difficile à quantifier. Il faudrait pour quantifier cette incertitude, des
comparaisons avec des données provenant du tenain.
erreur sur la détermination du type de nappe, (étape précédente)
erreur due au processus d'interpolation
4.2.1.2.4 La recharge
Un schéma de la modélisation de la recharge est présenté à la figure 4.3. On suggère au lecteur
de s'y référer pendant la lecture de la présente section.
Dans le modèle initial, tel qu'implanté dans le cadre de PREDIR, la recharge a été calculée à
partir du bilan hydrologique présenté par l'équation 4-1.
Figure 4-3 Modélisation de la recharge, exemple d'application h une cellule i j
Couvertures onginales
Carte des sols numérisée Valeurs ponctuelles (m) Image satellitaire (4 classes thématiques) d'C1évation (provenant (niveaux de gris)
de points cotés et contours)
tranSforrnation en format matricieI
C interpolation classification
(4 classes)
texture tij = sabIe
Clévation Eij = 5
C occupation Oij = llrbah
l calcul pente sur fenëtre 3*3
p=((E2-El)/d) 100 I 1 (Drainage = Bon)
Valeurs ponctuelles (pouces) de précipitations et d'évapotranspiration
Stations météorologiques
C interpolation
C interpolation
l (équation 4-1 3, d :distance) /(voir section 4.3.3.1)
précipitations évapo transpiration
1 Tableau CN 1
Ru = f (CN, P) - (équation 4-2, ruissellement)
I
R=f@u, P, Et) uation 4-1 ou 4-8, recharge)
où recharge P: précipitations
Et: évapotranspiration
Ru: ruissellement
Le ruissellement est évalué à partir de la méthode Mon% reconnue en hydrogéologie (Monfet,
1979)
Ru= (P-0.2(100O/CN- 1 0 ) ) 2 / ( ~ + ~ . 8 ( 1 ~ 0 0 / ~ ~ - 1 0 ) ) (4-2)
Le CN est une variable appelée numéro de courbe qui est utilisée pour intégrer les influences de
quatre paramètres sur le ruissellement : la pente, le type de sol, la classe de drainage et
l'utilisation du territoire. La valeur de CN est extraite du tableau 4- 1.
Les valeurs P et Et sont obtenues à partir de stations météorologiques (données ponctuelles) dans
la région étudiée. Les mesures aux stations ont été faites en 1994. Pour l'obtention des surfaces
nécessaires à l'évaluation du CN, les données proviennent d'une carte des sols (drainage et type
de sol), d'un modèle numérique de terrain produit à partir d'une carte topographique (pente) et
d'une image Landsat classifiée (utilisation du territoire).
Sources de données originales
Données ponctuelles provenant de stations météorologiques (précipitations et
évapotranspiration)
Image satellitaire (utilisation du temtoire)
Carte des sols (texture et drainage)
Carte topographique et points cotés (élévation et pente)
Tableau 4-1 Valeurs de CN pour les différentes combinaisons de classes des paramètres
1 t I I
> 8 % 1 Pauvre 1 72 81 88
l l ~ Culture intensive
Pente
< 3 %
3 - 8 %
Culture extensive
Boisé
< 3 % Pauvre 39 61 74
3 - 8 %
Résidentielle
Drainage
Pauvre
Bon
Pauvre
Bon
Pauvre
1 Bon 1 49
Texture du sol
> 8 %
I L
< 3 % 1 Pauvre 25
49
sable fin et limon
80
78
84
83
gravier et sable
63
60
65
63
Pauvre
sable
74
70
76
75
69
68
3 - 8 %
79
> 8 %
1 Peu dense / 59
Bon
Pauvre
< 3 %
argile
22
41
Bon
Pauvre
Opérations
Pour P et Et
25
47
Bon
Dense
interpolations des données P et Et / obtention d'une couverture matricielle
Pour le CN, fonction de la pente, utilisation du territoire, texture et drainage
41
73
pente
numérisation d'une carte contour et de points cotés
interpolation des contours et points cotés pour obtenir le MNT
application de l'opération Pente (slope de Arc/Infow) (l'opération se fait sur une
fenêtre 3 *3)
texture et drainage
numérisation de la carte thématique des sols
transformation de la carte en format matriciel
utilisation du territoire
classification de l'image Landsat TM
détermination de la valeur du CN d'après le tableau 4-1 par la combinaison des couvertures
des quatre paramètres
combinaison des couvertures pour le calcul du ruissellement (formule 4-2)
combinaison des couvemires pour le calcul de la recharge (formule 4- 1)
Après la détermination de la valeur de recharge cellule par cellule, l'attribution de la cote de
recharge est faite selon le tableau 3-3.
Tous les calculs sont fait par des AML (Arc Macro Language) le langage de programmation de
Arc Infom et les opérations disponibles avec ArcllnfoTU.
Sources d'erreurs
Sur le calcul de la recharge
erreurs de mesures aux stations météorologiques
erreurs dues aux variations annuelles (par rapport à l'année 1994)
erreurs dues à l'interpolation
sur le CN
calcul de ruissellement : erreur sur le modèle de ruissellement lui-même
pente
erreurs de précision de la carte originale pour les contours
erreurs de numérisation des contours
précision des mesures aux points cotés, et positionnement exact
erreurs dues à l'interpolation
erreurs dues au calcul de la pente (par exemple, échelle, grosseur de la
fenêtre)
utilisation du temtoire
erreurs d'acquisition sur l'image
traitements faits sur l'image
erreurs locationnelles de 1' image (géoréférence)
erreurs de la classification dues à l'échantillonnage, aux transitions floues,
aux inclusions, etc.
texture et drainage
erreurs d'interprétation de la carte originale (classes non
homogènes et transitions floues)
erreurs dues à la numérisation de la carte
erreurs dues à la transformation du format vectoriel à matriciel
Accumulation des erreurs à travers la propagation, lors de la combinaison de ces couvertures
pour le calcul de la recharge.
Les détails de l'application du paramètre recharge dans le modèle global, de même que les
modifications apportées au calcul du paramètre dans la poursuite du projet sont donnés dans la
section 4.3. C'est sur ce paramètre que le modèle de propagation d'erreurs a été appliqué.
4.2.1.2.5 Le milieu aquif'ère
Un aquifère peut se trouver aussi bien dans le socle rocheux que dans les dépôts meubles (Gélinas
et Lefebvre 1990). Dans la présente version du modèle DRASTIC, on a choisi d'évaluer la
vulnérabilité de l'aquifère qui se trouve dans le socle rocheux (et non les dépôts meubles), pour
toute la région couverte. L'évaluation de la vulnérabilité est basée sur une carte géologique de la
région.
Source de données originales
Carte géologique
Opérations
numérisation de la carte géologique
attribution de la cote de selon le tableau 3-4
transformation en format matriciel
Sources d'erreurs
erreurs d'interprétation pour I'élaboration de la carte originale
erreurs dues à la numérisation
erreurs dues à la subjectivité nécessaire pour choisir la cote parmi l'intervalle proposé
(tableau 3-4)
erreurs dues à la transformation de format
4.2.1.2.6 La texture du sol
La texture du sol est évaluée à partir d'une carte thématique des sols pour la région.
Opérations
numérisation de la carte
attribution de la cote selon le tableau 3-5
transformation en format matriciel
Sources d'erreurs
erreurs d'interprétation sur la carte originale interprétée à partir de photographies aériennes et
queiques contrôles sur le terrain (hétérogénéité des classes et transitions floues).
erreurs dues à la numérisation
erreurs dues à la transformation de format
42.1 J.7 La topographie
Le paramètre est évalué à partir d'un modèle numérique de terrain produit à partir d'une carte
topographique (tel que décrit à la section sur la recharge 4.2.1.2.4).
4.2.1.2.8 L'impact de In zone vadose
L'impact de la zone vadose est directement lié à la perméabilité du matériel qui la compose
(tableau 3-7). Le type de matériel a d'abord été déterminé à partir de forages. S'il y avait
plusieurs types de matériaux présents dans la zone vadose, la cote du matériel le plus
imperméable a été attribuée.
Source de données originales
Données ponctuelles de forages compilées dans un fichier ((points »
O~érations
interpolation des points
assignation de la cote selon le tableau 3-7
Sources d'erreurs
interprétation des forages sur le terrain
positionnement des forages
erreurs dues à l'interpolation
4.2.1.2.9 La conductivité hydraulique
La conductivité hydraulique est évaluée par une formule impliquant des paramètres mesurés aux
puits présents dans la région étudiée. Les valeurs de conductivité sont donc obtenues de façon
ponctuelle. La capacité spécifique aux puits doit d'abord être évaluée, par l'équation 4-3 pour les
forages terminés dans le roc et par l'équation 4-4 pour les forages terminés dans les dépôts
meubles.
Qs=de/(Nd-Ns) (4-3 )
Qs=de/e, (4-4)
où Qs est la capacité spécifique
de est Ie débit
e, est l'épaisseur de dépôts meubles
Nd est le niveau dynamique après 4 heures de pompage (m)
Ns est le niveau piézométrique
La conductivité hydraulique est calculée avec l'équation suivante:
où T est la transmissivité du matériel
e est l'épaisseur saturée de l'aquifère
K est la conductivité hydraulique
L'épaisseur saturée est évaluée par l'équation 4-6 pour une nappe libre et par l'équation 4-7 pour
une nappe captive.
où p, est la profondeur du forage
p, est la profondeur à l'eau
pc est la profondeur de la couche imperméable
Source de données originales
Données ponctueiles mesurées aux puits dans la région
Opérations
mesures aux puits : débit (de), Nd et Ns
évaluation de l'épaisseur saturée
calcul deQs
détermination de la transmissivité à partir de tables
caIcul de la conductivité
interpolation des points calculés
attribution de la cote selon le tableau 3-8
Sources d'erreurs
mesures aux puits (niveaux piézométrique et dynamique, épaisseur saturée de l'aquifère)
erreurs sur la détermination nappe librekaptive (calcul de l'épaisseur saturée différente selon
le type de nappe)
profondeur réelle de l'aquifère inconnue, on prend la profondeur du forage
erreurs dues aux modèles de calcul K et Qs
calcul de Qs pour les forages tenninés dans les dépôts meubles : on ne connaît pas l'épaisseur
totale des dépôts meubles
pour les forages terminés dans les dépôts meubles: on calcule la conductivité des dépôts
meubles tandis qu'on assigne la roche comme milieu aquifère sur toute la surface.
erreurs dues à l'interpolation
Le tableau 4-2 résume les principales sources d'erreur à différents niveaux dans la modélisation
de DRASTIC.
Tableau 4-2 Synthèse des sources d'erreurs dans le modéle DRASTIC
ruissellement) Choix des données originales Choix des opérations (transformation en
1 1 matriciel. tvw d'interpolation) 1
4.2.2 Conception du modèle d'erreur
Données ponctuelles
Image classifiée
Cartes interprétées
À la suite de l'inventaire des sources d'erreurs présentes à tous les niveaux dans le modèle
DRASTIC, on constate la complexité du processus de propagation. Pour arriver à élaborer LUI
modèle d'erreur, il est nécessaire d'évaluer l'importance de chaque source sur l'erreur h a l e afin
de faire ressortir des modèles plus généraux. Conçue à partir des sources les plus influentes, la
modélisation de l'incertitude devrait englober les erreurs les moins significatives. Trois modèles
principaux ont été choisis pour représenter l'incertitude des différents types de données présents
dans DRASTIC. Ces trois modèles sont: la variable interpolée pour les ensembles de données
ponctuelles, le modèle polygonal flou pour les cartes thématiques intégrées au modèle et
finalement, le modèle de classification mixte pour les données satellitaires.
Acquisition, mesures, positionnement du point Opération d'interpolation Acquisition, erreurs géométriques Processus de classification Interprétation des frontières Processus de numérisation Transformation de format
4.2.2.1 Le modèle polygonal flou
Le modèle polygonal flou caractérise l'incertitude des données de type thématique. Dans le cadre
d'études antérieures sur le sujet, on a déterminé que sur un grand nombre d'interprétations, la
distribution spatiale d'une frontière interprétée entre deux classes est gaussienne autour d'une
position médiane (Aubert et al., 1994). Connaissant cette distribution, il est possible d'attribuer à
chaque élément de la surface, une probabilité de se trouver à l'intérieur ou à l'extérieur du
polygone, selon sa proximité de la fiontière. Les facteurs « drainage et texture » dans le calcul de
la recharge seront caractérisés par ce modèle d'erreur. (Les paramètres DRASTIC « aquifère et
texture de sol » sont aussi caractérisés par le même modèle). Il s'agit bien du même cas
d'interprétation d'une fiontière car ces paramètres sont évalués a partir de la carte des sols, une
carte dont les frontières sont interprétées a partir de photographies aériennes et points de contrôle
sur ie terrain. Le processus de numérisation des cartes introduit une incertitude qui est
négligeable comparée à l'incertitude décrite a la section 2.2.2 (difficultés d'interprétations,
continuité des classes, transitions floues). Pour la modélisation, des zones tampons ont créées
autour des polygones numérisés. Dans le corridor central qui contient la frontière on assigne une
valeur d'appartenance de 0.5 a chacune des classes voisines de la fiontière. Pour les autres
comdos, selon leur proximité de la frontière originale, des valeurs d'appartenance sont
assignées, de 0.1 à 0.9. La couverture est ensuite transformée en format matriciel. Une
couverture matricielle de probabilité d'appartenance est créée pour chaque classe. Puis ces
couvertures sont combinées en un couverture pour laquelle on assigne à chaque pixel i j un
vecteur de probabilité d'appartenance à chacune des classes présentes. On considère que l'erreur
introduite par la transformation de format est négligeable par rapport à l'incertitude de
l'interprétation. En effet, les cellules créées ont une dimension de 12.5 * 12.5 m tandis que
l'incertitude globale sur la frontière varie de 100 à 300 m dans le cas de la carte des sols. Ces
valeurs d'incertitude minimale et maximale sur le positionnement des frontières ont été suggérées
par un photointerprète professionnel, dans le cadre du présent projet. À partir de la carte des sols,
deux couvertures du modèle polygonal flou ont été créées avec les valeurs extrêmes suggérées :
une couverture avec une zone d'incertitude totale de IOOm et une de 300m. Chacune de ces
couvertures sera utilisée dans le modèle d'erreur global afin d'étudier la sensibilité du modèle à
une variation dans le modèle polygonal flou seulement. Nous verrons que des tests de sensibilité
ont été ffaits sur différentes composantes du modèle d'erreur @olygonal flou, classification mixte,
variable interpolée) et les résultats de ces tests de sensibilité sont présentés au chapitre 5. La
figure 4.4 donne un exemple du modèle d'erreur polygonal flou.
Figure 4-4 Modéle polygonal flou
I I
b, = 0.3 p,, = (0.3, 0.7) P , = 0.7 où hi : probabilité d'appartenance aux diverses classes p : vecteur de probabilité
4.2.2.2 La variable interpolée
Le deuxième modèle, la variable interpolée, caractérise l'incertitude pour les données recueillies
de façon ponctuelle. Les variables pente, précipitations et évapotranspiration dans le calcul de la
recharge sont caractérisées par ce modèle. (Les paramètres DRASTIC profondeur de l'eau »,
topographie », (( impact de la zone vadose N sont aussi caractérisés par ce modèle).
Les données recueillies aux stations météorologiques proviennent de l'année 1994. Les
variations annuelles de précipitations sont source d'erreurs mais on ne les a pas considérées dans
la modélisation. Ces faiblesses sont rapportées à la fin de l'étude mais nous avons choisi
d'élaborer le modèle d'erreur a partir de la base de données disponible, en ne tenant compte que
des opérations subséquentes, qui sont nécessaires à l'intégration dans le SIRS.
Pour ce qui est de la topographie (nécessaire au calcul de la pente), nous croyons que les erreurs
introduites par le processus de numérisation sont négligeables. Dans le cas des données
interpolées, on considère que l'incertitude sur la variation spatiale des données entre les points
connus dominera. Cette incertitude est modélisée par le processus d'interpolation lui-même, tel
que décrit à la section 2.2.4.3. Les interpolations ont été effectuées par krigeage dans Arc/Infom,
avec la méthode circulaire. Nous sommes conscients que le krigeage est une méthode
d'interpolation relativement complexe, que des précautions sont nécessaires et que beaucoup de
travail supplémentaire aurait pu être consacré a cette étape particulière. Si la méthode est mal
appliquée, la surface de variance génerée n'est pas fiable. Dans le cadre du présent projet, la
méthode d'interpolation a été utilisée comme un outil nécessaire en cours de route, et nous avons
décidé de ne pas approfondir le sujet a h de conserver une vision globale de notre problématique.
Donc, l'interpolation crée la surface matricielle du paramètre en question de même que la surface
d'incertitude qui y est associée et qui sera utilisée dans la modélisation.
4.2.2.3 Le modèle de classification mixte
Le troisième modèle s'applique à l'image satellitaire utilisée pour déterminer l'utilisation du
territoire (calcul de la recharge). On désire modéliser l'incertitude due aux mélanges de classes,
aux inclusions et aux transitions floues. On suppose que la probabilité d'appartenance à chacune
des classes sera proportionnelle à la distribution des classes autour d'un pixel donné. Ainsi, à
chaque cellule, on assigne un vecteur de probabilité d'appartenance en fonction de la proportion
des différentes classes dans une fenêtre donnée (figure 4-5). Pour permettre des études de
sensibilité, différentes versions de la couverture d'appartenance ont été créées en faisant varier la
dimension des fenêtres d'analyse sur l'image. Ce modèle d'erreur constitue une version
préliminaire à laquelle des améliorations pourraient être apportées : particulièrement en utilisant
le résultat de la matrice de confusion dans le modèle. Nous reviendrons sur ce point plus loin
dans la discussion.
Figure 4-5 Modéle de classification mixte
L'image globale contient trois classes : f, g, h. L'appartenance de chaque pixel est évaiud selon la proportion des classes présente dans les pixels voisins. Exemple pour une fenêtre de 3 * 3 pixels. - -
hj = 619 p ij = (lifij, P~, , Pwj) P, = 319 pij = (0,66; 0.33,0,0) cb, = O19
où Pij est la probabilitt d'appartenance aux diverses classe du pixel i j
pij est le vecteur de probabilitd d'appartenance du pixel i J
Les trois modèles sont finalement combinés à l'aide de la formules de propagation d'erreurs 2-1 7
décrite à la section 2.2.4.6. Cependant, le facteur de corrélation n'a pas été calculé pour cette
première version du modèle d'erreur. Tel que mentionné précédemment, la zone d'application du
modèle a été restreinte a une sous-région représentative de la couverture totale onginale et le
modèle d'erreur a été appliqué pour au paramètre recharge seulement. La section suivante décrit
les détails de la combinaison des modèles décrits pour former le modèle d'erreur global.
4.3 Application du modèle d'erreur
4.3.1 Introduction
Dans l'application d'un tel modèle, la difficulté principale provient du fait qu'il faut intégrer des
ensembles de données de types différents représentés par des modèles d'erreurs différents. Le
modèle DRASTIC transforme en valeurs numériques tous les paramètres puis toutes les
couvertures sont transformées en format matriciel avant d'être combinées, ce qui permet
d'obtenir assez aisément une couverture finale de l'indice DRASTIC. Cependant, pour la
propagation des erreurs, il ne faut pas oublier que l'information provient de différents types de
données et il est nécessaire d'y revenir.
Nous verrons que la détermination du paramètre CN implique un modèle différent d'une relation
mathématique continue. L'évaluation du CN est faite a partir d'un tableau de type « look up
table » (« LUT » tableau 4-1). Une approche statistique permet de déterminer une valeur
moyenne de CN avec son incertitude associée de façon à obtenir une forme compatible avec les
autres paramètres nécessaires à l'évaluation de la recharge. La modélisation globale de
l'incertitude est basée sur l'attribution d'un vecteur de probabilité d'appartenance à chaque
cellule pour chaque paramètre impliqué dans les calculs.
Pour l'implantation du modèle d'erreur sur la recharge, certaines modifications ont été apportées
à la première version de DRASTIC sur Arc/InfoTU. Toutes les interpolations ont été faites avec la
méthode krigeage, afin d'obtenir une surface d'incertitude foumie par le calcul de variance.
Il est important de mentionner que les différences d'échelles des diverses sources de données
avant les transformations causent une difficulté incontournable pour le calcul de certains
paramètres dont la recharge. Pour cette raison, le bilan hydrologique original (équation 4-1) a été
adapté. Pour appliquer la formule originale, il aurait fallu que tous les paramètres impliqués
soient évalués à la même échelle.
4.3.2 Application du modèle à la recharge
Pendant la lecture, le lecteur peut se rapporter à la figure 4.10 qui schématise les différents
niveaux du modèle d'erreur appliqué à la recharge.
Les précipitations et l'évapotranspiration sont recueillies aux stations météorologiques, ce sont
des données ponctuelles. Quant au ruissellement, il provient d'une surface continue où les
valeurs sont obtenues localement selon les caractéristiques de chaque cellule. Ces paramètres,
qui sont nécessaires pour l'évaluation de la recharge, se présentent sous des formes différentes et
à des échelles différentes. Il est ici nécessaire de faire quelques ajustements au modèle original.
L'évapotranspiration, mesurée aux stations météorologiques, est valide pour une surface plane.
On connaît la portion des précipitations qui est évaporée aux stations météorologiques.
Cependant, s'il y a ruissellement (surface inclinée), la portion évaporée n'est plus la même. Le
temps d'accumulation de l'eau diminue et la mesure d'évapotranspiration n'est pas valide en cet
endroit.
Figure 4-6 Modélisation de l'incertitude sur la recharge, exemple d'application à une cellule i j
Couvertures originales Carte des sois numérisée Valeurs ponctuelles(m) Image satellitaire Valeurs ponctuelles (pouces) (4 classes thématiques) d'kldvation (provenant (niveaux de gris) de précipitations et d'évapotranspiration
de points cotés et contours) Stations météorologiques
trandormailon en C
interpolation format matriciel
A/ I
tg (texture) Eij GEïj
rnod2F polygonal flou , \
calcul pente sur fenêtre p=((E2-El)/d) 100 T3
4 classification
4 interpolation
C interpolation
ij Pij Etij modéle class. mixte I I
Vecteur h i j
(Drainage = Bon) / (d :di,pnce) \ / (voir section 4.3.3.2) 1 1
-Y/ Pij /\ tableau CN équ. 4-16 9 4-19
(equation 4-2, ruissellement)
R = f (Ru, P. Et) = (SWSP)~ c$ + ( s R / ~ E ~ P (kquation 4-8, recharge) q t 2 + ( 6 ~ 1 6 ~ u ) t oRu2 -
f fi'
- 6 w2ij
C = f ( R ) (tquation 4-20) . ~~2 = SC GR^ Cij
=Cu-
L'équation 4-8 est la version du bilan hydrologique (4-1) adaptée en fonction des variations
locales de topographie qui font varier le ruissellement.
R = ( l -Et/P) * ( P - R U )
où R : recharge
Et : évapotranspiration
P : précipitations
Ru : ruissellement
Le premier terme de la multiplication correspond au pourcentage des précipitations non évaporées
(général) tandis que le deuxième terme correspond à la partie qui n'est pas ruisselée (local),
disponible a la recharge ou l'évapotranspiration. Donc, la recharge locale correspond à la partie
des précipitations qui n'est pas ruisselée, multipliée par la partie non évaporée.
Selon l'équation (2-1 7)' l'incertitude sur la recharge est décrite par l'équation:
Les dérivées partielles (au carré) de la fonction de recharge (4-8) sont multipliées par l'incertitude
(au carré) de chaque variable (P, Et et Ru). Les précipitations et l'évapotranspuation proviennent
de données ponctuelles et le modèle d'erreur qui les caractérise est la variable interpolée. Les
termes d'incertitude des précipitations et évapotranspiration op2 et o,* nécessaires au calcul de
l'incertitude sur la recharge correspondent aux valeurs de variance données par les surfaces
interpolées.
Toujours selon l'équation 2-17, I'incertitude sur le ruissellement (équation 4-2) est calculé par
l'équation 4- 1 0.
On connaît déjà la valeur d'incertitude q.? par la surface de variance de l'interpolation et il est
nécessaire de c o ~ a î t r e l'incertitude sur la variable CN (cr, ). La section qui suit démontre la
façon dont on a modélisé le CN et son incertitude.
4.3.3 Application du modèle à la détermination du CN et de son incertitude
La détermination du CN et de son incertitude apporte un problème particulier, car il Were des
autres variables nécessaires au calcul de la recharge et de son incertitude. La valeur CN est
déterminée non par une fonction continue, mais par un tableau de type « LUT ». Tel que
mentionné à la section 4.2.1.2.4, le CN est évalué à partir des quatre facteurs du tableau 4-1.
Chaque unité de terrain (pixel) appartient a une des classes possibles de chacun des quatre
paramètres. Pour calculer une valeur moyenne de CN et son incertitude associée pour chaque
pixel, on doit passer par la détermination de vecteurs de probabilités d'appartenance pour chaque
paramètre. Le CN est fonction de la texture du sol, du drainage, de la pente et l'utilisation du
sol.
4.3.3.1 Texture du sol
La classe texture est évaluée à partir de la carte des sols. Pour chacune des classes k (1 à 4) une
couverture a été créée. La probabilité d'appartenance pkj à la classe k, pour chaque cellule i j a
été déterminée selon la description du modèle d'erreur polygonal flou. En combinant les
couvertures de chacune des classes, on obtient une sudace dont chaque cellule contient un
vecteur de probabilité d'appartenance à chacune des classes k, (figure 4-6). Le vecteur est
normalisé par la somme des appartenances aux classes pour chaque cellule i j . Le vecteur
résultant prend la forme de l'équation 4- 1 1.
où ph, est le vecteur de probabilité d'appartenance aux diverses classes texture du tableau CN
k est Ia classe de texture de 1 à 4
ph, est l'appartenance de la cellule ij à la classe k
Figure 4-7 Vecteur de probabilité d'appartenance aux différentes classes de texture dans ITCvaluation du CN
Classe 1 p, , = 0.5
Classe 2 k, = 0.3
Classe 3 p, , = 0.2
Classe 4 p4 i,, = O. 1
vecteur résultant
Le vecteur doit être normalisé parce que la somme des appartenances aux diverses classes n'est
pas toujours égaie à 1. Par exemple, si un pixel a un probabilité d'appartenance non nulle pour
trois classes différentes, la somme peut être différente de 1, tel que le démontre la figure 4.7.
Figure 4-8 Exemple d'un cas de somme des appartenances différente de l'unité
p, = 0.1 p.. = (0.1, 0.7. 0.3) paij = 0.7 p cij = 0.3 où pi,: appartenance aux diverses classes p: vecteur de probabilité d'appartenance non normalisé pour le pixel ij
433.2 Drainage
Pour le drainage, étant donné que certaines informations n'étaient pas accessibles, on a considéré
que le drainage était bon pour toute la surface, ce qui correspond au choix le plus conservateur
(qui augmente la vulnérabilité de la nappe d'eau souterraine).
4.3.3.3 Utilisation du territoire
Pour l'utilisation du territoire, le modèle de classification mixte a été appliqué sur la surface.
L'utilisation du temtoire est déduite d'une classification sur image (section 4.2.1.2.4). En accord
avec la description du modèle de classification rnixte (section 4.2.2.3), à chaque cellule i j on a
attribué un vecteur de probabilité d'appartenance, qui prend la forme :
4
Puij = ( ~ i i j * k i j y k j * k i jY 1 (Aij) (4- 1 2) k - 1
où p,j est le vecteur de probabilité d'appartenance aux diverses classes d'utilisation du temtoire
du tableau CN (tableau 4-1, culture intensive, extensive, résidentielle, boisé).
k est la classe d'utilisation de 1 à 4
pbj est l'appartenance de la cellule ij à la classe k
Figure 4-9 Vecteur de probabilité d'appartenance aux diffërentes classes d'utilisation du terrritoire dans l'évaluation du CN
vecteur résultant p, = ( 0.6,0.2,0.2,0.1) 1 ( 0.6 + 0.2 + 0.2 + O. 1) p,=(O.55,0.18,0.18,0.09)
433.4 Pente
Pour la pente, on doit déterminer un vecteur de probabilité d'appartenance à chacune des trois
classes présentes dans le tableau 4-1. L'interpolation par kngeage crée une surface d'élévation E
ainsi qu'une surface d'incertitude associée, 02. Le pourcentage de pente est calculé par la
commande « slope » de Arc/Infom, selon la formule suivante:
oG d : distance
D'après la formule 2- 1 7, l'incertitude sur la pente devient
En connaissant l'incertitude et la valeur de pente, il est possible de déterminer la valeur
d'appartenance aux trois classes selon l'étendue et la position de l'intervalle d'incertitude
(référence, AML en annexe).
Par exemple, pour une pente de 3% avec une incertitude de plus ou moins 2%' on obtient un
intervalle de pente possible variant de 1% à 5%. Les classes de pente du tableau 4- 1 sont :
Classe 1 : < 3 %
Classe 2 : 3 à 8 %
Ainsi, 66% de l'intervalle possible se tro tuve d ans la classe 1 tandis que 33% de l'intervalle
possible se trouve dans la classe 2. Ces valeurs ont servi à déterminer une probabilité
d'appartenance à chacune des classes. C'est ainsi que pour chaque cellule, on a attribué un
vecteur de probabilité d'appartenance aux classes de pente, qui prend la fome de l'équation 4-1 5.
433.5 La combinaison des modèles pour la détermination du CN
À cette étape, pour les quatre variables C N on a créé une couverture pour laquelle chaque cellule
possède un vecteur de probabilité d'appartenance aux différentes classes du tableau 4-1. Une
approche statistique est utilisée pour combiner les quatre paraxnètres du tableau CN et ainsi
calculer une valeur moyenne et une incertitude sur le CN. Cette opération est faite à partir des
vecteurs de probabilités pour chaque paramètre, cellule par cellule, verticalement.
Toutes les (( réalisations >> possibles de C N (valeurs du tableau) sont considérées, sauf celles qui
impliquent un drainage mauvais (pour faciliter la représentation, les quatre facteurs seront
impliqués dans les formules). Chaque valeur qui apparaît dans le tableau correspond à une
combinaison particulière (( texture, drainage, utilisation, pente D. Pour chaque réalisation de CN
du tableau, un facteur de probabilité d'occurrence est calculé. Évidemment, pour un pixel donné,
la possibilité d'occurrence d'une valeur particulière du tabIeau est fonction de la probabilité
d'appartenance du pixel à chacune des classes de la combinaison t,d,u,p qui caractérisent cette
valeur particulière. C'est ainsi que nous avons développé un facteur appelé facteur de probabilité
d'occurrence.
où cp ,, est le facteur de probabilité d'occurrence pour une réalisation spécifique de t,d,u,p du
tableau CN.
est la probabilité d'appartenance de la cellule à la classe spécifique, pour le paramèwe x
Le facteur cp ,duPest calculé pour chaque valeur possible du tableau. On détermine ensuite un facteur de normalisation :
Le CN moyen correspond à :
* CNmoyen = ( I N ) * XZZL(cp,, ghp)
où ghp correspond à la valeur CN de la combinaison t,d,u,p selon le tableau 4-1.
Pour un pixel donné, l'incertitude sur le CN moyen correspond à :
Cette procédure, qui s'applique cellule par cellule, permet d'obtenir une couverture de la valeur
moyenne de CN et une couverture de son incertitude associée o,.
Étant donné qu'il s'agit d'un développement complexe, donnons un exemple simplifié avec un
tableau CN fictif qui est fonction de deux paramètres: texture et pente. Chacun des paramètres
possède deux classes. Considérons le tableau CN suivant :
texture
Tl T2 Pour une cellule i j, posons :
Pente P l 44 3 1 ps, = (uI h) = (0.4,0.7)
P2 38 42 Ppij = (KI pP2 ia) = (0-2,0-8)
Pour le pixel évalué, i j, l'équation 4- 16 est calculée pour chaque valeur possible de CN.
Pour CN = 44 : & i P i = 44 <p, = H * H> = 0.4 * 0.2 = 0.08
Pour CN = 42 : g cP2 = 42 < ~ t p = * H =0.7 * 0.8 = 0.56
On calcule le facteur de normalisation (équation 4- 17).
Le CN moyen correspond à (équation 4-1 8) :
CN moyen =(lm * L Z (q, * g,) CN moyen = (1/1.1) * [ (0.08 + 44) + (0.32 * 38) + (0.14 * 31 ) + (0.56 * 42) ]
CN moyen, = 39.58
Pour le pixel i j , l'incertitude sur le CN moyen correspond à (équation 4- 19) :
Ainsi, sur la couverture CN le pixel i j a une valeur de
une valeur de 3.8.
39.58 et sur la couverture 0,. le pixel i j a
4.3.4 Calcul de l'incertitude sur le ruissellement, la recharge et la cote de recharge
À cette étape, on a tous les éléments nécessaires au calcul de l'incertitude sur la recharge et le
ruissellement.
Ces équations sont encore appliquées cellule par cellule, afin d'obtenir une couvemire de
recharge R et une couverture d'incertitude associée 4.
On en vient maintenant à la demière étape de modélisation. Dans le modèle DRASTIC, les
valeurs des paramètres sont transformées en cotes, selon les chartes de DRASTIC (tableaux 3-2 à
3-8). La charte de la recharge a été faite à partir d'une fonction continue et cette fonction a servi
à créer le tableau 3-2. Dans le modèle original, c'est le tableau qui est utilisé pour attribuer une
cote en fonction de la valeur de recharge. Dans le présent modèle, la fonction originale (figure 4-
9), qui est continue et permet d'obtenir des cotes numériques a été utilisée.
Figure 4- 10 Graphique de la cote en fonction de la recharge
Cote en fonction de la recharge
O 2 4 6 8 1 O
Recharge (pouces)
On a déterminé que la fonction est bien représentée par le polynôme de deuxième ordre suivant:
C = -0,043 * R2 + 1,3507 * R - 0,2605 (4-20)
De l'équation 2-17, on trouve que l'incertitude sur la cote est
02 = (6C/6R)* * 02
a,* = (-0,086 * R + 1,3507)~ * 02
L'équation 4-20 est appliquée à la couverture de recharge pour obtenir la couverture de cote de
recharge. A partir de la couverture de la recharge et la couverture d'incertitude 02, on calcule
l'incertitude sur la cote (équation 4-22) pour obtenir la couverture d'incertitude sur la cote.
Toutes les opérations décrites dans les sections 4.3.2 à 4.3.4 ont été effectuées dans Arcilnfow à
partir des commandes disponibles, cellule par cellule. Les opérations ont été automatisées avec le
langage AML. Ainsi, l'application du modèle a pennis d'obtenir une couverture fuiale de la cote
de recharge, de même qu'une couverture représentant l'incertitude qui y est associée oc2 . Au
chapitre suivant, ces couvertures sont présentées avec une analyse des résultats du modèle et des
tests de sensibilité.
Chapitre 5: Les résultats et discussion
A la suite de l'application des opérations décrites à la section 4.3, des surfaces de la cote de
recharge, de son incertitude ainsi que de nombreuses couvertures intermédiaires ont été générées.
Quelques unes des surfaces générées sont présentées au cours de ce chapitre et les programmes
AMI, qui ont permis le calcul des surfaces sont présentés en annexe. Comme nous l'avons
mentionné précédemment, une étude de sensibilité a été effectuée en faisant varier certains
paramètres des différents modèles. De plus, l'apport de chacun des modèles sur l'incertitude
finale a été analysé et cette procédure est décrite dans les sections qui suivent. Pour toutes les
figures présentées au cours du chapitre, les teintes pâles correspondent aux valeurs les plus
élevées et les teintes foncées correspondent a w faibles valeurs. Mentionnons aussi que les
valeurs de ruissellement et de recharge sont présentées en pouces, comme le demandent les
chartes du modèle DRASTIC (modèle américain).
5.1 Ajustement du modèle de ruissellement par les précipitations (Surfaces de
CN, de ruissellement et de recharge)
Les figures 5-1 à 5-3 représentent des surfaces de CN moyen, de ruissellement selon l'équation 4-
2 et de recharge selon l'équation 4-8, telles qu'elles ont été générées. Nous avons constaté, sur
ces premières surfaces, qu'il y avait un problème dans la modélisation du ruissellement. Le
calcul du ruissellement provoquait une inversion des zones de forte et faible recharge. Les zones
de forte pente et de matériaux imperméables (CN élevé d'après le tableau 4-1) devraient entraîner
un ruissellement plus élevé mais elles correspondaient plutôt à un faible ruissellement et une forte
recharge. Quant aux zones de matériaux perméables et de faibles pentes (CN faible), elles
correspondaient aux faibles valeurs de recharge. Le modèle faisait même apparaître des zones de
recharge négative. La figure 5-4 représente l'appartenance à la classe sable et gravier D de la
carte des sols selon le modèle polygonal flou (AML annexe 4). Si on compare les zones de sable
et gravier (appartenance forte, zones pâles) avec la surface de recharge, on voit que les zones de
sable et gravier correspondent à de faibles valeurs de recharge. En réalité, les sables et graviers
sont les matériaux les plus perméables, qui favorisent la recharge et diminuent le ruissellement. Il
y avait donc un important problème de modélisation, dont on a trouvé la source.
En fait, dans le calcul du niissellement, on fait face à un problème de différence entre les types de
données. Le modèle de ruissellement (équation 4-2) est conçu pour le calcd d'un événement
pluvial donné. Or, les données de précipitations recueillies aux stations météoro~ogiques sont des
valeurs de précipitations annuelles. Il était donc nécessaire de faire une hypothèse permettant de
déduire une valeur de précipitations pour un événement pluvial. Nous avions conservé
l'hypothèse du modèle de Mme Pouliot soit, un événement pluvial aux 10 jours dans l'année
(Pouliot, 1995). Cette hypothèse sert au calcul du ruissellement mais par la suite, la recharge est
calculée annuellement. 11 faut donc multiplier l'événement de ruissellement pour obtenir un
ruissellement annuel (AMI, annexe 7) compatible avec le calcul de la recharge.
Figure 5- 1
Min: 22.0
Max: 89.0
Moyenne: 64.742
Écart-type: 1 1.830
Surface de CN moyen
Figure 5-2
Min: 0.0 po.
Max: 1.254 po.
Moyenne: 0.065 po.
Écart-type: 0.125 po.
Surface de ruissellement pour une valeur de précipitations de 1.065 pouces.
Figure 5-3
Min: -3 -3 1 8 po
Max: 18.593 po
Moyenne: 14.995 po
Écart-type: 2.08 1 po
Surfàce de recharge pour une valeur de précipitations de 1 .O65 pouces.
Figure 5-4
Surface d'appartenance & la classe « sable et gravier » du CN seIon le modéle polygonal flou.
C'est selon cette hypothèse (un événement aux 10 jours) que les figures 5-2 et 5-3 ont été
générées. Les figures démontrent que l'hypothèse n'est pas juste parce qu'elle entraîne des
résultats illogiques. Pour tenter de contrer le problème, on a fait une analyse de sensibilité sur
l'équation de ruissellement en faisant varier le facteur précipitations. Selon l'hypothèse d'un
événement aux dix jours, la moyenne des précipitations pour un événement pluvial est d'environ
1 .O65 pouces pour la surface couverte. On a appliqué cette valeur à l'équation de niissellement,
puis on a fait varier la valeur de précipitations. On a constaté que le comportement de l'équation
change pour une valeur de précipitations P = 1.85 pouces. L'importance du ruissellement varie
de la façon suivante:
Tableau 5- 1 Comportement du ruissellement en fonction des valeurs de précipitations
CN diminue
Ruissellement augmente t Ruissellement baisse &
Précipitations < 1.85 pouces
Précipitations > 1 .85 pouces
CN augmente t
Ruissellement baisse
Ruissellement augmente ?
Ainsi, a partir d'un événement de précipitations de 1.85 pouces, le modèle de ruissellement
fonctionne alors qu'il semble devenir problématique pour des valeurs de précipitations plus
faibles. Nous avons donc reformulé l'hypothèse d'un événement aux dix jours et avons choisi
une fréquence plus faible. La surface de précipitations générée par la nouvelle hypothèse a une
valeur moyenne de 3.53 pouces, pour un événement de précipitations.
Pour l'analyse de toutes les d a c e s présentées à partir d'ici, c'est l'hypothèse d'un événement
pluvial de 3.53 pouces qui a été retenue (3'53 est la moyenne de toute la surface de précipitations
pour un événement donné). Les figures 5-5 et 5-6 représentent les surfaces de ruissellement et
recharge, recalculées avec la nouvelle surface de précipitations. Les zones de forte recharge
correspondent bien avec les matériaux perméables et les faibles pentes (CN faible).
Figure 5-5
Min: 0.0 po
Max: 2.402 po
Moyenne: 0.85 1 po
Écart-type: 0.506 po
Surface de ruissellement pour une valeur de précipitations de 3.53 pouces.
Figure 5-6
Min: 5.05 1 po
Max: 18.019 po
Moyenne: 12.126 po
Écart-type: 2.5 13 po
Surface de recharge pour une valeur de précipitations de 3.53 pouces
5.2 La cote de recharge: étude de sensibilité des différents modèles
La figure 5-7 représente la transformation en cote de la surface de recharge, selon la relation (4-
20). On constate qu'il y a saturation des valeurs sur l'image et toute la zone grise correspond a
une valeur de cote = 8.94. La cote maximale pour le paramètre recharge selon le modèle
DRASTIC est de 9 (graphique figure 4-5) pour toute valeur de recharge supérieure à 10. Dans les
calculs de la cote (AML annexe 8)' on a limité les valeurs de recharge à 10, ce qui correspond à
une cote de 8.94 selon le polynôme qui décrit la fonction continue entre la recharge et la cote
(équation 4-20). (On aurait pu à l'inverse, calculer la cote avant de limiter la valeur de recharge
puis imposer une limite de 9 a la cote elle-même).
Comme mentionné auparavant, des surfaces d'incertitude ont été générées en faisant varier
certains paramètres dans les modèles, de façon à visualiser la sensibilité de la surface
d'incertitude face à de telles variations. La zone tampon (d'incertitude) sur les polygones de la
carte des sols varie de 100 à 300111. Ces largeurs pour la zone d'incertitude sur la fiontière ont été
proposées par un photointerprète professionnel comme la frontière floue maximale et minimale.
Pour le modèle de classification mixte, nous avons fait
d'analyse.
varier la dimension de la fenêtre
Figure 5-7
Min: 5.45
Max: 8.946
Moyenne: 8.774
Écart-type: 0.4 19
Cote de recharge pour une valeur de précipitations de 3.53 pouces
La figure 5-8 conespond à I'incertitude sur la cote générée par l'application du modèle d'erreur,
pour le cas d'une zone tampon de 300 m (modèle polygonal flou) et une fenêtre de 9*9 pixels
(modèle de classification mixte).
La figure 5-9 représente l'incertitude sur la cote, pour une zone d'incertitude de lOOm autour des
polygones des classes de sols, pour une fenêtre de 9*9 pixels. Visuellement, on perçoit bien la
zone de forte incertitude (zones pâles) devenir plus fine autour de certaines frontières de
polygones de la couverture des sols, lonqu'on passe de 300 à 100m. Sur les statistiques de la
couverture totale, l'incertitude finale sur la cote diminue de 24% pour la couverture lOOm par
rapport a la couverture 300m.
Figure 5-8 A
Min: 0.050
Max: 2.772
M o Y ~ M ~ : 1.1 7 1
Écart-type: 0.570
Surface d'incertitude sur la cote de recharge pour une fenêtre de 9 * 9 pixels et une zone tampon de 300m. La signification de la droite AB est décrite B la section 5.3.
Figure 5-9
Min: 0.050
Max: 2.762
Moyenne: 0.894
Écart-type: 0.525
incertitude sur la cote de recharge pour une fenêtre de 9 9 pixels et une zone tampon de 100m.
Dans le modèle de classification mixte, pour une fenêtre de 9 * 9 pixels, on considere l'influence
d'une zone de 225 m * 225 m autour du pixel classifié (pixel de 25 m). Pour visualiser la
sensibilité du paramètre, on a généré des surfaces à partir de fenêtres de 3 * 3 pixels (75 * 75 m
d'influence) et 19 * 19 pixels (361 * 361 m d'influence), en fixant l'incertitude du modèle
polygonal a 300m. La fenêtre 3 * 3 correspond au minimum pour le modèle de classification
mixte et on a considéré que L 9 * 19 correspondait environ à une zone maximale d'influence sur le
pixel classifié. Certe dernière valeur a été choisie plutôt subjectivement. On aurait pu vérifier le
rayon d'influence par l'analyse d'un semi-variogramme créé a partir d'un échantillonnage sur
l'image. Le choix des paramètres montre quand même bien I'innuence générale d'une variation
de la fenêtre d'analyse sur la surface d'incertitude finale. Les figure 5-1 0 et 5-1 1 correspondent à
des fenêtres d'analyse de 3 * 3, et 19 * 19 pixels. Afin de pouvoir comparer les influences, on
présente, à la figure 5-12, le résultat de la classification sur l'image, avec les quatre classes
présentes.
Figure 5- 10
Min: 0.048
Max: 2.775
Moyenne: 1 -028
Écart-type: 0.6 1 1
Incertitude sur la cote de recharge pour une zone tampon de 300m et une fenêîre de 3 * 3 pixels
Figure 5- 1 1
Min: 0.055
Max: 2-677
Moyenne: 1.233
Écart-type: 0.540
incertitude sur la cote de recharge pour une zone tampon de 300m et une fenêtre de 19 * 19 pixels.
Figure 5- 12
Surface reprdsentant la distribution des quatre classes d'utilisation d'aprks le processus de classification.
Sur la figure 5-10 on perçoit l'effet discriminant d'une petite fenêtre d'analyse qui fait apparaître
la structure fine de la classification sur la surface d'incertitude. L'incertitude moyenne diminue
de 12% par rapport au cas d'une fenêtre 9 * 9 pixels et la distribution des valeurs est plus large
(écart-type). Dans le cas de la plus grande fenêtre (figure 5-1 1)' le mélange de classes devient
plus continue sur la surface, ce qui a pour effet de faire disparaître la structure de la classification
sur la surface d'incertitude. L'incertitude moyenne est plus grande (augmentation de 4.4% par
rapport à la fenêtre 9 * 9)' mais la distribution est plus serrée avec l'effet filtrant d'une plus
grande fenêtre qui homogénéise la surface.
5.3 Description de la surface finale d'incertitude sur la cote et discussion sur
l'apport des différents modèles
Les statistiques sur les surfaces d'incertitude finale de la cote démontrent que l'incertitude
moyenne varie environ entre 0.9 et 1.2 cotes, avec un écart-type de l'ordre de 0.5 - 0.6 cotes. De
façon générale, l'observation des surfaces d'incertitude finale démontre qu'environ 40% de la
région étudiée présente de bons résultats, ce qui correspond a une incertitude plus faible qu'une
valeur unitaire de la cote de recharge DRASTIC. Pour environ 50% de la surface, l'écart-type
varie entre 1 et 2 valeurs unitaires de la cote, ce qui représente des résultats moyens. Finalement,
pour environ 10% de la surface, l'écart-type est plus grand que deux cotes, ce qui implique une
faible fiabilité des résultats (l'intervalle de cotes varie entre O et 9). Les incertitudes les plus
faibles semblent souvent correspondre avec les zones de faibles cotes.
Visuellement, il semble que l'apport du modèle polygonal flou soit plus important que les autres
modèles sur la variabilité de l'incertitude hale. Avant le calcul du ruissellement, le facteur CN
implique déjà l'intégration des trois modèles d'erreur (AML annexe 6). Si on observe les
surfaces d'incertitude intermédiaires (0, fig 5-1 3, u, fig. 5- 14, o, fig. 5- 1 5 et a, fig.5-8)' on
constate que la variabilité spatiale de l'incertitude est déjà dessinée sur la surface d'incertitude du
m.
Figure 5- 1 3
Surface d'incertitude sur le CN moyen pour une zone tampon de 300m e
figure 5-14
:t une fenêtre de 9 9 pixels
Surfàce d'incertitude sur le ruissellement pour une zone tampon de 300n n et une fenêtre de 9 * 9 pixels
Figure 5- 15
Surface d'incertitude sur la recharge pour une zone tampon de 300m et une fenêtre de 9 9 pixels
Si on porte attention aux équations de ruissellement, recharge et cote, on constate qu'à la suite de
la détermination d'un CN moyen, les calculs n'intègrent plus que le modèle de la variable
interpolée avec les paramètres météorologiques de précipitations et évapotranspiration (équations
4-2 et 4-8). L'analyse visuelle des surfaces intermédiaires combinée à cette constatation
permettraient de supposer que l'apport du modèle de la variable interpolée sur la variabilité de
l'incertitude finale est faible. Pour vérifier les hypothèses sur l'apport des différents modèles sur
l'incertitude, des surfaces d'incertitude qui n'incluent que l'apport d'un seul modèle d'erreur ont
été créées. Pour créer ces couvertures, on a supposé une incertitude nulle pour tous les paramètres
sauf celui pour lequel on considère l'apport. Par exemple, pour créer une couverture d'incertitude
avec l'apport du modèle polygonal flou seulement, on a supposé une incertitude nulle sur les
précipitations et évapotranspiration (surface de variance de la variable interpolée) et une
incertitude nulle sur la classification. Les figures représentant l'apport des différents modèles
sont présentées aux figures 5- 16 à 5- 18.
Figure 5-16
Min: 0.046
Mm: 1.659
Moyenne: 0.278
Écart-type: 0.338
Surface d'incertitude avec l'apport unique du modéle de la variabte interpolée
Figure 5- 17
Min: 0.0
Max: 1.888
Moyenne: 0.607
Écart-type: 0.397
Surface d'incertitude avec l'apport unique du modéle de classification mixte (fenêtre 9 * 9)
Figure 5- 18
Min: 0.0
Max: 2.707
Moyenne: 0.784
Écart-type: 0.65 1
incertitude sur la cote de recharge avec l'apport unique du modéle polygonal flou (zone tampon de 300m).
Pour vérifier la corrélation entre l'incertitude h a l e apportée par les 3 modèles combinés (fig. 5-
8) et l'incertitude hale avec l'apport de chacun des modèles, un échantillonnage de valeurs sur
les surfaces a été effectué. Une centaine de points ont &e échantillonnés le long de la droite AB
(figure 5-8), sur les différentes surfaces (5-8, 5-16, 5-17 et 5-18). Les droites de régression de
même que les coefficients de corrélation correspondants sont présentés aux figures 5- 19 a 5-2 1.
Figure 5- 19
modele polygonal flou (P=3.53)
Incertitude modeles combinhs
Régression entre la surface d'incertitude hale sur la cote (fig. 5.8) et l'incertitude avec le seul apport du modéle polygonal flou (fig. 5.18) A partir de l'échantillonnage sur la droite AB.
Figure 5-20 - -
Modele variable interpolee (Pz3.53)
O 0.5 1 1.5 2 2.5 Incertitude m o d h s corn bines
Régression entre la surface d'incertitude finale sur la cote (fig. 5.8) et l'incertitude avec le seul apport du modéle de la variable interpolee (fig. 5.16) & partir de l'échantillonnage sur la droite AB.
Figure 5-2 1
M o d h classification mixte (P=3.53)
O 0.5 1 1.5 2 2.5
Incertitude modhles combines
Régression entre la surface d'incertitude finale su. la cote (fig. 5.8) et l'incertitude avec le seul apport du modete de classification mixte (fig. 5.17) ii partir de l'échantillonnage sur la droite AE3.
Les coefficients de régression confirment que la variabilité de l'incertitude sur la surface h a l e
est plus fortement influencée par le modèle polygonal flou (3 = 0.7159) que par les autres
modèles. Le modèle de la variable interpolée contribue très faiblement à la variabilité spatiale de
la surface d'incertitude finale (? = 0.0002) et le modèle de classification mixte contribue
moyennement (8 = 0.3642). Ces résultats confirment ce que l'analyse visuelle laissait supposer.
Sur les couvemires d'incertitude générées par les modèles isolés, on voit la structure des autres
modèles qui s'intègrent. Par exemple, la structure de la classification s'intègre sur la surface
d'incertitude du modèle polygonal flou (fig. 5-1 8). Ce phénomène est introduit par le calcul de
l'incertitude sur le CN (AML annexe 6), où deux facteurs sur trois sont alors gérés selon la
logique booléenne d'appartenance ou non appartenance (AML annexe 9). Lorsque d'un pixel à
un pixel voisin il y a un changement de classe d'occupation, la valeur CN change brusquement.
La valeur du CN moyen est impliquée dans le calcul de l'incertitude (O,). C'est ce qui provoque
de brusques changements sur l'incertitude apportée seulement par le modèle polygonal floy selon
l'appartenance "dure" (non flou) aux classes d'utilisation (classification).
Avec l'intégration des trois modèles et leur propagation à travers les différents calculs, le modèle
d'erreur devient complexe et il est difficile de prévoir son comportement face à la variation de
certains paramètres. C'est pour cette raison que les études de sensibilité ont été effectuées afin de
visualiser les changements dans la variation spatiale de l'incertitude lorsque certains paramètres
sont modifiés.
Comme demière étape, on a comparé les régressions en faisant varier les valeurs de précipitations
dans le calcul du ruissellement. Originalement (section 5.1)' on avait généré des surfaces avec
une valeur moyenne de précipitations de 1.065 pouces et c'est à partir de ces surfaces que de
nouvelles régressions ont été faites. Les surfaces intermédiaires obtenues avec des précipitations
de 1.065 pouces sont présentées à l'annexe 2. Les figures 5-22 à 5-24 présentent les régressions
entre l'incertitude des trois modèles combinés et l'incertitude apportée par chacun des modèles
isolés, pour des précipitations moyennes de 1 .O65 pouces.
Le modèle polygonal flou domine toujours avec sont apport sur la variabilité spatiale de
l'incertitude (? = 0.7525)' suivi du modèle de classification mixte (3 =0.5917). Avec des
précipitations plus faibles dans le calcul du ruissellement, le modèle de la variable interpolée
contribue de façon plus significative à la variabilité spatiale de l'incertitude finale (9 = 0.3069).
Figure 5-22
Modele polygonal flou (Pz1 .O65)
E - O 1 2 3 4
Ince tiiude modeles corn binds
Rdgression entre la surface d'incertinide finale sur la cote (fig.5.8) et l'incertitude avec le seul apport du modéle poiygonal flou (annexe 2), pour une valeur de prdcipitations moyennes de 1 .O65 pouces.
Figure 5-23
Moddle variable iriterpolde (P=1.0ô5)
E , - O 1 2 3 4
Incertitude m o d h s corn bines
Rdgression entre la surface d'incertitude finale sur la cote (fig. 5.8) et ['incertitude avec le seul apport du modele de la variable interpolée (annexe 2) pour une valeur de precipitations moyennes de 1 .O65 pouces.
Figure 5-24
Modale clasdfica tion mixte (P=1 .O6S)
Incertitude mode les combines
Régression entre la surface d'incertitude finale sur la cote (fig. 5.8) et l'incertitude avec le seul apport du modéle de classification mixte (annexe 7) pour une valeur de précipitations moyennes de 1 .O65 pouces.
5.4 Généralités sur tes résultats
Tel que mentionné dans description de la méthodologie, le facteur de corrélation de l'équation 2-
17 n'a pas été calculé afin d'alléger le modèle d'erreur. Selon Bevington (1969), les deux
premiers termes de l'équation domineront probablement. C'est à partir de cette hypothèse que
nous avons choisi de simplifier le modèle. Si l'afhnation est juste, l'ordre de grandeur de
l'incertitude calculée ne variera pas significativement en ajoutant le facteur de corrélation au
modèle. Par contre, si l'apport du facteur était significatif, la méthodologie demeurerait la même
mais les résultats présentés pourraient varier de façon significative.
Il est important de noter que de façon générale, les erreurs ont été sous-estimées dans les modèles.
Les surfaces d'incertitude générées par le modèle d'erreur représentent donc une limite supérieure
de fiabilité.
Pour le modèle polygonal flou, l'incertitude modélise l'erreur sur le positionnement de la
fiontière, selon l'avis d'un expert. Cependant, nous croyons que l'incertitude sur
l'interprétation de la fiontière a été sous-estimée. De plus, la possibilité d'erreur thématique
d'interprétation, quoi qu'elle soit faible, n'a pas été considérée.
Pour le modèle de la variable interpolée, les erreurs d'acquisition (mesure et positionnement)
n'ont pas été considérés.
Pour ce qui est du modèle de classification mixte, il modélise l'incertitude due aux mélanges
de classes et m i t i o n s floues par une approche spatiale mais n'introduit pas l'erreur
thématique intrinsèque au processus de classification.
Dans un contexte de prises de décisions, une limite supérieure de fiabilité des résultats permet de
limiter l'utilisation des zones a risque, mais ne permet pas d'assurer la sécurité pour l'utilisation
des meilleures zones. Il serait intéressant de pouvoir obtenir une limite uiférieure de fiabilité.
Pour ce faire, il serait nécessaire de compléter les modèles qui sous-estiment l'erreur. Ainsi, la
surface de fiabilité générée au cours de ce projet pourrait constituer une étape préliminaire vers un
modèle d'erreur plus complet.
Chapitre 6: Conclusions
Le modèle d'erreur développé dans ce projet fournit une surface d'incertitude qui permet
l'évaluation de la fiabilité du paramètre recharge de DRASTIC. II permet de cibler les zones qui
présentent un risque élevé que les résultats ne soient pas représentatifs de la réalité. La
modélisation de la propagation des erreurs a été possible par la combinaison de trois différents
modèles d'erreurs qui caractérisent les différents types de données utilisées. Ces modèles sont la
variable interpolée, le modèle polygonal flou et le modèle de classification mixte. Une approche
statistique permet de les combiner de façon à obtenir le modèle d'erreur global. La propagation
est effectuée cellule par cellule, verticalement.
La méthodologie utilisée permet d'isoler la contribution des différents modèles d'erreurs sur
I'incertitude finale. Le modèle polygonal flou contribue de façon plus significative à la
variabilité spatiale de l'incertitude h a l e que les autres modèles. Le modèle de la variable
interpolée est celui qui fournit l'apport le plus faible. La surface d'incertitude générée par le
modèle représente une limite supérieure de fiabilité, les erreurs ayant été sous-estimées dans le
modèle. 11 s'agit en fait, d'une version préliminaire d'un modèle de propagation auquel des
améliorations pourraient être apportées.
Le modèle de classification mixte pourrait être amélioré par l'intégration de l'information
fournie par la matrice de confusion. Une modélisation plus complète pourrait cependant
devenir très complexe avec l'intégration des effets de i'autocorrélation spatiale liée au
processus de classification. Il est possible que les techniques de classifications floues
suggérées dans I'inîroduction (furzy-C-means) puissent o f E r une avenue intéressante pour
l'amélioration de ce modèle d'erreur spécifique.
Pour les frontières floues, on a assumé que l'unique frontière représentée sur une carte
constituait la médiane 2i partir de laquelle il était possible de modéliser la probabilité (fonction
gaussienne) d'appartenance aux classes. En fait, c'est à partir d'interprétations multiples qu'il
est possible de modéliser la distribution. Dans le cas présent, un seul échanti1lon de la
population était disponible. Idéalement, il aurait fallu obtenir des versions supplémentaires
des interprétations, qui auraient permis de mieux modéliser l'erreur sur le positionnement de la
fiontière mais aussi sur l'interprétation de la frontière.
Peu d'attention a été porté aux opérations d'interpolation. Comme nous l'avons mentionné
auparavant, c'est une contribution dans l'ensemble du processus de propagatiori d'erreurs qui
était visée et le cadre de ce projet ne permettait pas d'approfondir ce sujet particulier.
Évidemment, du travail supplémentaire pourrait être fait afin d'optimiser l'opération. Les
données météorologiques recueillies aux différentes stations ont été interpolées. Mais il n'est
pas facile d'effectuer une juste modélisation car il existe probablement des variations locales
qui seraient très complexes à prédire avec les modèles disponibles. 11 serait nécessaire
d'intégrer plusieurs facteurs climatiques dont nous ne disposons pas.
Dans une prochaine version du modèle d'erreur, le facteur de corrélation de la formule 2-1 7
devrait être intégré dans la propagation de l'erreur.
Pour compléter l'analyse de propagation, les sources d'erreurs apportées par le modèle lui-
même pourraient être étudiées.
le modèle DRASTIC original (forme, coefficients)
les opérations et les données choisis pour la modélisation sur Arc/InfoW
la modélisation de la recharge implique des modèles différents (annuelle, ponctuel pour le
ruissellement) et les corrections apportées ne permettent pas de modéliser de façon exacte la
recharge locale. 11 serait intéressant de se pencher davantage sur cet aspect.
Il serait intéressant de se pencher sur le problème d'échelle qui a été soulevé plus tôt. On sait
que le modèle original se compose d'unités homogènes plus grandes que dans cette version sur
S N . Les dissociations des unités homogènes étaient nécessaires à cause du type de données
utilisées et du contexte spatial des SIRS. II s'agit d'une problématique importante en
modélisation environnementale. Du point de vue des prises de décision, ce n'est pas l'erreur
d'une simple cellule qui est intéressante mais plutôt l'erreur associée à une zone définie pour
des fins d'aménagement. 11 serait donc souhaitable de pouvoir effectuer des généralisations et
de déterminer l'erreur associée à une région plus grande. Ainsi, à partir de cette version du
modèle, les erreurs obtenues pour chaque cellule pourraient être combinées à travers la région
d'intérêt pour déterminer une nouvelle erreur finale. La difficulté de cette opération est
principalement due au fait que la structure de l'autocorrélation spatiale pour la surface de
recharge et sa fiabilité sont inconnues. On ne connaît présentement pas d'outil pour propager
l'autocorrélation spatiale à travers plusieurs couvertures, sauf par simulations.
Les points soulevés ici sont un aperçu des avenues proposées pour la poursuite du travail entamé
au cours de ce projet sur la propagation des erreurs.
Finalement, maigre les limites du modèle, le travail présenté constitue un pas dans le monde
complexe de la propagation des erreurs spatiales. Son originalité réside dans l'intégration de
différents modèles d'erreurs dans un contexte spatial. Le modèle développé est basé sur une
méthodologie qui pourrait être transposée à d'autres modèles impliquant l'intégration de données
multisources. Les modèles d'erreurs proposés pourraient être appliqués aux différentes sources
de données puis combinées par l'approche statistique basée sur les vecteurs de probabilité
d' appartenance.
Liste de références
Alier, L., Bennett, T., Lehr, J.H., Petty, R, Hackett, G., (1987) « DRAST'.: A Standurdized
System for Evaluating Ground Water Pollution Potential Using Hydrogeologic Settings »,
National Water Weil Association, Dublin, Ohio 430 17
Altman, D., (1 994), « Fwry set theoritic approaches for handli~g imprecision in spatial
analysis M, International Journal of Geographical uiformation S y stems, Vol. 8, No.3, pp.27 1 -289
ArJInfo, (1 99 1) (( Command references s Users guide, by Environmental Systems Research
Mtute, Inc., 380 New York Street, Redands, CA USA 92373
Aubert, E., Edwards G., LoweU K.E., (1994), « Quantifcation des erreurs de flontière en
photo-interprétation forestière pour le suivi spatio-temporel des peuplements M. Actes de la
Conference canadienne sur les SIG, Ottawa, 4- 10 juin, p. 195-205
Bevington, P-R, (1969), (( Data Reduction and Error Analysis for the Physical Sciences »,
McGraw-Hill book Company, United States.
Bezdek, J-C., Ehrlich, R, Fuii, W., (1984), « FCM: T h e h c-means clustering algorithm »,
Cornputers and Geosciences, Vol. 1 O., pp. 19 1-203
~ i È m i , J., Gwyn, Q.H.J., Deslandes, S., Jourda, P. (1992) "Apports de la télédétection et d'un
système d'information géographique à I 'érude des perméabilités induites par lesj?actures et des
couloirs souterrains d'écoulement d'eaux dans le socle cristallin de la Haute Marahoué (Côte
d'Ivoire) ". The Canadian Conference on GIS, Proceedings, March 24-26, Ottawa, pp.792-802
Broers, H.P., Peters, S.W.M., Biesheuvel, A., (1990) "Design of a Groundwater Qua&
Monitoring Network with GIS and Remote Seming ", First European Conference on Geographicd
Information Systems, Amsterdam, The Netherhnds, April 10 - 13, pp. 95- 105
Bukata, RP., Bruton, J.E., Jerome, J.H., (1991) "The State of Vegetation Cuver as an
Indicntor of Groundwater, Based on Observations fiom Space '! Soviet Journal of Remote
Sensing, vo1.9, pp.328-343
Cannon, RL., Jitendra, V.D., Bezdek, J.C., (1 986). « EfFcient implementation of the fuzzy c-
means clustering algorithm r, I.E.E.E. Transactions on Pattern Analysis and Machine
Intelligence, Vol. 8, pp. 248-25 5
Chrisman, NOR, (1982), « A theory of curtographic error and its meusurement in digital data
bases », Proceedings, Fifth International Symposium on Computer-Assisted Cartography,
AutoCarto 5, Falls Church, Virginia: ASPRS and ACSM, pp. 1 59- 1 68
Davidson, Dm A., Theocharopoulos, S.P., Bloksma, RJ., (1 994), « A Iand evaluation project in
Greece using GIS and bered on Boolean andjUay set methodologies w, International Journal of
Geographical Information Systems, Vol. 8, No.4, pp. 369-3 84
Fisher, Pol?., Pathirana,S., (1989). « Evaluation offwzy rnembership of land cover classes in
suburban areas of NorthEast Ohio M. ASPRS-ACSM Fa11 Convention-APRS Technical Papers
(Falls Church: Commitee of the American Society for Photogrammetry and Remote Sensing), pp.
125-132
Fisher, P.F., Pathirana,S., (1990), (( The evaluation of fwzy menibership of land cover classes
in the suburban zone », Remote Sensing and the Environment, Vol. 34, pp. 12 1 - 132
Forîin, M., (1 996), « Les applications de lu télédétection en hydrogéologie », Arpenteur
géomètre, revue de l'ordre des arpenteurs géomètres du Québec, Vol. 23 no 4
Gélinas, P. Lefebvre, R, (1990) Notes pour le cours HydrogéoZogie , département géologie et
génie géologique, Université Laval, Québec, Canada
Goodchild, M.F., Guoquing, S., Shiren, Y., (1992), « Development and test of an enor mode1
for categorical data », International Journal of Geographic Infoxmation Systems, Vo1.6, No. 2,
pp. 87-104
Heuvehk, G.M.B., Burrough, P.A., Stein, A., (1989) n Propagation of errors in spatial
modeling with GIS N. International Journal of Geographical Information Systems, Vo1.3, No.4,
pp. 303-332
Iomata, Y., Ogata, S., (1 992), « Supervised. umupervisedfuuy classzjîcatiom using histogrums
as membership functions », Proceedings of 6th Austdasian Remote Sensing Conference, Vo1.2
(Wellington: Cornmittee of the 6th Australasian Remote Sensing Conference), pp. 434-441
Lunetta, R, Congalton, RG., Fenstermaker, L.K., Jensen, J.R, McGwire, KC., Tinney,
L.R, ( 1 99 1 ), n Remoie Sensing and Geographic Infirmation Systern Data Integration: Error
Sources and Research Issues H. Photogrammetic Engineering and Remote Sensing, Vol. 57, No.
6, June 1991, pp. 677-687.
Matheron, G., (1965)' « Les variables Régionalisées et leur Estimation N (Paris: Masson).
Matheron, G., (1 97 1 ), « The theory of regionalized varibles and its applications », Les Cahiers
du Centre de Morphologie Mathématique de Fontainebleau, No.5, Paris
Monfet, J. (1979), « Evuhation du Coeficient de Ruissellement à 1 'aide de la Méthode SCS
Modifiée )A Ministère des richesses naturelles du Québec, Québec, rapport HP-5 1,40 pages.
Oher, M.A., Webster, R., (1990) n fiiging: a rnethod of interpolation for geopraphical
information sysfems M. International Journal of Geographical Information Systems, Vo1.4, No. 3,
pp. 313-332
Pathirana, S. (1992), « Detection of linear and sub-pixel phenornena using the fuzzy membership
approach », Proceedings of 6th Australasian Remote Sensing Conference, Vol.2 (Wellington:
Cornmittee of the 6th Austraiasian Remote Sensing Conference), pp. 424-433
Perkml, Je, (1956), (( On Epsilon Length M. Bulletin de I'Academie Polonaise des Sciences, Vol.
4, pp. 399-403
Pouliot, J., (1995b), « Réalisation du modèle DRASTIC ». Rapport interne - Centre de recherche
en géomatique, Université Laval, Ste-Foy, Québec, Canada, 5 4 pages.
Rosedeld, G.&, Fibpatrick-Lhs, K., (1986), ( ( A coefficient of agreement as a meusure of
thematic ~Iassifzcation accuracy M. Photogrammetric Engineering and Remote Sensing, Vol. 52,
pp. 223-227
Shafer, G., (1976), « A mathematical Theory of Evidence M. Princeton: Princeton University
Press
Stefouli M., (1 990) "AppZication of Rernote Sensing Techniques to the Hydrogeology of the
Mediterranean Region with Special Reference to Crete ", Satellite and Remote Sensing for
Hydrology and Water Management: the Mediterranean coasts and Islands, Proceedings,
International training course, Rabat, Malta, 2nd- 1 2th October, pp 2 1 5-24 1
Suryana, N., (1993), «The application of evidence andjüzzy subset theory using certaint-y factor
(CF) in handling imprecision a d uncertain data handied by geographical information systems
(GIS) B, Symposium Proceedings, GIS'93, Vancouver, British Columbia, Février, pp 872-882
Wang, F., Brent HaU, G., Subaryono, (1990), « Fwzy information representation and
processing in conventional GIS sofhare: databuse design and opplication International
Journal of Geographical Information Systems, Vo1.4, No. 3, pp. 261-283
Wang, M., Howarth, P.J., (1 994), (( MuftiSource Spatial Dutu Integrution: Problems and some
Solutions », Canadian J o d of Remote Sensing, Vo1.20, No.4, pp. 360-367
Waters, P. (1 99O), Ymage interpretation for hyd7ogeological research ': Satellite and Remote
Sensing for Hy dro logy and Water Management: the Mediterranean coasts and Islands,
Proceedings, International training course, Rabat, Malta, 2nd- 12th October, pp 1 85- 1 96
Waters P. (1 990) trMethodolugp of Lineament Anafysis for Hydrogeological Imestigatiom ':
Satellite and Remote Sensing for Hydrology and Water Management: the Mediterranean coasts
and Islands, Proceedings, International training course, Rabat, Malta, 2nd-12th October, pp 197-
Wencai, Do, Deliao, Y., (1 993) "Methodr for Recognizing and -acting Groundwater
Information From Rernote Sensing Data", International Symposium Operationalkation of
Remote Sensing, 1 9-23 April, ITC Enschede, The Netherlands, pp. 195-20 1
Zadeh, L., (1 965), « F u ~ y sets. Information and Control »
Zevenbergen, A.W., Rango, A. (1992) "Applying Landsat Imagery for Grounhvorer
Devdopment in Egyplt " Geocarto International, Vol. 7, No.3, pp. 4 1-5 1
Annexe 1
Surfaces intermédiaires calculées avec des précipitations de 1.065 pouces.
incertitude sur le ruisseiiement pour une zone tampon Incertitude sur la recharge pour une zone tampon de de 300111 et une fenêtre de 9 * 9pkels. 300m et une fenêtre de 9 * 9 pixels
Cote de recharge Incertitude sur la cote de recharge avec une zone tampon de 300m et une fenêtre de 9 * 9 pixels
Annexe 2
Surfaces d'incertitudes générées avec l'apport de chaque modèle isolé pour des précipitations de 1 .O65 pouces
du modtle de la variable interpolke du rnodéIe de ta classification mixte
Incertitude sur la cote de recharge avec l'unique apport du modèle polygonal flou
Annexe 3 Programme AML: calcule I'appartenance aux différentes classes de pente
/* calcule l'appartenance de chaque p ixe l aux d i f f e r e n t e s classes de pente (3 c l assesl /* s'effectue dans 1 e rodul e g r i d
K2 = Pente + dpsnt K i = Pente - dpent
begl n pentappl = 1 .O pentapp2 = 0.0 pentapp3 = 0.0
end
i f C X2 <= 8.0 & X I >= 3.0 1 begi n pentappl = O pentapp2 = 1. O pentapp3 = O
end e l se if C X i >= 8.0 1
begi n pentappl - O pentapp2 = O pentapp3 = 1 .O
end el se
i f C X 1 > = 3 ) begi n
i f C KI == 3.0 1 begi n pentappl = 0 pentapp2 = C 5 d i v I n t 1 pentapp3 = C C X2 - 8 1 / I n t 1
end e l se
begi n pentappl = 0 pentapp2 - C C 8 - X I 1 / Int 1 pentapp3 = C C X2 - 8 1 / I n t 1
end end
e l se i f C X2 >= 8 1
begi n pentappl = C C 3 - X1 1 / I n t 1 pentapp2 = C 5.0 d i v I n t 1 pentapp3 = C C X2 - 8 1 / I n t 1
end e l se
begi n pentappl = C C 3 - X t 1 / I n t 1 pentapp2 = C C 5.0 - C 8.0 - X2 1 1 / I n t 1 pentapp3 = 0.0
end endi f
ri11 X2 al1 ; i l1 X l al1 511 I n t al1
Annexe 4
Programme AML: appartenance à la texture 'sable et gravier", classe A
aptextB300. ad Cal cul e 1 'appartenance a la texture b pour l e calcule du CN pour 1 e b u f f e r de 300m
/* dans 1 e module g r i d
aptextb300 = C sol63OOc. app + sol S3OOc. app + sa1 23OOc. app 1 / apptot300 Y
Annexe 5
Programme AML: appartenance a la classe 3 d'occupation du sol
calcule 1 'appartenance de 1 a ce1 1 uf e a l a cf asse d'occupation 3 s'effectue dans l e module g r i d
occ3 = test ( occupa, "value = 3") /* cree un gr id dans lequel l a valeur = 1 pour l a classe 3, sinon value = O surnocc3 = focalsus ( 0x3. rectangle, 9,s 1 /* Cree un gr id dans lequel on trouve l a somme des valeurs 1 pour une fenetre /* 9*9 apocc3 = surnocc3 div 81 .O ki11 occ3 a l 1 k i 11 suiocc3 a l 1
Annexe 6
Programme AML: calcule le CN moyen et son incertitude
h b u f f e r de 300 r /* s 'ef fectue dans 1 e module CRID
Ni = ( apocc3 * aptextA300 * pentappl + C apocc3 * aptextA300 * pentapp2 + ( apocc3
* aptextA300 * pentapp3 1 + C apocc3 * aptextB300 * pentappl ) + ( apocc3 * aptextB30 aptextB300 * pentapp3 1 + ( apocc3 * aptextC300 * pentappl
O ) * + pentapp2 c apocc3 ) * + a p t e x t ~ 3 0 0 ( apocc3 : pentapp* + ( apocca * a p t e x t ~ 3 0 0 * pentapp3 + ( apocc3 * aptextD300 * pentappl ) + ( apocc3 * aptextD300 * pentapp2 1 + ( apocc3 * aptextD300 * pentapp3 1 + ( apocc4 * aptextA300 * pentappl 1 + C apocc4 * aptextA300 * pentapp2 1 + ( apocc4 * aptextA300 * pentapp3 + ( apocc4 * aptextB300 * pentappl 2 + ( apocc4 * aptextB300 * pentapp2 1 + ( apocc4 * aptextB300 * pentapp3 ) + C apocc4 aptextC300 * pentappi ) + ( apocc4 * aptextC300 * pentapp2 ) + ( - 0 ~ ~ 4 * aptextC300 * pentapp3 1 +
C apocc4 * aptextD300 * pentappl ) + C apocc4 * aptextD300 * pentapp2) + C aPocc4 * a p t extD300 * pentapp3 1
~2 = ( apocc5 * aptextA300 * pentappl + C apocc5 * aptextA300 * pentapp2 1 + ( apoccS * aptextA300 * pentapp3 ) + C apocc5 * aptextB300 * pentappl + C apocc5 * aptextB30
O * pentapp2 ) + ( apocc5 * aptext8300 * pentapp3 ) + C apoccS * aptextC300 * pentappl ) + ( apocc5 * aptextC300 * pentapp2 ) + ( apocc5 * aptextC300 * pentapp3 1 + ( apocc5 * aptext0300 * pentappl ) + ( apocc5 * aptextD300 * pentapp2 1 + ( apocc5 * aptextD300 * pentapp3 ) + ( apocc6 * aptextA300 * pentappl ) + C apocc6 * aptextA300 * pentapp2 1 + ( apocc6 * aptextA300 * pentapp3 ) + C apocc6 * aptextB300 * pentappl ) + ( w c c 6 * aptextB300 * pentapp2 ) + ( apocc6 * aptextB300 * pentapp3 ) + ( apocc6 * aptextC300 * pentappl ) + C apocc6 * aptextC300 * pentapp2 ) + C apocc6 * aptextC300 * pentWp3 1 +
( apocc6 * aptextD300 * pentappl ) + ( apocc6 * aptextD300 * pentapp2) + ( apocc6 * a p t
extD300 * pentapp3 1
k i l l NI a l 1 kif1 N2 a17
/* c a l c u l de l a moyenne du CN
moyl = ( ( apocc3 * aptextA300 * pentappl 1 * 22 + C ( apocc3 * aptextA300 * PentapP2 ) * 25 ) + ( ( apocc3 * aptextA300 * pentapp3 ) * 41 ) + ( ( apocc3 * aptextB300 * pen
t app l ) * 53 ) + ( ( apocc3 * aptextB300 * pentapp2 ) * 55 ) + ( ( apocc3 * aptext8300 * pentapp3 ) * 63 ) + ( ( apocc3 * aptextC300 * pentappl ) * 65 ) + ( ( apocc3 * ap tex t ~ 3 0 0 * pentapp2 1 * 70 ) + ( C apocc3 * aptextC300 * pentapp3 ) * 75 ) + ( ( apocc3 * a ptextD300 * pentappl ) * 74 ) + C ( apocc3 * aptextD300 * pentapp2 ) * 77 ) + ( ( apocc 3 * aptextD300 * pentapp3 1 * 81 1
moy2 = ( ( apocc4 * a p t e x t w o u * pentappi ) * 60 ) + C ( apocc4 * aptextA300 * pentapp2 ) * 63 ) + ( ( apocc4 * aptext-00 * pentapp3 1 * 67 ) + C ( apocc4 * aptextB300 * Pen
tapp l ) * 70 ) + ( ( apocc4 * aptextB300 * pentapp2 ) * 75 1 + C C apocc4 * aptext8300 * pentapp3 ) * 78 ) + ( ( apocc4 * aptextC300 * pentappl ) * 78 ) + ( C a p 0 ~ ~ 4 * ap tex t ~ 3 0 0 * pentapp2 ) * 83 ) + ( C apocc4 * aptextC300 * pentapp3 ) * 85 ) + C ( ~ P O C C ~ * a ptextD300 * pentappl ) * 81 ) + ( C apocc4 * aptextD300 * pentapp2 * 87 ) + ( ( apocc 4 * aptextD300 * pentapp3 * 89 )
~ o y 3 = ( ( apocc5 * aptextA300 * pentappl ) * 25 ) + ( ( apoccS * aptextA300 * pentapp2 ) * 39 ) + ( ( apocc5 * aptextA300 * pentapp3 ) * 49 ) + ( ( apoccS * a p t e x t ~ 3 0 0 * Pen
tapp l ) * 40 ) + ( ( apoccS * aptextB300 * pentapp2 * 61 1 + C C apocc5 * aptextB300 * pentapp3 ) * 69 ) + C ( apocc5 * aptextC300 * pentappl ) * 70 1 + C C apocc5 * ap tex t C300 * pentapp2 ) * 74 ) + ( C apocc5 * aptextt300 * pentapp3 ) * 79 ) + C C apocc5 * a ptextD300 * pentappl ) * 78 ) + ( ( apocc5 * aptextD300 * pentapp2 ) * 80 ) + ( ( apocc 5 * aptextD300 * pentapp3 * 84
moy4 = ( ( apocc6 * aptextA300 * pentappl ) * SS ) + C ( apocc6 * aptextm00 * ~ e n t a ~ ~ 2 ) * 59 ) + ( ( apocc6 * aptextA300 * pentapp3 ) * 59 ) + C C apocc6 * aptextB300 * W n t a ppl ) * 74 ) + ( ( apocc6 * aptextB300 * pentapp2 * 74 ) + C ( apocc6 * WtextB300 * p entapp3 ) * 74 ) + ( ( apocc6 * aptextC300 * pentappl ) * 82 ) + C C ~ P O C C ~ * ~ t e x t C 3 0 0 * pentapp2 ) * 82 ) + C ( apocc6 * aptextC300 * pentapp3 ) * 82 + ( C apocc6 * W t e x t
D300 * pentappl ) * 86 ) + ( C apocc6 * aptextD300 * pentapp2 1 * 86 1 + C C apocc6 * ap textD300 * pentapp3 * 86
k i l l moyl al1 ki Il moy2 al 1 kit 1 moy3 al 1 k i l l m0y4 al1
/* ca lcu l de l ' i n c e r t i t u d e sur l e CN
A = C apocc3 * ap tex tM00 * pentappl ) * sqr ( 22 - moycn300 1 + C apocc3 * aptextA300 * pentapp2 ) * sqr C 25 - moycn300 + C apocc3 * ~ t e x t A 3 0 0 * pentapp3 ) * sqr C 41 - 00
ycn300 ) + C apocc3 * aptextB300 * pentappl ) * sqr ( 53 - rnoycn300 ) + ( apocc3 * aptex tB300 * pentapp2 ) * s q r ( 55 - moycn300 1 + C apocc3 * aptextB300 * pentapp3 1 * s q r ( 63 - moycn300 1 + C apocc3 * aptextC300 * pentappl 1 rnoycn300 ) + ( apocc3 * aptextCJO0 * pentapp2 1 * spr ( 70 - ioycn300 ) + (*$::ci ~ s ~ t e x t C 3 0 0 * pentapp3 ) *
sqr ( 75 - moycn300 ) + ( apocc3 * aptextD300 * pentappl * sqr ( 74 - moycn300 + C apocc3 * aptextD300 * pentapp2 ) * sqr ( 77 - moycn300 + ( apocc3 * aptextD300 * penta pp3 ) * sqr C 81 - moycn300
B = ( apocc4 * aptextA300 * pentappl ) * sqr ( 60 - moycn300 ) + ( apocc4 * aptextA300 * pentapp2 ] * sqr ( 63 - moycn300 1 + ( apocc4 * aptextA300 * pentapp3 1 * sqr C 67 - mo
ycn300 ) + ( apocc4 * aptext8300 * pentappl ) * sqr ( 70 - moycn300 1 + ( apocc4 * aptex tB3OO * pentapp2 ) * s q r C 75 - soycn300 ) + C apocc4 * aptextB300 * pentapp3 ) * s q r ( 78 - moycn300 ) + ( apocc4 * aptextC300 * pentappl ) * sqr ( 78 - moycn300 ) + C apocc4 * aptextC300 * pentapp2 ) * sqr C 83 - moycn300 1 + ( apocc4 * aptextt300 * pentapp3 1 *
sqr ( 85 - moycn300 ) + ( apocc4 * aptextD300 * pentappl ) * sqr ( 81 - moycn300 + C apocc4 * aptextD300 * pentapp2 ) * sqr ( 87 - moycn300 ) + ( apocc4 * aptextD300 * penta pp3 ) * sqr C 89 - moycn300
C = C apocc5 * aptextA300 * pentappl 1 * sqr C 25 - moycn300 1 + C apocc5 * aptextA300 * pentapp2 ) * sqr ( 39 - moycn300 ) + ( apoccS * aptextA300 * pentapp3 1 * sqr C 49 - mo
ycn300 ) + C apoccs * aptext6300 * pentappl ) * sqr C 40 - moycn300 1 + ( a p 0 ~ ~ 5 * aptex t ~ 3 0 o * pentapp2 ) * sq r ( 61 - moycn300 + C apocc5 * aptext8300 * pentapp3 1 * s q r C 69 - moycn300 ) + ( apocc5 * aptextC300 * pentappl ) " sq r ( 70 - moycn300 ) + ( apocc5 * aptextC300 * pentapp2 ) * sqr ( 74 - moycn300 1 + C apocc5 * aptextC300 * pentapp3 *
sqr ( 79 - moycn300 ) + C apoccs * aptextD300 * pentappl 1 * sqr ( 78 - 1aoycn300 ) + C apocc5 * aptextD300 * pentapp2 1 * sqr ( 80 - noycn300 + ( apocc5 * aptextD300 * penta pp3 ) * sqr ( 84 - moycn300 )
D = ( apocc6 * aptextA300 * pentappl ) * sqr ( 59 - moycn300 + C apocc6 * aptextA300 * pentapp2 ] * sqr ( 59 - moycn300 1 + ( apocc6 * aptextC4300 * pentapp3 ) * sqr ( 59 - mo
ycn300 ) + ( apocc6 * aptext0300 * pentappl ) * sqr ( 74 - moycn300 ) + C apocc6 * aptex tB300 * pentapp2 ) * sq r ( 74 - moycn300 ) + C apocc6 * aptextB300 * pentapp3 ) * s q r ( 74 - moycn300 ) + ( apoccS * aptextC300 * pentappl ) * sqr C 82 - moycn300 ) + C apocc5 * aptextC300 * pentapp2 1 * sqr C 82 - moycn300 ) + C apocc5 * aptextt300 * pentapp3 1 *
sqr C 82 - moycn300 ) + C apocc6 * aptextD300 * pentappl * sqr ( 86 - moycn300 ) + ( apocc6 * aptextD300 * pentapp2 ) * sqr ( 86 - moycn300 ) + C apocc6 * aptextD300 * penta pp3 ) * sqr ( 86 - moycn300 1
k i11 A al1 k i l l B a l1 k i l l C a l1 k i l l D al1 @il N al1
Annexe 7
Programme AML: recharge et son incertitude associée
recha300. am1 ca lcu le 1 a recharse e t son i n c e r t i t u d e pour l e buffer de 300 Q
j* s'effectue dans l é module C R I O
/* calcul du ru isse l lement (ruis) e t son i n c e r t i t u d e dRu /* 1 es couvertures in te rpo lees (preci p e t evap) sont p lus grandes, a l o r s 1 a fene t re d'anal yse do i t e t r e determi nee,
se t ce l l occupa setwi ndow occupa
/* transforme l e s couvertures en pouces
precip = precipmm / 25.4 evap = evapmm / 25.4 varprec = varprecmm / 25.4 varevap = varevapmm / 25.4
/* Le ru i sse l lement e s t ca lcu le pour un evenement p luv ia l . (d iv ise par 36.5 parc equ'on assume qu ' i l y a un evenement aux j o u r s dans l'annee 94)
Ruis300 = ( sqr C ( p rec ip / 36.5 ) - 0.2 * ( ( 1000 ! moycn300 - 10 ) / C ( p r e c i p / 36 .5 ) + 0.8 * ( (1000 / moycn300) - 10 1 )
u = sqr C C p rec ip / 36.5 1 - 0 . 2 * C C 1000 / moycn300 - 10 1 )
v = ( prec ip / 36.5 ) + 0.8 * C C 1000 / moycn300 ) - 10 1
dupr = C 2 / 36.5 1 * C C precip / 36.5 ) - 0.2 * ( C 1000 / moycn300 1 - 10 1 1
dvpr = 1 / 36.5
dRudpr = ( C v * dupr 1 - C u * dvpr ) 1 / sqr C v
k i l l dupr a l 1 k i l t dvpr a l 1
ducn = C 2 * C p rec ip / 36.5 - 0.2 + ( 1000 / moycn300 - 10 1 ) 1 * ( 200 * C 1 / sqr ( moycn300 ) 1 1
dvcn = -800 * C 1 / sq r C moycn300 ) )
dRudcn = ( ( v * ducn 1 - C u * dvcn ) ) / sq r C v 1
k i l l ducn a l 1 k i l l dvcn al 1
dRu300 = s q r t C C sqr C dRudpr 1 * sqr C 1 / 25.4 1 * varprec ) + C sqr ( dRudcn 1 * sqr ( dcn300 1 1 1
k i l l dRudpr a l 1 ki 11 dRudcn a l 1 k i l l u a l 1 k i l l v a l 1
/*,Calcul de l a recharge annuel le. 1 e r u i s s e l l eiient pour un evenement es t remu 1 ti p l i e par 1 e nombre d'evenemants p l uv i aux annuel 1 einent
Rech300 = C 1 - ( evap / prec i p 1 1 * ( precip - ( ruis300 * 36.5 1
dRe-dev = C 36.5 * ruis300 / p rec ip 1 - 1 dRe-dPr = ( -36.5 * ruis3OO * evap 1 / sqr ( precip 1 + 1 dRe-dru = ( 36.5 * evap / prec ip 1 - 36.5
drech300 = sqr t ( sqr ( dRe-dev ) * sqr ( 1 / 25.4 ) * varevap + sqr ( dRe,dPr 1 * sqr C 1 / 25.4 1 * varprec + sqr C dRe,dru 1 * sqr C dRu300 1 1
/* kt11 fuis300 al1 /* k i l l dru300 al1 k i l l varprec al1 k i l l varevap al1 k i l l precip al1 k i l l evap al1
11 dRe-dev al1
Annexe 8
Programme AML: cote de recharge et son incertitude associée
e r t i t u d e sur l a cote pour l a recharge dans l e cas d'un
/* s'effectue dans 1 e module g r i d
rechl = 0.195 el se
rechl = rech300 endi f
if ( rech300 > 10 1 rech2 = 10
el se rech2 = rechl endi f
cote i = C -0.043 * sqr ( rech2 ) ) + C 1.3507 * rech2 1 - 0.2605
dcote300 = sqrt C sqr C -0.086 * rech2 + 1.3507 ) * sqr C drech300 1 1
docel l
i f C co te i >= 9 1 cote300 = 9 el se cote300 = cotei endi f end
k i l l cote i al1 k i l l rechl al1 k i l l rech2 al1
Annexe 9
Programme AMI.: exemple du calcul de l'incertitude nulie pour le modèle polygonal
% calcule 1 'appartenance de 1 a c e l l u l e a l a classe d'occupation 3 en app = 1 ou O . sans i nce r t i tude
/* s'effectue dans l e module g r i d
1 apoccî = test ( occupa, 'value = 3')
1 /* Cree un g r i d dans lequel 1 a valeur = 1 pour l a c l asse 3, s i non value = O
Annexe 10
Programme AML: exemple du calcul de I'incertitude nulle pour le modèle de la variable
interpolée @ente)
ntes classes de pente selon 1 a 1 ogi que bool eenne, sans i n c e r t i tude /* s'effectue dans l e module g r i d
if ( pente <= 3 1 begi n
pentappl = 1 . O pentapp2 = 0.0 pentapp3 = 0.0
end e l se
if ( pente, <= 8.0 & pente > 3.0 begi n
pentappl = O pentapp2 = 1.0 pentapp3 = O
end e l se
i f C pente > 8.0 1 begi n
pentappl = O pentapp2 = O pentapp3 = 1.0
end endi f
Annexe 11
Programme AML: exemple de calcul d'une incertitude nulle pour le modèle de classification
mixte (classe 3, culture intensive)
Y* calcule 1 'appartenance de l a ce1 lule a l a classe d'occupation 3 en app = 1 ou O. sans i ncerti tude
/* s'effectue dans l e module grid
1 apocc3 = test ( occupa. 'value = 3') '
/* Cree un grid dans lequel l a valeur = 1 pour l a classe 3. sinon value = O -
IMAGE EVALUATION TEST TARGET (QA-3)
APPLIED - 1 I W G E . lnc = 1653 East Main Street - -. - - Rochester. NY 14609 USA -- -- - - Phone: 716/482-0300 -- -- - - Fa: 71 6/288-5989
O 1993. Applied Image. Inc.. All Rigtits Resanred