REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE
MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE
ECOLE NATIONALE SUPERIEURE D’HYDRAULIQUE -ARBAOUI Abdellah-
DEPARTEMENT AMENAGEMENT ET GENIE HYDRAULIQUE
MEMOIRE DE MASTER
En vue de l’obtention du diplôme de Master en Hydraulique
Option: Aménagement et Ouvrages Hydrotechniques
THÈME DU PROJET :
Contribution à la prévision de la séchresse par le
modèle du réseau de neurones autorégressif
PRESENTÉ PAR : ZAOUI Lynda
Devant les membres du jury
Nom et Prénoms Grade Qualité
Mr : M.K.MIHOUBI Professeur Président
Mr : S.TOUMI M.C.B Examinateur
Mme
: A.ADDOU M.C.A Examinatrice
Mr : Y.BOUNNAH M.C.B Examinateur
Mr : A.ZAROUAL M.C.B Promoteur
2016/2017
A chaque fois qu’on achève une étape importante dans notre vie, on fait une pose
pour regarder en arrière et se rappeler toutes ces personnes qui ont partagés avec nous tous
les bons moments de notre existence, mais surtout les mauvais. Ces personnes qui nous ont
aidés sans le leur dire, soutenus sans réserve, aimé sans compter, ces personnes à qui notre
bonheur devient directement le leur, à qui un malheur en nous, en eux se transforme en pleur.
Je dédie ce modeste travail à tous ceux que j’aime mais surtout :
A mes parents qui ont toujours été les étoiles de mon ciel et ont illuminé mon chemin depuis
ma naissance, je ne les remercierai jamais assez que Dieu me les garde
Je le dédie également à toute ma famille
A tous mes amies ;
A toute ma promotion 2017 sans exception ;
A tout les enseignants de l’ENSH qui m’ont accompagné durant mes études ;
A toute personne utilisant ce document pour un bon usage.
Au terme de cette modeste étude, je t iens à expr imer ma profonde gratitude
et mes vif s remerc iements à mes parentes pour avoir contribué à l ' élaboration de
cette présentat ion de thèse et à ma formation durant l es années d’études.
Toutes mes gratitudes et mes reconnaissances au monsieur Zeroual Ayoub pour ses judicieux
conseils ainsi que ses disponibilités tout au long de l’élaboration de ce travail
Aussi, j e me permets d'expr imer tout mon respect aux membres de jury qui me
feront l 'honneur d'apprécier notre travail .
Tous le corps de l ’ense ignant de l ’ENSH qui ont contribué de loin ou de prés
à ma formation au se in de l ’ étab lissement
Je remerc ie tous les membres de ma famill e et de mes amis qui mon portés
leur soutien et l eurs précieux consei ls et part iculièrement Melle Bouabdelli Senna.
ملخص
ومن الجدير بالذكر أن دراسة الجفاف والتنبؤ بها كانت هدفا . الجفاف هو من بين المخاطر الطبيعية المعقدة في الجزائر
تمت مقارنة قدرة نماذج الشبكة العصبية االصطناعية ذات االنحدار الذاتي مع ثالثة في هذا العمل،. للعديد من المشاريع البحثية
وقد تم تطبيق هذه . في شمال غرب الجزائر( الجزء العلوي للشلف ميتيجة و) هلينسالخوارزميات مختلفة للتنبؤ بالجفاف في
و نظام بايزيان على السالسل الزمنية لمؤشر الهطول ماركاردت-، ليفنبرغمقياس التدرج االقتراني الخوارزميات، بما في ذلك
وأظهرت المقارنة بين الخوارزميات أن أداء خوارزمية نظام بايزيان كان أفضل من . شهرا 21القياسي على مدى
.للسنوات العشر القادمة الخوارزميات األخرى
Résumé
La sécheresse est parmi les risques naturels complexes en Algérie. L'étude de la sécheresse
ses prévisions ont fait curieusement l'objet de plusieurs projets de recherche. Dans ce
travail, la capacité des modèles de réseaux de neurones artificiels autorégressifs avec trois
algorithmes différents ont été comparés pour prévoir la sécheresse dans deux plaines (Metidja et
Haut Cheliff) de l’Algérie du Nord et Nord-Ouest. Ces algorithmes, y compris Scaled Gradient
Conjugué, Levenberg-Marquardt et la Régularisation Bayésienne ont été appliqués aux séries
chronologiques de l'indice de précipitations normalisé (SPI) à des échelles de temps de 12 mois.
En général, les modèles proposés sont capables de prévoir la sécheresse dans cette région. La
comparaison des algorithmes a montré que l’algorithme Bayesian Regularization offre des
meilleurs résultats que les autres algorithmes la sécheresse avant 10 ans.
Abstract
Drought is among the complex natural hazards in Algeria. The study of drought and their
forecasting have been curiously the target of several research projects. In this work, ability of
autoregressive artificial neural network models with three different algorithms were compared to
forecast drought in two plains (Metidja and High Chelif) of North-West Algeria. These
algorithms, including Scaled Conjugate Gradient, Levenberg-Marquardt and Bayesian
Regularization were applied to time series of standardized precipitation index (SPI) at 12-
months’ time scales. Comparison of the algorithms showed that Bayesian Regularization
performed better than the other algorithms in advance of 10 years
SOMMAIRE
INTRODUCTION GENERALE ........................................................................... 12
I.ETUDE BIBLIOGRAPHIQUE .......................................................................... 14
I.1.ETUDE LA SECHERESSE .......................................................................................... 14
I.1.1. Définition de la sécheresse ................................................................................. 14
I.1.2. Différents types de sécheresses .......................................................................... 15
I.1.3. Les impacts et les risques de la sècheresse ........................................................ 16
I.1.4. Les indices de la sécheresse .......................................................................... 17
I.1.6. Indice de précipitation normalisé (SPI) : ......................................................... 17
I.1.6.1. Interprétation du SPI .............................................................................................. 18
I.1.6.2. Avantages et inconvénients de la méthode............................................................. 19
I.1.5. Prévision de la sécheresse .................................................................................. 21
I.2. MODELES DE PREVISION DES SERIES CHRONOLOGIQUES ....................... 23
I.2.1. les séries temporelles (chronologiques) ............................................................ 24
I.2.2. Les Modèles stochastique de prévision ............................................................ 24
I.2.3. Modèles à base de réseaux de neurones artificiels ........................................... 26
II.1. LA PLAINE DE MITIDJA : ................................................................................... 28
II.1.1. Relief de la Mitidja ........................................................................................... 30
II.1.2 Climat de la Mitidja ........................................................................................... 31
II.1.3. Réseau hydrographique et ouvrages d'alimentation dans la plaine .............. 32
II.1.4. Occupation des sols par cultures appliquées .................................................. 34
II.2. LA PLAINE DE HAUT CHELIFF : ...................................................................... 34
II.2.1. Morphologie : .................................................................................................... 34
II.2.2. Urbanisation et démographie : ........................................................................ 34
II.2.3. Agriculture: ....................................................................................................... 34
II.2.4. Climatologie : .................................................................................................... 35
II.2.5 Aspect hydrologique : ........................................................................................ 35
II.2.6. Cadre géologique général et Litho stratigraphie : .......................................... 37
II.2.7. Aspect hydrogéologique : ................................................................................. 38
II.2.8. La piézométrie : ................................................................................................ 38
II.3. CHOIX DE L’AIR D’ETUDE .................................................................................... 41
II.4. CHOIX DES STATIONS ............................................................................................ 41
II.5.1. Données pluviométriques et hydrométriques.................................................. 41
III. METHODOLOGIE ......................................................................................... 43
III.1. Introduction : .............................................................................................................. 43
III.2. Sélection des données ................................................................................................. 43
III.3. Définitions de base ...................................................................................................... 43
III.3.1. Variables aléatoires ......................................................................................... 43
III.3.2. Processus stochastique .................................................................................... 44
III.3.3. Processus discret.............................................................................................. 44
III.3.4. Séries temporelles ........................................................................................... 44
III.3.6. Autocorrélation et autocorrélation partielle ................................................. 44
III.4. Modèles de réseaux neuronaux artificiels (ANN) .................................................... 45
III.4.1. Principe du neurone artificiel ......................................................................... 45
III.4.2. Types de fonction d'activation ........................................................................ 46
III.4.3. Modélisation des réseaux de neurones artificiels .......................................... 46
III.4.4. Architecture des réseaux de neurones .......................................................... 47
III.4.4.1. Réseaux de neurones non bouclés ................................................................................... 47
III.4.4.2. Réseaux de neurones bouclés.................................................................. 48
III.4.5. L'apprentissage ............................................................................................... 48
III.4.5.1. Type d’apprentissage ...................................................................................................... 48
III.4.5.2. Algorithme d’apprentissage ............................................................................................ 49
III.4.6. Conception d'un réseau de neurones ............................................................. 53
III.4.6.1. Détermination des entrées/sorties du réseau de neurones ................................................ 54
III.4.6.2. Choix et préparation des échantillons ............................................................................. 54
III.4.6.3. Elaboration de la structure du réseau .............................................................................. 55
III.4.6.4. Apprentissage ................................................................................................................. 55
III.4.6.5. Validation et Tests .......................................................................................................... 55
III.4.7. Modèle NAR .................................................................................................... 55
IV. RESULTATS ET DISCUSSION ..................................................................... 57
IV.1. Introduction ................................................................................................................. 57
IV.2. Variabilité spatiale et temporelle du SPI à différentes échelles ............................. 57
IV.3. Autocorrélation et autocorrélation partielle de la série des SPI ........................... 58
IV.4. Prédiction de la sécheresse par les réseaux de neurones artificiels autorégressif
(NAR) .................................................................................................................................... 59
IV.4.1. Conception du modèle du réseau de neurone autorégressif (NAR) ............. 59
IV.4.1. Sélection des entrées et architecture du modèle ........................................... 59
IV.4.3. Apprentissage du modèle auto-regressif (NAR) ........................................... 60
IV.4.4. Evaluation des Performances ......................................................................... 60
IV.5. Résultats et Discussion .............................................................................................. 61
IV.5.1 Résultats : .......................................................................................................... 61
IV.5.2. Discussion : ...................................................................................................... 88
Conclusion générale ............................................................................................... 90
Références bibliographiques .................................................................................. 91
ANNEXES ............................................................................................................... 97
Liste des tableaux
Tableau I.1: Les différents types des indices de sécheresse ..................................... 19
Tableau I.2 : Interprétation du SPI par rapport à leur valeur et leur probabilité au
non-dépassement selon Mckee (1993) ...................................................................... 19
Tableau II.1 : Pluies de l'année 2010 ....................................................................... 31
Tableau II.2 : Températures de l'année 2010 .......................................................... 31
Tableau II.3 : Humidité de l'année 2010 ................................................................. 31
Tableau II.4 : Vent de l'année 2010......................................................................... 32
Tableau II.5: Valeurs de la température en C° ........................................................ 35
Tableau II.6: Comportement hydrogéologique des différentes formations de la plaine
d’El- khemis ............................................................................................................. 38
Tableau II.7: Stations pluviométriques retenues dans la zone d’étude de la plaine de
Metidja. .................................................................................................................... 42
Tableau II.8 : Stations pluviométriques retenues dans la zone de l’étude de la plaine
de Haute Cheliff ....................................................................................................... 42
Tableau II.9 : Les valeurs des pluviométries enregistrées durant 50 Années
précédentes............................................................................................................... 42
Tableau IV.1. Conception des entrées utilisées pour l’apprentissage du modèle NAR
pour la prévision de la sécheresse d’un mois de décalage (à l’avance d’un mois) ..... 60
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine
de Metidja trouvées pour la meilleure conception d’entrées ..................................... 62
Liste des figures
Figure I.1: Schémas des différents types de la sécheresse et de leurs impacts.......... 16
Figure II.1 : Présentation des deux plaines étudiées. ............................................... 28
Figure II.2 : Situation de la plaine de Mitidja .......................................................... 29
Figure II.3 : Situation géographique de la Mitidja ................................................... 30
Figure II.4: localisation de la nappe de la Mitidja. ................................................. 33
Figure II.5 : Evolution des superficies irriguées dans le temps ................................ 35
Figure II.6: Réseau hydraulique de la zone d’étude . .............................................. 33
Figure II.7 : Carte géologique de la plaine d’EL-Khemis (Perrodon ,1957) ............. 37
Figure II.8 : Carte piézométrique de la nappe alluviale du Haut Cheliff (période des
basses eaux 2003 ……………………………………………………………..41
Figure II.9 : Carte piézométrique de la nappe alluviale du Haut Cheliff (période
des hautes eaux 2004) ........................................................................................... 40
Figure III.1: Modèle non linéaire d'un neurone (Haykin, 1999). ............................. 45
Figure III.2: Perceptron à une couche cachée (Raihane Mechgoug, 2013) .............. 47
Figure III.3: Réseau de neurone bouclé ................................................................... 48
Figure III.4. Réseau non-linéaire autorégressif (NAR). ........................................... 56
Figure IV.1 : Les séries chronologiques concernant l’indice de précipitation
normalisé (SPI) ........................................................................................................ 57
Figure IV .2 :Fonction Autocorrélation et Autocorrélation partielles pour les SPI ... 58
Figue IV.3 : la structure du modèle de réseau neurone autorégressif NAR avec une
architecture (4-9-1) dans le cas d’une prévision de la sécheresse à l’avance d’un
mois. ........................................................................................................................ 61
Figue IV.4: Les résultats de l’erreur moyenne quadratique (MSE) obtenus dans la
plaine de Metidja en fonction de nombre de mois de décalage (prévision à l’avance
de 120 mois) en utilisant les trois algorithmes : (a) Scaled Conjugate Gradient
algorithme ; (b) Levenberg-Marquardt algorithme et (c) Bayesian Regularization
algorithme. ............................................................................................................... 86
Figure IV.4. Progression de l’erreur de prévision (MSE) du modèle NAR avec
l’architecture (4-9-1) dans le cas d’une prévision de la sécheresse à l’avance de 120
mois. ........................................................................................................................ 87
Figure IV.5. Résultats de régression au carré R2 du modèle NAR avec l’architecture
(4-9-1) dans le cas d’une prévision de la sécheresse à l’avance de 120 moi ……......90
Liste des annexes
Annexe.1: Tableau des Paramètres statistiques de la prévision de la sécheresse dans
la Plaine de Haute Cheliff trouvées pour la meilleure conception d’entrées.
Annexe.2 : Nomenclature
INTRODUCTION GENERALE
ENSH –SEPTEMBRE 2017 12
INTRODUCTION GENERALE
Dans les régions arides et semi-arides méditerranéennes, la mobilisation des ressources en eau
se fait pour une grande part grâce à la construction des barrages (Boudjadja et al, 2003). Or, les
apports en eau emmagasinés par ces derniers sont dépendants de la pluviométrie. Lorsque celle-
ci est excédentaire, on assiste à un accroissement du taux de remplissage des ouvrages et un
développement des activités liées à l'approvisionnement en eau, notamment l’agriculture et
diverses industries. Par contre, lorsque la pluviométrie est déficitaire, on parle de la sécheresse.
Avec le prolongement de celle-ci, les ouvrages se vident et l’on assiste aux pénuries d’eau, au
déclin de l’agriculture, à l’arrêt de certaines usines consommables d’eau en plus des dommages
environnementaux et la baisse de la qualité de la vie (Hisdal et Tallaksen 2003). De ce fait, La
prévision de la sécheresse est une nécessité pour anticiper ce que pourraient être les
conséquences des changements climatiques futurs dans notre région d’étude et tenter de s'y
adapter le mieux possible.
Actuellement la détection et la surveillance des conditions de la sécheresse sont
essentiellement basées sur certains indices. Les indices les plus couramment utilisés pour la
surveillance de la sécheresse sont l’indice de sécheresse de Palmer (PDI) (Palmer, 1965) et
l'indice de Précipitations Standardisé SPI (Mckee et al, 1993) et l’indice hydrométrique ‘SDI’.
Par ailleurs, divers outils et méthodes pour la prévision des indice de la sécheresse ont été
proposés et testés dans différentes régions au cours des dernières décennies (Dastorani &
Afkhami, 2011).
La prévision de la sécheresse ou plus précisément des séries temporelles est un problème qui a
été abordé depuis longtemps. On en trouve des applications dans de nombreux domaines, par
exemple l’économie, la météorologie, la médecine, la communication, le traitement de la parole,
etc. Théoriquement, la prévision des séries temporelles nécessite de modéliser le système qui a
généré les données de la série. En disposant d’un système d’équations mathématiques et
déterministes et connaissant les conditions initiales, il serait possible de prévoir l’évolution du
système. Cependant, les caractéristiques du phénomène qui a généré la série sont généralement
inconnues. Les seules informations disponibles dans ce cas de figure sont les valeurs passées. La
modélisation de la série se limite donc à imiter le mécanisme de génération des données sans
retrouver explicitement les fonctions qui représentent ces mécanismes et ce uniquement à travers
les valeurs passées.
Dans cette étude nous utilisons le modèle de réseau de neurones artificiels autorégressifs pour
la prévision de la sécheresse dans les deux plaines Metidja et haut Cheliff sur la période 1960-
INTRODUCTION GENERALE
ENSH –SEPTEMBRE 2017 13
2010 en se basant sur l'indice de Précipitations Standardisé (SPI). Pour ce faire, on a procédé
comme suit :
Chapitre1 : Ce chapitre présente une étude bibliographique des études les plus pertinentes
rapportées dans la littérature sur la prévision de la sécheresse. Ces études sont évaluées de
manière critique et comparatif de façon à déterminer a) Les indices les plus couramment utilisés
pour la surveillance de la sécheresse b) les méthodes qui ont été utilisées avec succès pour la
prévision des séries chronologiques. Le sondage souligne le potentiel et les capacités des RNA
pour des applications similaires et justifie leur utilisation pour la prévision.
Chapitre 2 : Dans ce chapitre, on va présenter la zone d’étude concernant les deux plaines;
Metidja et Haut Cheliff, et on va présenter l’état de l’art du contexte géographique,
géomorphologique et climatique de ces deux plaines.
Chapitre 3 : Dans ce chapitre, on va présenter les modèles de réseaux de neurones. La
première partie concerne une définition de certains concepts de base qui sont utilisés dans notre
modèle a été détaillée. La deuxième partie, le modèle de réseau neuronal est présenté comme
modèle principal pour cette recherche.
Chapitre 4: Les méthodes, les variables, les sources, la collecte de données, les outils
appliqués et la validation de la méthode sont décrits en détail. Ce chapitre comporte une partie
importante qui est la validation et l'évaluation du modèle, avec trois algorithmes, appliqué et un
résumé des résultats obtenus.
CHAPITRE I ETUDE BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 14
I.ETUDE BIBLIOGRAPHIQUE
I.1.ETUDE LA SECHERESSE
I.1.1. Définition de la sécheresse
La sécheresse est un phénomène extrême résultant des changements climatiques, ce
phénomène se reproduit plus fréquemment ces dernières années et provoque des conséquences
aussi désastreuses qu’une inondation.
La sécheresse n’a pas de définition universelle (OSS, 2009). La sécheresse se distingue des
phénomènes naturels par l’absence d’une définition précise et incontestée (OMM, 2006). Pour
expliquer ce phénomène, nous citons quelques définitions :
La sécheresse est un minimum hydrologique extrême résultant de perturbations du cycle
hydrologique d’une durée suffisamment longue pour qu’il en résulte un important déficit en eau ;
les ressources en eau locales deviennent insuffisantes pour soutenir les activités établies ou
normales dans la région (OMM, 1994).
La sécheresse est un phénomène naturel dû à un déficit des précipitations, qui fait que les
quantités d'eau sont insuffisantes pour certaines activités ou certains groupes. L'absence de
précipitations pendant une période prolongée, généralement une saison ou plus, peut s’aggraver.
Du point de vue hydrologique, l'insuffisance prolongée des précipitations entraîne une
diminution correspondante du débit des cours d'eau des zones arides, du ruissellement des eaux
et de l'humidité du sol (UNCCD, 2000).
La sécheresse est une absence prolongée ou une insuffisance marquée des précipitations, une
insuffisance des précipitations, entraînant une pénurie d’eau pour certaines activités ou certains
groupes ou une période de temps anormalement sèche et suffisamment longue pour que le
manque de précipitations cause un déséquilibre hydrologique sérieux (GIEC, 2007).
La sécheresse peut être définie comme étant une période prolongée de précipitations
insuffisantes, normalement une ou plusieurs saisons, voire des années, qui causent un déficit
d’eau dans certains secteurs de l’économie d’un pays. Cette sécheresse doit être considérée par
rapport à certaines conditions de moyen à long terme du bilan final des précipitations et de
l’évapotranspiration dans une région particulière, l’échelle temporelle et l’efficacité des
précipitations (OSS, 2009).
D’après ces définition, on peut conclure que la sécheresse est une période déficitaire en
CHAPITRE I ETUDE BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 15
précipitation sur une certaine durée et qui touche une région donnée de l’espace. Celle-ci peut
subsister quelques mois ou même un bon nombre d’années.
I.1.2. Différents types de sécheresses
Selon les définitions opérationnelles il existe quatre types de sécheresse, météorologique,
agricole, hydrologique et socio-économique.
I.1.2.1. Sécheresse météorologique
On en mesure l'intensité en comparant la quantité des précipitations reçues par rapport à la
quantité normale des précipitations. Pour évaluer une telle sécheresse, il faut tenir compte de
facteurs comme la quantité totale des précipitations reçues pendant une période donnée (semaine,
mois, année), le temps écoulé entre les pluies substantielles et l'époque à laquelle elles sont
tombées (OMM, 2006).
I.1.2.2. Sécheresse agricole
Causée par la sécheresse météorologique, elle s'aggrave avec les pertes dues à
l'évapotranspiration. La jachère diminue la gravité d'une sécheresse agricole en maintenant dans
le sol l'humidité emmagasinée l'année précédente. Une sécheresse météorologique ne provoque
pas forcément une sécheresse agricole, et cela dans les régions où l'eau d'irrigation reste
accessible et les réserves d'eau abondantes (OMM, 2006).
I.1.2.3. Sécheresse hydrologique
Elle correspond à une diminution des réserves d'eau dans les cours d'eau, les réservoirs de
surface et les nappes phréatiques. La sécheresse hydrologique est causée par un manque de
précipitations accompagné d'une évaporation massive. Cependant, des facteurs non
météorologiques, comme la demande en eau, la disponibilité de réservoirs de surface et le forage
de puits artésiens, en aggravent l'effet (OMM, 2006).
I.1.2.4. Sécheresse socioéconomique
On parle de sécheresse socioéconomique lorsque l’insuffisance de l'eau commence à affecter
les gens et leurs vies (OSS, 2009).Elle diffère fortement des autres types de sécheresse du fait
qu’elle reflète la relation entre l’offre et la demande de certaines denrées ou de certains biens
économiques (i.e. grains, fourrage, énergie hydro-électrique...,etc.) qui sont tributaires des
précipitations (OMM,2012)
CHAPITRE I ETUDE BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 16
Figure I.1: Schémas des différents types de la sécheresse et de leurs impacts
I.1.3. Les impacts et les risques de la sècheresse
L’extension spatiale de la sécheresse est généralement plus importante que celle des autres
risques naturels et ses impacts sont non structuraux et difficiles à quantifier (Ellouza et Abida,
2008).
En période de sécheresse, la demande en eau tend à augmenter et l'approvisionnement
hydrique pour divers usages (domestiques, agricoles, industriels...,etc.) se pose en termes de
quantité et de qualité. En exerçant des contraintes sur l'approvisionnement en eau, la sécheresse
affecte nos vies et notre santé, dégrade notre environnement et porte préjudice à notre économie.
CHAPITRE I ETUDE BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 17
I.1.4. Les indices de la sécheresse
La difficulté de définir la sécheresse pousse les chercheurs à définir des indicateurs de ce
phénomène. Ces indicateurs permettent de déterminer d’une façon scientifique le seuil indiquant
la sécheresse à différentes échelles de temps et de définir des classes d’appartenance à cet
événement en fonction de sa sévérité et de sa position. Ils assurent également le suivi de la
sécheresse et la détection à différents stades de son évolution. Ces indices constituent également
un excellent moyen de communication avec le public et un outil de décision pour le
gouvernement.
Tableau I.1: Les différents types des indices de sécheresse
Indicateurs de la
sécheresse
Indicateurs
météorologiques Indicateurs agricoles
Indicateurs
hydrologiques
Le
s in
dic
es
Indice de pourcentage à la
normale (PN)
Indice de sévérité de la
sécheresse de Palmer
(PDS)
Indice de sécheresse de
Keetch Byram (KBDI)
Indice des déciles de
précipitation (DI)
L’indice du stress
hydrique des cultures
(Jackson, 1982) ou
(CWSI)
Indice de sécheresse de
Palmer (PDSI)
Indice de l'écart à la
moyenne (Em)
Indice de déficit
climatique (IDC)
Indice Crop Moisture
Index (CMI )
Indice de pluviosité (Ip) IndiceSurface Water
Supply Index (SWSI)
Rapport à la normale des
précipitations (RN)
Indice standardisé de
précipitation (SPI)
Ces indices utilisent généralement les mesures de précipitation recueillies aux stations
météorologiques pour décrire les conditions de sécheresse. Ils ont pour but de comparer les
valeurs actuelles à la tendance historique, ils sont simples, faciles et rapides à utiliser. Dans
notre étude on va s’intéresser à la prévision de l’indice de précipitation normalisé (SPI)
I.1.6. Indice de précipitation normalisé (SPI) :
Le SPI a été développé par McKee et al., en 1993.C’est un indicateur statistique utilisé pour la
caractérisation des sécheresses locales ou régionales. Basé sur un historique de précipitations de
CHAPITRE I ETUDE BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 18
longue durée, le SPI permet de quantifier l’écart des précipitations d’une période, déficit ou
surplus, par rapport aux précipitations moyennes historiques de la période. Cette période varie
généralement de 3 mois à 2 ans, selon le type de sécheresse que l’on désire suivre. (OSS, 2008).
Le calcul du SPI consiste à soustraire la moyenne annuelle des précipitations au cumul de la
pluie pour une année et de diviser le résultat par l'écart-type de la série.
Où :
SPI i : indice standardisé de précipitation de l’année ;
Pi : hauteur de pluie précipitée au cours de l’année ;
Pm : moyenne interannuelle des hauteurs de pluie sur la période observée ;
Écart de la pluie moyenne interannuelle ;
L’indice de précipitations normalisé (McKee et al., 1993; 1995) est un indice simple, puissant
et souple à la fois, et basé sur des données pluviométriques et permet tout aussi bien de vérifier
les périodes/cycles humides que les périodes/cycles secs. Le SPI compare les précipitations sur
une certaine période, en principe, 1 à 24 mois à la moyenne à long terme de précipitations.
Toutefois, il faut au moins des relevés pluviométriques mensuels étalés sur 20 à 30 ans, mais de
préférence, sur 50 à 60 ans pour calculer le SPI (Guttman, 1994). Les climatologues préfèreraient
travailler sur des séries de données complètes, c’est-à-dire des séries ne comportant aucune
donnée manquante. (Jouili, 2012).
L’Organisation Météorologique Mondiale a adopté l’indice de précipitations normalisé (SPI)
en 2009 comme instrument mondial pour mesurer les sécheresses météorologiques, aux termes
de la Déclaration de Lincoln sur les indices de sécheresse. L’OMM en promeut l’utilisation par
les services nationaux météorologiques et hydrologiques en association avec d’autres indices
utilisés dans chaque région et l’instrument sera soumis à l’approbation du Congrès
Météorologique Mondial lors de sa seizième session en juin 2011. (Jouili, 2012).
I.1.6.1. Interprétation du SPI
McKee et al. (1993) ont utilisé le système de classification présenté dans le tableau des
valeurs de l’indice SPI figurant ci-après (Tableau I.1) pour définir l’intensité des épisodes de
sécheresse en fonction de la valeur de l’indice.
Les valeurs 1,00 et au-dessus, représentent les classes humides, à -1,00 et moins, représentent
les classes sèches avec près de la normale des conditions allant de - 0,99 à + 0,99.
(I.1)
CHAPITRE I ETUDE BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 19
Tableau I.2 : Interprétation du SPI par rapport à leur valeur et leur probabilité au non-dépassement
selon Mckee (1993)
Classes SPI Probabilités cumulatives du SPI Interprétations
SPI ≥ 2 Prob. SPI ≥ 0,9772 Très Humide (TH)
1,50 ≤ SPI < 2 0,9332 ≤ Prob. SPI < 0,9772 Humide (H)
1 ≤ SPI < 1,50 0,8413 ≤ Prob. SPI < 0,9332 Modérément Humide (MH)
-1 < SPI < 1 0,1587 < Prob. SPI < 0,8413 Normale (N)
-1,50 < SPI ≤ -1 0,0668< Prob. SPI ≤ 0,1587 Modérément Sec (MS)
-2 < SPI ≤ -1,50 0,0228 < Prob. SPI ≤ 0,0668 Sec (S)
SPI ≤ -2 Prob. SPI ≤ 0,0228 Très Sec (TS)
I.1.6.2. Avantages et inconvénients de la méthode
Avantages
L’indice SPI offre une bonne souplesse d’utilisation: il est possible de le calculer pour de
multiples échelles de temps.
Quand il porte sur un laps de temps relativement court, entre 1 et 3 mois par exemple,
l’indice SPI permet de détecter rapidement les situations de sécheresse et d’en évaluer la
gravité.
Différentes régions peuvent être comparées.
Les périodes humides sont aussi surveillées.
Inconvenient
L’indice SPI ne repose que sur les relevés de précipitations.
Le bilan hydrique du sol n’étant pas pris en compte, l’indice ne permet pas le calcul du
rapport évapotranspiration/évapotranspiration potentielle (ET/ETP).
Grâce à une variante de l’indice qu’ils ont mis au point, Vicente-Serrano et al., (2010)
tentent de régler le problème mentionné ci-dessus en prenant en compte la température dans
les calculs du nouvel indice qu’ils nomment indice de précipitations et d’évapotranspiration
normalisé (SPEI).
CHAPITRE I ETUDE BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 20
I.1.4.4. Valeurs de l’indice de précipitations normalisé pour une période plus ou moins
longue
A. Indice SPI sur 1 mois
Une carte de l’indice SPI calculé sur 1 mois ressemble beaucoup à une carte représentant le
pourcentage de la normale des précipitations pour une période de 30 jours. L’indice dérivé offre
en fait une représentation plus exacte des précipitations mensuelles, car la distribution est
normalisée. À titre d’exemple, l’indice SPI sur 1 mois se terminant fin novembre établit la
comparaison entre le total mensuel des précipitations pour novembre de l’année examinée et les
totaux mensuels des précipitations en novembre de toutes les années pour lesquelles on dispose
de relevés.
B. Indice SPI sur 3 mois
L’indice SPI sur 3 mois établit la comparaison entre le total des précipitations sur la période
de trois mois examinée et les totaux des précipitations pour cette même période de trois mois de
toutes les années pour lesquelles on dispose de relevés. En d’autres termes, l’indice SPI sur 3
mois se terminant fin février permet de comparer le cumul des précipitations des mois de
décembre, janvier et février de l’année examinée aux cumuls de précipitations de décembre à
février de toutes les années figurant dans l’historique des observations exécutées à la station
étudiée.
C. Indice SPI sur 6 mois
L’indice SPI sur 6 mois établit la comparaison entre les précipitations sur la période de six
mois examinée et les totaux des précipitations pour cette même période de six mois de toutes les
années pour lesquelles on dispose de relevés. À titre d’exemple, un indice SPI sur 6 mois se
terminant fin septembre permet de comparer le cumul des précipitations d’avril à septembre de
l’année examinée aux cumuls de précipitations de cette même période pour toutes les années
écoulées.
L’indice SPI sur 6 mois fournit une indication sur les tendances des précipitations sur une
saison et jusqu’à moyenne échéance; on considère que pour cette échelle de temps, il présente
encore davantage de sensibilité aux conditions que l’indice Palmer.
D. Indice SPI sur 9 mois
L’indice SPI sur 9 mois fournit une indication sur les régimes de précipitations inter-
saisonniers, à moyenne échéance. Il faut en général au moins une saison pour que des conditions
de sécheresse s’installent. Un indice SPI établi sur 9 mois et présentant des valeurs inférieures à -
CHAPITRE I ETUDE BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 21
1,5 est habituellement un bon indicateur de conditions sèches aux conséquences importantes
pour l’agriculture et pouvant affecter d’autres secteurs également.
E. Indice SPI sur 12 mois et jusqu’à 24 mois
À ces échelles de temps, l’indice SPI fournit une représentation des régimes de précipitations
à longue échéance. L’indice SPI sur 12 mois établit la comparaison entre les précipitations sur
une période de 12 mois consécutifs et celles enregistrées sur la même série de 12 mois
consécutifs de toutes les années pour lesquelles on dispose de relevés. Étant donné que ces
échelles de temps constituent le cumul de périodes plus courtes pouvant se situer au-dessus ou
au-dessous de la normale, les valeurs des indices SPI établis pour une période relativement
longue tendent à graviter autour de zéro, à moins qu’une tendance humide ou sèche bien
distincte ne se soit installée. Les indices SPI pour ces échelles de temps sont en général associés
au débit des cours d’eau, au niveau des réservoirs et au niveau des eaux souterraines à
relativement long terme. Pour certaines stations, l’indice SPI sur 12 mois présente une bonne
corrélation avec l’indice Palmer et les deux indices peuvent mettre en évidence des conditions
analogues.
I.1.5. Prévision de la sécheresse
Contrairement à toutes les autres catastrophes, la sécheresse est le phénomène naturel le plus
lent à se développer. Cela permet généralement d’avoir plus du temps d’atténuer ses effets et
mettre en œuvre des plans de suivi appropriés (Cancelliere et al., 2007). La prévision de la
sècheresse permettra ainsi de prévoir les conditions de sécheresse à l'avance par soit quelques
mois, saisons ou quelques années. Par ailleurs, divers outils et méthodes pour la prévision des
sécheresses ont été proposés et testés dans différentes régions au cours des dernières décennies
(Dastorani et Afkhami, 2011) en se basant sur deux approches fondamentales, à savoir : La
première est la prédiction des conditions hydrologiques et la seconde est la prédiction des indices
de sécheresse. La révision des conditions hydrologiques comporte habituellement la prévision du
climat et la prévision d'écoulement dans les rivières. Actuellement la détection et la surveillance
des conditions de sècheresse sont essentiellement basées sur certains indices. Ces indices
permettent de déterminer d’une façon scientifique le seuil indiquant la sécheresse à différentes
échelles de temps et de définir des classes d’appartenance à cet événement en fonction de sa
sévérité et de sa position. La communauté scientifique a développé et étudié un certain nombre
d’indicateurs de sècheresse au cours des cinquante dernières années afin d’anticiper, de suivre et
de caractériser les différents épisodes extrêmes qui touchent diverses régions du globe. La
plupart des indices de sécheresse ont été élaborés aux Etats-Unis, mais sont régulièrement
employés sur les autres continents.
CHAPITRE I ETUDE BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 22
Foley (1957) fut le premier à suggérer le calcul d’un indice donnant des informations sur la
sévérité d’une sécheresse. Ce n’est que plus tard que des indicateurs de sécheresse plus
pertinents furent définis. Très utilisé aux Etats-Unis (Heim, 2002), le Palmer Drought Severity
Index (PDSI) (Palmer, 1965), par exemple, est un indicateur calculé à partir d’un bilan d’eau
simplifié. Cependant ces indicateurs ne proposent pas d’échelle de temps explicite permettant de
détecter à la fois les sécheresses courtes et les sécheresses longues (Alley, 1984; Gutmann et al.,
1992; Lloyd-Hughes et Saunders,2002).
Un autre type d’indicateur, recommandé par l’OMM (Organisation Météorologique
Mondiale) en 2012 pour surveiller les sécheresses et gérer les risques liés au climat, est le
Standardisé Index (Gibbs, 1975). Très largement utilise par la communauté scientifique (McKee
et al, 1993 ; Lloyd-Hughes et Saunders, 2002 ; Labedzki, 2007 ; Bordi et al., 2009 ;Vidal et al.,
2010, etc.), cet indicateur peut être calculé à partir de différentes variables, telles que les
précipitations, l’humidité du sol, les débits ou encore l’évapotranspiration potentielle.
L’indicateur le plus connu et le plus utilisé est le Standardized Precipitation Index (SPI, McKee
et al., 1993). Il est basé, comme son nom l’indique sur les données de précipitation et permet de
qualifier les sécheresses météorologiques. Il a été développé en vue de caractériser les déficits de
précipitation pour une période donnée et correspond à la transformation de la série temporelle
des précipitations en une distribution normale standardisée de moyenne nulle et d’écart-type
unitaire (distribution gaussienne). Cela revient donc à ajuster une fonction de densité de
probabilité a la distribution de la fréquence des précipitations sommées ou moyennes, sur une
échelle temporelle définie (généralement, 3, 6, 9, 12 et 24 mois). L’ajustement se fait séparément
pour chacun des mois de l’année afin de conserver la saisonnalité. Chaque densité de probabilité
cumulée est ensuite transformée en une distribution normale standardisée (Gaussienne), de
moyenne nulle et d’écart type unitaire. Chaque valeur du SPI est alors reliée à un degré de
sévérité et une probabilité d’occurrence de la sécheresse. Il a été montré à plusieurs reprises que
le SPI était plus adapte que le PDSI pour suivre les sécheresses (Guttman,1998 ; Hayes, 1999 ;
Keyantash et Dracup, 2002).
L’inconvénient de tous ces indices est qu’ils sont pertinents seulement lorsqu’ils sont calcules
sur des séries longues de données (au moins 30 ans). Ainsi, il parait difficile d’anticiper les
sécheresses en tout point du globe, à partir de données observées. Si plusieurs types de jeux de
données observées, notamment les données satellitaires et les données in situ, permettent
aujourd’hui d’étudier et de suivre précisément, voire d’anticiper les épisodes de sécheresses sur
certaines régions du globe, il s’avère intéressant d’exploiter au maximum aussi les données
CHAPITRE I ETUDE BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 23
simulées grâce à des modèles numériques, qui permettent généralement de produire des données
sur de plus longues périodes à l’échelle globale.
I.2. MODELES DE PREVISION DES SERIES CHRONOLOGIQUES
Les progrès de la science ont permis de comprendre plusieurs aspects de notre environnement
et, par conséquent, la prédictibilité d'un grand nombre d'événements a augmenté (Steven C et al,
1998). De plus, la technologie informatique permet d'enregistrer et de traiter une énorme quantité
d'observations à moindre coût, ce qui n'a pas toujours été le cas. Ces deux éléments ont donc
renforcée notre capacité à prévoir les résultats d'un certain nombre de phénomènes.
Pourquoi faire des previsions? ‘’understanding the past to forecast the future" (A. S. Weigend
et N. A. Gershenfeld, 1993). La prévision est fondamentale dans la mesure où elle est à la base
de l'action." dit Guy Melard (1990). Le désir de prévoir le futur serait donc motivé par la volonté
de l'améliorer ou de s'y préparer. Nos choix sont donc généralement dirigés par l'anticipation des
conséquences de différentes actions. En d'autres termes, la prise de décision est généralement
basée sur des prévisions.
Comment faire des prévisions? Pour pouvoir effectuer des prévisions, on a besoin
d'informations concernant le passé et on doit pouvoir supposer que certains comportements du
passé continueront à se reproduire dans le futur : c'est ce qu'on appelle l'hypothèse de continuité
(Steven C et al ,1998). Notre rôle sera donc d'analyser et d'utiliser cette information passée pour
tenter d'en extraire des particularités, qui seront ensuite utilisées pour effectuer des prévisions.
Il existe de nombreuses publications de recherche liées à la prédiction des séries
chronologiques :
Après avoir publié le document de Box et Jenkins (1976), les modèles ARIMA et ARMA ou
Box-Jenkins sont devenus l'un des modèles généraux de séries chronologiques pour la prévision
hydrologique. Cependant, ces modèles sont très utiles pour prévoir les changements dans un
processus (Karamouz et Araghinejad, 2012).
Utilisation de modèles de séries chronologiques (ARMA et ARIMA) Et les réseaux
neuronaux artificiels a été la prévalence très bien dans différents Domaines hydrologiques
suivants:
Toth et al. (2000) ont utilisé le réseau de neurones artificiels et ARMA pour prévoir les
précipitations. Les résultats ont montré le succès Des modèles à court terme de prévision des
précipitations pour les prévisions des inondations En temps réel. Les Kisi et Cigizoglu (2005) en
utilisant des neurones artificiels dynamiques pour L'afflux, le stockage et l'évaporation mensuels
CHAPITRE I ETUDE BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 24
sur le bassin Canak Dere, les résultats pour l'épargne mensuelle et l'évaporation mensuelle
étaient satisfaisants, mais la prévision de l'écoulement mensuel par rapport à l'épargne mensuelle
et l'évaporation avait une précision inférieure. Ils ont utilisé les fonctions d'activité radiale et
sigmoïde dans le réseau neuronal artificiel dynamique. Leurs résultats de recherche ont montré
que la fonction d'activité sigmoïde a une priorité sur la fonction d'activité radiale. Valipour
(2012b), dans une autre étude utilisant l'analyse des séries temporelles (AR, MA, ARMA et
ARIMA), a étudié le nombre de données d'observation requises pour la prévision des
précipitations en fonction des conditions climatiques. Les résultats ont montré que les modèles
de séries chronologiques étaient mieux adaptés à la prévision des précipitations dans le climat
semi-aride, le nombre de données d'observation requises pour la prévision de 1 année suivante
était de 60 données pluviométriques dans le climat semi-aride.
I.2.1. les séries temporelles (chronologiques)
Une série temporelle est une suite finie x1, x2, …,xn de données indexées par le temps.
L'indice temps peut être selon les cas : la minute, l'heure, le jour, l'année etc. La discipline qui
traite ce type de quantités est l’analyse des séries temporelles. L’analyse des séries temporelles
en question consiste en opération de prédiction, de modélisation et caractérisation. L’objectif de
prédiction est de prévoir avec précision l’évolution à cours termes de séries temporelles, et la
modélisation vise la détermination des caractéristiques du comportement à long terme, la
caractérisation à comme but de déterminer les propriétés fondamentales d’une série temporelle.
La prévision est le sujet de ce travail. Nous rappelons que prédiction des séries temporelles a
principalement débuté dans les années 70, de nombreuses techniques de prévision de l'évolution
des systèmes dynamiques ont été développées pour des domaines aussi variés que l’agriculture,
la météorologie, l’automatique, la finance, etc.
I.2.2. Les Modèles stochastique de prévision
Parmi les modèles de séries temporelles linéaires représentent différents processus
stochastiques et présentent de nombreuses variétés telles que les modèles autorégressifs (AR), les
modèles intégrés (I) et les modèles de moyenne mobile (MA), qui dépendent linéairement de
leurs points de données antérieurs. Les combinaisons de ces modèles produisent de nouveaux
modèles comme moyenne mobile autorégressive (ARMA) et moyenne mobile intégrée
autorégressive (ARIMA).
Et parmi les autres types de modèles de séries chronologiques non linéaires, il existe certains
modèles pour désigner les changements de variance au fil du temps.. Les modèles ARCH
CHAPITRE I ETUDE BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 25
(AutoRegressive Conditionnel Heteroskedastic) et GARCH (Generalized ARCH). Ils ont été
introduits par Engle (1982) et Bollerselev (1986) (on parlede de modèle à variance
stochastique).
I.2.2.1. Processus de moyenne mobile MA.
On appelle moyenne mobile d’ordre q, notée MA(q), le modèle défini par l’équation :
(I.2)
Où les sont les paramètres à moyenne mobiles et les sont les bruits blancs.
Bruit blanc
Une série temporelle s'appelle un bruit blanc discret si
Les sont répartis de manière identique
lorsque t1 ≠ t2
(t, t) = , où 0 < <∞
I.2.2.2. Modèle autorégressif AR
AR (p) ou modèle d'ordre autorégressif c’est un modèle qui relie une variable de série
temporelle aux données passées
(I.3)
Où est la valeur de la série à l’instant t, p est l’ordre du modèle, les sont les paramètres
autorégressifs et représente le bruit blanc. On note le modèle autorégressif d’ordre p AR(p).
I.2.2.3. Le processus ARMA (Box & Jenkins, 1976)
Le processus AutoRégressif, Moyenne mobile ou moyen de migration automatique, ARMA
(p, q), est une combinaison des processus MO moyen (p) et AR (q) autorégressif. Comme le
montre l’équation (I.4)
(I.4)
Où les sont des réels et est un bruit blanc de variance .
CHAPITRE I ETUDE BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 26
I.2.2.4. Modèle ARIMA (Salas et al. 1988)
La moyenne mobile intégrée autorégressive, ARIMA (p, d, q), le processus des ordres p, d et
q est un processus, Xt, dont les différences satisfont un ARMA (p, q) Qui est un
modèle stationnaire dans lequel d est un nombre entier non négatif. Nous utilisons la notation
suivante:
(I.5)
Où :
Le paramètre d dans le modèle ARIMA représente la dième différence de pour trouver une
série temporelle stationnaire comme suit ;
(I.6)
I.2.3. Modèles à base de réseaux de neurones artificiels
Les réseaux de neurones sont parmi les outils intelligents en étaient appliqués au problème de
prédiction des séries temporelles et ont démontrées un grand succès. Les réseaux de neurones
artificiels sont issus de travaux réalisés dans le domaine de l'intelligence artificielle pour
modéliser le fonctionnement du cerveau humain (McCulloch et Pitts 1943).
Les réseaux de neurones sont apparus dans les années cinquante mais n’ont reçu cependant
un intérêt considérable qu’à partir des années quatre vingt avec l’apparition de l’algorithme de
rétropropagation (Rumelhart et McClelland, 1986). Leur capacité d’apprentissage et
d’approximation de fonctions leur procure un intérêt considérable de la part des chercheurs. Il
suffit de voir les nombreuses applications industrielles qui en découlent à partir des années 90 et
de consulter l’abondante littérature sur le sujet pour s’en convaincre.
Les réseaux de neurones artificiels ont déjà été appliqués à la prévision de séries temporelles.
En particulier, ils ont eu un succès retentissant pour prédire l'évolution des prix des actions en
bourse (Refenes et al., 1994). Dans le domaine des sciences de l'eau, on retrouve des applications
à la prévision de la demande en eau (Cubero 1991), des précipitations (French et al. 1992), de la
qualité de l'eau (Maier et Dandy 1996) et du débit (Karunanithi et al.,1994; Hsu et al., 1995;
Smith et Eli, 1995; et Zhang et Trimble, 1996) ainsi que pour la gestion d'un réservoir en temps
réel (Sakakima et al. 1992). Pour toutes ces applications, un réseau de neurones perceptron à une
CHAPITRE I ETUDE BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 27
couche intermédiaire a été utilisé. Lapedes et Farber (1987) ont montré que ce type de réseau
constitue un modèle autorégressif non-linéaire (NAR). Des architectures plus complexes, que
l'on nomme réseaux récurrents (Williams 1990), constituent une classe de modèles autorégressifs
à moyenne mobile non-linéaires (NARMA).
Le premier avantage de ces réseaux est qu'ils peuvent accepter des entrées dynamiques
représentées par des séries chronologiques. La prévision des séries chronologiques utilisant le
réseau neuronal (NN) est une méthode non paramétrique, ce qui signifie que la connaissance du
processus qui génère les séries chronologiques n'est pas indispensable. D'une part, le modèle
NAR utilise les valeurs passées de la série chronologique pour prédire les valeurs futures. D'autre
part, le modèle RNN n'a pas besoin de valeurs de séries temporelles passées en tant qu'entrées ni
retards, puisqu'il présente des connexions récurrentes dans sa propre structure.
I.2.3.1. Réseau de neurones artificiels autorégressif non-linéaire (NAR)
Lapedes et Farber (1987) ont montré que le réseau perceptron à une couche intermédiaire
constitue un modèle autorégressif non-linéaire (NAR). (Chakraborty et al., 1992) ont montré que
pour des séries réelles cette approche pouvait s'avérer supérieure à l'utilisation de modèles
linéaires AR et ARMA dans le cas multi-varié.
Dans cette étude, nous nous concentrons sur une expérience utilisant des réseaux nerveux
NAR pour prédire la sécheresse dans les deux plaines: Metidja et Haut Cheliff.
CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE
ENSH –SEPTEMBRE 2017 28
II.2. PRESENTATION DE LA ZONE D’ETUDE
Introduction
Notre zone d’étude est située dans la partie Nord et Nord-Ouest de l’Algérie, elle regroupe
deux grandes plaines, à savoir la plaine de Metidja et la plaine de Haut Cheliff.
Figure II.1 : Présentation des deux plaines étudiées.
II.1. LA PLAINE DE MITIDJA :
La plaine de la Mitidja a fait l'objet de plusieurs études et projets d'amélioration
(développement) et ce au grand rôle qu'elle joue sur le plan économique et agricole.
L’importance qu'occupe cette région est due grâce à
La fertilité de son sol
Sa situation stratégique : sa proximité de la capitale, son accessibilité, et la facilité de transport
de la marchandise grâce au réseau routier qui l'entoure.
Son climat favorable avec une précipitation moyenne de 600 mm.
La diversité des cultures appliquées (arboriculture, cultures maraîchère)
CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE
ENSH –SEPTEMBRE 2017 29
Figure II.2 : Situation de la plaine de Mitidja
(Source ANRH BLIDA)
CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE
ENSH –SEPTEMBRE 2017 30
II.1.1. Relief de la Mitidja
Avec une superficie totale de 1400 km2 et une superficie agricole de 120.000 ha à 130.000 ha,
la plaine de la Mitidja englobe les wilayas; Alger, Blida, partiellement celles de Tipaza et
Boumerdes.
Cette plaine est une dépression longue d'environ 100 km sur 15 à 20 km de large resserrée
entre l'Atlas blidéen au sud, et le sahel au Nord, elle est largement ouverte sur la mer, sur une
trentaine de kilomètres.
Dans sa partie ouest, les collines du sahel entrent au contact du massif montagneux de
chenoua (Z=905 m) et rejoignent, au plateau de fadjana, les premières hauteurs de l'Atlas (djebel
thebarrarine au sud, Z=853 m).
Figure II.3 : Situation géographique de la Mitidja
(Source : Programme d'aménagement côtier (PAC), 2006)
La plaine de la Mitidja descend en pente douce du sud au nord, de l'Atlas vers les collines.
Cinquante mètres seulement entre Ahmeurs-el-Ain et le fond du lac halloula.
CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE
ENSH –SEPTEMBRE 2017 31
De l'extrémité ouest d'Alger, sur 70 km, la plaine ne communique avec la mer que par
l'intermédiaire de l'oued nador et 40 km plus loin par le mazafran.
Comme la présente la figure II.3, ci-dessus on peut définir quelques éléments délimitant la
plaine de la Mitidja partant du Sud vers le Nord.
L'Atlas blidéen, culmine à 1600 m, avec des pentes très fortes (supérieures à 30%) qui sont
sujettes à une érosion intense, là où la couverture végétale fait défaut. Le Piémont de l'Atlas,
avec une altitude qui varie entre 200 et 600 mètres, présente des conditions favorables pour un
développement agricole. Le sahel et la baie d'Alger.
II.1.2 Climat de la Mitidja
Le climat est méditerranéen avec une influence continentale (le sirocco en été), des hivers
pluvieux et doux, et des étés chauds et secs.
Tableau II.1 : Pluies de l'année 2010
Mois J F M A M J J A S O N D Total
Pluies
(mm)
34.2 15.0 49.6 20.8 60.7 9.2 11.0 0.0 16.5 131.4 180.6 111.4 640.4
(Source: l'ANRH BLIDA)
II.1.2.1. Température
Les températures jouent un grand rôle dans la détermination de la période de l'irrigation tout a
fait comme les précipitations, les paramètres climatiques de l'année 2010 sont présentées dans les
tableaux suivants :
Tableau II.2 : Températures de l'année 2010
T°C J F M A M J J A S O N D
Max 14.8 12.6 19.2 21.0 19.8 28.3 31 29.2 33.0 28.2 19.0 14.5
Min 8.5 7.5 7.7 13.0 14.0 18.0 25.5 24 15 15 11 7.3
Moy 12.1 13.1 13.8 16.2 17.6 23.0 27.9 26.6 23.0 21.1 14.5 11.4
(Source : ANRH BLIDA)
Les températures les plus élevées se trouvent durant les mois de juillet et aout.
II.1.2.2. Humidité
Tableau II.3 : Humidité de l'année 2010
Mois J F M A M J J A S O N D
Hum % 14.8 12.6 19.2 21.0 19.8 28.3 31 29.2 33.0 28.2 19.0 14.5
(Source : ANRH BLIDA)
CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE
ENSH –SEPTEMBRE 2017 32
Les mois les plus humides sont : juillet, aout, septembre, octobre
II.1.2.3. Vent
Tableau II.4 : Vent de l'année 2010
Mois J F M A M J J A S O N D
vent (m/s) 1.5 2.0 3.4 3.0 3.1 3.2 2.8 2.7 3.30 2.3 2.9 2.6
(Source : ANRH BLIDA)
La vitesse du vent dans la Mitidja ouest a atteint les 3.3 m/s durant le mois de septembre.
II.1.3. Réseau hydrographique et ouvrages d'alimentation dans la plaine
II.1.3.1. Réseau hydrographique
La plaine de Mitidja est traversée par plusieurs Oueds qui coulent généralement du Sud vers
le Nord. Il s’agit principalement De l’Ouest à l’Est de :
Oued Djer qui se trouve à l’Ouest du chef-lieu de Daira d’El Affroun et à l’extrémité
Ouest de la Wilaya de Blida.
Oued Bouroumi qui est situé à l’Est de la ville d’El Affroun.
Oued Chiffa qui est localisé au bord de la ville du même nom et à l’extrémité Ouest de
la ville de Blida.
Ces trois oueds forment en aval de la plaine l’Oued Mazafran qui se jette dans la mer
Méditerranée.
Oued El Harrach qui se trouve à l’Ouest de la ville de Bougara qui se jette dans la
mer après la traversée de la localité d’El Harrach.
Oued djamaa qui est situé à la périphérie Ouest de la ville de l’Arbaa et rejoint Oued El
Harrach prés la ville de Bareki.
Les Oueds mentionnés ci-dessus sont en grande partie en liaison hydraulique avec la nappe de
la Mitidja puisque leurs eaux peuvent s’infiltrer ou inversement drainer la nappe. Ces cours sont
généralement pérennes.
En outre, la plaine de Mitidja est répartie entre trois sous bassins versants (bassin versants des
oueds Mazafran, El Harrach et El Hamiz) qui appartiennent en totalité au grand bassin versant
des côtiers Algérois. Par conséquent les exutoires des eaux superficielles qui traversent la plaine
sont situés à l’aval de ces trois Oueds, en bordure de la mer méditerranée où les eaux se jettent.
CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE
ENSH –SEPTEMBRE 2017 33
II.1.3.2. Ouvrage d'alimentation en eau pour l'agriculture
On distingue deux types d'ouvrage d'alimentation :
Alimentation par les eaux de surface collectées au niveau des barrages ou des retenues
collinaires.
Alimentation par les eaux souterraines par l'intermédiaire des forages et des puits.
A. les barrages
En ce qui concerne la tranche I de la Mitidja ouest le seul barrage qui est destiné à son
irrigation est celui de bouroumi qui a une capacité de rétention de 188 106 m
3 (selon l'agence
nationale des barrages) ; ce barrage se localise dans la wilaya de Blida à 8 km à l'Est du village
de boumadfaa, il est implanté dans le défilé rocheux qui traverse l'oued bouroumi avant de
joindre la plaine de la Mitidja. L'alimentation de ce barrage se fait à partir de l'oued djer, oued
chiffa, oued harbil en plus d'oued principal qui est celui de bouroumi.
B. Forages et puits (les eaux souterraines)
Comme présente la carte ci-dessous (figure II.4) on peut dire que la commune de Mouzaia se
trouve sur la nappe de la Mitidja ce qui permet aux agriculteurs d'irriguer leurs parcelles à partir
des puits et des forages en raison de la faiblesse des eaux de surface.
Figure II.4: localisation de la nappe de la Mitidja.
(Source : www.gecos.dz)
B.1. Caractéristiques de la nappe de la Mitidja
L'alimentation de la nappe de la Mitidja se fait à partir des eaux de surface (nappe libre) ou
par les sources de l'Atlas Blidéen et du sahel. L'écoulement de ces eaux souterraines se fait en
général du Sud vers le Nord.
B.2. Etat de la nappe
CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE
ENSH –SEPTEMBRE 2017 34
,
En raison du manque d'eau et de la mauvaise qualité de service de l'eau de surface, les
agriculteurs ont pour la plupart opté pour l'utilisation des eaux souterraines. Cette forme
d'exploitation a pour conséquence le rabattement de la nappe et sa probable disparition à terme.
II.1.4. Occupation des sols par cultures appliquées
Selon les résultats des enquêtes menées en 2006, la culture la plus répandue dans cette zone
est l'agrume avec 38% de la surface cultivée.
II.2. LA PLAINE DE HAUT CHELIFF :
La plaine alluviale du Haut Cheliff appelée aussi plaine d’El-khemis appartient à la wilaya
d’Ain Defla, située à 120 Km au Sud Ouest d’Alger et 25 Km à l’Est du chef-lieu de la wilaya
sur la route nationale N°4. Appartenant au sous bassin versant du Haut Cheliff d'un périmètre de
1025 Km et une superficie de 21035 Km2, cette plaine est limitée au Nord par les monts du
Zaccar, au sud par les contreforts de l’Ouarsenis, à l’Ouest par le massif de Doui et à l’Est par
djebel Gountas.
II.2.1. Morphologie :
La plaine a une pente relativement faible (15%) (Hatta, 1998). Elle est bordée au Nord par des
cônes de déjection qui constituent la zone de transition entre la vallée et la montagne. Ce secteur
est entouré au Nord par le massif de Zaccar et au Sud par Djebel Ouarsenis. La côte altimétrique
varie de 200m au niveau de la plaine à 1000m au niveau des sommets.
II.2.2. Urbanisation et démographie :
D’après le recensement 1999-2000 (DRE Ain Defla), la population totale de la zone d’étude
contenant 33 communes était 345 756 Habitants avec un taux de croissance de 3% par an. 65%
de cette totalité se localisent dans les zones à vocation agricole, semi urbaines et rurales où la
majorité s’alimente en eau par des forages ou des puits destinés à leur propos (DRE Ain Defla.,
2003).
II.2.3. Agriculture:
La plaine d’El-khemis est à vocation essentiellement agricole. Sa grande partie est occupée
par les cultures maraîchères et arboricultures et l’autre partie est utilisée pour les céréales
(OPIC., 2003)
II.2.3.1. Occupation du sol :
Chaque campagne d’irrigation est caractérisée par son assolement réalisé qui dépend du plan
de culture prévisionnel et la disponibilité des ressources en eau. Les cultures pratiquées dans les
CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE
ENSH –SEPTEMBRE 2017 35
dernières années montrent que les superficies irriguées ne dépassent pas 6000 Ha/Campagne sur
une totale de SAU de 16300 Ha.
Figure II.5 : Evolution des superficies irriguées dans le temps
II.2.4. Climatologie :
Avec un climat semi-aride de type méditerranéen, le Haut Cheliff est caractérisé par des étés
très chauds et des hivers tièdes et ce malgré la proximité de la mer (à environ 120 Km). Les
paramètres climatiques sont les suivants:
II.2.4.1. Température :
Les températures moyennes mensuelles sur une période de 40 ans pour les deux stations
d’ElKhemis et celle du Barrage Ghrib.
Tableau II.5: Valeurs de la température en C°
(Source: ANRH ALGER)
La température dans la région est maximale en Août, variant entre +27°C et 27,3°C, soit une
moyenne de l’ordre de +27,2°C., et minimale en Janvier entre +8,9°C et 8,2°C, soit une
moyenne de 8,6 °C.
II.2.5 Aspect hydrologique :
L’Oued Cheliff, le cours d’eau le plus important de l’Algérie du Nord traverse tout notre
secteur suivant un axe Est en Ouest. Notre plaine est séparée de la plaine du moyen Cheliff par le
STATION Sept
Oct Nov Dec Janv Fev Mar
s Avri
l Mai Juin Juil
Aout
Moy.
annuelle
Khemis 23.3 18.3 13 9.9 8.9 10.3 11.8 13.8 18 22.7 26.7 27.3 17.0
Barrage
Ghrib 21.9 17.5 12.7 8.8 8.2 9.3 12.3 13.3 17.6 22.3 26.1 27 16.4
CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE
ENSH –SEPTEMBRE 2017 36
seuil du Doui, ce seuil constitue un barrage relativement étanche entre les deux bassins qui n’ont
pour seule communication que le cours d'eau superficiel du Cheliff.
D’amont en aval de la zone d'étude, l'oued cheliff est influencé par le seuil naturel du Doui,
sièges d’échanges particuliers entre eaux de surface et aquifères.
En été, l’écoulement dans le Cheliff est quasi-nul, son alimentation étant essentiellement due
aux irrigations auxquels viennent s’ajouter quelques faibles débits provenant des lâchés du
barrage Ghrib où barrage Deurdeur où celui du Barrage Harreza.
En Hiver; les eaux issues des principaux affluents représentés par les oueds souffay, Boutane
et Rayhane, au nord et les oueds Deurdeur, Massine et Harrazza au sud sont collectées au centre
de la plaine par l’oued Chélif qui chaîne toutes les eaux du bassin versant vers l’exutoire
(SOGREAH.,1984) ( Fig II.7 ).
Figure II.7 : Réseau hydrographie de la zone d'étude
(Source: ANRH ALGER)
Plaine du haut cheliff
CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE
ENSH –SEPTEMBRE 2017 37
II.2.6. Cadre géologique général et Litho stratigraphie :
II.2.6.1. Cadre géologique général:
La plaine de Khemis-Miliana , d'apres (Perrodon.,1957) comme le montre (fig.II.8),
appartient à un bassin sédimentaire récent, Mio-plio-quaternaire.
L’autochtone de la région est constitué par les massifs jurassico-primaire du Zaccar, du Doui
et des Aribs. Le sillon intramontagneux auquel correspond le bassin du haut Cheliff a été comblé
par les sédiments néogènes et quaternaires en provenance des massifs environnants suite à une
désagrégation des différentes formations.
Figure II.7 : Carte géologique de la plaine d’EL-Khemis (Perrodon ,1957)
II.2.6.1. Litho stratigraphie :
Le secteur d’étude est représenté par des terrains anté-miocénes et les terrains de la plaine du
Cheliff qui représente l’aquifère même de la plaine. Donc on peut dire que l’étude géologique
(Perrondon. 1957) permet de mettre en évidence deux formations susceptibles d’être aquifères, il
s’agit :
- Des formations calcaires du Jurassique.
- Des dépôts alluvionnaires quaternaires de la plaine de Khemis-Miliana.
CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE
ENSH –SEPTEMBRE 2017 38
II.2.7. Aspect hydrogéologique :
La plaine alluviale du Haut Cheliff est un remplissage alluvionnaire d’âge Mio-Plio-
Quaternaire, représenté par des dépôts alluvionnaires comme du quaternaire et des grés du Mio-
Plio-Quaternaire d’une épaisseur de 50 m à 100 m au niveau de oued Chélif et d’une résistivité
de 100 ohm.m. Les marnes constituent le substratum de cet horizon aquifère. (Voir Tableau II.6)
L’alimentation de cette nappe est assurée par les eaux d’infiltration des:
Précipitations tombant sur la plaine.
Eaux de ruissellement des oueds (Deurdeur, Chélif, Souffay, Boutane…ext)
(SOGREAH.,1984).
Eaux d’irrigation excédentaires
Tableau II.6: Comportement hydrogéologique des différentes formations de la plaine d’El-
khemis
Formations Epaisseur
(m)
Age
géologiqu
e
Comportement
hydrogéologique Type de nape
Limons 6 – 20 Quaternair
e Imperméable
Peuvent rendre la nappe
des alluvions captive.
Alluvions
grossières 50-150
Quaternair
e
Perméable (porosité
d’interstices)
Captives à semi-captive
(parfois libre)
Marnes 200 Pliocène Imperméable -
Grés et
poudingues 100 – 200 Miocène
Perméable (porosité
d’interstices)
Nappe captive à semi-
captive (non exploitée)
(Source : ANRH Alger)
II.2.8. La piézométrie :
Dans le but d'étudier le comportement hydrodynamique de l'aquifère mio-plio- quaternaire,
l'étude piézométrique s'est déroulée en septembre 2003 (basses eaux) et en Avril 2004 (hauts
eaux) par des prélèvements des niveaux statiques des 34 puits repartis sur toute la plaine.
CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE
ENSH –SEPTEMBRE 2017 39
Figure II.8 : Carte piézométrique de la nappe alluviale du Haut Cheliff (période des basses eaux 2003)
(Source : ANRH ALGER)
CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE
ENSH –SEPTEMBRE 2017 40
Figure II.9 : Carte piézométrique de la nappe alluviale du Haut Cheliff (période des hautes eaux 2004)
(Source : ANRH ALGER)
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 41
II.3. CHOIX DE L’AIR D’ETUDE
Notre zone d’étude est située dans la partie Nord et Nord-Ouest de l’Algérie. Le choix se justifier
par l’ampleur de la sécheresse au cours de ces derniers années sur cette zone (Meddi, 2010). Outre,
cette parie regroupe des plaines fertiles avec un recours de plus en plus intense a l’irrigation, au
déterminent de l’équilibre des ressources en eau (Meddi, 2009). Ajoutant la grande population
concentrée dans l’air d’étude, où les besoins en eau s’accroissent d’année en année. Un tel contexte
nécessite des études bien précises sur l’évolution des paramètres climatiques, dans le but de
connaitre en mieux les circonstances futures ‘afin de mettre en œuvre des outils de gestions
efficaces et durables. (Zeroual, 2017).
II.4. CHOIX DES STATIONS
Pour un bassin versant donné ou une région donnée, les stations pluviométriques et
hydrométriques sont installées dans des conditions propres et forment le réseau d’observation. Les
données relatives aux stations sont d'une haute importance pour les statistiques climatiques, la
planification, la gestion des ressources et les projets de construction.
Pour un bon traitement des données recueillies, il est nécessaire et indispensable que la période
de collecte soit suffisamment longue, autrement dit l’échantillon doit être suffisamment grand).
Pour assurer une bonne représentation de notre région, nous avons d'abord travaillé sur 8 stations
pluviométriques et hydrométriques ayant des périodes aussi longues que possibles et réparties d'une
façon plus ou moins uniforme sur toute la zone. .
Les stations hydrométriques ont étés choisi selon un échantillonnage stratifié et le choix de nos
stations n’a pas été aléatoire, les stations où l’effet anthropique sur le régime hydrométrique est bien
évidant sont écartées ainsi celle qui se trouve près des ouvrages hydrauliques en raison de l’impact
de la régulation sur le comportement des oueds, on ajoutant la disponibilité des données. Sous ces
trois conditions les huit stations ont été sélectionnées. .
Les donnés pluviométriques et hydrométriques utilisées dans cette étude proviennent de
l’Agence Nationale des Ressources Hydraulique (A.N.R.H) d’Alger.
II.5.1. Données pluviométriques et hydrométriques
La localisation et les caractéristiques des stations pluviométriques et hydrométriques
utilisées dans cette étude, sont présentées sur les tableaux II.7 et II.8, ce nombre semble satisfaisant,
puisque ces stations sont implantées, assez régulièrement sur les deux bassins versants concernés
par cette étude. Six stations sur le bassin de Mitidja et deux sur le bassin de Haut Cheliff.
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 42
Tableau II.7: Stations pluviométriques retenues dans la zone d’étude de la plaine de Metidja.
Code de la
station
Coordonnées période de mesure
latitude longitude Début fin
02-12-01 35.83 2.9 1960
2010
02-12-10
12-19
35.75 2.95 1960
2010
02-12-11 35.84 2.95 1960
2010
02-12-12 35.80 2.89 1960 2010
02-12-18 35.84 2.9 1960 2010
02-12-19 35.79 2.95 1960 2010
Tableau II.8 : Stations pluviométriques retenues dans la zone de l’étude de la plaine de Haute
Cheliff
Tableau II.9 : Les valeurs des pluviométries enregistrées durant 50 Années précédentes.
CODE STATION X Y Z PÉRIODE DE
MESURE
PL 011405 GHRIB BGE 487250 318400 460 1960-2010
PL 011407 GHRIB AMONT 495450 308800 435 1960-2010
Plaine
Nombre de
station
pluviométrique
Pluie
Moyenne
(mm)
Écart-type
(mm)
Pluie
Médiane
(mm)
Pluie
Maximale
(mm)
Pluie
Minimale
(mm)
Metidja 06 714 156,1 706,2 1082 449
Haut
Cheliff 02 419 89,9 432,5 652 179
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 43
III. METHODOLOGIE
III.1. Introduction :
Les modèles de réseaux neuronaux artificiels utilisés dans cette étude ont été appelés
autorégressifs non linéaire (NAR). Dans cette étude, le modèle des réseaux neuronaux
autorégressifs utilisés avaient une couche d'entrée, une couche intermédiaire et une couche de
sortie, et ils ont été choisis parce qu'ils avaient une grande capacité à estimer les relations
complexes (Chegini, 2012)
Le fichier de données a été chargé dans l'environnement MATLAB®, qui est la plate-forme
principale pour analyser les données de cette recherche. Neural Network Toolbox ™ est la boîte à
outil la plus importante utilisée pour simuler et analyser les données fournies.
Dans ce chapitre, une brève explication est proposée sur les concepts et les définitions clés
utilisés dans le modèle mis en œuvre. Après les définitions de base, le modèle est défini dans les
détails.
III.2. Sélection des données
L'indice standardisé de précipitation «SPI» a été calculé à l’échelle de temps : 12 mois sur les
deux plaines (Metidja et haute Chelif) pendant la période 1960-2010. Cet indice a été développé par
MCKEE et al., (1993) pour caractériser les déficits de précipitation pour une période donnée.
III.3. Définitions de base
L'objectif de cette enquête est de trouver un modèle, d'ajuster et de prévoir l'indice de
Précipitations Standardisé SPI. Cet indice SPI est une variable aléatoire qui suit un processus
stochastique avec une tendance aléatoire. Au début, quelques définitions importantes qui sont utiles
et applicables dans le processus de modélisation sont présentées. Ensuite, la brève description des
modèles a été introduite.
III.3.1. Variables aléatoires
Une variable aléatoire est une fonction mesurable de à partir de l'espace de probabilité Ω dans
l'ensemble des nombres réels R connus comme espace d'état. Trois modifications sont nécessaires
pour rendre cette définition plus précise (Gallager, 2013):
Le mapping doit avoir la propriété que Ω est un événement pour
chaque .
Chaque ensemble fini de variables aléatoires a la propriété que pour chaque
, l'ensemble Ω Est un événement.
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 44
X peut être indéfinie ou infinie pour un sous-ensemble de Ω qui a 0 probabilité. En d'autres
termes, la probabilité d'événements {X = ± ∞} est nulle.
III.3.2. Processus stochastique
Dans la théorie des probabilités, un processus stochastique est une famille de variables aléatoires
X de l'espace de probabilité Ω en R indexé par le temps défini , qui pourrait être désigné par
Ω . Nous simplifions la notation à ou lorsque la
variable de temps t est continue (T = R) ou est une variable discrète (T = N) respectivement
(Prabhu, 2007). Dans un processus stochastique ou aléatoire, nous avons toujours rencontré une
certaine incertitude, même si l'état initial du processus est réparé, il existe plusieurs directions,
nommées un chemin d'échantillonnage, dans lequel le processus peut se dérouler.
III.3.3. Processus discret
Processus discret ou mouvement brownien est un processus stochastique continu dans le
temps t, qui sert à modéliser l'intégralité d'un processus de Gaussian à blanc. Le processus se
caractérise par les propriétés suivantes :
avec une probabilité de 1.
est normalement distribué pour tout t ≥0 avec la moyenne 0 et la variance t .
a un accroissement indépendant : pour tout moment est indépendant.
a des chemins continus, ce qui signifie que toute réalisation de Wt est une fonction
continue de t.
III.3.4. Séries temporelles
La série chronologique est un processus stochastique de la variable aléatoire indexée par le
temps. est une notation utilisée pour le processus de paramètre discret et est une notation
pour le processus de paramètre continu. Dans cette recherche, nous traitons du processus discret des
paramètres des séries chronologiques
III.3.5. Série temporelle stationnaire
Une série temporelle est stationnaire si ses paramètres statistiques tels que la moyenne et la
variance restent constants pour toutes les étapes de temps. Le test Engle est l'une des
procédures standard pour déterminer la stationnarité d'une série temporelle.
III.3.6. Autocorrélation et autocorrélation partielle
La fonction d'autocorrélation est une corrélation de séries temporelles avec elle-même. Cette
fonction mesure la corrélation entre la variable et son retard qui est une valeur réelle entre
-1 et 1 où -1 implique une corrélation négative complète et 1 est une corrélation positive complète
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 45
alors que 0 indique aucune corrélation entre les variables. D'une manière similaire, l'autocorrélation
partielle est une corrélation entre et lorsque entre dans l'image et améliore la
corrélation avec . D'autre part, l'autocorrélation partielle d'une variable dans l'ordre k est la
quantité de corrélation entre la variable et son lag qui n'a pas été expliquée par les corrélations à
tous les ordres inférieurs.
III.4. Modèles de réseaux neuronaux artificiels (ANN)
III.4.1. Principe du neurone artificiel
Chaque neurone artificiel est un processeur élémentaire. Il reçoit un nombre variable d’entrées
en provenance de neurones en amont ou des capteurs composant la machine dont il fait partie. A
chacune de ses entrées est associé un poids représentatif de la force de la connexion. Chaque
processeur élémentaire est doté d’une sortie unique, qui se ramifie ensuite pour alimenter un
nombre variable de neurones en aval. A chaque connexion est associé un poids.
Figure III.1: Modèle non linéaire d'un neurone (Haykin, 1999).
(III.1)
Et
(III.2)
Où :
: représente la somme pondérée des entrées du neurone.
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 46
x i : sont les signaux d'entrée.
b k : le seuil interne du neurone.
Wkm: désigne le poids de la connexion reliant l’entrée m au neurone k.
est la sortie du neurone et sa fonction d’activation.
III.4.2. Types de fonction d'activation
Les fonctions les plus utilisées sont :
Fonction à seuil (Fonction
linéaire rectifiée)
(III.3)
Fonction sigmoïde
(III.4)
Fonction gaussienne
(III.5)
Fonction tangente
hyperbolique
(III.6)
La fonction d’activation de chaque neurone détermine ses propres caractéristiques. Par
conséquent, le type du neurone est caractérisé par sa fonction d’activation. Conformément au
neurone biologique, les fonctions d’activation sont généralement croissantes et continues. Les
fonctions les plus utilisées sont la fonction linéaire et la fonction sigmoïde. Leur choix revêt une
importance capitale et dépend souvent du type de l’application et du domaine de variation des
variables d’entrée/sortie (Burns, R.S .2001).
III.4.3. Modélisation des réseaux de neurones artificiels
Un réseau de neurones peut être considéré comme un modèle mathématique de traitement,
composé de plusieurs éléments de calcul non linéaire (neurones), opérant en parallèle et connectés
entre eux par des poids. Les réseaux de neurones artificiels sont des réseaux fortement connectés de
processeurs élémentaires fonctionnant en parallèle. Chaque processeur élémentaire calcule une
sortie unique sur la base des informations qu'il reçoit. Les neurones artificiels sont souvent utilisés
sous forme de réseaux qui diffèrent selon le type de connections entre les neurones, une
cinquantaine de types peut être dénombrée. Nous distinguons trois types de couches :
Couche d’entrée : les neurones de cette couche reçoivent les valeurs d’entrée du réseau et les
transmettent aux neurones cachés. Chaque neurone reçoit une valeur, il ne fait pas donc de
sommation.
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 47
Couches cachées : chaque neurone de cette couche reçoit l’information de plusieurs couches
précédentes, effectue la sommation pondérée par les poids, puis la transforme selon sa fonction
d’activation qui est en général une fonction sigmoïde. Par la suite, il envoie cette réponse aux
neurones de la couche suivante.
Couche de sortie : elle joue le même rôle que les couches cachées, la seule différence entre ces
deux types de couches est que la sortie des neurones de la couche de sortie n’est liée à aucun autre
neurone.
III.4.4. Architecture des réseaux de neurones
On distingue deux structures de réseau, en fonction du graphe de leurs connexions, c’est-à dire
du graphe dont les nœuds sont les neurones et les arêtes les «connexions» entre ceux-ci :
Les réseaux de neurones statiques (ou non bouclés).
Les réseaux de neurones dynamiques (ou bouclés).
III.4.4.1. Réseaux de neurones non bouclés
Dans ce type de structure dite ‘feedforward’, la propagation de l’information se fait uniquement
de l’entrée vers la sortie. Les neurones de la même couche peuvent se connecter uniquement avec
les neurones de la couche suivante. L’architecture la plus utilisée est le perceptron multicouche.
Figure III.2: Perceptron à une couche cachée (Raihane Mechgoug, 2013)
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 48
III.4.4.2. Réseaux de neurones bouclés
Un réseau dynamique ou récurrent possède la même structure qu’un réseau multicouche muni de
rétroactions. Les connexions rétroactives peuvent exister entre tous les neurones du réseau sans
distinction, ou seulement entre certains neurones. La figure II.3 montre deux exemples de réseaux
récurrents. Le premier est un simple multicouche qui utilise un vecteur d’entrée qui contient les
copies des activations de la couche de sortie du réseau et le deuxième est un réseau à mémoire se
distingue du premier par la présence des unités mémoires (Sastry, Santharam et Unnikrishnan,
(1994).
.
Figure III.3: Réseau de neurone bouclé
III.4.5. L'apprentissage
L'apprentissage d'un réseau de neurones peut être défini comme la phase durant laquelle les
divers paramètres le caractérisant sont remis à jour jusqu'à ce qu'ils permettent au réseau
d'approximer au mieux la fonction qu'il a à réaliser. Selon l'application dans laquelle le réseau va
être intégré, la fonction à approcher peut être connue ou inconnue analytiquement.
Dans la majorité des algorithmes actuels, les variables modifiées pendant l'apprentissage sont
les poids des connexions. L'apprentissage est la modification des poids du réseau dans l'optique
d'accorder la réponse du réseau aux exemples et à l'expérience.
III.4.5.1. Type d’apprentissage
Il existe de nombreux types de règles d’apprentissage qui peuvent être regroupées en trois
catégories : les règles d’apprentissage non supervisé, renforcé et supervisé. Mais l’objectif
fondamental de l’apprentissage reste le même : soit la classification, l’approximation de fonction ou
encore la prévision.
Apprentissage non-supervisé : Ce type d’apprentissage est choisi lorsqu’il n’y pas de
connaissances à priori des sorties désirés pour des entrées données. En fait, le réseau est laissé libre
de converger vers n’importe quel état final lorsqu’on lui présente des entrées.
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 49
Apprentissage supervisé : Un apprentissage est dit supervisé lorsque l’on force le réseau à
converger vers un état final précis, en même temps qu’on lui présente un motif.
De façon générale, l’apprentissage artificiel supervisé consiste à créer un modèle de prédiction
(classification ou prévision) à partir d’une base d’apprentissage comprenant les exemples d’entrée
ainsi que les sorties désirés associées. Les paramètres du modèle vont ainsi s’adapter en comparant
à chaque fois les sorties obtenues et les sorties désirées, d’où l’appellation supervisé (Mitchell,
1997), (Nilsson, 2004). Une fois le modèle obtenu par une base d’apprentissage, l’utilisation d’une
base de test, comprenant des nouveaux exemples non utilisés pendant l’apprentissage, permet de
mesurer les performances de la méthode. Une des possibilités est de calculer l’Erreur Quadratique
Moyenne, en anglais Mean Square Error (MSE) (voir équation II.5).
Apprentissage par renforcement : L’apprentissage renforcé est une technique similaire à
l’apprentissage supervisé à la différence qu’au lieu de fournir des résultats désirés au réseau, on lui
accorde plutôt un grade (ou score) qui est une mesure du degré de performance du réseau après
quelques itérations. Les algorithmes utilisant la procédure d’apprentissage renforcé sont surtout
utilisés dans le domaine des systèmes de contrôle.
III.4.5.2. Algorithme d’apprentissage
L’algorithme d’apprentissage est la méthode mathématique qui va modifier les poids de
connexions afin de converger vers une solution qui permettra au réseau d’accomplir la tâche
désirée. L’apprentissage est une méthode d’identification paramétrique qui permet d’optimiser les
valeurs des poids du réseau.
L’algorithme d’apprentissage permet de "prédire" une valeur cible étant donnée une ou des
valeurs d’entrées. Dans le cas où cette valeur cible est discrète (dans un ensemble fini), la tâche
réalisée par l’algorithme est appelée classification supervisée puisqu’il s’agit de trouver la classe
correspondant à un exemple donné en entrée. Quand la valeur cible appartient à un ensemble
continu (par exemple R ou [0 ; 1]), la tâche est appelée régression. Elle représente le plus souvent la
prévision d’une ou de plusieurs valeurs futures correspondant à une suite de valeurs passées. Dans
cette thèse, on s’intéressera uniquement à cette dernière tâche, à savoir la prévision des séries
temporelles.
Soit l’ensemble de données qui peut être une base
d’apprentissage ou une base de test. X(t) est le vecteur d’entrée à l’instant t, X(t) Rd. y(t)
représente la valeur cible correspondant à X(t) et N le nombre d’exemples dans la base. Le but de
l’algorithme d’apprentissage est de trouver une fonction f, la représentation mathématique du
modèle obtenu, qui soit le plus proche possible de la fonction cible . On notera que reste
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 50
toujours inconnue et dans de nombreux cas hypothétique. Le système pourra être évalué à la fin par
l’erreur MSE :
(III.5)
Où (t) est la valeur prédite c’est-à-dire f(X(t)) = (t) l’approximation de la valeur y(t).
Pour répondre à ce problème, plusieurs méthodes ont été développées. Une méthode peut être
décrite par un modèle dans lequel on définit la fonction f et un algorithme d’apprentissage par lequel
cette fonction a été déterminée.
Parmi les algorithmes les plus utilisées pour l’apprentissage est:
A. Algorithme de rétro propagation
Cet algorithme que l'on désigne couramment par "Back-propagation" est le plus populaire parmi
les deux techniques d'apprentissage des réseaux multicouches.
L'algorithme de rétro propagation est basé sur la généralisation de la règle de Widrow-Hoff (Hui
and Zak 1994) en utilisant une fonction d'activation sigmoïde. Le réseau utilisé est un réseau à
couchesoù chaque neurone est connecté à l'ensemble des neurones de la couche suivante. Le
principe de cet algorithme est la propagation d'un signal provenant des nœuds d'entrée vers la sortie
et ensuite on propage l'erreur commise de la sortie vers les couches internes jusqu'à l'entrée
(Dumolard 1994).
Formulation : Pour un exemple de données à apprendre, on note x le vecteur d'entrées et y d le
vecteur de sortie désirée. Supposant que notre réseau a n nœuds d'entrée et m neurones de sortie, on
a donc : et
On note le vecteur des sorties obtenues effectivement à l'issue de
rétro-propagation du vecteur . On cherche à minimiser l'erreur quadratique entre les sorties désirées
et les sorties obtenues, cette erreur étant considérée comme une fonction des poids des connexions :
(III.6)
La règle de modification des poids à la présentation numéro k de l'exemple x est la suivante:
(III.7)
Où est calculé de proche en proche, de la couche de sortie à la couche d’entrée :
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 51
Où. ‘h’ parcourt les neurones vers lesquels le neurone i envoie une connexion.
est la fonction sigmoïde d'un neurone. : est sa dérivée ; : est la sortie du neurone j; est
l'entrée du neurone. . : est le pas du gradient à l'étape k.
Nous utilisons trois variantes de l'algorithme de rétro propagation dans notre travail : Levenberg–
Marquardt (RNA_LM), Bayesian Regularization (RNA_BR), et scaled conjugate gradient
(RNA_SCG).
A.1. Levenberg–Marquardt algorithme
L'algorithme de Levenberg-Marquardt converge plus rapidement que les autres algorithmes cités,
mais il demande plus de mémoire lorsque le réseau devient grand. La règle de correction des poids
est la suivante ; (Demuth 2002) et (Hagan et al. 1996).
(III.8)
: la matrice jacobienne des dérivées de l'erreur ; : scalaire ; : vecteur d'erreur.
Lorsque est grand, l'algorithme se rapproche de la méthode de descente du gradient. Par contre,
si est petit, l'algorithme se rapproche de la méthode de Gauss Newton. La procédure de
l'algorithme est la suivante :
1. présentation du vecteur d'entrée en propageant celui-ci jusqu'à la sortie et calcul de l'erreur
quadratique,
2. calcul de la matrice Jacobienne,
3. calcul de pour corriger les poids du réseau,
4. calcul des nouveaux poids, ajustement du paramètre et vérification de la convergence vers
l'erreur demandée.
A.2. Bayesian Regularization algorithm
BR est un algorithme de formation qui met à jour les valeurs de pondération et de biais en
fonction de LM optimisation (Foresee & Hagan, 1997; MacKay, 1992). Il minimise une
combinaison D'erreurs au carré et de poids, puis détermine la combinaison correcte de manière à
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 52
Produisent un réseau qui se généralise bien (Pan, Lee & Zhang, 2013). BR présente Pondre le
réseau dans la fonction d'objectif de formation qui est désignée par ) dans (II.9) Et expliqué par
(Yue, Songzheng & Tianshi ,2011)
(III.9)
Où est la somme des poids de réseau au carré et ED est la somme du réseau les erreurs. Les
deux paramètres et sont les paramètres objectifs de la fonction.
Dans le cadre BR, Les poids du réseau sont considérés comme des variables aléatoires, puis la
répartition des poids du réseau et l'ensemble de formation sont considérés comme une distribution
gaussienne.
Les facteurs et sont définis en utilisant le théorème de Bayes. Le théorème de Bayes Relie
deux variables (ou événements), A et B, en fonction de leur précédent (ou marginal) Probabilités et
probabilités postérieures (ou conditionnelles) comme montre l’équation (II.10) (Li & Shi, 2012):
(III.10)
Lorsque P (A | B) est la probabilité postérieure de A conditionnelle sur B, P (B | A), le précédent
de B.
Conditionnel sur A, et P (B) la probabilité antérieure non nulle de l'événement B, qui fonctionne
comme une constante de normalisation. Afin de trouver l'espace de poids optimal, la fonction
objective (III.10) doit être minimisée, ce qui équivaut à maximiser la postérieure Fonction de
probabilité donnée comme dans (III.11) :
(III.11)
Où et sont les facteurs nécessaires à être optimisé, D est la distribution du poids, M
représente l'architecture de réseau neuronal particulier, P (D|M) est le facteur de normalisation, ( ,
|M) est la densité uniforme avant pour les paramètres de régularisation et (D| , ,M) est la
fonction de vraisemblance de D donné , ,M. La maximisation de la fonction postérieure ( ,
|D,M) est équivalent à maximiser la fonction de vraisemblance . A la suite de ce
processus, les valeurs optimales pour et pour un espace donné de poids se trouvent. Ensuite,
l'algorithme se déplace en phase LM où les calculs de Hessien lieu et met à jour l'espace de poids
afin de minimiser la fonction objective. Ensuite, si la convergence n’est pas satisfaite, l'algorithme
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 53
estime de nouvelles valeurs et toute la procédure se répète jusqu'à ce que la convergence soit
atteinte (Yue, Songzheng et Tianshi, 2011).
A.3. Scaled conjugate gradient algorithm
L'algorithme de rétro propagation de base ajuste les coefficients de pondération dans la
direction de descente la plus forte, à savoir dans la direction du gradient négatif, étant la direction
dans laquelle la fonction de performance diminue plus rapidement (Demuth 2002). Il se trouve que
cette direction n'est pas forcément celle de la convergence plus rapide. Dans un algorithme de
gradient conjugué, en faisant une recherche du minimum dans des directions conjuguées, qui
produit généralement une convergence plus rapide que la direction de la pente la plus forte 'steepest
descent directions'. Tous les algorithmes de gradient conjugué commencent par la recherche dans le
sens inverse du gradient de la première itération et réinitialiser la méthode à toutes les m itérations.
Voici les principales étapes de l’algorithme :
1. t = 0 ;
2. Choisir la prochaine direction conjuguée de recherche :
(III.12)
est calculé comme à l’équation suivante :
3. Faire un pas comme à l’équation 11, en choisissant de manière à minimiser la fonction F
dans la direction de recherche :
(III.13)
Où est le vecteur de poids et biais actuels, est le gradient courant, et est le taux
d'apprentissage et un ensemble de vecteurs de poids non nuls.
4. t = t + 1 ;
5. Si le critère d’arrêt n’est pas atteint, alors recommencer à l’étape 2.
III.4.6. Conception d'un réseau de neurones
Les réseaux de neurones réalisent des fonctions non linéaires paramétrées. Leurs mises en œuvre
nécessitent :
La détermination des entrées et des sorties pertinentes, c’est à dire les grandeurs qui ont une
influence significative sur le phénomène que l’on cherche à modéliser.
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 54
La collecte des données nécessaires à l’apprentissage et à l’évaluation des performances du
réseau de neurones.
La détermination du nombre de neurones cachés nécessaires pour obtenir une approximation
satisfaisante.
La réalisation de l’apprentissage
L’évaluation des performances du réseau de neurones à l’issue de l’apprentissage.
III.4.6.1. Détermination des entrées/sorties du réseau de neurones
Pour toute conception de modèle, la sélection des entrées doit prendre en compte deux points
essentiels :
Premièrement, la dimension intrinsèque du vecteur des entrées doit être aussi petite que
possible, en d’autre terme, la représentation des entrées doit être la plus compacte possible, tout en
conservant pour l’essentiel la même quantité d’information, et en gardant à l’esprit que les
différentes entrées doivent être indépendantes.
En second lieu, toutes les informations présentées dans les entrées doivent être pertinentes
pour la grandeur que l’on cherche à modéliser : elles doivent donc avoir une influence réelle sur la
valeur de la sortie.
III.4.6.2. Choix et préparation des échantillons
Le processus d'élaboration d'un réseau de neurones commence toujours par le choix et la
préparation des échantillons de données. La façon dont se présente l'échantillon conditionne le type
de réseau, le nombre de cellules d'entrée, le nombre de cellules de sortie et la façon dont il faudra
mener l'apprentissage, les tests et la validation. Il faut donc déterminer les grandeurs qui ont une
influence significative sur le phénomène que l’on cherche à modéliser. Lorsque la grandeur que l’on
veut modéliser dépend de nombreux facteurs, c'est-à-dire lorsque le modèle possède de nombreuses
entrées, il n’est pas possible de réaliser un « pavage » régulier dans tout le domaine de variation des
entrées : il faut donc trouver une méthode permettant de réaliser uniquement des expériences qui
apportent une information significative pour l’apprentissage du modèle. Cet objectif peut être
obtenu en mettant en œuvre un plan d’expériences. Pour les modèles linéaires, l’élaboration de
plans d’expériences est bien maîtrisée, par ailleurs, ce n’est pas le cas pour les modèles non
linéaires. Afin de développer une application à base de réseaux de neurones, il est nécessaire de
disposer de deux bases de données, une pour effectuer l’apprentissage et l’autre pour tester le réseau
obtenu et déterminer ses performances.
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 55
III.4.6.3. Elaboration de la structure du réseau
La structure du réseau dépend étroitement du type des échantillons. Il faut d'abord choisir le type
de réseau : un perceptron standard, un réseau de Hopfield, un réseau à décalage temporel
(TDNN), un réseau autorégressif (NAR), etc...
Dans le cas du perceptron multicouches, il faudra aussi bien choisir le nombre de couches
cachées que le nombre de neurones dans cette couche.
Nombre de couches cachées : Mis à part les couches d'entrée et de sortie, il faut décider du
nombre de couches intermédiaires ou cachées. Sans couche cachée, le réseau n'offre que de faibles
possibilités d'adaptation.
Nombre de neurones cachés : Chaque neurone peut prendre en compte des profils
spécifiques de neurones d'entrée. Un nombre plus important permet donc de mieux
″coller″ aux données présentées mais diminue la capacité de généralisation du réseau. Il faut
alors trouver le nombre adéquat de neurones cachés nécessaire pour obtenir une approximation
satisfaisante.
III.4.6.4. Apprentissage
L’apprentissage est un problème numérique d’optimisation. Il consiste à calculer les
pondérations optimales des différentes liaisons, en utilisant un échantillon. La méthode la plus
utilisée est la rétro propagation, qui est généralement plus économe que les autres en termes de
nombres d’opérations arithmétiques à effectuer pour évaluer le gradient.
III.4.6.5. Validation et Tests
Alors que les tests concernent la vérification des performances d'un réseau de neurones hors
échantillon et sa capacité de généralisation, la validation est parfois utilisée lors de l'apprentissage.
Une fois le réseau de neurones développé, des tests s’imposent afin de vérifier la qualité des
prévisions du modèle neuronal. Cette dernière étape doit permettre d’estimer la qualité du réseau
obtenu en lui présentant des exemples qui ne font pas partie de l’ensemble d’apprentissage. Une
validation rigoureuse du modèle développé se traduit par une proportion importante de prédictions
exactes sur l’ensemble de la validation. Si les performances du réseau ne sont pas satisfaisantes, il
faudra, soit modifier l’architecture du réseau, soit modifier la base d’apprentissage.
III.4.7. Modèle NAR
Dans la majorité des cas, les applications de séries temporelles se caractérisent par des variations
élevées et des périodes transitoires fugaces. Ce fait rend difficile la modélisation des séries
CHAPITRE III METHODOLOGIE
ENSH –SEPTEMBRE 2017 56
chronologiques à l'aide d'un modèle de ligne, donc une approche non linéaire devrait être suggérée.
Un réseau neuronal autorégressif non linéaire (Baker J.E ,1985), appliqué à la prévision des séries
chronologiques, décrit un modèle discret, non linéaire, autorégressif qui peut être écrit comme suit
(J.J. Holland, 1992):
Y (t) = h (y (t - 1), y (t - 2), ..., y (t - p)) + c (t) (III.14)
Cette formule décrit comment un réseau NAR est utilisé pour prédire la valeur d'une série de
données à l'instant t, y (t), en utilisant les valeurs p passées de la série. La fonction h (•) est
inconnue à l'avance, et la formation du réseau neuronal vise à rapprocher la fonction au moyen de
l'optimisation du poids du réseau et du biais des neurones. Enfin, le terme c (t) représente l'erreur de
l'approximation de la série y à l'instant t.
La topologie d'un réseau NAR est illustrée à la Figure 1. Les caractéristiques p y (t-1), y (t-2),. . .
, Y (t-p), sont appelés retards de rétroaction. Le nombre de couches cachées et les neurones par
couche sont complètement flexibles et sont optimisés grâce à une procédure d'essai et d'erreur pour
obtenir la topologie du réseau qui peut fournir les meilleures performances. Néanmoins, il est
important de garder à l'esprit que l'augmentation du nombre de neurones rend le système plus
complexe, alors qu'un petit nombre de neurones peuvent restreindre les capacités de généralisation
et le pouvoir informatique du réseau.
Figure III.4. Réseau non-linéaire autorégressif (NAR).
Dans cette étude, nous utilisons des réseaux de neurones NAR pour modéliser les séries
chronologiques des SPI comme suit: la structure de réseau contient une entrée (correspondant au
SPI à l'instant t-1, y (t-1)) et une sortie (la prochaine Valeur de la série temporelle, y (t), à prédire).
Le nombre de retards est défini expérimentalement après une étape de prétraitement et d'analyse des
données.
CHAPITRE VI RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 57
IV. RESULTATS ET DISCUSSION
IV.1. Introduction
Dans cette étude, les modèles de réseaux neuronaux autorégressifs ont été appliqués pour
prévoir la sécheresse pour les deux plaines (Metidja et Haut Chelif) et toutes les étapes
nécessaires ont été programmées dans l'environnement logiciel MATLAB. Les réseaux de
neurones NAR utilisés dans cette étude se compose de : une couche d'entrée, une couche
cachée et une couche de sortie.
IV.2. Variabilité spatiale et temporelle du SPI à différentes échelles
L'indice standardisé de précipitation «SPI» a été calculé à échelle de temps 12 mois sur les
deux plaines (Metidja et Haut Chelif) pendant la période 1960-2010. Cet indice a été développé
par MCKEE et al (1993) pour caractériser les déficits de précipitation pour une période donnée.
Son calcul permet également de distinguer entre les années sèches et humides ou autrement
dites entre les années déficitaires et excédentaires.
Figure IV.1 : Les séries chronologiques concernant l’indice de précipitation normalisé(SPI)
L’analyse de la série de SPI à l’échelle 12-mois présentée dans la figure IV.1, montre que
les valeurs de l’SPI durant la période étudiée sont en général comprises entre [+3.9 et -2.8] et
indique une situation dominée par la sècheresse (SPI négative) sur les deux plaines étudiées.
Ensuite la figure IV.1 montre que la région de haut Chélif a enregistré des périodes de
sécheresse plus marquées que la région de Metidja dans les dernières années (1988-2006). De
plus la valeur positive maximale de SPI a été remarquée dans la plaine de la Metidja durant la
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 58
période (1972, 1973), et il est noté aussi qu’en 1983 cette région a subit une année extrêmement
sèche avec une valeur extrême de : SPI = [-2.8].
IV.3. Autocorrélation et autocorrélation partielle de la série des SPI
Pour mettre en œuvre le modèle de séries chronologiques décrites ci-dessus sur l’indice SPI,
nous devons veiller à ce que les séries temporelles soient statiques. En tant que première étape,
les fonctions d’autocorrélation (ACF) et les fonctions d'autocorrélation partielle (PACF)
(Balaguer et al, 2008; Toth et al, 2000) des séries temporelles doivent être calculées, ce qui
indique le comportement stationnaire ou non stationnaire de la variable.
Les courbes représentées dans la figure IV.2, dont l'axe horizontal montre le temps de retard
et l'axe vertical représente respectivement les quantités de ACF et de PACF. Selon ces courbes,
on a observé que les quantités d'ACF et de PACF à l’avance d’un mois étaient élevées.
Figure IV .2 : Fonction Autocorrélation et Autocorrélation partielles pour les SPI
Comme le montre cette figure (IV.2), les fonctions d'autocorrélation pour la série temporelle
d'origine, les SPI, ne convergent pas beaucoup à zéro et sont significatives pour un nombre de
décalage un peu grand. Ils se décomposent dans la gamme lentement et ils n'ont pas pu
atteindre le domaine même si en arrivant à un décalage de 11 mois. Cependant, dans le
graphique de corrélation partielle après le deuxième décalage, ils ne deviennent pas
significatifs. Alors on peut déduire de ce comportement que cette variable n'est pas
stationnaire.
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 59
IV.4. Prédiction de la sécheresse par les réseaux de neurones artificiels autorégressif
(NAR)
La prévision de la sécheresse peut jouer un rôle très important dans l'atténuation de ses
effets. En effet, la capacité et la fiabilité de modèles utilisés présentent les principaux axes à
prévoir les conditions de sécheresse à l'avance de quelques mois ou quelques saisons. Pour
répondre à cet objectif dans les deux plaines du nord-ouest de l’Algérie, nous proposons le
modèle neuronal de prédiction de la sécheresse à l’avance de 120 mois, dont le test et la
validation du modèle se font à la base des séries de SPI à échelle de temps (12- mois). Vu que
les séries chronologiques des SPI sont autorégressives d'ordre 1.
IV.4.1. Conception du modèle du réseau de neurone autorégressif (NAR)
Dans cette section, on a examiné le modèle du réseau neuronal autorégressif non linéaire
(NAR) pour prévoir la sècheresse à l’avance de un mois jusqu’à 120 mois.
La base de données représentant les SPI-12 a été subdivisée en deux ensembles; le premier
ensemble est 70% pour l’apprentissage du model, tandis que les données restantes (30%) ont
été utilisées pour la validation du modèle. Enfin, le processus d'essais et d'erreurs est utilisé
pour déterminer le nombre optimal de neurones (N) dans la couche cachée.
Après avoir fixé les variables d'entrée, le nombre de neurones dans la couche cachée et les
fonctions de transferts, la prochaine étape est d’apparenter le model avec l’ensemble de
données destinées à l’apprentissage avec les trois algorithmes.
IV.4.1. Sélection des entrées et architecture du modèle
Afin de prévoir les conditions de la sècheresse à l’avance d’un instant ‘t’ donné au niveau de
deux plaines, plusieurs combinaisons des valeurs de SPI (t-n) observés aux mois précédents
peuvent être utilisées comme entrées du modèle. Pour parvenir aux combinaisons d'entrées
optimales qu’elle faudrait inclure dans le modèle, plusieurs combinaisons ont été construite et
les meilleures seront déterminées par tâtonnements (by simple trial and errors) durant
l'apprentissage du model.
Dans un premier temps, pour chaque décalage de temps (à l’avance d’un mois, deux mois,
……….N mois) quatre modèles ont été choisis en fonction de la combinaison de cinq SPI
précédents, par la suite, la meilleure combinaison sera déterminée par tâtonnements. Les quatre
modèles NAR sont construits comme indiqué dans le tableau IV.1.
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 60
Tableau IV.1. Conception des entrées utilisées pour l’apprentissage du modèle NAR pour la
prévision de la sécheresse d’un mois de décalage (à l’avance d’un mois)
Conception Vecteur d'entrées Variable prédit
01 SPI(t-1) SPI ( t )
02 SPI(t−1), SPI (t−2) SPI ( t )
03 SPI (t−1), SPI (t−2), SPI (t−3) SPI ( t )
04 SPI (t−1), SPI (t−2), SPI (t−3), SPI (t−4) SPI ( t )
Pour l’architecture du modèle basé sur le réseau de neurones artificiels (NAR) on a opté
pour une architecture simple de trois couches puisqu’il s'est avéré qu’un modèle à trois couches
est suffisant pour la prévision et la simulation dans le domaine des sciences de l'eau (Wang et
Ding 2003). Ainsi, nous avons utilisé un réseau (figure IV.3) avec 4 unités d’entrée et 1
neurone en sortie. Les entrées sont les indices SPI (SPI(t-1), SPI(t-2) SPI (t−3) et SPI (t−4)).
IV.4.3. Apprentissage du modèle auto-regressif (NAR)
Après la sélection des variables d'entrée et de sortie à travers chacun des deux plaines
étudiées, les quatre modèles NAR ont été examinés afin de trouver le meilleur modèle qui peut
capturer la non-linéarité dans les séries chronologiques des SPI. Pour ce faire, deux fonctions
d’activation sont utilisées : une fonction de type sigmoïde dans la couche cachée et une
fonction linéaire dans la couche de sortie.
Après avoir construit les quatre modèles à l'aide des différentes combinaisons de variables
SPI (t-n), les trois algorithmes : Levenberg–Marquardt (NAR_LM), Scaled conjugate gradient
algorithm (NAR_SCG) et Bayesian Regularization (NAR_BR) algorithme seront utilisés pour
l’apprentissage et la validation du modèle (NAR).
IV.4.4. Evaluation des Performances
Cette étape consiste à évaluer les modèles formés par comparaison de la différence entre les
valeurs estimées et les valeurs réelles. Le résultat de l'évaluation est exprimée de deux manières
: par des indicateurs statistiques et par l'examen des graphes.
La performance de tous les modèles développés dans cette étude a été évaluée à l'aide de
l’erreur moyenne quadratique (MSE) et le coefficient de détermination R2:
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 61
(IV.1)
(IV.2)
Dans laquelle i(obs), i(sim), i(moyen) représentent, respectivement, l’indice SPI
observé, simulé et moyen; n: le nombre total de données de SPI.
La meilleure prédiction est quand R2 d’une part et MSE d’autre part tendent vers 1 et 0
respectivement.
Figue IV.3 : la structure du modèle de réseau neurone autorégressif NAR avec une
architecture (4-9-1) dans le cas d’une prévision de la sécheresse à l’avance d’un mois.
IV.5. Résultats et Discussion
IV.5.1 Résultats :
Les résultats de la meilleure conception du modèle NAR en termes de statistiques de
performance (MSE, R2) dans chaque plaine, pour chaque algorithme et pour chaque décalage
du temps sont présentés dans les tableaux ; (IV.2) pour la plaine de Metidja et (Annexe.1) Pour
la plaine de Haut Cheliff chelif. Aussi, un résumé de variation de MSE à chaque décalage du
temps avec le meilleur modèle est présenté dans Les figures IV.4 et IV.3 pour les deux plaines.
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 62
LA Plaine De Metidja :
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
Nombre de
neurones dans
la couche cachée
Architecture MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
1
1 2 1-2-1 0.153 0.899 2 1-2-1 0.217 0.898 2 1-2-1 0.189 0.9
2 4 2-4-1 0.237 0.893 5 2-5-1 0.15 0.902 5 2-5-1 0.198 0.9
3 6 3-6-1 0.23 0.853 6 3-6-1 0.263 0.9 7 3-7-1 0.193 0.9
4 8 4-8-1 0.238 0.852 9 4-9-1 0.22 0.902 9 4-9-1 0.181 0.9
2
1 2 1-2-1 0.215 0.9 2 1-2-1 0.229 0.901 2 1-2-1 0.183 0.9
2 4 2-4-1 0.188 0.899 5 2-5-1 0.174 0.897 5 2-5-1 0.185 0.901
3 6 3-6-1 0.187 0.898 6 3-6-1 0.147 0.901 7 3-7-1 0.189 0.901
4 8 4-8-1 0.186 0.891 9 4-9-1 0.214 0.9 9 4-9-1 0.181 0.902
3
1 2 1-2-1 0.2 0.899 2 1-2-1 0.3 0.901 2 1-2-1 0.176 0.9
2 4 2-4-1 0.216 0.853 5 2-5-1 0.151 0.901 5 2-5-1 0.18 0.901
3 6 3-6-1 0.274 0.883 6 3-6-1 0.199 0.901 7 3-7-1 0.189 0.902
4 8 4-8-1 0.209 0.896 9 4-9-1 0.218 0.901 9 4-9-1 0.186 0.901
4
1 2 1-2-1 0.191 0.897 2 1-2-1 0.176 0.901 2 1-2-1 0.181 0.901
2 4 2-4-1 0.245 0.883 5 2-5-1 0.178 0.887 5 2-5-1 0.193 0.901
3 6 3-6-1 0.215 0.899 6 3-6-1 0.213 0.9 7 3-7-1 0.188 0.902
4 8 4-8-1 0.187 0.892 9 4-9-1 0.186 0.901 9 4-9-1 0.182 0.902
5
1 2 1-2-1 0.176 0.891 2 1-2-1 0.179 0.902 2 1-2-1 0.181 0.902
2 4 2-4-1 0.168 0.89 5 2-5-1 0.239 0.901 5 2-5-1 0.187 0.902
3 6 3-6-1 0.246 0.878 6 3-6-1 0.158 0.901 7 3-7-1 0.181 0.903
4 8 4-8-1 0.191 0.895 9 4-9-1 0.209 0.903 9 4-9-1 0.175 0.903
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 63
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2 Nombre de
neurones dans
la couche cachée Architecture MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
6
1 2 1-2-1 0.213 0.902 2 1-2-1 0.152 0.902 2 1-2-1 0.181 0.903
2 4 2-4-1 0.187 0.9 5 2-5-1 0.138 0.903 5 2-5-1 0.182 0.904
3 6 3-6-1 0.174 0.901 6 3-6-1 0.246 0.905 7 3-7-1 0.192 0.904
4 8 4-8-1 0.213 0.898 9 4-9-1 0.23 0.902 9 4-9-1 0.183 0.903
7
1 2 1-2-1 0.176 0.903 2 1-2-1 0.215 0.904 2 1-2-1 0.185 0.905
2 4 2-4-1 0.199 0.902 5 2-5-1 0.195 0.905 5 2-5-1 0.178 0.906
3 6 3-6-1 0.168 0.898 6 3-6-1 0.218 0.905 7 3-7-1 0.178 0.905
4 8 4-8-1 0.198 0.9 9 4-9-1 0.212 0.905 9 4-9-1 0.182 0.906
8
1 2 1-2-1 0.184 0.897 2 1-2-1 0.166 0.905 2 1-2-1 0.183 0.905
2 4 2-4-1 0.173 0.904 5 2-5-1 0.149 0.905 5 2-5-1 0.185 0.906
3 6 3-6-1 0.254 0.895 6 3-6-1 0.194 0.906 7 3-7-1 0.172 0.906
4 8 4-8-1 0.169 0.884 9 4-9-1 0.175 0.905 9 4-9-1 0.171 0.906
9
1 2 1-2-1 0.168 0.904 2 1-2-1 0.231 0.906 2 1-2-1 0.18 0.906
2 4 2-4-1 0.214 0.883 5 2-5-1 0.208 0.907 5 2-5-1 0.174 0.907
3 6 3-6-1 0.304 0.836 6 3-6-1 0.152 0.906 7 3-7-1 0.178 0.907
4 8 4-8-1 0.125 0.903 9 4-9-1 0.193 0.906 9 4-9-1 0.173 0.907
10
1 2 1-2-1 0.197 0.898 2 1-2-1 0.139 0.906 2 1-2-1 0.167 0.906
2 4 2-4-1 0.22 0.89 5 2-5-1 0.238 0.906 5 2-5-1 0.178 0.907
3 6 3-6-1 0.191 0.901 6 3-6-1 0.246 0.908 7 3-7-1 0.18 0.907
4 8 4-8-1 0.177 0.899 9 4-9-1 0.182 0.907 9 4-9-1 0.172 0.908
11 1 2 1-2-1 0.192 0.897 2 1-2-1 0.159 0.906 2 1-2-1 0.167 0.907
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 64
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2 Nombre de
neurones dans
la couche cachée Architecture MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
11
2 4 2-4-1 0.149 0.904 5 2-5-1 0.237 0.907 5 2-5-1 0.175 0.908
3 6 3-6-1 0.14 0.904 6 3-6-1 0.213 0.907 7 3-7-1 0.174 0.908
4 8 4-8-1 0.305 0.835 9 4-9-1 0.189 0.907 9 4-9-1 0.167 0.909
12
1 2 1-2-1 0.238 0.902 2 1-2-1 0.226 0.906 2 1-2-1 0.169 0.907
2 4 2-4-1 0.277 0.867 5 2-5-1 0.16 0.907 5 2-5-1 0.19 0.908
3 6 3-6-1 0.202 0.887 6 3-6-1 0.173 0.903 7 3-7-1 0.171 0.91
4 8 4-8-1 0.195 0.875 9 4-9-1 0.194 0.906 9 4-9-1 0.175 0.91
13
1 2 1-2-1 0.144 0.919 2 1-2-1 0.131 0.927 2 1-2-1 0.14 0.927
2 4 2-4-1 0.176 0.91 5 2-5-1 0.137 0.928 5 2-5-1 0.132 0.929
3 6 3-6-1 0.18 0.909 6 3-6-1 0.162 0.918 7 3-7-1 0.124 0.93
4 8 4-8-1 0.326 0.797 9 4-9-1 0.157 0.93 9 4-9-1 0.131 0.93
14
1 2 1-2-1 0.119 0.924 2 1-2-1 0.214 0.928 2 1-2-1 0.133 0.928
2 4 2-4-1 0.13 0.921 5 2-5-1 0.158 0.928 5 2-5-1 0.134 0.93
3 6 3-6-1 0.186 0.889 6 3-6-1 0.135 0.928 7 3-7-1 0.113 0.94
4 8 4-8-1 0.145 0.924 9 4-9-1 0.191 0.938 9 4-9-1 0.094 0.942
15
1 2 1-2-1 0.173 0.925 2 1-2-1 0.089 0.927 2 1-2-1 0.145 0.929
2 4 2-4-1 0.144 0.925 5 2-5-1 0.116 0.929 5 2-5-1 0.127 0.931
3 6 3-6-1 0.27 0.863 6 3-6-1 0.143 0.927 7 3-7-1 0.111 0.939
4 8 4-8-1 0.159 0.927 9 4-9-1 0.212 0.931 9 4-9-1 0.105 0.943
16 1 2 1-2-1 0.128 0.92 2 1-2-1 0.156 0.922 2 1-2-1 0.14 0.93
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 65
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2 Nombre de
neurones dans
la couche cachée Architecture MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
16 3 6 3-6-1 0.177 0.893 6 3-6-1 0.132 0.933 7 3-7-1 0.102 0.942
4 8 4-8-1 0.199 0.915 9 4-9-1 0.173 0.932 9 4-9-1 0.102 0.945
17
1 2 1-2-1 0.117 0.926 2 1-2-1 0.138 0.928 2 1-2-1 0.135 0.929
2 4 2-4-1 0.113 0.925 5 2-5-1 0.097 0.929 5 2-5-1 0.119 0.931
3 6 3-6-1 0.175 0.925 6 3-6-1 0.115 0.93 7 3-7-1 0.111 0.94
4 8 4-8-1 0.175 0.927 9 4-9-1 0.14 0.93 9 4-9-1 0.117 0.933
18
1 2 1-2-1 0.208 0.924 2 1-2-1 0.167 0.928 2 1-2-1 0.133 0.929
2 4 2-4-1 0.194 0.899 5 2-5-1 0.154 0.929 5 2-5-1 0.124 0.931
3 6 3-6-1 0.188 0.92 6 3-6-1 0.156 0.926 7 3-7-1 0.112 0.935
4 8 4-8-1 0.105 0.921 9 4-9-1 0.158 0.927 9 4-9-1 0.106 0.94
19
1 2 1-2-1 0.158 0.914 2 1-2-1 0.148 0.929 2 1-2-1 0.138 0.928
2 4 2-4-1 0.116 0.927 5 2-5-1 0.16 0.929 5 2-5-1 0.132 0.932
3 6 3-6-1 0.157 0.917 6 3-6-1 0.158 0.931 7 3-7-1 0.113 0.934
4 8 4-8-1 0.177 0.896 9 4-9-1 0.155 0.929 9 4-9-1 0.122 0.94
20
1 2 1-2-1 0.283 0.858 2 1-2-1 0.149 0.929 2 1-2-1 0.14 0.94
2 4 2-4-1 0.136 0.923 5 2-5-1 0.169 0.93 5 2-5-1 0.13 0.933
3 6 3-6-1 0.156 0.887 6 3-6-1 0.178 0.93 7 3-7-1 0.116 0.938
4 8 4-8-1 0.158 0.904 9 4-9-1 0.157 0.938 9 4-9-1 0.103 0.94
21
1 2 1-2-1 0.099 0.927 2 1-2-1 0.113 0.928 2 1-2-1 0.13 0.929
2 4 2-4-1 0.158 0.926 5 2-5-1 0.13 0.929 5 2-5-1 0.12 0.932
3 6 3-6-1 0.269 0.86 6 3-6-1 0.135 0.937 7 3-7-1 0.128 0.934
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 66
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2 Nombre de
neurones dans
la couche cachée Architecture MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
21 4 8 4-8-1 0.161 0.92 9 4-9-1 0.162 0.925 9 4-9-1 0.112 0.936
22
1 2 1-2-1 0.176 0.9 2 1-2-1 0.141 0.93 2 1-2-1 0.14 0.93
2 4 2-4-1 0.174 0.926 5 2-5-1 0.147 0.93 5 2-5-1 0.131 0.932
3 6 3-6-1 0.158 0.922 6 3-6-1 0.143 0.93 7 3-7-1 0.117 0.936
4 8 4-8-1 0.132 0.925 9 4-9-1 0.192 0.93 9 4-9-1 0.127 0.934
23
1 2 1-2-1 0.125 0.919 2 1-2-1 0.157 0.93 2 1-2-1 0.139 0.93
2 4 2-4-1 0.14 0.927 5 2-5-1 0.133 0.928 5 2-5-1 0.122 0.933
3 6 3-6-1 0.142 0.909 6 3-6-1 0.163 0.938 7 3-7-1 0.117 0.937
4 8 4-8-1 0.103 0.918 9 4-9-1 0.167 0.932 9 4-9-1 0.116 0.939
24
1 2 1-2-1 0.213 0.887 2 1-2-1 0.14 0.93 2 1-2-1 0.128 0.93
2 4 2-4-1 0.141 0.914 5 2-5-1 0.156 0.93 5 2-5-1 0.121 0.934
3 6 3-6-1 0.203 0.905 6 3-6-1 0.139 0.93 7 3-7-1 0.119 0.935
4 8 4-8-1 0.193 0.92 9 4-9-1 0.168 0.933 9 4-9-1 0.109 0.937
25
1 2 1-2-1 0.184 0.904 2 1-2-1 0.121 0.937 2 1-2-1 0.124 0.938
2 4 2-4-1 0.149 0.933 5 2-5-1 0.139 0.936 5 2-5-1 0.099 0.943
3 6 3-6-1 0.23 0.9 6 3-6-1 0.095 0.943 7 3-7-1 0.096 0.948
4 8 4-8-1 0.13 0.934 9 4-9-1 0.177 0.937 9 4-9-1 0.086 0.949
26
1 2 1-2-1 0.144 0.936 2 1-2-1 0.118 0.938 2 1-2-1 0.117 0.938
2 4 2-4-1 0.154 0.902 5 2-5-1 0.121 0.938 5 2-5-1 0.108 0.944
3 6 3-6-1 0.177 0.906 6 3-6-1 0.151 0.938 7 3-7-1 0.102 0.945
4 8 4-8-1 0.146 0.936 9 4-9-1 0.142 0.94 9 4-9-1 0.095 0.947
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 67
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
27
1 2 1-2-1 0.121 0.927 2 1-2-1 0.161 0.937 2 1-2-1 0.115 0.938
2 4 2-4-1 0.122 0.937 5 2-5-1 0.165 0.936 5 2-5-1 0.107 0.943
3 6 3-6-1 0.171 0.919 6 3-6-1 0.107 0.938 7 3-7-1 0.093 0.947
4 8 4-8-1 0.213 0.867 9 4-9-1 0.129 0.935 9 4-9-1 0.097 0.95
28
1 2 1-2-1 0.161 0.931 2 1-2-1 0.138 0.937 2 1-2-1 0.122 0.94
2 4 2-4-1 0.157 0.933 5 2-5-1 0.121 0.938 5 2-5-1 0.105 0.943
3 6 3-6-1 0.128 0.927 6 3-6-1 0.126 0.943 7 3-7-1 0.096 0.95
4 8 4-8-1 0.149 0.934 9 4-9-1 0.143 0.939 9 4-9-1 0.096 0.95
29
1 2 1-2-1 0.223 0.896 2 1-2-1 0.149 0.937 2 1-2-1 0.111 0.94
2 4 2-4-1 0.092 0.934 5 2-5-1 0.129 0.939 5 2-5-1 0.107 0.94
3 6 3-6-1 0.182 0.922 6 3-6-1 0.14 0.938 7 3-7-1 0.109 0.95
4 8 4-8-1 0.253 0.901 9 4-9-1 0.168 0.936 9 4-9-1 0.089 0.951
30
1 2 1-2-1 0.103 0.932 2 1-2-1 0.142 0.939 2 1-2-1 0.083 0.95
2 4 2-4-1 0.157 0.927 5 2-5-1 0.139 0.939 5 2-5-1 0.124 0.94
3 6 3-6-1 0.2 0.911 6 3-6-1 0.2 0.937 7 3-7-1 0.11 0.944
4 8 4-8-1 0.175 0.917 9 4-9-1 0.201 0.942 9 4-9-1 0.1 0.943
31
1 2 1-2-1 0.153 0.928 2 1-2-1 0.151 0.939 2 1-2-1 0.088 0.95
2 4 2-4-1 0.237 0.891 5 2-5-1 0.107 0.941 5 2-5-1 0.112 0.94
3 6 3-6-1 0.198 0.883 6 3-6-1 0.136 0.941 7 3-7-1 0.113 0.942
4 8 4-8-1 0.165 0.919 9 4-9-1 0.174 0.938 9 4-9-1 0.089 0.95
32 1 2 1-2-1 0.107 0.931 2 1-2-1 0.153 0.939 2 1-2-1 0.092 0.95
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 68
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
32
2 4 2-4-1 0.152 0.917 5 2-5-1 0.107 0.938 5 2-5-1 0.118 0.94
3 6 3-6-1 0.207 0.908 6 3-6-1 0.148 0.938 7 3-7-1 0.107 0.945
4 8 4-8-1 0.119 0.934 9 4-9-1 0.17 0.939 9 4-9-1 0.093 0.95
33
1 2 1-2-1 0.176 0.922 2 1-2-1 0.119 0.939 2 1-2-1 0.108 0.94
2 4 2-4-1 0.147 0.925 5 2-5-1 0.166 0.939 5 2-5-1 0.11 0.943
3 6 3-6-1 0.212 0.911 6 3-6-1 0.218 0.938 7 3-7-1 0.1 0.95
4 8 4-8-1 0.132 0.921 9 4-9-1 0.198 0.938 9 4-9-1 0.088 0.95
34
1 2 1-2-1 0.14 0.93 2 1-2-1 0.138 0.94 2 1-2-1 0.118 0.94
2 4 2-4-1 0.118 0.935 5 2-5-1 0.173 0.94 5 2-5-1 0.104 0.945
3 6 3-6-1 0.172 0.919 6 3-6-1 0.135 0.939 7 3-7-1 0.087 0.95
4 8 4-8-1 0.194 0.906 9 4-9-1 0.187 0.943 9 4-9-1 0.08 0.952
35
1 2 1-2-1 0.076 0.937 2 1-2-1 0.136 0.94 2 1-2-1 0.118 0.94
2 4 2-4-1 0.211 0.935 5 2-5-1 0.097 0.94 5 2-5-1 0.105 0.944
3 6 3-6-1 0.153 0.931 6 3-6-1 0.226 0.938 7 3-7-1 0.091 0.95
4 8 4-8-1 0.133 0.927 9 4-9-1 0.165 0.935 9 4-9-1 0.083 0.953
36
1 2 1-2-1 0.217 0.9 2 1-2-1 0.106 0.94 2 1-2-1 0.11 0.94
2 4 2-4-1 0.146 0.939 5 2-5-1 0.117 0.943 5 2-5-1 0.107 0.942
3 6 3-6-1 0.16 0.931 6 3-6-1 0.12 0.94 7 3-7-1 0.087 0.952
4 8 4-8-1 0.177 0.905 9 4-9-1 0.183 0.94 9 4-9-1 0.083 0.955
37 1 2 1-2-1 0.101 0.941 2 1-2-1 0.134 0.944 2 1-2-1 0.104 0.945
2 4 2-4-1 0.173 0.917 5 2-5-1 0.11 0.947 5 2-5-1 0.09 0.95
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 69
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
37 3 6 3-6-1 0.162 0.939 6 3-6-1 0.14 0.95 7 3-7-1 0.077 0.954
4 8 4-8-1 0.184 0.91 9 4-9-1 0.116 0.945 9 4-9-1 0.071 0.956
38
1 2 1-2-1 0.116 0.934 2 1-2-1 0.157 0.943 2 1-2-1 0.109 0.945
2 4 2-4-1 0.344 0.786 5 2-5-1 0.14 0.942 5 2-5-1 0.093 0.95
3 6 3-6-1 0.12 0.93 6 3-6-1 0.126 0.944 7 3-7-1 0.077 0.957
4 8 4-8-1 0.157 0.923 9 4-9-1 0.128 0.946 9 4-9-1 0.063 0.958
39
1 2 1-2-1 0.181 0.922 2 1-2-1 0.178 0.95 2 1-2-1 0.103 0.946
2 4 2-4-1 0.174 0.912 5 2-5-1 0.184 0.945 5 2-5-1 0.091 0.952
3 6 3-6-1 0.116 0.944 6 3-6-1 0.141 0.944 7 3-7-1 0.082 0.956
4 8 4-8-1 0.247 0.88 9 4-9-1 0.12 0.948 9 4-9-1 0.066 0.96
40
1 2 1-2-1 0.182 0.926 2 1-2-1 0.145 0.94 2 1-2-1 0.102 0.946
2 4 2-4-1 0.178 0.925 5 2-5-1 0.125 0.945 5 2-5-1 0.096 0.952
3 6 3-6-1 0.166 0.897 6 3-6-1 0.157 0.947 7 3-7-1 0.078 0.955
4 8 4-8-1 0.148 0.933 9 4-9-1 0.148 0.944 9 4-9-1 0.071 0.96
41
1 2 1-2-1 0.134 0.93 2 1-2-1 0.316 0.877 2 1-2-1 0.105 0.95
2 4 2-4-1 0.157 0.926 5 2-5-1 0.118 0.944 5 2-5-1 0.095 0.953
3 6 3-6-1 0.181 0.934 6 3-6-1 0.109 0.947 7 3-7-1 0.077 0.957
4 8 4-8-1 0.158 0.936 9 4-9-1 0.13 0.945 9 4-9-1 0.065 0.961
42 1 2 1-2-1 0.168 0.93 2 1-2-1 0.144 0.946 2 1-2-1 0.105 0.95
2 4 2-4-1 0.165 0.935 5 2-5-1 0.121 0.945 5 2-5-1 0.096 0.951
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 70
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
42 4 8 4-8-1 0.214 0.901 9 4-9-1 0.191 0.944 9 4-9-1 0.068 0.955
43
1 2 1-2-1 0.136 0.933 2 1-2-1 0.153 0.945 2 1-2-1 0.078 0.96
2 4 2-4-1 0.172 0.932 5 2-5-1 0.177 0.944 5 2-5-1 0.066 0.96
3 6 3-6-1 0.207 0.92 6 3-6-1 0.181 0.935 7 3-7-1 0.108 0.95
4 8 4-8-1 0.126 0.936 9 4-9-1 0.152 0.942 9 4-9-1 0.09 0.95
44
1 2 1-2-1 0.1 0.942 2 1-2-1 0.132 0.943 2 1-2-1 0.072 0.96
2 4 2-4-1 0.14 0.919 5 2-5-1 0.17 0.947 5 2-5-1 0.064 0.96
3 6 3-6-1 0.129 0.928 6 3-6-1 0.14 0.946 7 3-7-1 0.1 0.95
4 8 4-8-1 0.242 0.885 9 4-9-1 0.134 0.942 9 4-9-1 0.097 0.951
45
1 2 1-2-1 0.174 0..921 2 1-2-1 0.105 0.944 2 1-2-1 0.08 0.958
2 4 2-4-1 0.147 0.928 5 2-5-1 0.107 0.933 5 2-5-1 0.064 0.962
3 6 3-6-1 0.185 0.908 6 3-6-1 0.182 0.942 7 3-7-1 0.104 0.945
4 8 4-8-1 0.185 0.934 9 4-9-1 0.162 0.946 9 4-9-1 0.09 0.951
46
1 2 1-2-1 0.135 0.936 2 1-2-1 0.173 0.943 2 1-2-1 0.071 0.957
2 4 2-4-1 0.144 0.942 5 2-5-1 0.154 0.944 5 2-5-1 0.062 0.964
3 6 3-6-1 0.162 0.934 6 3-6-1 0.147 0.944 7 3-7-1 0.06 0.956
4 8 4-8-1 0.152 0.927 9 4-9-1 0.207 0.931 9 4-9-1 0.06 0.96
47
1 2 1-2-1 0.136 0.93 2 1-2-1 0.149 0.943 2 1-2-1 0.101 0.946
2 4 2-4-1 0.237 0.877 5 2-5-1 0.148 0.944 5 2-5-1 0.109 0.945
3 6 3-6-1 0.166 0.945 6 3-6-1 0.201 0.941 7 3-7-1 0.092 0.951
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 71
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
48
1 2 1-2-1 0.238 0.925 2 1-2-1 0.143 0.942 2 1-2-1 0.05 0.963
2 4 2-4-1 0.141 0.929 5 2-5-1 0.135 0.946 5 2-5-1 0.093 0.953
3 6 3-6-1 0.209 0.904 6 3-6-1 0.184 0.95 7 3-7-1 0.073 0.96
4 8 4-8-1 0.152 0.934 9 4-9-1 0.186 0.947 9 4-9-1 0.052 0.968
49
1 2 1-2-1 0.183 0.931 2 1-2-1 0.183 0.947 2 1-2-1 0.111 0.95
2 4 2-4-1 0.146 0.943 5 2-5-1 0.117 0.94 5 2-5-1 0.083 0.952
3 6 3-6-1 0.188 0.894 6 3-6-1 0.159 0.951 7 3-7-1 0.069 0.96
4 8 4-8-1 0.196 0.913 9 4-9-1 0.128 0.948 9 4-9-1 0.06 0.97
50
1 2 1-2-1 0.138 0.947 2 1-2-1 0.165 0.947 2 1-2-1 0.104 0.95
2 4 2-4-1 0.098 0.942 5 2-5-1 0.165 0.947 5 2-5-1 0.089 0.955
3 6 3-6-1 0.219 0.926 6 3-6-1 0.152 0.95 7 3-7-1 0.066 0.96
4 8 4-8-1 0.138 0.92 9 4-9-1 0.144 0.95 9 4-9-1 0.061 0.963
51
1 2 1-2-1 0.138 0.942 2 1-2-1 0.096 0.95 2 1-2-1 0.098 0.95
2 4 2-4-1 0.148 0.918 5 2-5-1 0.161 0.947 5 2-5-1 0.088 0.954
3 6 3-6-1 0.167 0.896 6 3-6-1 0.189 0.947 7 3-7-1 0.064 0.96
4 8 4-8-1 0.196 0.94 9 4-9-1 0.146 0.948 9 4-9-1 0.055 0.963
52
1 2 1-2-1 0.178 0.923 2 1-2-1 0.172 0.946 2 1-2-1 0.093 0.948
2 4 2-4-1 0.201 0.918 5 2-5-1 0.157 0.95 5 2-5-1 0.084 0.96
3 6 3-6-1 0.2 0.92 6 3-6-1 0.426 0.877 7 3-7-1 0.065 0.96
4 8 4-8-1 0.152 0.936 9 4-9-1 0.22 0.931 9 4-9-1 0.04 0.965
53 1 2 1-2-1 0.189 0.91 2 1-2-1 0.171 0.945 2 1-2-1 0.095 0.95
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 72
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
53
2 4 2-4-1 0.218 0.923 5 2-5-1 0.16 0.95 5 2-5-1 0.079 0.955
3 6 3-6-1 0.178 0.928 6 3-6-1 0.12 0.95 7 3-7-1 0.065 0.959
4 8 4-8-1 0.203 0.913 9 4-9-1 0.126 0.943 9 4-9-1 0.046 0.967
54
1 2 1-2-1 0.129 0.933 2 1-2-1 0.117 0.946 2 1-2-1 0.097 0.948
2 4 2-4-1 0.126 0.948 5 2-5-1 0.098 0.948 5 2-5-1 0.077 0.955
3 6 3-6-1 0.142 0.932 6 3-6-1 0.132 0.948 7 3-7-1 0.07 0.961
4 8 4-8-1 0.148 0.913 9 4-9-1 0.204 0.944 9 4-9-1 0.053 0.967
55
1 2 1-2-1 0.138 0.942 2 1-2-1 0.143 0.946 2 1-2-1 0.099 0.95
2 4 2-4-1 0.146 0.911 5 2-5-1 0.125 0.946 5 2-5-1 0.087 0.954
3 6 3-6-1 0.225 0.89 6 3-6-1 0.143 0.945 7 3-7-1 0.071 0.959
4 8 4-8-1 0.158 0.928 9 4-9-1 0.169 0.948 9 4-9-1 0.047 0.962
56
1 2 1-2-1 0.126 0.939 2 1-2-1 0.143 0.947 2 1-2-1 0.104 0.949
2 4 2-4-1 0.15 0.932 5 2-5-1 0.174 0.922 5 2-5-1 0.086 0.954
3 6 3-6-1 0.152 0.934 6 3-6-1 0.156 0.947 7 3-7-1 0.074 0.963
4 8 4-8-1 0.228 0.9 9 4-9-1 0.252 0.929 9 4-9-1 0.039 0.96
57
1 2 1-2-1 0.102 0.938 2 1-2-1 0.135 0.946 2 1-2-1 0.102 0.95
2 4 2-4-1 0.123 0.939 5 2-5-1 0.158 0.948 5 2-5-1 0.087 0.954
3 6 3-6-1 0.116 0.938 6 3-6-1 0.162 0.945 7 3-7-1 0.061 0.96
4 8 4-8-1 0.207 0.934 9 4-9-1 0.159 0.939 9 4-9-1 0.044 0.966
58 1 2 1-2-1 0.2 0.903 2 1-2-1 0.183 0.948 2 1-2-1 0.098 0.95
2 4 2-4-1 0.173 0.937 5 2-5-1 0.16 0.943 5 2-5-1 0.076 0.953
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 73
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2 Nombre de
neurones dans
la couche cachée Architecture MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
58 3 6 3-6-1 0.163 0.925 6 3-6-1 0.193 0.946 7 3-7-1 0.057 0.96
4 8 4-8-1 0.253 0.909 9 4-9-1 0.205 0.946 9 4-9-1 0.048 0.97
59
1 2 1-2-1 0.223 0.871 2 1-2-1 0.158 0.93 2 1-2-1 0.1 0.95
2 4 2-4-1 0.266 0.867 5 2-5-1 0.17 0.942 5 2-5-1 0.085 0.953
3 6 3-6-1 0.192 0.911 6 3-6-1 0.18 0.95 7 3-7-1 0.075 0.96
4 8 4-8-1 0.164 0.928 9 4-9-1 0.124 0.95 9 4-9-1 0.052 0.97
60
1 2 1-2-1 0.216 0.929 2 1-2-1 0.114 0.948 2 1-2-1 0.094 0.95
2 4 2-4-1 0.129 0.931 5 2-5-1 0.128 0.95 5 2-5-1 0.074 0.953
3 6 3-6-1 0.169 0.906 6 3-6-1 0.153 0.954 7 3-7-1 0.05 0.965
4 8 4-8-1 0.158 0.898 9 4-9-1 0.335 0.943 9 4-9-1 0.041 0.968
61
1 2 1-2-1 0.148 0.928 2 1-2-1 0.131 0.949 2 1-2-1 0.092 0.95
2 4 2-4-1 0.188 0.899 5 2-5-1 0.143 0.95 5 2-5-1 0.074 0.958
3 6 3-6-1 0.185 0.88 6 3-6-1 0.22 0.943 7 3-7-1 0.06 0.962
4 8 4-8-1 0.172 0.948 9 4-9-1 0.161 0.953 9 4-9-1 0.04 0.968
62
1 2 1-2-1 0.129 0.939 2 1-2-1 0.094 0.95 2 1-2-1 0.093 0.95
2 4 2-4-1 0.158 0.921 5 2-5-1 0.15 0.95 5 2-5-1 0.078 0.955
3 6 3-6-1 0.17 0.934 6 3-6-1 0.179 0.95 7 3-7-1 0.07 0.96
4 8 4-8-1 0.112 0.942 9 4-9-1 0.186 0.947 9 4-9-1 0.037 0.973
63
1 2 1-2-1 0.163 0.921 2 1-2-1 0.084 0.952 2 1-2-1 0.09 0.952
2 4 2-4-1 0.185 0.933 5 2-5-1 0.14 0.95 5 2-5-1 0.071 0.96
3 6 3-6-1 0.13 0.939 6 3-6-1 0.164 0.94 7 3-7-1 0.055 0.968
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 74
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2 Nombre de
neurones dans la
couche cachée Architecture MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
63 4 8 4-8-1 0.181 0.93 9 4-9-1 0.238 0.952 9 4-9-1 0.044 0.97
64
1 2 1-2-1 0.163 0.915 2 1-2-1 0.132 0.95 2 1-2-1 0.095 0.95
2 4 2-4-1 0.229 0.914 5 2-5-1 0.185 0.95 5 2-5-1 0.072 0.96
3 6 3-6-1 0.123 0.932 6 3-6-1 0.15 0.95 7 3-7-1 0.07 0.96
4 8 4-8-1 0.184 927 9 4-9-1 0.187 0.944 9 4-9-1 0.036 0.97
65
1 2 1-2-1 0.108 0.935 2 1-2-1 0.117 0.95 2 1-2-1 0.084 0.952
2 4 2-4-1 0.175 0.933 5 2-5-1 0.136 0.952 5 2-5-1 0.08 0.96
3 6 3-6-1 0.365 0.787 6 3-6-1 0.226 0.95 7 3-7-1 0.066 0.965
4 8 4-8-1 0.15 0.924 9 4-9-1 0.134 0.951 9 4-9-1 0.039 0.97
66
1 2 1-2-1 0.213 0.916 2 1-2-1 0.14 0.95 2 1-2-1 0.09 0.952
2 4 2-4-1 0.264 0.799 5 2-5-1 0.13 0.95 5 2-5-1 0.071 0.96
3 6 3-6-1 0.177 0.902 6 3-6-1 0.165 0.95 7 3-7-1 0.057 0.964
4 8 4-8-1 0.219 0.93 9 4-9-1 0.125 0.95 9 4-9-1 0.042 0.972
67
1 2 1-2-1 0.142 0.939 2 1-2-1 0.129 0.95 2 1-2-1 0.087 0.953
2 4 2-4-1 0.161 0.91 5 2-5-1 0.15 0.952 5 2-5-1 0.075 0.96
3 6 3-6-1 0.153 0.94 6 3-6-1 0.191 0.94 7 3-7-1 0.056 0.965
4 8 4-8-1 0.153 0.941 9 4-9-1 0.222 0.908 9 4-9-1 0.045 0.968
68
1 2 1-2-1 0.116 0.93 2 1-2-1 0.145 0.95 2 1-2-1 0.089 0.954
2 4 2-4-1 0.172 0.935 5 2-5-1 0.16 0.95 5 2-5-1 0.079 0.96
3 6 3-6-1 0.176 0.879 6 3-6-1 0.18 0.94 7 3-7-1 0.057 0.963
4 8 4-8-1 0.173 0.889 9 4-9-1 0.131 0.956 9 4-9-1 0.043 0.97
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 75
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conceptio
n des
entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
69
1 2 1-2-1 0.197 0.937 2 1-2-1 0.143 0.948 2 1-2-1 0.088 0.953
2 4 2-4-1 0.215 0.861 5 2-5-1 0.146 0.95 5 2-5-1 0.073 0.96
3 6 3-6-1 0.179 0.921 6 3-6-1 0.203 0.95 7 3-7-1 0.055 0.97
4 8 4-8-1 0.195 0.942 9 4-9-1 0.152 0.95 9 4-9-1 0.034 0.974
70
1 2 1-2-1 0.175 0.914 2 1-2-1 0.139 0.95 2 1-2-1 0.092 0.954
2 4 2-4-1 0.138 0.934 5 2-5-1 0.16 0.95 5 2-5-1 0.077 0.96
3 6 3-6-1 0.159 0.92 6 3-6-1 0.225 0.952 7 3-7-1 0.054 0.96
4 8 4-8-1 0.118 0.938 9 4-9-1 0.242 0.93 9 4-9-1 0.034 0.97
71
1 2 1-2-1 0.172 0.922 2 1-2-1 0.16 0.95 2 1-2-1 0.082 0.952
2 4 2-4-1 0.172 0.93 5 2-5-1 0.14 0.952 5 2-5-1 0.076 0.96
3 6 3-6-1 0.178 0.906 6 3-6-1 0.199 0.911 7 3-7-1 0.057 0.964
4 8 4-8-1 0.242 0.927 9 4-9-1 0.209 0.95 9 4-9-1 0.04 0.971
72
1 2 1-2-1 0.122 0.939 2 1-2-1 0.179 0.937 2 1-2-1 0.09 0.953
2 4 2-4-1 0.143 0.934 5 2-5-1 0.2 0.937 5 2-5-1 0.079 0.96
3 6 3-6-1 0.222 0.911 6 3-6-1 0.202 0.95 7 3-7-1 0.054 0.97
4 8 4-8-1 0.278 0.888 9 4-9-1 0.213 0.94 9 4-9-1 0.047 0.967
73
1 2 1-2-1 0.155 0.926 2 1-2-1 0.1 0.954 2 1-2-1 0.089 0.96
2 4 2-4-1 0.123 0.949 5 2-5-1 0.119 0.956 5 2-5-1 0.07 0.961
3 6 3-6-1 0.129 0.943 6 3-6-1 0.22 0.94 7 3-7-1 0.052 0.968
4 8 4-8-1 0.208 0.916 9 4-9-1 0.131 0.95 9 4-9-1 0.03 0.97
74 1 2 1-2-1 0.132 0.933 2 1-2-1 0.154 0.953 2 1-2-1 0.085 0.956
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 76
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
74
2 4 2-4-1 0.371 0.799 5 2-5-1 0.115 0.956 5 2-5-1 0.063 0.96
3 6 3-6-1 0.254 0.913 6 3-6-1 0.197 0.5 7 3-7-1 0.049 0.966
4 8 4-8-1 0.187 0.936 9 4-9-1 0.188 0.952 9 4-9-1 0.033 0.967
75
1 2 1-2-1 0.146 0.946 2 1-2-1 0.156 0.954 2 1-2-1 0.084 0.956
2 4 2-4-1 0.209 0.931 5 2-5-1 0.13 0.957 5 2-5-1 0.073 0.96
3 6 3-6-1 0.178 0.942 6 3-6-1 0.204 0.95 7 3-7-1 0.073 0.96
4 8 4-8-1 0.218 0.916 9 4-9-1 0.263 0.917 9 4-9-1 0.053 0.968
76
1 2 1-2-1 0.119 0.942 2 1-2-1 0.115 0.955 2 1-2-1 0.087 0.956
2 4 2-4-1 0.154 0.936 5 2-5-1 0.102 0.956 5 2-5-1 0.071 0.962
3 6 3-6-1 0.224 0.903 6 3-6-1 0.105 0.952 7 3-7-1 0.048 0.97
4 8 4-8-1 0.192 0.941 9 4-9-1 0.122 0.954 9 4-9-1 0.037 0.971
77
1 2 1-2-1 0.146 0.94 2 1-2-1 0.118 0.955 2 1-2-1 0.074 0.956
2 4 2-4-1 0.214 0.922 5 2-5-1 0.188 0.95 5 2-5-1 0.075 0.96
3 6 3-6-1 0.2 0.907 6 3-6-1 0.16 0.945 7 3-7-1 0.05 0.967
4 8 4-8-1 0.213 0.921 9 4-9-1 0.219 0.949 9 4-9-1 0.024 0.971
78
1 2 1-2-1 0.146 0.931 2 1-2-1 0.134 0.953 2 1-2-1 0.081 0.956
2 4 2-4-1 0.135 0.945 5 2-5-1 0.156 0.95 5 2-5-1 0.064 0.962
3 6 3-6-1 0.132 0.946 6 3-6-1 0.162 0.94 7 3-7-1 0.04 0.97
4 8 4-8-1 0.19 0.921 9 4-9-1 0.235 0.94 9 4-9-1 0.032 0.971
79 1 2 1-2-1 0.201 0.925 2 1-2-1 0.145 0.952 2 1-2-1 0.084 0.957
2 4
2-4-1 0.15 0.932 5 2-5-1 0.123 0.953 5 2-5-1 0.069 0.96
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 77
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
79 3 6 3-6-1 0.18 0.931 6 3-6-1 0.225 0.953 7 3-7-1 0.056 0.967
4 8 4-8-1 0.166 0.896 9 4-9-1 0.223 0.944 9 4-9-1 0.029 0.972
80
1 2 1-2-1 0.193 0.916 2 1-2-1 0.093 0.957 2 1-2-1 0.089 0.96
2 4 2-4-1 0.154 0.935 5 2-5-1 0.111 0.956 5 2-5-1 0.069 0.963
3 6 3-6-1 0.135 0.938 6 3-6-1 0.147 0.954 7 3-7-1 0.046 0.97
4 8 4-8-1 0.172 0.938 9 4-9-1 0.295 0.936 9 4-9-1 0.025 0.975
81
1 2 1-2-1 0.19 0.929 2 1-2-1 0.114 0.956 2 1-2-1 0.084 0.956
2 4 2-4-1 0.14 0.938 5 2-5-1 0.133 0.955 5 2-5-1 0.059 0.962
3 6 3-6-1 0.244 0.893 6 3-6-1 0.155 0.953 7 3-7-1 0.044 0.97
4 8 4-8-1 0.324 0.85 9 4-9-1 0.25 0.933 9 4-9-1 0.033 0.97
82
1 2 1-2-1 0.218 0.912 2 1-2-1 0.116 0.956 2 1-2-1 0.086 0.957
2 4 2-4-1 0.207 0.914 5 2-5-1 0.165 0.955 5 2-5-1 0.072 0.962
3 6 3-6-1 0.2 0.93 6 3-6-1 0.236 0.922 7 3-7-1 0.048 0.965
4 8 4-8-1 0.178 0.922 9 4-9-1 0.25 0.944 9 4-9-1 0.023 0.973
83
1 2 1-2-1 0.151 0.938 2 1-2-1 0.148 0.954 2 1-2-1 0.083 0.957
2 4 2-4-1 0.273 0.832 5 2-5-1 0.109 0.54 5 2-5-1 0.068 0.963
3 6 3-6-1 0.21 0.937 6 3-6-1 0.218 0.936 7 3-7-1 0.046 0.97
4 8 4-8-1 0.221 0.905 9 4-9-1 0.251 0.91 9 4-9-1 0.028 0.975
84
1 2 1-2-1 0.112 0.948 2 1-2-1 0.138 0.954 2 1-2-1 0.086 0.956
2 4 2-4-1 0.249 0.889 5 2-5-1 0.177 0.95 5 2-5-1 0.058 0.965
3 6 3-6-1 0.241 0.928 6 3-6-1 0.206 0.948 7 3-7-1 0.049 0.97
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 78
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
84 8 4 4-8-1 0.186 0.929 9 4-9-1 0.219 0.94 9 4-9-1 0.031 0.976
85
2 1 1-2-1 0.348 0.888 2 1-2-1 0.175 0.952 2 1-2-1 0.082 0.096
4 2 2-4-1 0.212 0.938 5 2-5-1 0.123 0.957 5 2-5-1 0.06 0.963
6 3 3-6-1 0.208 0.931 6 3-6-1 0.162 0.934 7 3-7-1 0.043 0.971
8 4 4-8-1 0.196 0.923 9 4-9-1 0.186 0.953 9 4-9-1 0.03 0.968
86
1 2 1-2-1 0.169 0.934 2 1-2-1 0.131 0.956 2 1-2-1 0.081 0.955
2 4 2-4-1 0.239 0.897 5 2-5-1 0.235 0.95 5 2-5-1 0.06 0.97
3 6 3-6-1 0.168 0.938 6 3-6-1 0.223 0.933 7 3-7-1 0.048 0.97
4 8 4-8-1 0.143 0.924 9 4-9-1 0.277 0.892 9 4-9-1 0.03 0.978
87
1 2 1-2-1 0.163 0.921 2 1-2-1 0.077 0.956 2 1-2-1 0.079 0.956
2 4 2-4-1 0.16 0.95 5 2-5-1 0.43 0.955 5 2-5-1 0.063 0.96
3 6 3-6-1 0.157 0.942 6 3-6-1 0.2 0.95 7 3-7-1 0.048 0.968
4 8 4-8-1 0.174 0.93 9 4-9-1 0.168 0.936 9 4-9-1 0.025 0.974
88
1 2 1-2-1 0.183 0.914 2 1-2-1 0.178 0.953 2 1-2-1 0.083 0.957
2 4 2-4-1 0.13 0.926 5 2-5-1 0.154 0.953 5 2-5-1 0.066 0.962
3 6 3-6-1 0.145 0.924 6 3-6-1 0.206 0.951 7 3-7-1 0.039 0.971
4 8 4-8-1 0.195 0.92 9 4-9-1 0.262 0.95 9 4-9-1 0.026 0.979
89
1 2 1-2-1 0.182 0.92 2 1-2-1 0.142 0.954 2 1-2-1 0.081 0.957
2 4 2-4-1 0.288 0.89 5 2-5-1 0.129 0.955 5 2-5-1 0.06 0.964
3 6 3-6-1 0.272 0.891 6 3-6-1 0.262 0.935 7 3-7-1 0.04 0.972
4 8 4-8-1 0.181 0.934 9 4-9-1 0.165 0.955 9 4-9-1 0.027 0.977
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 79
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
90
1 2 1-2-1 0.169 0.938 2 1-2-1 0.091 0.957 2 1-2-1 0.082 0.957
2 4 2-4-1 0.185 0.921 5 2-5-1 0.188 0.95 5 2-5-1 0.07 0.96
3 6 3-6-1 0.176 0.939 6 3-6-1 0.153 0.955 7 3-7-1 0.039 0.97
4 8 4-8-1 0.16 0.94 9 4-9-1 0.245 0.911 9 4-9-1 0.022 0.975
91
1 2 1-2-1 0.211 0.913 2 1-2-1 0.161 0.955 2 1-2-1 0.077 0.957
2 4 2-4-1 0.175 0.894 5 2-5-1 0.157 0.947 5 2-5-1 0.06 0.964
3 6 3-6-1 0.192 0.937 6 3-6-1 0.195 0.911 7 3-7-1 0.036 0.972
4 8 4-8-1 0.208 0.921 9 4-9-1 0.243 0.91 9 4-9-1 0.03 0.974
92
1 2 1-2-1 0.172 0.93 2 1-2-1 0.101 0.957 2 1-2-1 0.079 0.956
2 4 2-4-1 0.152 0.911 5 2-5-1 0.215 0.921 5 2-5-1 0.065 0.965
3 6 3-6-1 0.145 0.953 6 3-6-1 0.27 0.936 7 3-7-1 0.05 0.968
4 8 4-8-1 0.16 0.937 9 4-9-1 0.345 0.939 9 4-9-1 0.033 0.968
93
1 2 1-2-1 0.229 0.93 2 1-2-1 0.147 0.954 2 1-2-1 0.088 0.957
2 4 2-4-1 0.206 0.941 5 2-5-1 0.184 0.955 5 2-5-1 0.057 0.964
3 6 3-6-1 0.187 0.919 6 3-6-1 0.16 0.958 7 3-7-1 0.048 0.971
4 8 4-8-1 0.239 0.915 9 4-9-1 0.16 0.953 9 4-9-1 0.021 0.98
94
1 2 1-2-1 0.215 0.898 2 1-2-1 0.155 0.955 2 1-2-1 0.085 0.957
2 4 2-4-1 0.391 0.85 5 2-5-1 0.198 0.95 5 2-5-1 0.07 0.962
3 6 3-6-1 0.204 0.919 6 3-6-1 0.206 0.944 7 3-7-1 0.043 0.968
4 8 4-8-1 0.206 0.925 9 4-9-1 0.296 0.926 9 4-9-1 0.019 0.977
95 1 2 1-2-1 0.145 0.914 2 1-2-1 0.132 0.955 2 1-2-1 0.08 0.956
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 80
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
95
2 4 2-4-1 0.175 0.936 5 2-5-1 0.208 0.949 5 2-5-1 0.065 0.964
3 6 3-6-1 0.2 0.919 6 3-6-1 0.328 0.93 7 3-7-1 0.034 0.97
4 8 4-8-1 0.218 0.918 9 4-9-1 0.214 0.94 9 4-9-1 0.015 0.977
96
1 2 1-2-1 0.204 0.91 2 1-2-1 0.107 0.954 2 1-2-1 0.075 0.957
2 4 2-4-1 0.178 0.933 5 2-5-1 0.244 0.936 5 2-5-1 0.065 0.964
3 6 3-6-1 0.246 0.892 6 3-6-1 0.268 0.921 7 3-7-1 0.043 0.968
4 8 4-8-1 0.242 0.902 9 4-9-1 0.413 0.921 9 4-9-1 0.013 0.975
97
1 2 1-2-1 0.189 0.936 2 1-2-1 0.12 0.957 2 1-2-1 0.083 0.958
2 4 2-4-1 0.22 0.899 5 2-5-1 0.127 0.955 5 2-5-1 0.067 0.962
3 6 3-6-1 0.311 0.833 6 3-6-1 0.196 0.948 7 3-7-1 0.049 0.97
4 8 4-8-1 0.174 0.929 9 4-9-1 0.253 0.916 9 4-9-1 0.026 0.98
98
1 2 1-2-1 0.162 0.94 2 1-2-1 0.142 0.956 2 1-2-1 0.08 0.955
2 4 2-4-1 0.167 0.929 5 2-5-1 0.197 0.949 5 2-5-1 0.066 0.963
3 6 3-6-1 0.239 0.923 6 3-6-1 0.198 0.949 7 3-7-1 0.034 0.973
4 8 4-8-1 0.169 0.944 9 4-9-1 0.254 0.948 9 4-9-1 0.015 0.976
99
1 2 1-2-1 0.147 0.938 2 1-2-1 0.145 0.954 2 1-2-1 0.082 0.958
2 4 2-4-1 0.165 0.926 5 2-5-1 0.249 0.927 5 2-5-1 0.058 0.966
3 6 3-6-1 0.172 0.935 6 3-6-1 0.186 0.948 7 3-7-1 0.041 0.975
4 8 4-8-1 0.211 0.927 9 4-9-1 0.22 0.932 9 4-9-1 0.025 0.975
100 1 2 1-2-1 0.188 0.935 2 1-2-1 0.113 0.955 2 1-2-1 0.081 0.96
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 81
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
102 3 6 3-6-1 0.163 0.929 6 3-6-1 0.123 0.958 7 3-7-1 0.036 0.971
4 8 4-8-1 0.332 0.904 9 4-9-1 0.221 0.954 9 4-9-1 0.012 0.97
101
1 2 1-2-1 0.19 0.927 2 1-2-1 0.127 0.953 2 1-2-1 0.084 0.957
2 4 2-4-1 0.4 0.89 5 2-5-1 0.158 0.948 5 2-5-1 0.06 0.965
3 6 3-6-1 0.142 0.94 6 3-6-1 0.261 0.942 7 3-7-1 0.038 0.968
4 8 4-8-1 0.217 0.899 9 4-9-1 0.359 0.942 9 4-9-1 0.013 0.972
102
1 2 1-2-1 0.212 0.938 2 1-2-1 0.141 0.955 2 1-2-1 0.083 0.956
2 4 2-4-1 0.148 0.945 5 2-5-1 0.153 0.951 5 2-5-1 0.058 0.963
3 6 3-6-1 0.183 0.906 6 3-6-1 0.177 0.953 7 3-7-1 0.026 0.974
4 8 4-8-1 0.128 0.925 9 4-9-1 0.194 0.954 9 4-9-1 0.012 0.983
103
1 2 1-2-1 0.158 0.926 2 1-2-1 0.131 0.951 2 1-2-1 0.087 0.955
2 4 2-4-1 0.227 0.923 5 2-5-1 0.145 0.951 5 2-5-1 0.05 0.966
3 6 3-6-1 0.203 0.939 6 3-6-1 0.183 0.94 7 3-7-1 0.043 0.968
4 8 4-8-1 0.151 0.924 9 4-9-1 0.288 0.913 9 4-9-1 0.012 0.978
104
1 2 1-2-1 0.176 0.937 2 1-2-1 0.155 0.953 2 1-2-1 0.08 0.952
2 4 2-4-1 0.177 0.921 5 2-5-1 0.21 0.95 5 2-5-1 0.064 0.963
3 6 3-6-1 0.183 0.921 6 3-6-1 0.197 0.939 7 3-7-1 0.043 0.973
4 8 4-8-1 0.227 0.921 9 4-9-1 0.303 0.932 9 4-9-1 0.012 0.976
105
1 2 1-2-1 0.308 0.891 2 1-2-1 0.134 0.954 2 1-2-1 0.084 0.956
2 4 2-4-1 0.215 0.925 5 2-5-1 0.189 0.947 5 2-5-1 0.071 0.963
3 6 3-6-1 0.199 0.922 6 3-6-1 0.29 0.926 7 3-7-1 0.035 0.973
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 82
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
105 4 8 4-8-1 0.242 0.901 9 4-9-1 0.249 0.941 9 4-9-1 0.011 0.979
106
1 2 1-2-1 0.18 0.94 2 1-2-1 0.115 0.956 2 1-2-1 0.083 0.955
2 4 2-4-1 0.205 0.863 5 2-5-1 0.2 0.953 5 2-5-1 0.053 0.967
3 6 3-6-1 0.238 0.912 6 3-6-1 0.16 0.948 7 3-7-1 0.044 0.973
4 8 4-8-1 0.166 0.935 9 4-9-1 0.19 0.95 9 4-9-1 0.0064 0.977
107
1 2 1-2-1 0.179 0.915 2 1-2-1 0.18 0.953 2 1-2-1 0.074 0.956
2 4 2-4-1 0.272 0.86 5 2-5-1 0.156 0.948 5 2-5-1 0.056 0.965
3 6 3-6-1 0.192 0.905 6 3-6-1 0.131 0.923 7 3-7-1 0.036 0.976
4 8 4-8-1 0.188 948 9 4-9-1 0.193 0.948 9 4-9-1 0.014 0.981
108
1 2 1-2-1 0.216 0.937 2 1-2-1 0.196 0.954 2 1-2-1 0.084 0.957
2 4 2-4-1 0.182 0.911 5 2-5-1 0.195 0.946 5 2-5-1 0.062 0.963
3 6 3-6-1 0.234 0.921 6 3-6-1 0.187 0.948 7 3-7-1 0.03 0.971
4 8 4-8-1 0.237 0.924 9 4-9-1 0.313 0.915 9 4-9-1 0.015 0.98
109
1 2 1-2-1 0.203 0.924 2 1-2-1 0.153 0.955 2 1-2-1 0.083 0.957
2 4 2-4-1 0.208 0.918 5 2-5-1 0.145 0.956 5 2-5-1 0.067 0.962
3 6 3-6-1 0.213 0.925 6 3-6-1 0.145 0.956 7 3-7-1 0.041 0.973
4 8 4-8-1 0.204 0.925 9 4-9-1 0.314 0.873 9 4-9-1 0.023 0.971
110
1 2 1-2-1 0.314 0.875 2 1-2-1 0.194 0.948 2 1-2-1 0.081 0.957
2 4 2-4-1 0.213 0.938 5 2-5-1 0.2 0.948 5 2-5-1 0.062 0.963
3 6 3-6-1 0.247 0.892 6 3-6-1 0.14 0.958 7 3-7-1 0.034 0.975
4 8 4-8-1 0.187 0.94 9 4-9-1 0.227 0.915 9 4-9-1 0.013 0.974
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 83
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
111
1 2 1-2-1 0.171 0.939 2 1-2-1 0.169 0.954 2 1-2-1 0.08 0.955
2 4 2-4-1 0.22 0.919 5 2-5-1 0.195 0.952 5 2-5-1 0.06 0.966
3 6 3-6-1 0.164 0.94 6 3-6-1 0.15 0.955 7 3-7-1 0.052 0.966
4 8 4-8-1 0.159 0.941 9 4-9-1 0.217 0.931 9 4-9-1 0.011 0.981
112
1 2 1-2-1 0.195 0.943 2 1-2-1 0.137 0.955 2 1-2-1 0.083 0.957
2 4 2-4-1 0.166 0.931 5 2-5-1 0.156 0.952 5 2-5-1 0.058 0.963
3 6 3-6-1 0.161 0.948 6 3-6-1 0.215 0.951 7 3-7-1 0.032 0.974
4 8 4-8-1 0.166 0.934 9 4-9-1 0.143 0.958 9 4-9-1 0.01 0.981
113
1 2 1-2-1 0.19 0.909 2 1-2-1 0.2 0.953 2 1-2-1 0.08 0.957
2 4 2-4-1 0.276 0.898 5 2-5-1 0.247 0.939 5 2-5-1 0.063 0.963
3 6 3-6-1 0.225 0.92 6 3-6-1 0.21 0.95 7 3-7-1 0.034 0.973
4 8 4-8-1 0.188 0.941 9 4-9-1 0.31 0.871 9 4-9-1 0.006 0.982
114
1 2 1-2-1 0.164 0.939 2 1-2-1 0.128 0.957 2 1-2-1 0.081 0.958
2 4 2-4-1 0.152 0.934 5 2-5-1 0.275 0.943 5 2-5-1 0.053 0.966
3 6 3-6-1 0.276 0.91 6 3-6-1 0.292 0.919 7 3-7-1 0.032 0.973
4 8 4-8-1 0.248 0.932 9 4-9-1 0.267 0.923 9 4-9-1 0.013 0.977
115
1 2 1-2-1 0.223 0.94 2 1-2-1 0.186 0.956 2 1-2-1 0.071 0.956
2 4 2-4-1 0.359 0.884 5 2-5-1 0.155 0.956 5 2-5-1 0.055 0.961
3 6 3-6-1 0.228 0.929 6 3-6-1 0.384 0.89 7 3-7-1 0.03 0.974
4 8 4-8-1 0.184 0.915 9 4-9-1 0.203 0.942 9 4-9-1 0.0054 0.98
116 2 4 2-4-1 0.229 0.904 5 2-5-1 0.151 0.941 5 2-5-1 0.061 0.963
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 84
Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite et fin)
Décalage
Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architectur
e MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
117 3 6 3-6-1 0.244 0.9 6 3-6-1 0.219 0.948 7 3-7-1 0.029 0.971
4 8 4-8-1 0.152 0.944 9 4-9-1 0.304 0.904 9 4-9-1 0.0065 0.976
117
1 2 1-2-1 0.186 0.92 2 1-2-1 0.119 0.954 2 1-2-1 0.072 0.957
2 4 2-4-1 0.253 0.913 5 2-5-1 0.206 0.931 5 2-5-1 0.06 0.965
3 6 3-6-1 0.218 0.936 6 3-6-1 0.358 0.925 7 3-7-1 0.028 0.973
4 8 4-8-1 0.188 0.936 9 4-9-1 0.199 0.953 9 4-9-1 0.0032 0.976
118
1 2 1-2-1 0.227 0.919 2 1-2-1 0.143 0.954 2 1-2-1 0.068 0.957
2 4 2-4-1 0.144 0.914 5 2-5-1 0.203 0.948 5 2-5-1 0.058 0.968
3 6 3-6-1 0.231 0.872 6 3-6-1 0.236 0.946 7 3-7-1 0.037 0.973
4 8 4-8-1 0.315 0.894 9 4-9-1 0.226 0.947 9 4-9-1 0.018 0.981
119
1 2 1-2-1 0.147 0.936 2 1-2-1 0.117 0.952 2 1-2-1 0.078 0.957
2 4 2-4-1 0.268 0.907 5 2-5-1 0.144 0.938 5 2-5-1 0.051 0.965
3 6 3-6-1 0.255 0.899 6 3-6-1 0.295 0.934 7 3-7-1 0.03 0.971
4 8 4-8-1 0.165 0.936 9 4-9-1 0.26 0.931 9 4-9-1 0.0091 0.983
120
1 2 1-2-1 0.207 0.9 2 1-2-1 0.142 0.956 2 1-2-1 0.084 0.955
2 4 2-4-1 0.197 0.902 5 2-5-1 0.194 0.952 5 2-5-1 0.053 0.966
3 6 3-6-1 0.211 0.894 6 3-6-1 0.144 0.945 7 3-7-1 0.034 0.974
4 8 4-8-1 0.185 0.911 9 4-9-1 0.376 0.905 9 4-9-1 0.003 0.98
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 85
Ci-après, les Figures (IV.4-IV.5) montrent la comparaison des données observées avec les
algorithmes Scaled Conjugate Gradient, Levenberg-Marquardt et Bayesian Regularization
dans la période de prévision de 120 mois (10 ans).
(a)
(b)
(c)
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0 20 40 60 80 100 120
MSE
Temps (mois)
Scaled Conjugate Gradient
0
0.1
0.2
0.3
0.4
0.5
0 20 40 60 80 100 120
MSE
temps (mois)
Levenberg-Marquardt
0
0.05
0.1
0.15
0.2
0 20 40 60 80 100 120
MSE
Temps (mois)
Bayesian Regularization
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 86
Figue IV.4: Les résultats de l’erreur moyenne quadratique (MSE) obtenus dans la plaine de
Metidja en fonction de nombre de mois de décalage (prévision à l’avance de 120 mois) en
utilisant les trois algorithmes : (a) Scaled Conjugate Gradient algorithme ; (b)
Levenberg-Marquardt algorithme et (c) Bayesian Regularization algorithme.
Plaine de Haute Chelif :
(a)
(b)
(c)
0 0.05
0.1 0.15
0.2 0.25
0.3 0.35
0.4 0.45
0 20 40 60 80 100 120
MSE
Temps (mois)
Scaled Conjugate Gradient
0
0.1
0.2
0.3
0.4
0.5
0 20 40 60 80 100 120
MSE
Temps (mois)
Levenberg-Marquardt
0
0.05
0.1
0.15
0.2
0.25
0 20 40 60 80 100 120
MSE
Temps (mois)
Bayesian Regularization
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 87
Figue IV.5 : Les résultats de l’erreur moyenne quadratique (MSE) obtenu dans la plaine de Haut
Chelif en fonction du nombre de mois de décalage (prévision à l’avance de 120 mois) en utilisant
les trois algorithmes : (a) Scaled Conjugate Gradient algorithme ; (b) Levenberg-Marquardt
algorithme et (c) Bayesian Regularization algorithme.
Figure IV.4. Progression de l’erreur de prévision (MSE) du modèle NAR avec l’architecture
(4-9-1) dans le cas d’une prévision de la sécheresse à l’avance de 120 mois.
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 88
Figure IV.5. Résultats de régression au carré R2 du modèle NAR avec l’architecture (4-9-1)
dans le cas d’une prévision de la sécheresse à l’avance de 120 mois.
IV.5.2. Discussion :
A partir des résultats de l’apprentissage (Tableaux IV.2 et annexe.1), on constate que;
Pour les deux stations (Metidja et Haute Chelif) ; le meilleur modèle NAR qui prévoit la
sécheresse avec les trois algorithmes et quatre conception est obtenu comme suit ; le modèle
RNA avec la conception 1 est meilleur dans le cas de l’algorithme Conjugate Gradient, la
conception 2 dans le cas de l’algorithme levenberg–marquardt et la conception 4 dans le cas de
l’algorithme Bayesian Regularization.
Le nombre optimal de neurones cachés (N) a été trouvé différent d'une station à une autre et
d’un algorithme à un autre. Dans le cas de l’algorithme Bayesian Regularization, le nombre de
neurone dans la couche cachée est en conformité avec la loi: 2n+1 pour les deux stations Metidja
et Haute Cheliff, où "n" est le nombre d'entrée.
Comme il ressort de Figures. (IV.4 – IV.5), bien que les algorithmes Scaled Conjugate
Gradient, Levenberg-Marquardt aient une meilleure performance en période de formation dans le
modèle de réseau neuronal artificiel autorégressif avec fonction d'activité sigmoïde, l’algorithme
Bayesian Regularization était mieux que les deux autre algorithmes (Scaled Conjugate Gradient,
Levenberg-Marquardt) dans la période prévision, en particulier les pics. L’objectif des
algorithmes utilisés était l’erreur de prévision (MSE) des indices SPI pour les deux stations
choisis.
Les valeurs du MSE pour la validation du modèle NAR de la meilleure conception (CF.
Tableaux IV.2 – Annexe.1) montrent que la meilleure optimisation est obtenue par l’algorithme
Bayesian Regularization. . Les valeurs du MSE varient de 0,18 à 0.003. La plus faible valeur a
été observée au niveau de la station Metidja. Les valeurs R2 obtenues lors de la validation
varient de 0,61 à 0,98.
Selon les Figures (IV.4–IV.5), pour les deux algorithmes Scaled Conjugate Gradient et
Levenberg-Marquardt, les valeurs minimales de MSE ont été estimés mieux au court de la
période de prévision de 3 jusqu'à 5 ans que ceux des autres périodes; pour l’algorithme Bayesian
Regularization, les valeurs minimales de MSE qui correspondent aux 5 dernières années ont été
estimées beaucoup mieux que ceux des premiers 5 ans, bien qu'il soit facile de sélectionner le
meilleur temps de prévision.
Selon les Figures (IV.4 –IV.5), le modèle neuronal autorégressif NAR avec l’algorithme de
Bayesian Regularization montre que les fluctuations de MSE diminuent au fur à mesure que le
décalage du temps augmente jusqu'à 10 ans, on remarque aussi que la précision de la prévision
CHAPITRE IV RESULTATS ET DISCUSSION
ENSH –SEPTEMBRE 2017 89
augmente (en particulier dans les pics), et donc on peut conclure que les prochaine 10 ans
pourraient être prévus par ce modèle.
Ce modèle peut être utilisé pour la planification et la gestion des ressources en eau. Son
utilisation est recommandée pour les régions voisines caractérisées par une disponibilité très
limitée des données de pluies mensuelles. En outre, ce modèle ne nécessite pas une
compréhension conceptuelle de la dynamique de la plaine et sa précision est affectée seulement
par les données d'entrée utilisées pour l'apprentissage du modèle.
CONCLUSION GENERALE
ENSH –SEPTEMBRE 2017 90
Conclusion générale L'objectif principal de ce travail portait plus particulièrement sur l’analyse et la prévision de la
sécheresse au sein de deux plaines représentatives, Metidja et Haute cheliff, du Nord-Ouest de
l’Algérie en utilisant la méthode de réseaux de neurones artificiel de type autorégressif.
Avant de s’intéresser à la construction du modèle neuronale pour la prévision de la sècheresse,
nous avons dressé un état de l’art du contexte géographique, géomorphologique et climatique de
deux plaines étudiées. Les données pluviométriques pour la période de 50 ans (1960-2010) ont été
recueillies à partir des stations pluviométriques réparties d’une manière plus au moins homogènes,
sur toute la zone d’étude et utilisées pour calculer l’indice de la sécheresse (SPI-12) qu’on va
l’utiliser par suite dans la conception du modèle neuronal. Ensuite, un aperçu théorique, sur les
modèles statistiques de prévision de la sécheresse qui ont été utilisées dans la littérature, a été
présenté. Dans le dernier chapitre, nous avons procédé à la construction et l’application du modèle
des réseaux neuronaux artificiels autorégressifs NAR. Durant la construction du modele NAR,
nous sommes intéressés au problème de la conception des prédicteurs neuronaux par les
algorithmes d’apprentissage. La difficulté de l’obtention de la structure de prédicteur neuronal (le
nombre de couches, les nombres de neurones par couche, la forme de la fonction d’activation
utilisée par couches, le nombre d’entrée de prédicteur, le retards), les paramètres de contrôle des
réseaux de neurones (paramètre d’apprentissage, paramètre d’inertie), et les intervalles initiaux des
poids synaptiques des couches cachées et de couche de sortie est en effet très pénalisante lors de
l’utilisation des réseaux de neurones. Le choix de ces paramètres est obligatoirement en fonction
des connaissances sur le comportement de la série temporelles et les capacités de l’utilisateur.
Ainsi, les performances de prévision sont en fonction de ces paramètres, ce qui rend les résultats
de prédiction très loin de l’optimum. Le but de ce travail est de concevoir un prédicteur neuronal
optimal qui peut prédire la future valeur d’une série temporelle avec des indicateurs de
performances très faible (MSE-R2).
Bien que les résultats obtenus soient satisfaisants quelque soit l’algorithme d’apprentissage en
terme d’erreur prévision, la méthode comme la plupart des méthodes proposées dans la littérature,
présente un inconvénient majeur c’est l’influence de nombre de données utilisées dans la phase
d’apprentissage sur la vitesse d’optimisation et aussi sur la qualité de prédiction (erreur de
prédiction). L’augmentation de nombre des données utilisées dans la phase d’apprentissage
améliore la qualité de prédiction et diminue la vitesse de prédiction.
Les résultats indiquent que, le modèle neuronal NAR avec; l’algorithme d’apprentissage
Bayesian Regularization (NAR_BR), une fonction d'activité appropriée était sigmoïde et
l’architecture (4-9-1) offre la meilleure performance en termes de prévision de la sécheresse.
REFERENCES BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 91
Références bibliographiques
Alley, W. M. (1984). The Palmer Drought Severity Index: Limitations and assumptions, J.Clim.
Appl. Meteorol., 23, 1100-1109.
Baker J.E. (1985). “Adaptive selection Methods for Genetic Algorithm”, Proceedings of the
First International Conference on Genetic Algorithms, pp.101-111.
Balaguer, E., Palomares, A., Sorie, E., Martin-Guerrero, J.D. (2008). Predicting service request
in support centers based on nonlinear dynamics, ARMA modeling and neural networks. Expert
Syst. Appl. 34, 665–672.
Bollerslev, T. (1986). Generalized autoregressive conditional heteroskedasticity. Journal of
econometrics, 31(3), 307-327.
Box G.E.P., Jenkins G.M. (1976). Time Series Analysis, Forecasting and Control, Holden Day,
San Francisco.
Burns, R.S. (2001). Advanced Control Engineering. butterworth heinemann ed.
Cancelliere, A., Di Mauro, G., Bonaccorso, B., Rossi, G. (2007). Drought forecasting using the
Standardized Precipitation Index. Water Resources Management, 21(5): 801-819
Chakraborty, K, K Mehrotra, C.K Mohan et S. Ranka (1992). Forecasting the Behavior of
Multivariate Time Series Using Neural Networks. Neural Networks, 5: 961-970.
Cubero, RG. (1991). Neural Networks for Water Demand Time Series Forecasting. In:Artificial
Neural Networks, Proceedings ofthe International Workshop IWANN'91, A. Prieto éd., Springer-
Verlag, Germany, 453-460
Ellouza Et Abida (2008). Caractérisation de la sècheresse au sud Tunisien, 13
World Water
Congress, Montpellier, France, 14 p.
Engle, R.F. (1982). Autoregressive conditional heteroscedasticity with estimates of the variance of
United Kingdom inflation. Econometrica: Journal of the Econometric Society, 987-1007.
REFERENCES BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 92
Foresee, F.D. and Hagan, M.T. (1997). Gauss-Newton Approximation to Bayesian Regularization.
Proceedings of the 1997 International Joint Conference on Neural
Networks, pp. 1930-1935,
French, M"N., W.F. Krajewski et R.R. Cuykendall. (1992). Rainfall forecasting in space and
time using a, neural network. Journal ofHydrology, 131: 1-31.
Gallager, R.G. (2013). Stochastic processes: theory for applications. Cambridge University Press.
GIEC, (2007). Bilan 2007 des changements climatiques, (OMM), Genève, Suisse.
Guttman N.B. (1994). On the sensitivity of sample L moments to sample size. Journal of Climate,
pp 1026–1029.
Guttman, N.B. (1998): Comparing the Palmer drought index and the Standardized Precipitation
Index.
Guy Melard (1990). Méthodes de prévision à court terme. Editions de l'Université de
Bruxelles, Avenue Paul Héger, 26 - 1050 Bruxelles (Belgique).
Haykin, S. (1999). Neural Networks, A Comprehensive Foundation. Prentice Hall.
Hsu, K.-l., V. Gupta et S. Sorooshian (1995). Artificial neural network modeling ofthe rainfall
runoff process. Water Resources Research, 31(10): 2517-2530.
J.J. Holland (1992). Adaptation in Natural and artificial systems (second edition), M.I.T Press,
Cambridge
Karamouz, M., Araghinejad, Sh. (2012). Advance Hydrology. Amirkabir University of
Technology Press.
Karunanithi, N. et al. (1994). Neural networks for river flow prediction, Journal ofcomputing in
civil engineering, 8 (201).
Keyantash, J. and Dracup, J. A. (2002). The quantification of drought: An evaluation of drought
indices, B. Am. Meteorol. Soc., 83, 1167–1180.
REFERENCES BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 93
Kisi, I., Cigizoglu, K. (2005). Reservoir management using artificial neural networks. In: 14th. Reg.
Directorate of DSI (State Hydraulic Works), Istanbul, Turkey.
Labedzki L. (2007). Estimation of local drought frequency in central Poland using the standardized
precipitation index (SPI). Irrig. And Drain. 56: 67-77.
Lapedes, A. et R. Farber (1987). Nonlinear signal processing using neural networks: Prediction
and Modeling. Technical Report, LA-UR87-2662, Los Alamos National Laboratory, Los
Alamos, New Mexico.
M.T. Dastorani; H. Afkhami. Application of artificial neural networks on drought prediction in
Yazd (Central IRAN) Volume 16, Issue 1, Summer and Autumn 2011, Page 39-48
MacKay, D.J.C. (1992). A Practical Bayesian Framework for Backpropagation Networks. Neural
Computation, Vol. 4(3), pp. 448-472.
Maier, H.R. et G.C. Dandy (1996). The use pf artificial neural network for the prediction of water
quality parameters. Water Resources Research, 32(4): 1013-1022.
McCulloch, W.S. et W. Pitts (1943). A Logical Calculus ofthe Ideas Imminent in Nervous
Activity. Bulletin of Mathematical Biophysics, 5: 115-133.
Mckee T.B., Doesken N.J. Et Kleist J. (1993). The relationship of drought frequency and duration
to time scales. American Meteorological Society, 8th
Conference on applied climatology,
January 17th
-22nd
, Anaheim, CA, pp 179-184.
Mckee (1995). Drought monitoring with multiple timescales. In: Proceedings of the Ninth
Conference on Applied Climatology, Dallas, Texas, Boston American Meteorological Society, pp
233–236.
Meddi H., Meddi M. (2009). Variabilité des précipitations annuelles du Nord-Ouest de
l’Algérie. Sécheresse 20: 57-65.
Meddi H., Meddi M., Assani A. (2013). Study of Drought in Seven Algerian Plains. Arabian
Journal For Science And Engineering 39(1): 339-359 ·
REFERENCES BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 94
Mitchell, 1997. Mitchell, T.M. (1997). Machine Learning, volume 4 de McGraw-Hill Series in
Computer Science. McGraw-Hill multi-scalar drought index sensitive to global warming: the
Standardized Precipitation Evapotranspiration Index – SPEI. Journal of Climate, pp 1696–1718,
Nilsson, N. J. (2004). Introduction to Machine Learning, volume 56. The MIT Press.
OMM, (1994). Organisation Météorologique Mondiale « guide des pratiques hydrologiques
(acquisition et traitement des données, analyses, prévision et autres applications )» ,cinquiéme
édition 1994, WMO-N 168, 793 p.
OMM, (2006). Organisation Météorologique Mondiale. Suivi de la sécheresse et alerte précoce:
principes, progrès et enjeux futurs, OMM-N°1006, Genève Suisse, 26 p.
OMM, (2012). Guide d’utilisation de l’indice de précipitations normalisé, OMM-N° 1090, 25p.
OSS, (2008). Projet de Mise en place d’un Système d’Alerte précoce à la Sécheresse dans trois pays
de la rive Sud de la Méditerranée: Algérie, Maroc, et Tunisie, 38 p.
OSS, (2009). Observatoire du Sahara et du Sahel. Vers un système d'alerte précoce à la sécheresse
au Maghreb, Observatoire du Sahel et du Sahara. Collection Synthèse N° 4. OSS, Tunis. 84p.
Palmer, W.C. (1965). MeteorologicalDrought, Weather Bureau, Research Paper, 45, U.S. Dept. of
Commerce, Washington, DC, 58 pp.
Prabhu, N.U. (2007). Stochastic processes: basic theory and its applications. World scientific.
Refenes, AN., A Zapranis et G. Francis (1994). Stock Performance Modeling Using Neural
Networks: A Comparative Study With Regression Models. Neural Networks, 7(2): 375-388.
Rumelhart, D.E. et J. L. McClelland (1986). Parallel Distributed Processing: Explorations in the
Microstructure of Cognition. Vol. 1. M.I.T. Press.
S. Weigend and N. A. Gershenfeld, editors. (1993). Time series prediction : Forecasting the future
and understanding the past. Addison Wesley.
REFERENCES BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 95
Sakakima, S., T. Kojiri et K. Itoh (1992). Real-Time Reservoir Operation with Neural Nets
Concept. In: Applications ofArtificiallntelligence in Engineering VII, Computational
Mechanics Publications, Southampton, pp. 502-514.
Salas, J.D., J.W. Delleur, V. Yevjevich et W.L. Lane (1988). AppliedModeling of Hydrologic
Time Series. Water Resources Publication, Littleton, Colorado.
Sastry, P.S., G. Santharam et K.P. Unnikrishnan (1994). Memory neuron networks for
identification and control of dynamical systems. IEEE Transactions on Neural Networks (2),
306–319.
Smith, J. et R.N. Eli (1995). Neural networks models ofrainfall-runoffprocess, Journal of water
resource. Plann. & Manage., 121(56).
SOGREAH (1984). Etude hydrologique et hydrogéologique du périmètre du Haut Cheliff
Toth, E., Brath, A., Montanari, A. (2000). Comparison of short-term rainfall predication models
for real-time flood forecasting. J. Hydrol. 239, 132–147.
UNCCD, (2000). United Nations Convention to Combat Desertification (2000): Conférence des
parties. Comitéde la science et de la technologie, Rapport du Groupe GE.00-64137, Quatrième
session Bonn.
Valipour, M. (2012). Critical areas of Iran for agriculture water management according to the
annual rainfall. Eur. J. Sci. Res. 84 (4), 600–608.
Williams, R.J. (1990). Adaptive Sate Representation and Estimation using Recurrent
Connectionist Networks. In: Neural Networksfor Control, W.T. Moller, R.S. Sutton et P.J.
Werbos Eds, MIT Press, Cambridge.
Wang W., Ding J. (2003). «Wavelet Network Model and Its Application to the Prediction of
Hydrology» .Nature and Science, Vol. 1, No 1, p. 67-71, 2003.
Yue, Z., Songzheng, Z., Tianshi, L. (2011). "Bayesian regularization BP Neural Network
model for predicting oil-gas drilling cost," Business Management and Electronic
REFERENCES BIBLIOGRAPHIQUE
ENSH –SEPTEMBRE 2017 96
Information (BMEI), 2011 International Conference on , vol.2, no., pp.483,487,
13-15 May 2011.
Zeroual A., Meddi M., Assani A. (2016). Artificial Neural Network Rainfall-Discharge Model
Assessment Under Rating Curve Uncertainty and Monthly Discharge Volume Predictions. Water
Resources Management 30 (9).
Zeroual A., Assani A., Meddi M. (2017). Combined analysis of temperature and rainfall
variability as they relate to climate indices in Northern Algeria over the 1972–2013 period.
Hydrology Research 48 (2), 584-595.
Zhang, E.Y. et P. Trimble (1996). Forecasting water availability by applying neural networks with
global and solar indices. Proceedings ofthe sixteenth annual American Geophysical Union
Hydrology Days. H. J. Morel-Seytoux Ed., Hydrology Days Publications, pp. 559-570.
ANNEXES
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones
dans la
couche cachée
Architecture MSE R2
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
1
1 2 1-2-1 0.134 0.908 2 1-2-1 0.165 0.906 2 1-2-1 0.182 0.908
2 4 2-4-1 0.18 0.908 5 2-5-1 0.163 0.903 5 2-5-1 0.181 0.909
3 6 3-6-1 0.238 0.905 6 3-6-1 0.196 0.904 7 3-7-1 0.184 0.908
4 8 4-8-1 0.199 0.909 9 4-9-1 0.189 0.902 9 4-9-1 0.173 0.908
2
1 2 1-2-1 0.223 0.908 2 1-2-1 0.163 0.905 2 1-2-1 0.17 0.908
2 4 2-4-1 0.169 0.908 5 2-5-1 0.1835 0.907 5 2-5-1 0.185 0.908
3 6 3-6-1 0.193 0.909 6 3-6-1 0.184 0.901 7 3-7-1 0.177 0.908
4 8 4-8-1 0.231 0.904 9 4-9-1 0.148 0.903 9 4-9-1 0.167 0.908
3
1 2 1-2-1 0.13 0.908 2 1-2-1 0.159 0.905 2 1-2-1 0.184 0.908
2 4 2-4-1 0.185 0.908 5 2-5-1 0.196 0.893 5 2-5-1 0.164 0.908
3 6 3-6-1 0.185 0.908 6 3-6-1 0.132 0.901 7 3-7-1 0.175 0.909
4 8 4-8-1 0.173 0.91 9 4-9-1 0.24 0.871 9 4-9-1 0.17 0.908
4
1 2 1-2-1 0.153 0.908 2 1-2-1 0.192 0.901 2 1-2-1 0.166 0.908
2 4 2-4-1 0.207 0.909 5 2-5-1 0.254 0.877 5 2-5-1 0.16 0.909
3 6 3-6-1 0.142 0.909 6 3-6-1 0.228 0.885 7 3-7-1 0.176 0.909
4 8 4-8-1 0.19 0.908 9 4-9-1 0.195 0.901 9 4-9-1 0.177 0.909
5
1 2 1-2-1 0.172 0.909 2 1-2-1 0.221 0.886 2 1-2-1 0.171 0.909
2 4 2-4-1 0.168 0.909 5 2-5-1 0.163 0.896 5 2-5-1 0.167 0.911
3 6 3-6-1 0.107 0.908 6 3-6-1 0.23 0.853 7 3-7-1 0.162 0.91
4 8 4-8-1 0.231 0.912 9 4-9-1 0.221 0.879 9 4-9-1 0.162 0.91
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception des
entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre de
neurones dans
la couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
6
2 4 2-4-1 0.188 0.91 5 2-5-1 0.185 0.899 5 2-5-1 0.164 0.91
3 6 3-6-1 0.169 0.91 6 3-6-1 0.177 0.897 7 3-7-1 0.158 0.91
4 8 4-8-1 0.177 0.908 9 4-9-1 0.219 0.894 9 4-9-1 0.166 0.91
7
1 2 1-2-1 0.171 0.908 2 1-2-1 0.166 0.906 2 1-2-1 0.175 0.909
2 4 2-4-1 0.176 0.908 5 2-5-1 0.166 0.906 5 2-5-1 0.162 0.91
3 6 3-6-1 0.192 0.906 6 3-6-1 0.16 0.872 7 3-7-1 0.171 0.911
4 8 4-8-1 0.194 0.911 9 4-9-1 0.19 0.866 9 4-9-1 0.172 0.911
8
1 2 1-2-1 0.187 0.909 2 1-2-1 0.178 0.902 2 1-2-1 0.165 0.91
2 4 2-4-1 0.181 0.91 5 2-5-1 0.155 0.887 5 2-5-1 0.162 0.911
3 6 3-6-1 0.14 0.911 6 3-6-1 0.187 0.897 7 3-7-1 0.165 0.911
4 8 4-8-1 0.247 0.906 9 4-9-1 0.236 0.865 9 4-9-1 0.161 0.911
9
1 2 1-2-1 0.158 0.911 2 1-2-1 0.14 0.901 2 1-2-1 0.165 0.912
2 4 2-4-1 0.147 0.912 5 2-5-1 0.16 0.895 5 2-5-1 0.161 0.915
3 6 3-6-1 0.168 0.916 6 3-6-1 0.263 0.901 7 3-7-1 0.161 0.915
4 8 4-8-1 0.21 0.915 9 4-9-1 0.158 0.911 9 4-9-1 0.157 0.915
10
1 2 1-2-1 0.172 0.912 2 1-2-1 0.117 0.91 2 1-2-1 0.166 0.912
2 4 2-4-1 0.145 0.916 5 2-5-1 0.137 0.913 5 2-5-1 0.151 0.914
3 6 3-6-1 0.199 0.911 6 3-6-1 0.199 0.902 7 3-7-1 0.166 0.914
4 8 4-8-1 0.195 0.913 9 4-9-1 0.188 0.904 9 4-9-1 0.145 0.918
11 1 2 1-2-1 0.226 0.915 2 1-2-1 0.144 0.907 2 1-2-1 0.162 0.913
2 4 2-4-1 0.181 0.915 5 2-5-1 0.294 0.875 5 2-5-1 0.153 0.914
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
22 3 6 3-6-1 0.121 0.936 6 3-6-1 0.243 0.894 7 3-7-1 0.105 0.941
4 8 4-8-1 0.13 0.936 9 4-9-1 0.266 0.9 9 4-9-1 0.083 0.944
23
1 2 1-2-1 0.132 0.935 2 1-2-1 0.151 0.924 2 1-2-1 0.118 0.937
2 4 2-4-1 0.139 0.937 5 2-5-1 0.096 0.926 5 2-5-1 0.116 0.939
3 6 3-6-1 0.117 0.939 6 3-6-1 0.154 0.928 7 3-7-1 0.102 0.939
4 8 4-8-1 0.118 0.936 9 4-9-1 0.187 0.924 9 4-9-1 0.085 0.949
24
1 2 1-2-1 0.138 0.938 2 1-2-1 0.202 0.883 2 1-2-1 0.115 0.938
2 4 2-4-1 0.119 0.939 5 2-5-1 0.138 0.928 5 2-5-1 0.11 0.94
3 6 3-6-1 0.136 0.937 6 3-6-1 0.195 0.922 7 3-7-1 0.104 0.94
4 8 4-8-1 0.132 0.937 9 4-9-1 0.178 0.923 9 4-9-1 0.083 0.949
25
1 2 1-2-1 0.11 0.942 2 1-2-1 0.117 0.919 2 1-2-1 0.104 0.943
2 4 2-4-1 0.142 0.94 5 2-5-1 0.154 0.891 5 2-5-1 0.098 0.945
3 6 3-6-1 0.129 0.943 6 3-6-1 0.098 0.937 7 3-7-1 0.097 0.947
4 8 4-8-1 0.174 0.942 9 4-9-1 0.168 0.924 9 4-9-1 0.068 0.953
26
1 2 1-2-1 0.102 0.943 2 1-2-1 0.092 0.932 2 1-2-1 0.108 0.943
2 4 2-4-1 0.085 0.943 5 2-5-1 0.173 0.917 5 2-5-1 0.093 0.947
3 6 3-6-1 0.152 0.947 6 3-6-1 0.166 0.91 7 3-7-1 0.075 0.955
4 8 4-8-1 0.14 0.939 9 4-9-1 0.136 0.925 9 4-9-1 0.065 0.955
27
1 2 1-2-1 0.083 0.942 2 1-2-1 0.14 0.912 2 1-2-1 0.098 0.943
2 4 2-4-1 0.131 0.942 5 2-5-1 0.17 0.913 5 2-5-1 0.095 0.946
3 6 3-6-1 0.126 0.944 6 3-6-1 0.142 0.93 7 3-7-1 0.096 0.948
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
27 4 8 4-8-1 0.153 0.947 9 4-9-1 0.25 0.909 9 4-9-1 0.081 0.952
28
1 2 1-2-1 0.084 0.944 2 1-2-1 0.131 0.94 2 1-2-1 0.111 0.944
2 4 2-4-1 0.1 0.946 5 2-5-1 0.088 0.94 5 2-5-1 0.095 0.947
3 6 3-6-1 0.205 0.939 6 3-6-1 0.098 0.926 7 3-7-1 0.093 0.947
4 8 4-8-1 0.146 0.943 9 4-9-1 0.124 0.938 9 4-9-1 0.081 0.953
29
1 2 1-2-1 0.07 0.945 2 1-2-1 0.144 0.9926 2 1-2-1 0.108 0.946
2 4 2-4-1 0.156 0.994 5 2-5-1 0.276 0.9 5 2-5-1 0.088 0.949
3 6 3-6-1 0.107 0.946 6 3-6-1 0.123 0.933 7 3-7-1 0.085 0.951
4 8 4-8-1 0.189 0.946 9 4-9-1 0.123 0.933 9 4-9-1 0.071 0.956
30
1 2 1-2-1 0.118 0.944 2 1-2-1 0.178 0.912 2 1-2-1 0.101 0.946
2 4 2-4-1 0.124 0.945 5 2-5-1 0.194 0.617 5 2-5-1 0.103 0.949
3 6 3-6-1 0.221 0.944 6 3-6-1 0.152 0.902 7 3-7-1 0.071 0.952
4 8 4-8-1 0.15 0.944 9 4-9-1 0.109 0.924 9 4-9-1 0.058 0.958
31
1 2 1-2-1 0.089 0.945 2 1-2-1 0.084 0.943 2 1-2-1 0.106 0.946
2 4 2-4-1 0.125 0.946 5 2-5-1 0.136 0.927 5 2-5-1 0.095 0.95
3 6 3-6-1 0.197 0.944 6 3-6-1 0.113 0.932 7 3-7-1 0.074 0.955
4 8 4-8-1 0.117 0.946 9 4-9-1 0.208 0.893 9 4-9-1 0.074 0.959
32
1 2 1-2-1 0.146 0.946 2 1-2-1 0.112 0.944 2 1-2-1 0.094 0.946
2 4 2-4-1 0.132 0.943 5 2-5-1 0.188 0.887 5 2-5-1 0.088 0.949
3 6 3-6-1 0.16 0.944 6 3-6-1 0.155 0.925 7 3-7-1 0.066 0.956
4 8 4-8-1 0.173 0.913 9 4-9-1 0.136 0.944 9 4-9-1 0.075 0.957
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Nombre de
neurones
dans la
couche
cachée
Architecture MSE
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
33
1 2 1-2-1 0.121 0.942 2 1-2-1 0.133 0.92 2 1-2-1 0.101 0.947
2 4 2-4-1 0.123 0.946 5 2-5-1 0.168 0.939 5 2-5-1 0.092 0.949
3 6 3-6-1 0.087 0.946 6 3-6-1 0.19 0.89 7 3-7-1 0.075 0.955
4 8 4-8-1 0.139 0.945 9 4-9-1 0.118 0.939 9 4-9-1 0.071 0.956
34
1 2 1-2-1 0.156 0.946 2 1-2-1 0.118 0.933 2 1-2-1 0.101 0.947
2 4 2-4-1 0.115 0.945 5 2-5-1 0.113 0.947 5 2-5-1 0.092 0.95
3 6 3-6-1 0.229 0.938 6 3-6-1 0.102 0.944 7 3-7-1 0.078 0.955
4 8 4-8-1 0.069 0.947 9 4-9-1 0.161 0.915 9 4-9-1 0.059 0.955
35
1 2 1-2-1 0.12 0.946 2 1-2-1 0.122 0.938 2 1-2-1 0.092 0.947
2 4 2-4-1 0.214 0.936 5 2-5-1 0.234 0.919 5 2-5-1 0.09 0.95
3 6 3-6-1 0.122 0.945 6 3-6-1 0.129 0.907 7 3-7-1 0.07 0.958
4 8 4-8-1 0.138 0.945 9 4-9-1 0.183 0.936 9 4-9-1 0.078 0.957
36
1 2 1-2-1 0.117 0.945 2 1-2-1 0.135 0.895 2 1-2-1 0.099 0.946
2 4 2-4-1 0.093 0.946 5 2-5-1 0.24 0.873 5 2-5-1 0.099 0.951
3 6 3-6-1 0.196 0.947 6 3-6-1 0.186 0.945 7 3-7-1 0.064 0.95
4 8 4-8-1 0.211 0.948 9 4-9-1 0.219 0.904 9 4-9-1 0.068 0.959
37
1 2 1-2-1 0.114 0.948 2 1-2-1 0.061 0.94 2 1-2-1 0.102 0.951
2 4 2-4-1 0.169 0.948 5 2-5-1 0.29 0.908 5 2-5-1 0.09 0.954
3 6 3-6-1 0.105 0.951 6 3-6-1 0.137 0.94 7 3-7-1 0.079 0.961
4 8 4-8-1 0.167 0.942 9 4-9-1 0.222 0.901 9 4-9-1 0.065 0.964
38 1 2 1-2-1 0.132 0.949 2 1-2-1 0.163 0.919 2 1-2-1 0.093 0.95
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
38
2 4 2-4-1 0.149 0.952 5 2-5-1 0.108 0.927 5 2-5-1 0.088 0.953
3 6 3-6-1 0.152 0.947 6 3-6-1 0.141 0.946 7 3-7-1 0.074 0.959
4 8 4-8-1 0.109 0.953 9 4-9-1 0.191 0.928 9 4-9-1 0.07 0.959
39
1 2 1-2-1 0.11 0.948 2 1-2-1 0.13 0.935 2 1-2-1 0.09 0.95
2 4 2-4-1 0.122 0.95 5 2-5-1 0.189 0.909 5 2-5-1 0.091 0.954
3 6 3-6-1 0.134 0.947 6 3-6-1 0.091 0.936 7 3-7-1 0.067 0.958
4 8 4-8-1 0.156 0.957 9 4-9-1 0.145 0.938 9 4-9-1 0.065 0.964
40
1 2 1-2-1 0.131 0.949 2 1-2-1 0.226 0.857 2 1-2-1 0.086 0.95
2 4 2-4-1 0.067 0.949 5 2-5-1 0.241 0.913 5 2-5-1 0.085 0.953
3 6 3-6-1 0.111 0.953 6 3-6-1 0.131 0.896 7 3-7-1 0.068 0.961
4 8 4-8-1 0.142 0.922 9 4-9-1 0.129 0.945 9 4-9-1 0.056 0.965
41
1 2 1-2-1 0.124 0.95 2 1-2-1 0.073 0.943 2 1-2-1 0.086 0.95
2 4 2-4-1 0.142 0.95 5 2-5-1 0.134 0.931 5 2-5-1 0.091 0.954
3 6 3-6-1 0.139 0.952 6 3-6-1 0.313 0.874 7 3-7-1 0.069 0.962
4 8 4-8-1 0.151 0.95 9 4-9-1 0.116 0.919 9 4-9-1 0.054 0.965
42
1 2 1-2-1 0.087 0.95 2 1-2-1 0.121 0.936 2 1-2-1 0.092 0.951
2 4 2-4-1 0.098 0.949 5 2-5-1 0.16 0.93 5 2-5-1 0.089 0.954
3 6 3-6-1 0.162 0.947 6 3-6-1 0.17 0.933 7 3-7-1 0.068 0.96
4 8 4-8-1 0.199 0.932 9 4-9-1 0.177 0.911 9 4-9-1 0.058 0.962
43 1 2 1-2-1 0.15 0.947 2 1-2-1 0.089 0.945 2 1-2-1 0.087 0.95
2 4 2-4-1 0.126 0.954 5 2-5-1 0.146 0.937 5 2-5-1 0.082 0.953
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
43 3 6 3-6-1 0.108 0.949 6 3-6-1 0.173 0.944 7 3-7-1 0.061 0.961
4 8 4-8-1 0.174 0.95 9 4-9-1 0.217 0.908 9 4-9-1 0.053 0.964
44
1 2 1-2-1 0.205 0.926 2 1-2-1 0.228 0.895 2 1-2-1 0.094 0.95
2 4 2-4-1 0.088 0.949 5 2-5-1 0.137 0.918 5 2-5-1 0.087 0.954
3 6 3-6-1 0.152 0.936 6 3-6-1 0.15 0.904 7 3-7-1 0.073 0.961
4 8 4-8-1 0.157 0.945 9 4-9-1 0.144 0.912 9 4-9-1 0.06 0.966
45
1 2 1-2-1 0.104 0.95 2 1-2-1 0.151 0.938 2 1-2-1 0.094 0.951
2 4 2-4-1 0.142 0.943 5 2-5-1 0.186 0.897 5 2-5-1 0.083 0.953
3 6 3-6-1 0.118 0.54 6 3-6-1 0.078 0.941 7 3-7-1 0.072 0.958
4 8 4-8-1 0.178 0.944 9 4-9-1 0.132 0.92 9 4-9-1 0.046 0.968
46
1 2 1-2-1 0.135 0.948 2 1-2-1 0.181 0.92 2 1-2-1 0.088 0.951
2 4 2-4-1 0.118 0.947 5 2-5-1 0.202 0.867 5 2-5-1 0.079 0.955
3 6 3-6-1 0.112 0.95 6 3-6-1 0.192 0.915 7 3-7-1 0.072 0.957
4 8 4-8-1 0.097 0.95 9 4-9-1 0.205 0.923 9 4-9-1 0.065 0.963
47
1 2 1-2-1 0.12 0.95 2 1-2-1 0.163 0.927 2 1-2-1 0.097 0.952
2 4 2-4-1 0.139 0.946 5 2-5-1 0.16 0.915 5 2-5-1 0.086 0.955
3 6 3-6-1 0.147 0.936 6 3-6-1 0.151 0.919 7 3-7-1 0.069 0.959
4 8 4-8-1 0.128 0.951 9 4-9-1 0.204 0.869 9 4-9-1 0.054 0.967
48 1 2 1-2-1 0.121 0.95 2 1-2-1 0.204 0.903 2 1-2-1 0.088 0.95
2 4 2-4-1 0.13 0.954 5 2-5-1 0.145 0.941 5 2-5-1 0.088 0.955
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architectur
e MSE R2
Nombre de
neurones
dans la
couche
cachée
Architectur
e MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architectur
e MSE R2
48 3 6 3-6-1 0.136 0.955 6 3-6-1 0.158 0.948 7 3-7-1 0.07 0.957
4 8 4-8-1 0.265 0.925 9 4-9-1 0.13 0.939 9 4-9-1 0.049 0.966
49
1 2 1-2-1 0.265 0.925 2 1-2-1 0.104 0.942 2 1-2-1 0.04 0.97
2 4 2-4-1 0.119 0.952 5 2-5-1 0.207 0.903 5 2-5-1 0.079 0.956
3 6 3-6-1 0.141 0.949 6 3-6-1 0.113 0.93 7 3-7-1 0.066 0.961
4 8 4-8-1 0.219 0.944 9 4-9-1 0.178 0.925 9 4-9-1 0.046 0.965
50
1 2 1-2-1 0.127 0.952 2 1-2-1 0.115 0.934 2 1-2-1 0.089 0.954
2 4 2-4-1 0.128 0.951 5 2-5-1 0.195 0.92 5 2-5-1 0.075 0.956
3 6 3-6-1 0.141 0.947 6 3-6-1 0.229 0.905 7 3-7-1 0.068 0.959
4 8 4-8-1 0.17 0.937 9 4-9-1 0.135 0.936 9 4-9-1 0.057 0.964
51
1 2 1-2-1 0.101 0.952 2 1-2-1 0.132 0.943 2 1-2-1 0.088 0.954
2 4 2-4-1 0.118 0.952 5 2-5-1 0.159 0.922 5 2-5-1 0.08 0.957
3 6 3-6-1 0.245 0.941 6 3-6-1 0.143 0.928 7 3-7-1 0.059 0.965
4 8 4-8-1 0.144 0.942 9 4-9-1 0.144 0.92 9 4-9-1 0.047 0.968
52
1 2 1-2-1 0.114 0.948 2 1-2-1 0.239 0.892 2 1-2-1 0.08 0.953
2 4 2-4-1 0.101 0.952 5 2-5-1 0.128 0.946 5 2-5-1 0.086 0.957
3 6 3-6-1 0.172 0.946 6 3-6-1 0.171 0.948 7 3-7-1 0.067 0.962
4 8 4-8-1 0.091 0.947 9 4-9-1 0.226 0.862 9 4-9-1 0.039 0.967
53
1 2 1-2-1 0.151 0.937 2 1-2-1 0.202 0.928 2 1-2-1 0.086 0.954
2 4 2-4-1 0.162 0.953 5 2-5-1 0.291 0.845 5 2-5-1 0.077 0.956
3 6 3-6-1 0.156 0.949 6 3-6-1 0.132 0.937 7 3-7-1 0.063 0.96
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
53 4 8 4-8-1 0.146 0.941 9 4-9-1 0.153 0.939 9 4-9-1 0.041 0.97
54
1 2 1-2-1 0.117 0.953 2 1-2-1 0.127 0.945 2 1-2-1 0.087 0.954
2 4 2-4-1 0.133 0.955 5 2-5-1 0.277 0.845 5 2-5-1 0.08 0.959
3 6 3-6-1 0.16 0.951 6 3-6-1 0.195 0.942 7 3-7-1 0.066 0.63
4 8 4-8-1 0.154 0.955 9 4-9-1 0.138 0.922 9 4-9-1 0.032 0.973
55
1 2 1-2-1 0.116 0.948 2 1-2-1 0.134 0.909 2 1-2-1 0.093 0.955
2 4 2-4-1 0.117 0.948 5 2-5-1 0.107 0.946 5 2-5-1 0.066 0.957
3 6 3-6-1 0.093 0.952 6 3-6-1 0.204 0.882 7 3-7-1 0.048 0.967
4 8 4-8-1 0.224 0.947 9 4-9-1 0.144 0.918 9 4-9-1 0.047 0.969
56
1 2 1-2-1 0.132 0.951 2 1-2-1 0.197 0.887 2 1-2-1 0.085 0.954
2 4 2-4-1 0.139 0.951 5 2-5-1 0.22 0.861 5 2-5-1 0.079 0.958
3 6 3-6-1 0.126 0.943 6 3-6-1 0.153 0.941 7 3-7-1 0.061 0.963
4 8 4-8-1 0.225 0.95 9 4-9-1 0.258 0.833 9 4-9-1 0.047 0.97
57
1 2 1-2-1 0.116 0.952 2 1-2-1 0.263 0.842 2 1-2-1 0.091 0.955
2 4 2-4-1 0.188 0.955 5 2-5-1 0.19 0.916 5 2-5-1 0.075 0.959
3 6 3-6-1 0.121 0.948 6 3-6-1 0.13 0.943 7 3-7-1 0.055 0.959
4 8 4-8-1 0.135 0.953 9 4-9-1 0.165 0.938 9 4-9-1 0.035 0.975
58 1 2 1-2-1 0.154 0.95 2 1-2-1 0.114 0.937 2 1-2-1 0.093 0.955
2 4 2-4-1 0.16 0.954 5 2-5-1 0.133 0.94 5 2-5-1 0.08 0.958
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architectur
e MSE R2
Nombre de
neurones
dans la
couche
cachée
Architectur
e MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architectur
e MSE R2
58 3 6 3-6-1 0.151 0.95 6 3-6-1 0.211 0.906 7 3-7-1 0.057 0.966
4 8 4-8-1 0.156 0.951 9 4-9-1 0.141 0.909 9 4-9-1 0.04 0.97
59
1 2 1-2-1 0.184 0.946 2 1-2-1 0.203 0.912 2 1-2-1 0.092 0.954
2 4 2-4-1 0.162 0.951 5 2-5-1 0.128 0.95 5 2-5-1 0.074 0.959
3 6 3-6-1 0.175 0.952 6 3-6-1 0.132 0.936 7 3-7-1 0.058 0.966
4 8 4-8-1 0.163 0.949 9 4-9-1 0.193 0.921 9 4-9-1 0.033 0.974
60
1 2 1-2-1 0.132 0.951 2 1-2-1 0.182 0.921 2 1-2-1 0.083 0.954
2 4 2-4-1 0.16 0.943 5 2-5-1 0.183 0.915 5 2-5-1 0.081 0.957
3 6 3-6-1 0.135 0.955 6 3-6-1 0.168 0.929 7 3-7-1 0.051 0.969
4 8 4-8-1 0.117 0.951 9 4-9-1 0.198 0.93 9 4-9-1 0.038 0.968
61
1 2 1-2-1 0.13 0.952 2 1-2-1 0.189 0.914 2 1-2-1 0.084 0.955
2 4 2-4-1 0.149 0.949 5 2-5-1 0.16 0.932 5 2-5-1 0.068 0.957
3 6 3-6-1 0.181 0.954 6 3-6-1 0.372 0.775 7 3-7-1 0.061 0.963
4 8 4-8-1 0.171 0.941 9 4-9-1 0.136 0.941 9 4-9-1 0.045 0.971
62
1 2 1-2-1 0.167 0.952 2 1-2-1 0.251 0.905 2 1-2-1 0.084 0.953
2 4 2-4-1 0.17 0.932 5 2-5-1 0.188 0.939 5 2-5-1 0.072 0.96
3 6 3-6-1 0.129 0.952 6 3-6-1 0.172 0.928 7 3-7-1 0.055 0.968
4 8 4-8-1 0.185 0.938 9 4-9-1 0.158 0.938 9 4-9-1 0.044 0.972
63
1 2 1-2-1 0.118 0.953 2 1-2-1 0.117 0.94 2 1-2-1 0.079 0.955
2 4 2-4-1 0.117 0.947 5 2-5-1 0.11 0.94 5 2-5-1 0.058 0.967
3 6 3-6-1 0.125 0.956 6 3-6-1 0.197 0.906 7 3-7-1 0.045 0.971
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
63 4 8 4-8-1 0.273 0.941 9 4-9-1 0.133 0.931 9 4-9-1 0.023 0.972
64
1 2 1-2-1 0.137 0.952 2 1-2-1 0.118 0.949 2 1-2-1 0.09 0.956
2 4 2-4-1 0.174 0.953 5 2-5-1 0.173 0.933 5 2-5-1 0.07 0.957
3 6 3-6-1 0.16 0.95 6 3-6-1 0.238 0.916 7 3-7-1 0.057 0.965
4 8 4-8-1 0.317 0.944 9 4-9-1 0.219 0.867 9 4-9-1 0.054 0.969
65
1 2 1-2-1 0.097 0.953 2 1-2-1 0.179 0.912 2 1-2-1 0.079 0.955
2 4 2-4-1 0.152 0.953 5 2-5-1 0.216 0.914 5 2-5-1 0.069 0.959
3 6 3-6-1 0.137 0.954 6 3-6-1 0.126 0.937 7 3-7-1 0.048 0.969
4 8 4-8-1 0.104 0.953 9 4-9-1 0.179 0.937 9 4-9-1 0.038 0.965
66
1 2 1-2-1 0.135 0.952 2 1-2-1 0.141 0.941 2 1-2-1 0.081 0.955
2 4 2-4-1 0.159 0.937 5 2-5-1 0.204 0.932 5 2-5-1 0.075 0.958
3 6 3-6-1 0.198 0.945 6 3-6-1 0.136 0.924 7 3-7-1 0.056 0.965
4 8 4-8-1 0.22 0.95 9 4-9-1 0.138 0.933 9 4-9-1 0.032 0.971
67
1 2 1-2-1 0.128 0.952 2 1-2-1 0.16 0.945 2 1-2-1 0.08 0.955
2 4 2-4-1 0.163 0.95 5 2-5-1 0.253 0.888 5 2-5-1 0.077 0.959
3 6 3-6-1 0.286 0.916 6 3-6-1 0.123 0.935 7 3-7-1 0.058 0.964
4 8 4-8-1 0.307 0.935 9 4-9-1 0.237 0.923 9 4-9-1 0.045 0.97
68
1 2 1-2-1 0.139 0.952 2 1-2-1 0.122 0.938 2 1-2-1 0.082 0.955
2 4 2-4-1 0.114 0.949 5 2-5-1 0.189 0.937 5 2-5-1 0.07 0.959
3 6 3-6-1 0.131 0.955 6 3-6-1 0.177 0.916 7 3-7-1 0.045 0.969
4 8 4-8-1 0.217 0.943 9 4-9-1 0.215 0.905 9 4-9-1 0.04 0.971
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
69
2 4 2-4-1 0.116 0.951 5 2-5-1 0.157 0.938 5 2-5-1 0.074 0.958
3 6 3-6-1 0.145 0.946 6 3-6-1 0.185 0.936 7 3-7-1 0.056 0.964
4 8 4-8-1 0.163 0.952 9 4-9-1 0.131 0.924 9 4-9-1 0.03 0.969
70
1 2 1-2-1 0.093 0.954 2 1-2-1 0.256 0.875 2 1-2-1 0.079 0.955
2 4 2-4-1 0.157 0.952 5 2-5-1 0.279 0.909 5 2-5-1 0.066 0.964
3 6 3-6-1 0.218 0.95 6 3-6-1 0.186 0.904 7 3-7-1 0.052 0.968
4 8 4-8-1 0.285 0.94 9 4-9-1 0.241 0.902 9 4-9-1 0.041 0.972
71
1 2 1-2-1 0.129 0.953 2 1-2-1 0.197 0.917 2 1-2-1 0.082 0.956
2 4 2-4-1 0.14 0.95 5 2-5-1 0.139 0.931 5 2-5-1 0.066 0.959
3 6 3-6-1 0.184 0.936 6 3-6-1 0.212 0.927 7 3-7-1 0.042 0.972
4 8 4-8-1 0.42 0.862 9 4-9-1 0.129 0.935 9 4-9-1 0.049 0.968
72
1 2 1-2-1 0.082 0.954 2 1-2-1 0.21 0.882 2 1-2-1 0.078 0.956
2 4 2-4-1 0.139 0.95 5 2-5-1 0.147 0.944 5 2-5-1 0.065 0.96
3 6 3-6-1 0.117 0.944 6 3-6-1 0.35 0.85 7 3-7-1 0.063 0.965
4 8 4-8-1 0.195 0.954 9 4-9-1 0.19 0.925 9 3-6-1 0.046 0.967
73
1 2 1-2-1 0.123 0.955 2 1-2-1 0.213 0.9 2 4-9-1 0.031 0.973
2 4 2-4-1 0.114 0.955 5 2-5-1 0.146 0.936 5 1-2-1 0.076 0.959
3 6 3-6-1 0.185 0.947 6 3-6-1 0.188 0.935 7 2-5-1 0.07 0.962
4 8 4-8-1 0.168 0.957 9 4-9-1 0.253 0.93 9 3-6-1 0.045 0.966
74 1 2 1-2-1 0.151 0.957 2 1-2-1 0.117 0.945 2 4-9-1 0.025 0.979
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
74 3 6 3-6-1 0.165 0.955 6 3-6-1 0.136 0.936 7 3-7-1 0.046 0.967
4 8 4-8-1 0.222 0.931 9 4-9-1 0.273 0.929 9 4-9-1 0.031 0.973
75
1 2 1-2-1 0.15 0.956 2 1-2-1 0.277 0.886 2 1-2-1 0.076 0.959
2 4 2-4-1 0.13 0.953 5 2-5-1 0.205 0.911 5 2-5-1 0.07 0.962
3 6 3-6-1 0.148 0.947 6 3-6-1 0.192 0.925 7 3-7-1 0.045 0.966
4 8 4-8-1 0.191 0.94 9 4-9-1 0.169 0.928 9 4-9-1 0.025 0.979
76
1 2 1-2-1 0.146 0.955 2 1-2-1 0.143 0.929 2 1-2-1 0.079 0.959
2 4 2-4-1 0.172 0.954 5 2-5-1 0.246 0.826 5 2-5-1 0.057 0.965
3 6 3-6-1 0.166 0.956 6 3-6-1 0.149 0.93 7 3-7-1 0.05 0.971
4 8 4-8-1 0.241 0.943 9 4-9-1 0.184 0.931 9 4-9-1 0.042 0.974
77
1 2 1-2-1 0.158 0.956 2 1-2-1 0.172 0.933 2 1-2-1 0.074 0.958
2 4 2-4-1 0.127 0.953 5 2-5-1 0.193 0.942 5 2-5-1 0.067 0.963
3 6 3-6-1 0.191 0.948 6 3-6-1 0.273 0.93 7 3-7-1 0.041 0.971
4 8 4-8-1 0.213 0.941 9 4-9-1 0.231 0.897 9 4-9-1 0.029 0.979
78
1 2 1-2-1 0.135 0.949 2 1-2-1 0.124 0.936 2 1-2-1 0.074 0.958
2 4 2-4-1 0.118 0.955 5 2-5-1 0.109 0.943 5 2-5-1 0.065 0.963
3 6 3-6-1 0.147 0.939 6 3-6-1 0.211 0.912 7 3-7-1 0.045 0.966
4 8 4-8-1 0.127 0.962 9 4-9-1 0.227 0.922 9 4-9-1 0.042 0.974
79 1 2 1-2-1 0.105 0.959 2 1-2-1 0.218 0.914 2 1-2-1 0.078 0.959
2 4 2-4-1 0.122 0.955 5 2-5-1 0.183 0.949 5 2-5-1 0.072 0.962
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
3 6 3-6-1 0.206 0.886 6 3-6-1 0.122 0.944 7 3-7-1 0.043 0.968
4 8 4-8-1 0.234 0.951 9 4-9-1 0.163 0.89 9 4-9-1 0.023 0.976
80
1 2 1-2-1 0.073 0.958 2 1-2-1 0.102 0.934 2 1-2-1 0.08 0.96
2 4 2-4-1 0.099 0.958 5 2-5-1 0.184 0.943 5 2-5-1 0.054 0.965
3 6 3-6-1 0.156 0.955 6 3-6-1 0.227 0.912 7 3-7-1 0.048 0.967
4 8 4-8-1 0.241 0.952 9 4-9-1 0.282 0.881 9 4-9-1 0.04 0.973
81
1 2 1-2-1 0.104 0.957 2 1-2-1 0.102 0.937 2 1-2-1 0.075 0.96
2 4 2-4-1 0.146 0.956 5 2-5-1 0.126 0.948 5 2-5-1 0.057 0.963
3 6 3-6-1 0.286 0.954 6 3-6-1 0.36 0.871 7 3-7-1 0.031 0.973
4 8 4-8-1 0.121 0.953 9 4-9-1 0.149 0.907 9 4-9-1 0.029 0.976
82
1 2 1-2-1 0.08 0.959 2 1-2-1 0.205 0.867 2 1-2-1 0.079 0.96
2 4 2-4-1 0.152 0.957 5 2-5-1 0.21 0.91 5 2-5-1 0.059 0.964
3 6 3-6-1 0.209 0.944 6 3-6-1 0.237 0.917 7 3-7-1 0.047 0.971
4 8 4-8-1 0.131 0.946 9 4-9-1 0.249 0.878 9 4-9-1 0.032 0.974
83
1 2 1-2-1 0.092 0.958 2 1-2-1 0.243 0.903 2 1-2-1 0.071 0.959
2 4 2-4-1 0.132 0.955 5 2-5-1 0.169 0.928 5 2-5-1 0.062 0.962
3 6 3-6-1 0.193 0.96 6 3-6-1 0.233 0.87 7 3-7-1 0.043 0.968
4 8 4-8-1 0.42 0.882 9 4-9-1 0.147 0.939 9 4-9-1 0.029 0.973
84 1 2 1-2-1 0.111 0.957 2 1-2-1 0.231 0.906 2 1-2-1 0.076 0.96
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
84
2 4 2-4-1 0.124 0.959 5 2-5-1 0.191 0.937 5 2-5-1 0.065 0.965
3 6 3-6-1 0.13 0.953 6 3-6-1 0.187 0.886 7 3-7-1 0.033 0.969
4 8 4-8-1 0.114 0.958 9 4-9-1 0.095 0.948 9 4-9-1 0.029 0.97
85
1 2 1-2-1 0.145 0.956 2 1-2-1 0.143 0.933 2 1-2-1 0.069 0.96
2 4 2-4-1 0.113 0.96 5 2-5-1 0.132 0.936 5 2-5-1 0.055 0.964
3 6 3-6-1 0.174 0.948 6 3-6-1 0.209 0.917 7 3-7-1 0.031 0.973
4 8 4-8-1 0.277 0.929 9 4-9-1 0.224 0.915 9 4-9-1 0.018 0.974
86
1 2 1-2-1 0.161 0.957 2 1-2-1 0.267 0.912 2 1-2-1 0.069 0.96
2 4 2-4-1 0.113 0.958 5 2-5-1 0.27 0.891 5 2-5-1 0.046 0.967
3 6 3-6-1 0.168 0.951 6 3-6-1 0.213 0.912 7 3-7-1 0.033 0.971
4 8 4-8-1 0.214 0.95 9 4-9-1 0.297 0.856 9 4-9-1 0.022 0.974
87
1 2 1-2-1 0.105 0.958 2 1-2-1 0.108 0.936 2 1-2-1 0.074 0.96
2 4 2-4-1 0.156 0.951 5 2-5-1 0.331 0.854 5 2-5-1 0.064 0.936
3 6 3-6-1 0.162 0.952 6 3-6-1 0.339 0.879 7 3-7-1 0.035 0.969
4 8 4-8-1 0.268 0.917 9 4-9-1 0.206 0.927 9 4-9-1 0.017 0.976
88
1 2 1-2-1 0.132 0.959 2 1-2-1 0.14 0.952 2 1-2-1 0.071 0.96
2 4 2-4-1 0.238 0.917 5 2-5-1 0.23 0.906 5 2-5-1 0.062 0.965
3 6 3-6-1 0.199 0.954 6 3-6-1 0.222 0.937 7 3-7-1 0.026 0.969
4 8 4-8-1 0.166 0.957 9 4-9-1 0.202 0.929 9 4-9-1 0.03 0.972
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
89
1 2 1-2-1 0.089 0.96 2 1-2-1 0.185 0.932 2 1-2-1 0.068 0.961
2 4 2-4-1 0.299 0.94 5 2-5-1 0.131 0.44 5 2-5-1 0.057 0.965
3 6 3-6-1 0.158 0.94 6 3-6-1 0.157 0.932 7 3-7-1 0.039 0.972
4 8 4-8-1 0.155 0.958 9 4-9-1 0.227 0.899 9 4-9-1 0.02 0.976
90
1 2 1-2-1 0.119 0.956 2 1-2-1 0.152 0.943 2 1-2-1 0.072 0.96
2 4 2-4-1 0.125 0.953 5 2-5-1 0.19 0.934 5 2-5-1 0.061 0.963
3 6 3-6-1 0.162 0.951 6 3-6-1 0.147 0.949 7 3-7-1 0.036 0.969
4 8 4-8-1 0.22 0.946 9 4-9-1 0.155 0.939 9 4-9-1 0.024 0.976
91
1 2 1-2-1 0.129 0.957 2 1-2-1 0.177 0.885 2 1-2-1 0.072 0.962
2 4 2-4-1 0.211 0.954 5 2-5-1 0.133 0.929 5 2-5-1 0.057 0.965
3 6 3-6-1 0.236 0.947 6 3-6-1 0.121 0.942 7 3-7-1 0.042 0.967
4 8 4-8-1 0.283 0.952 9 4-9-1 0.193 0.932 9 4-9-1 0.017 0.978
92
1 2 1-2-1 0.109 0.959 2 1-2-1 0.15 0.909 2 1-2-1 0.075 0.962
2 4 2-4-1 0.113 0.954 5 2-5-1 0.186 0.915 5 2-5-1 0.062 0.966
3 6 3-6-1 0.237 0.942 6 3-6-1 0.261 0.874 7 3-7-1 0.039 0.969
4 8 4-8-1 0.192 0.936 9 4-9-1 0.192 0.921 9 4-9-1 0.0182 0.978
93
1 2 1-2-1 0.148 0.958 2 1-2-1 0.185 0.882 2 1-2-1 0.067 0.96
2 4 2-4-1 0.138 0.956 5 2-5-1 0.139 0.943 5 2-5-1 0.061 0.967
3 6 3-6-1 0.189 0.949 6 3-6-1 0.251 0.913 7 3-7-1 0.042 0.73
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
93 4 8 4-8-1 0.239 0.949 9 4-9-1 0.236 0.936 9 4-9-1 0.019 0.978
94
1 2 1-2-1 0.143 0.956 2 1-2-1 0.225 0.891 2 1-2-1 0.074 0.961
2 4 2-4-1 0.128 0.96 5 2-5-1 0.151 0.945 5 2-5-1 0.05 0.969
3 6 3-6-1 0.267 0.938 6 3-6-1 0.149 0.901 7 3-7-1 0.039 0.971
4 8 4-8-1 0.219 0.926 9 4-9-1 0.222 0.926 9 4-9-1 0.021 0.978
95
1 2 1-2-1 0.101 0.96 2 1-2-1 0.161 0.915 2 1-2-1 0.069 0.961
2 4 2-4-1 0.144 0.959 5 2-5-1 0.227 0.876 5 2-5-1 0.063 0.963
3 6 3-6-1 0.135 0.955 6 3-6-1 0.208 0.92 7 3-7-1 0.038 0.971
4 8 4-8-1 0.283 0.849 9 4-9-1 0.129 0.949 9 4-9-1 0.018 0.979
96
1 2 1-2-1 0.138 0.959 2 1-2-1 0.189 0.908 2 1-2-1 0.067 0.96
2 4 2-4-1 0.134 0.958 5 2-5-1 0.176 0.956 5 2-5-1 0.058 0.967
3 6 3-6-1 0.233 0.948 6 3-6-1 0.221 0.908 7 3-7-1 0.037 0.972
4 8 4-8-1 0.28 0.942 9 4-9-1 0.256 0.927 9 4-9-1 0.016 0.979
97
1 2 1-2-1 0.144 0.958 2 1-2-1 0.195 0.903 2 1-2-1 0.076 0.959
2 4 2-4-1 0.126 0.957 5 2-5-1 0.279 0.896 5 2-5-1 0.053 0.965
3 6 3-6-1 0.156 0.953 6 3-6-1 0.19 0.874 7 3-7-1 0.026 0.972
4 8 4-8-1 0.364 0.86 9 4-9-1 0.165 0.94 9 4-9-1 0.02 0.976
98 1 2 1-2-1 0.098 0.959 2 1-2-1 0.238 0.923 2 1-2-1 0.075 0.963
2 4 2-4-1 0.115 0.958 5 2-5-1 0.361 0.854 5 2-5-1 0.061 0.965
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalag
e
Conceptio
n des
entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architectur
e MSE R2
Nombre de
neurones
dans la
couche
cachée
Architectur
e MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architectur
e MSE R2
98 3 6 3-6-1 0.149 0.955 6 3-6-1 0.254 0.928 7 3-7-1 0.044 0.967
4 8 4-8-1 0.231 0.917 9 4-9-1 0.174 0.938 9 4-9-1 0.02 0.978
99
1 2 1-2-1 0.126 0.96 2 1-2-1 0.087 0.945 2 1-2-1 0.069 0.961
2 4 2-4-1 0.12 0.96 5 2-5-1 0.189 0.929 5 2-5-1 0.056 0.967
3 6 3-6-1 0.245 0.933 6 3-6-1 0.14 0.938 7 3-7-1 0.033 0.972
4 8 4-8-1 0.208 0.952 9 4-9-1 0.199 0.927 9 4-9-1 0.012 0.979
100
1 2 1-2-1 0.123 0.961 2 1-2-1 0.167 0.915 2 1-2-1 0.074 0.962
2 4 2-4-1 0.236 0.925 5 2-5-1 0.165 0.929 5 2-5-1 0.051 0.969
3 6 3-6-1 0.178 0.953 6 3-6-1 0.16 0.945 7 3-7-1 0.02 0.975
4 8 4-8-1 0.263 0.93 9 4-9-1 0.23 0.892 9 4-9-1 0.018 0.972
101
1 2 1-2-1 0.098 0.959 2 1-2-1 0.198 0.925 2 1-2-1 0.063 0.961
2 4 2-4-1 0.192 0.956 5 2-5-1 0.134 0.93 5 2-5-1 0.06 0.963
3 6 3-6-1 0.291 0.877 6 3-6-1 0.213 0.917 7 3-7-1 0.023 0.977
4 8 4-8-1 0.197 0.95 9 4-9-1 0.15 0.937 9 4-9-1 0.016 0.977
102
1 2 1-2-1 0.105 0.961 2 1-2-1 0.192 0.912 2 1-2-1 0.073 0.962
2 4 2-4-1 0.22 0.959 5 2-5-1 0.154 0.929 5 2-5-1 0.061 0.965
3 6 3-6-1 0.127 0.952 6 3-6-1 0.099 0.941 7 3-7-1 0.038 0.973
101 3 6 3-6-1 0.291 0.877 6 3-6-1 0.213 0.917 7 3-7-1 0.023 0.977
4 8 4-8-1 0.197 0.95 9 4-9-1 0.15 0.937 9 4-9-1 0.016 0.977
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
102 1 2 1-2-1 0.105 0.961 2 1-2-1 0.192 0.912 2 1-2-1 0.073 0.962
2 4 2-4-1 0.22 0.959 5 2-5-1 0.154 0.929 5 2-5-1 0.061 0.965
3 6 3-6-1 0.127 0.952 6 3-6-1 0.099 0.941 7 3-7-1 0.038 0.973
4 8 4-8-1 0.335 0.924 9 4-9-1 0.128 0.947 9 4-9-1 0.017 0.98
103 1 2 1-2-1 0.157 0.958 2 1-2-1 0.262 0.917 2 1-2-1 0.072 0.962
2 4 2-4-1 0.206 0.949 5 2-5-1 0.167 0.943 5 2-5-1 0.05 0.965
3 6 3-6-1 0.263 0.948 6 3-6-1 0.2226 0.911 7 3-7-1 0.039 0.973
4 8 4-8-1 0.199 0.939 9 4-9-1 0.15 0.926 9 4-9-1 0.017 0.977
104 1 2 1-2-1 0.156 0.957 2 1-2-1 0.259 0.888 2 1-2-1 0.076 0.962
2 4 2-4-1 0.204 0.932 5 2-5-1 0.18 0.911 5 2-5-1 0.052 0.969
3 6 3-6-1 0.1 0.953 6 3-6-1 0.261 0.907 7 3-7-1 0.027 0.977
4 8 4-8-1 0.19 0.951 9 4-9-1 0.166 0.88 9 4-9-1 0.011 0.98
105 1 2 1-2-1 0.107 0.96 2 1-2-1 0.203 0.914 2 1-2-1 0.07 0.962
2 4 2-4-1 0.232 0.948 5 2-5-1 0.189 0.937 5 2-5-1 0.062 0.966
3 6 3-6-1 0.148 0.952 6 3-6-1 0.226 0.917 7 3-7-1 0.031 0.973
4 8 4-8-1 0.18 0.957 9 4-9-1 0.208 0.893 9 4-9-1 0.008 0.98
106 1 2 1-2-1 0.124 0.96 2 1-2-1 0.219 0.917 2 1-2-1 0.071 0.961
2 4 2-4-1 0.153 0.958 5 2-5-1 0.202 0.914 5 2-5-1 0.053 0.966
3 6 3-6-1 0.141 0.926 6 3-6-1 0.166 0.945 7 3-7-1 0.037 0.97
4 8 4-8-1 0.194 0.946 9 4-9-1 0.227 0.876 9 4-9-1 0.014 0.975
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architectur
e MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architectur
e MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architectur
e MSE R2
107 1 2 1-2-1 0.18 0.953 2 1-2-1 0.199 0.917 2 1-2-1 0.078 0.962
2 4 2-4-1 0.133 0.96 5 2-5-1 0.197 0.9 5 2-5-1 0.055 0.965
3 6 3-6-1 0.183 0.96 6 3-6-1 0.177 0.938 7 3-7-1 0.026 0.973
4 8 4-8-1 0.187 0.953 9 4-9-1 0.255 0.941 9 4-9-1 0.016 0.977
108 2 4 2-4-1 0.222 0.947 5 2-5-1 0.114 0.937 5 2-5-1 0.055 0.963
3 6 3-6-1 0.168 0.951 6 3-6-1 0.235 0.935 7 3-7-1 0.033 0.973
4 8 4-8-1 0.223 0.947 9 4-9-1 0.161 0.931 9 4-9-1 0.007 0.976
109 1 2 1-2-1 0.12 0.96 2 1-2-1 0.175 0.929 2 1-2-1 0.069 0.961
2 4 2-4-1 0.169 0.95 5 2-5-1 0.257 0.921 5 2-5-1 0.054 0.967
3 6 3-6-1 0.241 0.94 6 3-6-1 0.162 0.908 7 3-7-1 0.032 0.973
4 8 4-8-1 0.279 0.941 9 4-9-1 0.205 0.922 9 4-9-1 0.01 0.976
110 1 2 1-2-1 0.161 0.959 2 1-2-1 0.184 0.881 2 1-2-1 0.069 0.959
2 4 2-4-1 0.363 0.912 5 2-5-1 0.205 0.925 5 2-5-1 0.042 0.68
3 6 3-6-1 0.311 0.939 6 3-6-1 0.202 0.906 7 3-7-1 0.037 0.975
4 8 4-8-1 0.196 0.935 9 4-9-1 0.378 0.885 9 4-9-1 0.009 0.981
111 1 2 1-2-1 0.154 0.957 2 1-2-1 0.168 0.939 2 1-2-1 0.072 0.962
2 4 2-4-1 0.248 0.938 5 2-5-1 0.257 0.92 5 2-5-1 0.058 0.966
3 6 3-6-1 0.231 0.956 6 3-6-1 0.203 0.909 7 3-7-1 0.038 0.972
4 8 4-8-1 0.229 0.944 9 4-9-1 0.164 0.948 9 4-9-1 0.012 0.967
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
112
1 2 1-2-1 0.202 0.964 2 1-2-1 0.23 0.94 2 1-2-1 0.079 0.963
2 4 2-4-1 0.134 0.953 5 2-5-1 0.191 0.892 5 2-5-1 0.065 0.967
3 6 3-6-1 0.196 0.959 6 3-6-1 0.193 0.934 7 3-7-1 0.027 0.974
4 8 4-8-1 0.336 0.918 9 4-9-1 0.169 0.938 9 4-9-1 0.012 0.977
113
1 2 1-2-1 0.137 0.961 2 1-2-1 0.151 0.928 2 1-2-1 0.064 0.961
2 4 2-4-1 0.205 0.959 5 2-5-1 0.178 0.916 5 2-5-1 0.055 0.965
3 6 3-6-1 0.259 0.955 6 3-6-1 0.137 0.94 7 3-7-1 0.022 0.971
4 8 4-8-1 0.203 0.967 9 4-9-1 0.189 0.926 9 4-9-1 0.016 0.98
114
1 2 1-2-1 0.166 0.959 2 1-2-1 0.194 0.922 2 1-2-1 0.072 0.963
2 4 2-4-1 0.136 0.957 5 2-5-1 0.194 0.92 5 2-5-1 0.057 0.969
3 6 3-6-1 0.187 0.957 6 3-6-1 0.264 0.891 7 3-7-1 0.029 0.974
4 8 4-8-1 0.19 0.954 9 4-9-1 0.139 0.921 9 4-9-1 0.009 0.981
115
1 2 1-2-1 0.124 0.962 2 1-2-1 0.142 0.948 2 1-2-1 0.073 0.963
2 4 2-4-1 0.198 0.923 5 2-5-1 0.241 0.924 5 2-5-1 0.05 0.964
3 6 3-6-1 0.147 0.947 6 3-6-1 0.219 0.903 7 3-7-1 0.037 0.975
4 8 4-8-1 0.234 0.917 9 4-9-1 0.191 0.939 9 4-9-1 0.011 0.98
116
1 2 1-2-1 0.158 0.959 2 1-2-1 0.205 0.907 2 1-2-1 0.067 0.961
2 4 2-4-1 0.142 0.957 5 2-5-1 0.215 0.926 5 2-5-1 0.05 0.969
3 6 3-6-1 0.257 0.946 6 3-6-1 0.153 0.938 7 3-7-1 0.025 0.76
4 8 4-8-1 0.23 0.934 9 4-9-1 0.204 0.94 9 4-9-1 0.006 0.981
117 1 2 1-2-1 0.141 0.96 2 1-2-1 0.299 0.911 2 1-2-1 0.068 0.962
ANNEXES
Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit et fin)
Décalage Conception
des entrées
Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre de
neurones
dans la
couche
cachée
Architecture MSE R2
Nombre
de
neurones
dans la
couche
cachée
Architecture MSE R2
119 3 6 3-6-1 0.23 0.954 6 3-6-1 0.197 0.93 7 3-7-1 0.035 0.973
4 8 4-8-1 0.304 0.919 9 4-9-1 0.171 0.925 9 4-9-1 0.006 0.981
118
1 2 1-2-1 0.132 0.96 2 1-2-1 0.164 0.943 2 1-2-1 0.068 0.961
2 4 2-4-1 0.175 0.955 5 2-5-1 0.206 0.929 5 2-5-1 0.068 0.966
3 6 3-6-1 0.307 0.917 6 3-6-1 0.175 0.932 7 3-7-1 0.025 0.974
4 8 4-8-1 0.2 0.93 9 4-9-1 0.194 0.938 9 4-9-1 0.004 0.0963
119
1 2 1-2-1 0.142 0.958 2 1-2-1 0.178 0.923 2 1-2-1 0.07 0.963
2 4 2-4-1 0.184 0.955 5 2-5-1 0.331 0.916 5 2-5-1 0.057 0.963
3 6 3-6-1 0.138 0.946 6 3-6-1 0.187 0.943 7 3-7-1 0.028 0.975
4 8 4-8-1 0.33 0.918 9 4-9-1 0.214 0.919 9 4-9-1 0.009 0.979
120
1 2 1-2-1 0.18 0.957 2 1-2-1 0.188 0.918 2 1-2-1 0.066 0.61
2 4 2-4-1 0.246 0.956 5 2-5-1 0.225 0.902 5 2-5-1 0.049 0.966
3 6 3-6-1 0.224 0.915 6 3-6-1 0.193 0.928 7 3-7-1 0.043 0.971
4 8 4-8-1 0.43 0.902 9 4-9-1 0.194 0.942 9 4-9-1 0.004 0.981
ANNEXES
Annexe. 2: Nomenclature
ANN (Artificial Neural Network) Réseau de neurones artificiels
ARCH (Autoregressive Conditional Heteroscedasticity) Heteroscédasticité conditionnelle
autorégressive.
ARIMA (Autoregressive Integrated Moving Average) Moyenne mobile intégrée
autorégressive.
Bruit blanc à l'heure t
Opérateur arrière au routard r
d Paramètre d'intégration dans le modèle ARIMA
Valeur souhaitée du neurone k à l'itération n
Fonction énergétique de Boltzmann
Erreur calculée du neurone k à l'itération n
Erreur calculée du neurone k à l'itération n
GARCH (General Autoregressive Conditional Heteroscedasticity) Heteroscédasticité
conditionnelle autorégressive générale
(Mean Squared Error) erreur carrée moyenne
m Paramètre moyen en mouvement dans le modèle ARIMA
Ensemble de nombres naturels
NAR (Nonlinear Autoregressive) Autorégressif non linéaire
NARX (Nonlinear Autoregressive with exogenous variables non-linéaire) Autorégressif
non linéaire avec des variables exogènes
p Paramètre de modèle AR
q Paramètre de modèle MA
Ensemble de nombres réels (espace d'état)
r Paramètre Autorégressif dans le modèle ARIMA
Processus stochastique
Ensemble des chiffres démontrent l'heure
Indice de temps
Processus Wiener à l'heure t
Poids synaptique pour l'entrée de signal i dans le neurone k
Ajusté au poids synaptique à l'itération n
ANNEXES
Variable aléatoire
Variable de processus stochastique discret (aléatoire)
Variable stochastique continue (aléatoire)
Nombre réel
Signal d'entrée au neurone
Réponse du neurone k
Valeur calculée du neurone k à l'itération n
Réponse calculée pour le modèle dans le cas de base
Réponse calculée pour le modèle dans l'affaire c
Covariance automatique de la variable de série temporelle à l'instant t1 et t2
Covariance automatique de la variable de série temporelle à l'instant t1 et t2
Erreur aléatoire à l'instant t
Taux d'apprentissage
Ecart-type / volatilité
Coefficient de moyenne mobile (MA) au décalage m
Valeur moyenne
Variance
Variance conditionnelle à l'instant t
Domaine local induit du neurone k
Coefficient de régression automatique (AR) au décalage r
Fonction d'activation d'un neurone
Ω Espace de probabilité
Numéro de probabilité
Top Related