MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme...

120
REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE ECOLE NATIONALE SUPERIEURE D’HYDRAULIQUE -ARBAOUI Abdellah- DEPARTEMENT AMENAGEMENT ET GENIE HYDRAULIQUE MEMOIRE DE MASTER En vue de l’obtention du diplôme de Master en Hydraulique Option: Aménagement et Ouvrages Hydrotechniques THÈME DU PROJET : Contribution à la prévision de la séchresse par le modèle du réseau de neurones autorégressif PRESENTÉ PAR : ZAOUI Lynda Devant les membres du jury Nom et Prénoms Grade Qualité M r : M.K.MIHOUBI Professeur Président M r : S.TOUMI M.C.B Examinateur M me : A.ADDOU M.C.A Examinatrice M r : Y.BOUNNAH M.C.B Examinateur M r : A.ZAROUAL M.C.B Promoteur 2016/2017

Transcript of MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme...

Page 1: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE

MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE

ECOLE NATIONALE SUPERIEURE D’HYDRAULIQUE -ARBAOUI Abdellah-

DEPARTEMENT AMENAGEMENT ET GENIE HYDRAULIQUE

MEMOIRE DE MASTER

En vue de l’obtention du diplôme de Master en Hydraulique

Option: Aménagement et Ouvrages Hydrotechniques

THÈME DU PROJET :

Contribution à la prévision de la séchresse par le

modèle du réseau de neurones autorégressif

PRESENTÉ PAR : ZAOUI Lynda

Devant les membres du jury

Nom et Prénoms Grade Qualité

Mr : M.K.MIHOUBI Professeur Président

Mr : S.TOUMI M.C.B Examinateur

Mme

: A.ADDOU M.C.A Examinatrice

Mr : Y.BOUNNAH M.C.B Examinateur

Mr : A.ZAROUAL M.C.B Promoteur

2016/2017

Page 2: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

A chaque fois qu’on achève une étape importante dans notre vie, on fait une pose

pour regarder en arrière et se rappeler toutes ces personnes qui ont partagés avec nous tous

les bons moments de notre existence, mais surtout les mauvais. Ces personnes qui nous ont

aidés sans le leur dire, soutenus sans réserve, aimé sans compter, ces personnes à qui notre

bonheur devient directement le leur, à qui un malheur en nous, en eux se transforme en pleur.

Je dédie ce modeste travail à tous ceux que j’aime mais surtout :

A mes parents qui ont toujours été les étoiles de mon ciel et ont illuminé mon chemin depuis

ma naissance, je ne les remercierai jamais assez que Dieu me les garde

Je le dédie également à toute ma famille

A tous mes amies ;

A toute ma promotion 2017 sans exception ;

A tout les enseignants de l’ENSH qui m’ont accompagné durant mes études ;

A toute personne utilisant ce document pour un bon usage.

Page 3: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

Au terme de cette modeste étude, je t iens à expr imer ma profonde gratitude

et mes vif s remerc iements à mes parentes pour avoir contribué à l ' élaboration de

cette présentat ion de thèse et à ma formation durant l es années d’études.

Toutes mes gratitudes et mes reconnaissances au monsieur Zeroual Ayoub pour ses judicieux

conseils ainsi que ses disponibilités tout au long de l’élaboration de ce travail

Aussi, j e me permets d'expr imer tout mon respect aux membres de jury qui me

feront l 'honneur d'apprécier notre travail .

Tous le corps de l ’ense ignant de l ’ENSH qui ont contribué de loin ou de prés

à ma formation au se in de l ’ étab lissement

Je remerc ie tous les membres de ma famill e et de mes amis qui mon portés

leur soutien et l eurs précieux consei ls et part iculièrement Melle Bouabdelli Senna.

Page 4: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ملخص

ومن الجدير بالذكر أن دراسة الجفاف والتنبؤ بها كانت هدفا . الجفاف هو من بين المخاطر الطبيعية المعقدة في الجزائر

تمت مقارنة قدرة نماذج الشبكة العصبية االصطناعية ذات االنحدار الذاتي مع ثالثة في هذا العمل،. للعديد من المشاريع البحثية

وقد تم تطبيق هذه . في شمال غرب الجزائر( الجزء العلوي للشلف ميتيجة و) هلينسالخوارزميات مختلفة للتنبؤ بالجفاف في

و نظام بايزيان على السالسل الزمنية لمؤشر الهطول ماركاردت-، ليفنبرغمقياس التدرج االقتراني الخوارزميات، بما في ذلك

وأظهرت المقارنة بين الخوارزميات أن أداء خوارزمية نظام بايزيان كان أفضل من . شهرا 21القياسي على مدى

.للسنوات العشر القادمة الخوارزميات األخرى

Résumé

La sécheresse est parmi les risques naturels complexes en Algérie. L'étude de la sécheresse

ses prévisions ont fait curieusement l'objet de plusieurs projets de recherche. Dans ce

travail, la capacité des modèles de réseaux de neurones artificiels autorégressifs avec trois

algorithmes différents ont été comparés pour prévoir la sécheresse dans deux plaines (Metidja et

Haut Cheliff) de l’Algérie du Nord et Nord-Ouest. Ces algorithmes, y compris Scaled Gradient

Conjugué, Levenberg-Marquardt et la Régularisation Bayésienne ont été appliqués aux séries

chronologiques de l'indice de précipitations normalisé (SPI) à des échelles de temps de 12 mois.

En général, les modèles proposés sont capables de prévoir la sécheresse dans cette région. La

comparaison des algorithmes a montré que l’algorithme Bayesian Regularization offre des

meilleurs résultats que les autres algorithmes la sécheresse avant 10 ans.

Abstract

Drought is among the complex natural hazards in Algeria. The study of drought and their

forecasting have been curiously the target of several research projects. In this work, ability of

autoregressive artificial neural network models with three different algorithms were compared to

forecast drought in two plains (Metidja and High Chelif) of North-West Algeria. These

algorithms, including Scaled Conjugate Gradient, Levenberg-Marquardt and Bayesian

Regularization were applied to time series of standardized precipitation index (SPI) at 12-

months’ time scales. Comparison of the algorithms showed that Bayesian Regularization

performed better than the other algorithms in advance of 10 years

Page 5: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

SOMMAIRE

INTRODUCTION GENERALE ........................................................................... 12

I.ETUDE BIBLIOGRAPHIQUE .......................................................................... 14

I.1.ETUDE LA SECHERESSE .......................................................................................... 14

I.1.1. Définition de la sécheresse ................................................................................. 14

I.1.2. Différents types de sécheresses .......................................................................... 15

I.1.3. Les impacts et les risques de la sècheresse ........................................................ 16

I.1.4. Les indices de la sécheresse .......................................................................... 17

I.1.6. Indice de précipitation normalisé (SPI) : ......................................................... 17

I.1.6.1. Interprétation du SPI .............................................................................................. 18

I.1.6.2. Avantages et inconvénients de la méthode............................................................. 19

I.1.5. Prévision de la sécheresse .................................................................................. 21

I.2. MODELES DE PREVISION DES SERIES CHRONOLOGIQUES ....................... 23

I.2.1. les séries temporelles (chronologiques) ............................................................ 24

I.2.2. Les Modèles stochastique de prévision ............................................................ 24

I.2.3. Modèles à base de réseaux de neurones artificiels ........................................... 26

II.1. LA PLAINE DE MITIDJA : ................................................................................... 28

II.1.1. Relief de la Mitidja ........................................................................................... 30

II.1.2 Climat de la Mitidja ........................................................................................... 31

II.1.3. Réseau hydrographique et ouvrages d'alimentation dans la plaine .............. 32

II.1.4. Occupation des sols par cultures appliquées .................................................. 34

II.2. LA PLAINE DE HAUT CHELIFF : ...................................................................... 34

II.2.1. Morphologie : .................................................................................................... 34

II.2.2. Urbanisation et démographie : ........................................................................ 34

II.2.3. Agriculture: ....................................................................................................... 34

II.2.4. Climatologie : .................................................................................................... 35

II.2.5 Aspect hydrologique : ........................................................................................ 35

II.2.6. Cadre géologique général et Litho stratigraphie : .......................................... 37

Page 6: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

II.2.7. Aspect hydrogéologique : ................................................................................. 38

II.2.8. La piézométrie : ................................................................................................ 38

II.3. CHOIX DE L’AIR D’ETUDE .................................................................................... 41

II.4. CHOIX DES STATIONS ............................................................................................ 41

II.5.1. Données pluviométriques et hydrométriques.................................................. 41

III. METHODOLOGIE ......................................................................................... 43

III.1. Introduction : .............................................................................................................. 43

III.2. Sélection des données ................................................................................................. 43

III.3. Définitions de base ...................................................................................................... 43

III.3.1. Variables aléatoires ......................................................................................... 43

III.3.2. Processus stochastique .................................................................................... 44

III.3.3. Processus discret.............................................................................................. 44

III.3.4. Séries temporelles ........................................................................................... 44

III.3.6. Autocorrélation et autocorrélation partielle ................................................. 44

III.4. Modèles de réseaux neuronaux artificiels (ANN) .................................................... 45

III.4.1. Principe du neurone artificiel ......................................................................... 45

III.4.2. Types de fonction d'activation ........................................................................ 46

III.4.3. Modélisation des réseaux de neurones artificiels .......................................... 46

III.4.4. Architecture des réseaux de neurones .......................................................... 47

III.4.4.1. Réseaux de neurones non bouclés ................................................................................... 47

III.4.4.2. Réseaux de neurones bouclés.................................................................. 48

III.4.5. L'apprentissage ............................................................................................... 48

III.4.5.1. Type d’apprentissage ...................................................................................................... 48

III.4.5.2. Algorithme d’apprentissage ............................................................................................ 49

III.4.6. Conception d'un réseau de neurones ............................................................. 53

III.4.6.1. Détermination des entrées/sorties du réseau de neurones ................................................ 54

III.4.6.2. Choix et préparation des échantillons ............................................................................. 54

III.4.6.3. Elaboration de la structure du réseau .............................................................................. 55

III.4.6.4. Apprentissage ................................................................................................................. 55

III.4.6.5. Validation et Tests .......................................................................................................... 55

Page 7: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

III.4.7. Modèle NAR .................................................................................................... 55

IV. RESULTATS ET DISCUSSION ..................................................................... 57

IV.1. Introduction ................................................................................................................. 57

IV.2. Variabilité spatiale et temporelle du SPI à différentes échelles ............................. 57

IV.3. Autocorrélation et autocorrélation partielle de la série des SPI ........................... 58

IV.4. Prédiction de la sécheresse par les réseaux de neurones artificiels autorégressif

(NAR) .................................................................................................................................... 59

IV.4.1. Conception du modèle du réseau de neurone autorégressif (NAR) ............. 59

IV.4.1. Sélection des entrées et architecture du modèle ........................................... 59

IV.4.3. Apprentissage du modèle auto-regressif (NAR) ........................................... 60

IV.4.4. Evaluation des Performances ......................................................................... 60

IV.5. Résultats et Discussion .............................................................................................. 61

IV.5.1 Résultats : .......................................................................................................... 61

IV.5.2. Discussion : ...................................................................................................... 88

Conclusion générale ............................................................................................... 90

Références bibliographiques .................................................................................. 91

ANNEXES ............................................................................................................... 97

Page 8: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

Liste des tableaux

Tableau I.1: Les différents types des indices de sécheresse ..................................... 19

Tableau I.2 : Interprétation du SPI par rapport à leur valeur et leur probabilité au

non-dépassement selon Mckee (1993) ...................................................................... 19

Tableau II.1 : Pluies de l'année 2010 ....................................................................... 31

Tableau II.2 : Températures de l'année 2010 .......................................................... 31

Tableau II.3 : Humidité de l'année 2010 ................................................................. 31

Tableau II.4 : Vent de l'année 2010......................................................................... 32

Tableau II.5: Valeurs de la température en C° ........................................................ 35

Tableau II.6: Comportement hydrogéologique des différentes formations de la plaine

d’El- khemis ............................................................................................................. 38

Tableau II.7: Stations pluviométriques retenues dans la zone d’étude de la plaine de

Metidja. .................................................................................................................... 42

Tableau II.8 : Stations pluviométriques retenues dans la zone de l’étude de la plaine

de Haute Cheliff ....................................................................................................... 42

Tableau II.9 : Les valeurs des pluviométries enregistrées durant 50 Années

précédentes............................................................................................................... 42

Tableau IV.1. Conception des entrées utilisées pour l’apprentissage du modèle NAR

pour la prévision de la sécheresse d’un mois de décalage (à l’avance d’un mois) ..... 60

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine

de Metidja trouvées pour la meilleure conception d’entrées ..................................... 62

Page 9: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

Liste des figures

Figure I.1: Schémas des différents types de la sécheresse et de leurs impacts.......... 16

Figure II.1 : Présentation des deux plaines étudiées. ............................................... 28

Figure II.2 : Situation de la plaine de Mitidja .......................................................... 29

Figure II.3 : Situation géographique de la Mitidja ................................................... 30

Figure II.4: localisation de la nappe de la Mitidja. ................................................. 33

Figure II.5 : Evolution des superficies irriguées dans le temps ................................ 35

Figure II.6: Réseau hydraulique de la zone d’étude . .............................................. 33

Figure II.7 : Carte géologique de la plaine d’EL-Khemis (Perrodon ,1957) ............. 37

Figure II.8 : Carte piézométrique de la nappe alluviale du Haut Cheliff (période des

basses eaux 2003 ……………………………………………………………..41

Figure II.9 : Carte piézométrique de la nappe alluviale du Haut Cheliff (période

des hautes eaux 2004) ........................................................................................... 40

Figure III.1: Modèle non linéaire d'un neurone (Haykin, 1999). ............................. 45

Figure III.2: Perceptron à une couche cachée (Raihane Mechgoug, 2013) .............. 47

Figure III.3: Réseau de neurone bouclé ................................................................... 48

Figure III.4. Réseau non-linéaire autorégressif (NAR). ........................................... 56

Figure IV.1 : Les séries chronologiques concernant l’indice de précipitation

normalisé (SPI) ........................................................................................................ 57

Figure IV .2 :Fonction Autocorrélation et Autocorrélation partielles pour les SPI ... 58

Figue IV.3 : la structure du modèle de réseau neurone autorégressif NAR avec une

architecture (4-9-1) dans le cas d’une prévision de la sécheresse à l’avance d’un

mois. ........................................................................................................................ 61

Figue IV.4: Les résultats de l’erreur moyenne quadratique (MSE) obtenus dans la

plaine de Metidja en fonction de nombre de mois de décalage (prévision à l’avance

de 120 mois) en utilisant les trois algorithmes : (a) Scaled Conjugate Gradient

Page 10: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

algorithme ; (b) Levenberg-Marquardt algorithme et (c) Bayesian Regularization

algorithme. ............................................................................................................... 86

Figure IV.4. Progression de l’erreur de prévision (MSE) du modèle NAR avec

l’architecture (4-9-1) dans le cas d’une prévision de la sécheresse à l’avance de 120

mois. ........................................................................................................................ 87

Figure IV.5. Résultats de régression au carré R2 du modèle NAR avec l’architecture

(4-9-1) dans le cas d’une prévision de la sécheresse à l’avance de 120 moi ……......90

Page 11: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

Liste des annexes

Annexe.1: Tableau des Paramètres statistiques de la prévision de la sécheresse dans

la Plaine de Haute Cheliff trouvées pour la meilleure conception d’entrées.

Annexe.2 : Nomenclature

Page 12: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

INTRODUCTION GENERALE

ENSH –SEPTEMBRE 2017 12

INTRODUCTION GENERALE

Dans les régions arides et semi-arides méditerranéennes, la mobilisation des ressources en eau

se fait pour une grande part grâce à la construction des barrages (Boudjadja et al, 2003). Or, les

apports en eau emmagasinés par ces derniers sont dépendants de la pluviométrie. Lorsque celle-

ci est excédentaire, on assiste à un accroissement du taux de remplissage des ouvrages et un

développement des activités liées à l'approvisionnement en eau, notamment l’agriculture et

diverses industries. Par contre, lorsque la pluviométrie est déficitaire, on parle de la sécheresse.

Avec le prolongement de celle-ci, les ouvrages se vident et l’on assiste aux pénuries d’eau, au

déclin de l’agriculture, à l’arrêt de certaines usines consommables d’eau en plus des dommages

environnementaux et la baisse de la qualité de la vie (Hisdal et Tallaksen 2003). De ce fait, La

prévision de la sécheresse est une nécessité pour anticiper ce que pourraient être les

conséquences des changements climatiques futurs dans notre région d’étude et tenter de s'y

adapter le mieux possible.

Actuellement la détection et la surveillance des conditions de la sécheresse sont

essentiellement basées sur certains indices. Les indices les plus couramment utilisés pour la

surveillance de la sécheresse sont l’indice de sécheresse de Palmer (PDI) (Palmer, 1965) et

l'indice de Précipitations Standardisé SPI (Mckee et al, 1993) et l’indice hydrométrique ‘SDI’.

Par ailleurs, divers outils et méthodes pour la prévision des indice de la sécheresse ont été

proposés et testés dans différentes régions au cours des dernières décennies (Dastorani &

Afkhami, 2011).

La prévision de la sécheresse ou plus précisément des séries temporelles est un problème qui a

été abordé depuis longtemps. On en trouve des applications dans de nombreux domaines, par

exemple l’économie, la météorologie, la médecine, la communication, le traitement de la parole,

etc. Théoriquement, la prévision des séries temporelles nécessite de modéliser le système qui a

généré les données de la série. En disposant d’un système d’équations mathématiques et

déterministes et connaissant les conditions initiales, il serait possible de prévoir l’évolution du

système. Cependant, les caractéristiques du phénomène qui a généré la série sont généralement

inconnues. Les seules informations disponibles dans ce cas de figure sont les valeurs passées. La

modélisation de la série se limite donc à imiter le mécanisme de génération des données sans

retrouver explicitement les fonctions qui représentent ces mécanismes et ce uniquement à travers

les valeurs passées.

Dans cette étude nous utilisons le modèle de réseau de neurones artificiels autorégressifs pour

la prévision de la sécheresse dans les deux plaines Metidja et haut Cheliff sur la période 1960-

Page 13: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

INTRODUCTION GENERALE

ENSH –SEPTEMBRE 2017 13

2010 en se basant sur l'indice de Précipitations Standardisé (SPI). Pour ce faire, on a procédé

comme suit :

Chapitre1 : Ce chapitre présente une étude bibliographique des études les plus pertinentes

rapportées dans la littérature sur la prévision de la sécheresse. Ces études sont évaluées de

manière critique et comparatif de façon à déterminer a) Les indices les plus couramment utilisés

pour la surveillance de la sécheresse b) les méthodes qui ont été utilisées avec succès pour la

prévision des séries chronologiques. Le sondage souligne le potentiel et les capacités des RNA

pour des applications similaires et justifie leur utilisation pour la prévision.

Chapitre 2 : Dans ce chapitre, on va présenter la zone d’étude concernant les deux plaines;

Metidja et Haut Cheliff, et on va présenter l’état de l’art du contexte géographique,

géomorphologique et climatique de ces deux plaines.

Chapitre 3 : Dans ce chapitre, on va présenter les modèles de réseaux de neurones. La

première partie concerne une définition de certains concepts de base qui sont utilisés dans notre

modèle a été détaillée. La deuxième partie, le modèle de réseau neuronal est présenté comme

modèle principal pour cette recherche.

Chapitre 4: Les méthodes, les variables, les sources, la collecte de données, les outils

appliqués et la validation de la méthode sont décrits en détail. Ce chapitre comporte une partie

importante qui est la validation et l'évaluation du modèle, avec trois algorithmes, appliqué et un

résumé des résultats obtenus.

Page 14: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE I ETUDE BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 14

I.ETUDE BIBLIOGRAPHIQUE

I.1.ETUDE LA SECHERESSE

I.1.1. Définition de la sécheresse

La sécheresse est un phénomène extrême résultant des changements climatiques, ce

phénomène se reproduit plus fréquemment ces dernières années et provoque des conséquences

aussi désastreuses qu’une inondation.

La sécheresse n’a pas de définition universelle (OSS, 2009). La sécheresse se distingue des

phénomènes naturels par l’absence d’une définition précise et incontestée (OMM, 2006). Pour

expliquer ce phénomène, nous citons quelques définitions :

La sécheresse est un minimum hydrologique extrême résultant de perturbations du cycle

hydrologique d’une durée suffisamment longue pour qu’il en résulte un important déficit en eau ;

les ressources en eau locales deviennent insuffisantes pour soutenir les activités établies ou

normales dans la région (OMM, 1994).

La sécheresse est un phénomène naturel dû à un déficit des précipitations, qui fait que les

quantités d'eau sont insuffisantes pour certaines activités ou certains groupes. L'absence de

précipitations pendant une période prolongée, généralement une saison ou plus, peut s’aggraver.

Du point de vue hydrologique, l'insuffisance prolongée des précipitations entraîne une

diminution correspondante du débit des cours d'eau des zones arides, du ruissellement des eaux

et de l'humidité du sol (UNCCD, 2000).

La sécheresse est une absence prolongée ou une insuffisance marquée des précipitations, une

insuffisance des précipitations, entraînant une pénurie d’eau pour certaines activités ou certains

groupes ou une période de temps anormalement sèche et suffisamment longue pour que le

manque de précipitations cause un déséquilibre hydrologique sérieux (GIEC, 2007).

La sécheresse peut être définie comme étant une période prolongée de précipitations

insuffisantes, normalement une ou plusieurs saisons, voire des années, qui causent un déficit

d’eau dans certains secteurs de l’économie d’un pays. Cette sécheresse doit être considérée par

rapport à certaines conditions de moyen à long terme du bilan final des précipitations et de

l’évapotranspiration dans une région particulière, l’échelle temporelle et l’efficacité des

précipitations (OSS, 2009).

D’après ces définition, on peut conclure que la sécheresse est une période déficitaire en

Page 15: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE I ETUDE BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 15

précipitation sur une certaine durée et qui touche une région donnée de l’espace. Celle-ci peut

subsister quelques mois ou même un bon nombre d’années.

I.1.2. Différents types de sécheresses

Selon les définitions opérationnelles il existe quatre types de sécheresse, météorologique,

agricole, hydrologique et socio-économique.

I.1.2.1. Sécheresse météorologique

On en mesure l'intensité en comparant la quantité des précipitations reçues par rapport à la

quantité normale des précipitations. Pour évaluer une telle sécheresse, il faut tenir compte de

facteurs comme la quantité totale des précipitations reçues pendant une période donnée (semaine,

mois, année), le temps écoulé entre les pluies substantielles et l'époque à laquelle elles sont

tombées (OMM, 2006).

I.1.2.2. Sécheresse agricole

Causée par la sécheresse météorologique, elle s'aggrave avec les pertes dues à

l'évapotranspiration. La jachère diminue la gravité d'une sécheresse agricole en maintenant dans

le sol l'humidité emmagasinée l'année précédente. Une sécheresse météorologique ne provoque

pas forcément une sécheresse agricole, et cela dans les régions où l'eau d'irrigation reste

accessible et les réserves d'eau abondantes (OMM, 2006).

I.1.2.3. Sécheresse hydrologique

Elle correspond à une diminution des réserves d'eau dans les cours d'eau, les réservoirs de

surface et les nappes phréatiques. La sécheresse hydrologique est causée par un manque de

précipitations accompagné d'une évaporation massive. Cependant, des facteurs non

météorologiques, comme la demande en eau, la disponibilité de réservoirs de surface et le forage

de puits artésiens, en aggravent l'effet (OMM, 2006).

I.1.2.4. Sécheresse socioéconomique

On parle de sécheresse socioéconomique lorsque l’insuffisance de l'eau commence à affecter

les gens et leurs vies (OSS, 2009).Elle diffère fortement des autres types de sécheresse du fait

qu’elle reflète la relation entre l’offre et la demande de certaines denrées ou de certains biens

économiques (i.e. grains, fourrage, énergie hydro-électrique...,etc.) qui sont tributaires des

précipitations (OMM,2012)

Page 16: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE I ETUDE BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 16

Figure I.1: Schémas des différents types de la sécheresse et de leurs impacts

I.1.3. Les impacts et les risques de la sècheresse

L’extension spatiale de la sécheresse est généralement plus importante que celle des autres

risques naturels et ses impacts sont non structuraux et difficiles à quantifier (Ellouza et Abida,

2008).

En période de sécheresse, la demande en eau tend à augmenter et l'approvisionnement

hydrique pour divers usages (domestiques, agricoles, industriels...,etc.) se pose en termes de

quantité et de qualité. En exerçant des contraintes sur l'approvisionnement en eau, la sécheresse

affecte nos vies et notre santé, dégrade notre environnement et porte préjudice à notre économie.

Page 17: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE I ETUDE BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 17

I.1.4. Les indices de la sécheresse

La difficulté de définir la sécheresse pousse les chercheurs à définir des indicateurs de ce

phénomène. Ces indicateurs permettent de déterminer d’une façon scientifique le seuil indiquant

la sécheresse à différentes échelles de temps et de définir des classes d’appartenance à cet

événement en fonction de sa sévérité et de sa position. Ils assurent également le suivi de la

sécheresse et la détection à différents stades de son évolution. Ces indices constituent également

un excellent moyen de communication avec le public et un outil de décision pour le

gouvernement.

Tableau I.1: Les différents types des indices de sécheresse

Indicateurs de la

sécheresse

Indicateurs

météorologiques Indicateurs agricoles

Indicateurs

hydrologiques

Le

s in

dic

es

Indice de pourcentage à la

normale (PN)

Indice de sévérité de la

sécheresse de Palmer

(PDS)

Indice de sécheresse de

Keetch Byram (KBDI)

Indice des déciles de

précipitation (DI)

L’indice du stress

hydrique des cultures

(Jackson, 1982) ou

(CWSI)

Indice de sécheresse de

Palmer (PDSI)

Indice de l'écart à la

moyenne (Em)

Indice de déficit

climatique (IDC)

Indice Crop Moisture

Index (CMI )

Indice de pluviosité (Ip) IndiceSurface Water

Supply Index (SWSI)

Rapport à la normale des

précipitations (RN)

Indice standardisé de

précipitation (SPI)

Ces indices utilisent généralement les mesures de précipitation recueillies aux stations

météorologiques pour décrire les conditions de sécheresse. Ils ont pour but de comparer les

valeurs actuelles à la tendance historique, ils sont simples, faciles et rapides à utiliser. Dans

notre étude on va s’intéresser à la prévision de l’indice de précipitation normalisé (SPI)

I.1.6. Indice de précipitation normalisé (SPI) :

Le SPI a été développé par McKee et al., en 1993.C’est un indicateur statistique utilisé pour la

caractérisation des sécheresses locales ou régionales. Basé sur un historique de précipitations de

Page 18: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE I ETUDE BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 18

longue durée, le SPI permet de quantifier l’écart des précipitations d’une période, déficit ou

surplus, par rapport aux précipitations moyennes historiques de la période. Cette période varie

généralement de 3 mois à 2 ans, selon le type de sécheresse que l’on désire suivre. (OSS, 2008).

Le calcul du SPI consiste à soustraire la moyenne annuelle des précipitations au cumul de la

pluie pour une année et de diviser le résultat par l'écart-type de la série.

Où :

SPI i : indice standardisé de précipitation de l’année ;

Pi : hauteur de pluie précipitée au cours de l’année ;

Pm : moyenne interannuelle des hauteurs de pluie sur la période observée ;

Écart de la pluie moyenne interannuelle ;

L’indice de précipitations normalisé (McKee et al., 1993; 1995) est un indice simple, puissant

et souple à la fois, et basé sur des données pluviométriques et permet tout aussi bien de vérifier

les périodes/cycles humides que les périodes/cycles secs. Le SPI compare les précipitations sur

une certaine période, en principe, 1 à 24 mois à la moyenne à long terme de précipitations.

Toutefois, il faut au moins des relevés pluviométriques mensuels étalés sur 20 à 30 ans, mais de

préférence, sur 50 à 60 ans pour calculer le SPI (Guttman, 1994). Les climatologues préfèreraient

travailler sur des séries de données complètes, c’est-à-dire des séries ne comportant aucune

donnée manquante. (Jouili, 2012).

L’Organisation Météorologique Mondiale a adopté l’indice de précipitations normalisé (SPI)

en 2009 comme instrument mondial pour mesurer les sécheresses météorologiques, aux termes

de la Déclaration de Lincoln sur les indices de sécheresse. L’OMM en promeut l’utilisation par

les services nationaux météorologiques et hydrologiques en association avec d’autres indices

utilisés dans chaque région et l’instrument sera soumis à l’approbation du Congrès

Météorologique Mondial lors de sa seizième session en juin 2011. (Jouili, 2012).

I.1.6.1. Interprétation du SPI

McKee et al. (1993) ont utilisé le système de classification présenté dans le tableau des

valeurs de l’indice SPI figurant ci-après (Tableau I.1) pour définir l’intensité des épisodes de

sécheresse en fonction de la valeur de l’indice.

Les valeurs 1,00 et au-dessus, représentent les classes humides, à -1,00 et moins, représentent

les classes sèches avec près de la normale des conditions allant de - 0,99 à + 0,99.

(I.1)

Page 19: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE I ETUDE BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 19

Tableau I.2 : Interprétation du SPI par rapport à leur valeur et leur probabilité au non-dépassement

selon Mckee (1993)

Classes SPI Probabilités cumulatives du SPI Interprétations

SPI ≥ 2 Prob. SPI ≥ 0,9772 Très Humide (TH)

1,50 ≤ SPI < 2 0,9332 ≤ Prob. SPI < 0,9772 Humide (H)

1 ≤ SPI < 1,50 0,8413 ≤ Prob. SPI < 0,9332 Modérément Humide (MH)

-1 < SPI < 1 0,1587 < Prob. SPI < 0,8413 Normale (N)

-1,50 < SPI ≤ -1 0,0668< Prob. SPI ≤ 0,1587 Modérément Sec (MS)

-2 < SPI ≤ -1,50 0,0228 < Prob. SPI ≤ 0,0668 Sec (S)

SPI ≤ -2 Prob. SPI ≤ 0,0228 Très Sec (TS)

I.1.6.2. Avantages et inconvénients de la méthode

Avantages

L’indice SPI offre une bonne souplesse d’utilisation: il est possible de le calculer pour de

multiples échelles de temps.

Quand il porte sur un laps de temps relativement court, entre 1 et 3 mois par exemple,

l’indice SPI permet de détecter rapidement les situations de sécheresse et d’en évaluer la

gravité.

Différentes régions peuvent être comparées.

Les périodes humides sont aussi surveillées.

Inconvenient

L’indice SPI ne repose que sur les relevés de précipitations.

Le bilan hydrique du sol n’étant pas pris en compte, l’indice ne permet pas le calcul du

rapport évapotranspiration/évapotranspiration potentielle (ET/ETP).

Grâce à une variante de l’indice qu’ils ont mis au point, Vicente-Serrano et al., (2010)

tentent de régler le problème mentionné ci-dessus en prenant en compte la température dans

les calculs du nouvel indice qu’ils nomment indice de précipitations et d’évapotranspiration

normalisé (SPEI).

Page 20: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE I ETUDE BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 20

I.1.4.4. Valeurs de l’indice de précipitations normalisé pour une période plus ou moins

longue

A. Indice SPI sur 1 mois

Une carte de l’indice SPI calculé sur 1 mois ressemble beaucoup à une carte représentant le

pourcentage de la normale des précipitations pour une période de 30 jours. L’indice dérivé offre

en fait une représentation plus exacte des précipitations mensuelles, car la distribution est

normalisée. À titre d’exemple, l’indice SPI sur 1 mois se terminant fin novembre établit la

comparaison entre le total mensuel des précipitations pour novembre de l’année examinée et les

totaux mensuels des précipitations en novembre de toutes les années pour lesquelles on dispose

de relevés.

B. Indice SPI sur 3 mois

L’indice SPI sur 3 mois établit la comparaison entre le total des précipitations sur la période

de trois mois examinée et les totaux des précipitations pour cette même période de trois mois de

toutes les années pour lesquelles on dispose de relevés. En d’autres termes, l’indice SPI sur 3

mois se terminant fin février permet de comparer le cumul des précipitations des mois de

décembre, janvier et février de l’année examinée aux cumuls de précipitations de décembre à

février de toutes les années figurant dans l’historique des observations exécutées à la station

étudiée.

C. Indice SPI sur 6 mois

L’indice SPI sur 6 mois établit la comparaison entre les précipitations sur la période de six

mois examinée et les totaux des précipitations pour cette même période de six mois de toutes les

années pour lesquelles on dispose de relevés. À titre d’exemple, un indice SPI sur 6 mois se

terminant fin septembre permet de comparer le cumul des précipitations d’avril à septembre de

l’année examinée aux cumuls de précipitations de cette même période pour toutes les années

écoulées.

L’indice SPI sur 6 mois fournit une indication sur les tendances des précipitations sur une

saison et jusqu’à moyenne échéance; on considère que pour cette échelle de temps, il présente

encore davantage de sensibilité aux conditions que l’indice Palmer.

D. Indice SPI sur 9 mois

L’indice SPI sur 9 mois fournit une indication sur les régimes de précipitations inter-

saisonniers, à moyenne échéance. Il faut en général au moins une saison pour que des conditions

de sécheresse s’installent. Un indice SPI établi sur 9 mois et présentant des valeurs inférieures à -

Page 21: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE I ETUDE BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 21

1,5 est habituellement un bon indicateur de conditions sèches aux conséquences importantes

pour l’agriculture et pouvant affecter d’autres secteurs également.

E. Indice SPI sur 12 mois et jusqu’à 24 mois

À ces échelles de temps, l’indice SPI fournit une représentation des régimes de précipitations

à longue échéance. L’indice SPI sur 12 mois établit la comparaison entre les précipitations sur

une période de 12 mois consécutifs et celles enregistrées sur la même série de 12 mois

consécutifs de toutes les années pour lesquelles on dispose de relevés. Étant donné que ces

échelles de temps constituent le cumul de périodes plus courtes pouvant se situer au-dessus ou

au-dessous de la normale, les valeurs des indices SPI établis pour une période relativement

longue tendent à graviter autour de zéro, à moins qu’une tendance humide ou sèche bien

distincte ne se soit installée. Les indices SPI pour ces échelles de temps sont en général associés

au débit des cours d’eau, au niveau des réservoirs et au niveau des eaux souterraines à

relativement long terme. Pour certaines stations, l’indice SPI sur 12 mois présente une bonne

corrélation avec l’indice Palmer et les deux indices peuvent mettre en évidence des conditions

analogues.

I.1.5. Prévision de la sécheresse

Contrairement à toutes les autres catastrophes, la sécheresse est le phénomène naturel le plus

lent à se développer. Cela permet généralement d’avoir plus du temps d’atténuer ses effets et

mettre en œuvre des plans de suivi appropriés (Cancelliere et al., 2007). La prévision de la

sècheresse permettra ainsi de prévoir les conditions de sécheresse à l'avance par soit quelques

mois, saisons ou quelques années. Par ailleurs, divers outils et méthodes pour la prévision des

sécheresses ont été proposés et testés dans différentes régions au cours des dernières décennies

(Dastorani et Afkhami, 2011) en se basant sur deux approches fondamentales, à savoir : La

première est la prédiction des conditions hydrologiques et la seconde est la prédiction des indices

de sécheresse. La révision des conditions hydrologiques comporte habituellement la prévision du

climat et la prévision d'écoulement dans les rivières. Actuellement la détection et la surveillance

des conditions de sècheresse sont essentiellement basées sur certains indices. Ces indices

permettent de déterminer d’une façon scientifique le seuil indiquant la sécheresse à différentes

échelles de temps et de définir des classes d’appartenance à cet événement en fonction de sa

sévérité et de sa position. La communauté scientifique a développé et étudié un certain nombre

d’indicateurs de sècheresse au cours des cinquante dernières années afin d’anticiper, de suivre et

de caractériser les différents épisodes extrêmes qui touchent diverses régions du globe. La

plupart des indices de sécheresse ont été élaborés aux Etats-Unis, mais sont régulièrement

employés sur les autres continents.

Page 22: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE I ETUDE BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 22

Foley (1957) fut le premier à suggérer le calcul d’un indice donnant des informations sur la

sévérité d’une sécheresse. Ce n’est que plus tard que des indicateurs de sécheresse plus

pertinents furent définis. Très utilisé aux Etats-Unis (Heim, 2002), le Palmer Drought Severity

Index (PDSI) (Palmer, 1965), par exemple, est un indicateur calculé à partir d’un bilan d’eau

simplifié. Cependant ces indicateurs ne proposent pas d’échelle de temps explicite permettant de

détecter à la fois les sécheresses courtes et les sécheresses longues (Alley, 1984; Gutmann et al.,

1992; Lloyd-Hughes et Saunders,2002).

Un autre type d’indicateur, recommandé par l’OMM (Organisation Météorologique

Mondiale) en 2012 pour surveiller les sécheresses et gérer les risques liés au climat, est le

Standardisé Index (Gibbs, 1975). Très largement utilise par la communauté scientifique (McKee

et al, 1993 ; Lloyd-Hughes et Saunders, 2002 ; Labedzki, 2007 ; Bordi et al., 2009 ;Vidal et al.,

2010, etc.), cet indicateur peut être calculé à partir de différentes variables, telles que les

précipitations, l’humidité du sol, les débits ou encore l’évapotranspiration potentielle.

L’indicateur le plus connu et le plus utilisé est le Standardized Precipitation Index (SPI, McKee

et al., 1993). Il est basé, comme son nom l’indique sur les données de précipitation et permet de

qualifier les sécheresses météorologiques. Il a été développé en vue de caractériser les déficits de

précipitation pour une période donnée et correspond à la transformation de la série temporelle

des précipitations en une distribution normale standardisée de moyenne nulle et d’écart-type

unitaire (distribution gaussienne). Cela revient donc à ajuster une fonction de densité de

probabilité a la distribution de la fréquence des précipitations sommées ou moyennes, sur une

échelle temporelle définie (généralement, 3, 6, 9, 12 et 24 mois). L’ajustement se fait séparément

pour chacun des mois de l’année afin de conserver la saisonnalité. Chaque densité de probabilité

cumulée est ensuite transformée en une distribution normale standardisée (Gaussienne), de

moyenne nulle et d’écart type unitaire. Chaque valeur du SPI est alors reliée à un degré de

sévérité et une probabilité d’occurrence de la sécheresse. Il a été montré à plusieurs reprises que

le SPI était plus adapte que le PDSI pour suivre les sécheresses (Guttman,1998 ; Hayes, 1999 ;

Keyantash et Dracup, 2002).

L’inconvénient de tous ces indices est qu’ils sont pertinents seulement lorsqu’ils sont calcules

sur des séries longues de données (au moins 30 ans). Ainsi, il parait difficile d’anticiper les

sécheresses en tout point du globe, à partir de données observées. Si plusieurs types de jeux de

données observées, notamment les données satellitaires et les données in situ, permettent

aujourd’hui d’étudier et de suivre précisément, voire d’anticiper les épisodes de sécheresses sur

certaines régions du globe, il s’avère intéressant d’exploiter au maximum aussi les données

Page 23: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE I ETUDE BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 23

simulées grâce à des modèles numériques, qui permettent généralement de produire des données

sur de plus longues périodes à l’échelle globale.

I.2. MODELES DE PREVISION DES SERIES CHRONOLOGIQUES

Les progrès de la science ont permis de comprendre plusieurs aspects de notre environnement

et, par conséquent, la prédictibilité d'un grand nombre d'événements a augmenté (Steven C et al,

1998). De plus, la technologie informatique permet d'enregistrer et de traiter une énorme quantité

d'observations à moindre coût, ce qui n'a pas toujours été le cas. Ces deux éléments ont donc

renforcée notre capacité à prévoir les résultats d'un certain nombre de phénomènes.

Pourquoi faire des previsions? ‘’understanding the past to forecast the future" (A. S. Weigend

et N. A. Gershenfeld, 1993). La prévision est fondamentale dans la mesure où elle est à la base

de l'action." dit Guy Melard (1990). Le désir de prévoir le futur serait donc motivé par la volonté

de l'améliorer ou de s'y préparer. Nos choix sont donc généralement dirigés par l'anticipation des

conséquences de différentes actions. En d'autres termes, la prise de décision est généralement

basée sur des prévisions.

Comment faire des prévisions? Pour pouvoir effectuer des prévisions, on a besoin

d'informations concernant le passé et on doit pouvoir supposer que certains comportements du

passé continueront à se reproduire dans le futur : c'est ce qu'on appelle l'hypothèse de continuité

(Steven C et al ,1998). Notre rôle sera donc d'analyser et d'utiliser cette information passée pour

tenter d'en extraire des particularités, qui seront ensuite utilisées pour effectuer des prévisions.

Il existe de nombreuses publications de recherche liées à la prédiction des séries

chronologiques :

Après avoir publié le document de Box et Jenkins (1976), les modèles ARIMA et ARMA ou

Box-Jenkins sont devenus l'un des modèles généraux de séries chronologiques pour la prévision

hydrologique. Cependant, ces modèles sont très utiles pour prévoir les changements dans un

processus (Karamouz et Araghinejad, 2012).

Utilisation de modèles de séries chronologiques (ARMA et ARIMA) Et les réseaux

neuronaux artificiels a été la prévalence très bien dans différents Domaines hydrologiques

suivants:

Toth et al. (2000) ont utilisé le réseau de neurones artificiels et ARMA pour prévoir les

précipitations. Les résultats ont montré le succès Des modèles à court terme de prévision des

précipitations pour les prévisions des inondations En temps réel. Les Kisi et Cigizoglu (2005) en

utilisant des neurones artificiels dynamiques pour L'afflux, le stockage et l'évaporation mensuels

Page 24: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE I ETUDE BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 24

sur le bassin Canak Dere, les résultats pour l'épargne mensuelle et l'évaporation mensuelle

étaient satisfaisants, mais la prévision de l'écoulement mensuel par rapport à l'épargne mensuelle

et l'évaporation avait une précision inférieure. Ils ont utilisé les fonctions d'activité radiale et

sigmoïde dans le réseau neuronal artificiel dynamique. Leurs résultats de recherche ont montré

que la fonction d'activité sigmoïde a une priorité sur la fonction d'activité radiale. Valipour

(2012b), dans une autre étude utilisant l'analyse des séries temporelles (AR, MA, ARMA et

ARIMA), a étudié le nombre de données d'observation requises pour la prévision des

précipitations en fonction des conditions climatiques. Les résultats ont montré que les modèles

de séries chronologiques étaient mieux adaptés à la prévision des précipitations dans le climat

semi-aride, le nombre de données d'observation requises pour la prévision de 1 année suivante

était de 60 données pluviométriques dans le climat semi-aride.

I.2.1. les séries temporelles (chronologiques)

Une série temporelle est une suite finie x1, x2, …,xn de données indexées par le temps.

L'indice temps peut être selon les cas : la minute, l'heure, le jour, l'année etc. La discipline qui

traite ce type de quantités est l’analyse des séries temporelles. L’analyse des séries temporelles

en question consiste en opération de prédiction, de modélisation et caractérisation. L’objectif de

prédiction est de prévoir avec précision l’évolution à cours termes de séries temporelles, et la

modélisation vise la détermination des caractéristiques du comportement à long terme, la

caractérisation à comme but de déterminer les propriétés fondamentales d’une série temporelle.

La prévision est le sujet de ce travail. Nous rappelons que prédiction des séries temporelles a

principalement débuté dans les années 70, de nombreuses techniques de prévision de l'évolution

des systèmes dynamiques ont été développées pour des domaines aussi variés que l’agriculture,

la météorologie, l’automatique, la finance, etc.

I.2.2. Les Modèles stochastique de prévision

Parmi les modèles de séries temporelles linéaires représentent différents processus

stochastiques et présentent de nombreuses variétés telles que les modèles autorégressifs (AR), les

modèles intégrés (I) et les modèles de moyenne mobile (MA), qui dépendent linéairement de

leurs points de données antérieurs. Les combinaisons de ces modèles produisent de nouveaux

modèles comme moyenne mobile autorégressive (ARMA) et moyenne mobile intégrée

autorégressive (ARIMA).

Et parmi les autres types de modèles de séries chronologiques non linéaires, il existe certains

modèles pour désigner les changements de variance au fil du temps.. Les modèles ARCH

Page 25: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE I ETUDE BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 25

(AutoRegressive Conditionnel Heteroskedastic) et GARCH (Generalized ARCH). Ils ont été

introduits par Engle (1982) et Bollerselev (1986) (on parlede de modèle à variance

stochastique).

I.2.2.1. Processus de moyenne mobile MA.

On appelle moyenne mobile d’ordre q, notée MA(q), le modèle défini par l’équation :

(I.2)

Où les sont les paramètres à moyenne mobiles et les sont les bruits blancs.

Bruit blanc

Une série temporelle s'appelle un bruit blanc discret si

Les sont répartis de manière identique

lorsque t1 ≠ t2

(t, t) = , où 0 < <∞

I.2.2.2. Modèle autorégressif AR

AR (p) ou modèle d'ordre autorégressif c’est un modèle qui relie une variable de série

temporelle aux données passées

(I.3)

Où est la valeur de la série à l’instant t, p est l’ordre du modèle, les sont les paramètres

autorégressifs et représente le bruit blanc. On note le modèle autorégressif d’ordre p AR(p).

I.2.2.3. Le processus ARMA (Box & Jenkins, 1976)

Le processus AutoRégressif, Moyenne mobile ou moyen de migration automatique, ARMA

(p, q), est une combinaison des processus MO moyen (p) et AR (q) autorégressif. Comme le

montre l’équation (I.4)

(I.4)

Où les sont des réels et est un bruit blanc de variance .

Page 26: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE I ETUDE BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 26

I.2.2.4. Modèle ARIMA (Salas et al. 1988)

La moyenne mobile intégrée autorégressive, ARIMA (p, d, q), le processus des ordres p, d et

q est un processus, Xt, dont les différences satisfont un ARMA (p, q) Qui est un

modèle stationnaire dans lequel d est un nombre entier non négatif. Nous utilisons la notation

suivante:

(I.5)

Où :

Le paramètre d dans le modèle ARIMA représente la dième différence de pour trouver une

série temporelle stationnaire comme suit ;

(I.6)

I.2.3. Modèles à base de réseaux de neurones artificiels

Les réseaux de neurones sont parmi les outils intelligents en étaient appliqués au problème de

prédiction des séries temporelles et ont démontrées un grand succès. Les réseaux de neurones

artificiels sont issus de travaux réalisés dans le domaine de l'intelligence artificielle pour

modéliser le fonctionnement du cerveau humain (McCulloch et Pitts 1943).

Les réseaux de neurones sont apparus dans les années cinquante mais n’ont reçu cependant

un intérêt considérable qu’à partir des années quatre vingt avec l’apparition de l’algorithme de

rétropropagation (Rumelhart et McClelland, 1986). Leur capacité d’apprentissage et

d’approximation de fonctions leur procure un intérêt considérable de la part des chercheurs. Il

suffit de voir les nombreuses applications industrielles qui en découlent à partir des années 90 et

de consulter l’abondante littérature sur le sujet pour s’en convaincre.

Les réseaux de neurones artificiels ont déjà été appliqués à la prévision de séries temporelles.

En particulier, ils ont eu un succès retentissant pour prédire l'évolution des prix des actions en

bourse (Refenes et al., 1994). Dans le domaine des sciences de l'eau, on retrouve des applications

à la prévision de la demande en eau (Cubero 1991), des précipitations (French et al. 1992), de la

qualité de l'eau (Maier et Dandy 1996) et du débit (Karunanithi et al.,1994; Hsu et al., 1995;

Smith et Eli, 1995; et Zhang et Trimble, 1996) ainsi que pour la gestion d'un réservoir en temps

réel (Sakakima et al. 1992). Pour toutes ces applications, un réseau de neurones perceptron à une

Page 27: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE I ETUDE BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 27

couche intermédiaire a été utilisé. Lapedes et Farber (1987) ont montré que ce type de réseau

constitue un modèle autorégressif non-linéaire (NAR). Des architectures plus complexes, que

l'on nomme réseaux récurrents (Williams 1990), constituent une classe de modèles autorégressifs

à moyenne mobile non-linéaires (NARMA).

Le premier avantage de ces réseaux est qu'ils peuvent accepter des entrées dynamiques

représentées par des séries chronologiques. La prévision des séries chronologiques utilisant le

réseau neuronal (NN) est une méthode non paramétrique, ce qui signifie que la connaissance du

processus qui génère les séries chronologiques n'est pas indispensable. D'une part, le modèle

NAR utilise les valeurs passées de la série chronologique pour prédire les valeurs futures. D'autre

part, le modèle RNN n'a pas besoin de valeurs de séries temporelles passées en tant qu'entrées ni

retards, puisqu'il présente des connexions récurrentes dans sa propre structure.

I.2.3.1. Réseau de neurones artificiels autorégressif non-linéaire (NAR)

Lapedes et Farber (1987) ont montré que le réseau perceptron à une couche intermédiaire

constitue un modèle autorégressif non-linéaire (NAR). (Chakraborty et al., 1992) ont montré que

pour des séries réelles cette approche pouvait s'avérer supérieure à l'utilisation de modèles

linéaires AR et ARMA dans le cas multi-varié.

Dans cette étude, nous nous concentrons sur une expérience utilisant des réseaux nerveux

NAR pour prédire la sécheresse dans les deux plaines: Metidja et Haut Cheliff.

Page 28: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE

ENSH –SEPTEMBRE 2017 28

II.2. PRESENTATION DE LA ZONE D’ETUDE

Introduction

Notre zone d’étude est située dans la partie Nord et Nord-Ouest de l’Algérie, elle regroupe

deux grandes plaines, à savoir la plaine de Metidja et la plaine de Haut Cheliff.

Figure II.1 : Présentation des deux plaines étudiées.

II.1. LA PLAINE DE MITIDJA :

La plaine de la Mitidja a fait l'objet de plusieurs études et projets d'amélioration

(développement) et ce au grand rôle qu'elle joue sur le plan économique et agricole.

L’importance qu'occupe cette région est due grâce à

La fertilité de son sol

Sa situation stratégique : sa proximité de la capitale, son accessibilité, et la facilité de transport

de la marchandise grâce au réseau routier qui l'entoure.

Son climat favorable avec une précipitation moyenne de 600 mm.

La diversité des cultures appliquées (arboriculture, cultures maraîchère)

Page 29: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE

ENSH –SEPTEMBRE 2017 29

Figure II.2 : Situation de la plaine de Mitidja

(Source ANRH BLIDA)

Page 30: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE

ENSH –SEPTEMBRE 2017 30

II.1.1. Relief de la Mitidja

Avec une superficie totale de 1400 km2 et une superficie agricole de 120.000 ha à 130.000 ha,

la plaine de la Mitidja englobe les wilayas; Alger, Blida, partiellement celles de Tipaza et

Boumerdes.

Cette plaine est une dépression longue d'environ 100 km sur 15 à 20 km de large resserrée

entre l'Atlas blidéen au sud, et le sahel au Nord, elle est largement ouverte sur la mer, sur une

trentaine de kilomètres.

Dans sa partie ouest, les collines du sahel entrent au contact du massif montagneux de

chenoua (Z=905 m) et rejoignent, au plateau de fadjana, les premières hauteurs de l'Atlas (djebel

thebarrarine au sud, Z=853 m).

Figure II.3 : Situation géographique de la Mitidja

(Source : Programme d'aménagement côtier (PAC), 2006)

La plaine de la Mitidja descend en pente douce du sud au nord, de l'Atlas vers les collines.

Cinquante mètres seulement entre Ahmeurs-el-Ain et le fond du lac halloula.

Page 31: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE

ENSH –SEPTEMBRE 2017 31

De l'extrémité ouest d'Alger, sur 70 km, la plaine ne communique avec la mer que par

l'intermédiaire de l'oued nador et 40 km plus loin par le mazafran.

Comme la présente la figure II.3, ci-dessus on peut définir quelques éléments délimitant la

plaine de la Mitidja partant du Sud vers le Nord.

L'Atlas blidéen, culmine à 1600 m, avec des pentes très fortes (supérieures à 30%) qui sont

sujettes à une érosion intense, là où la couverture végétale fait défaut. Le Piémont de l'Atlas,

avec une altitude qui varie entre 200 et 600 mètres, présente des conditions favorables pour un

développement agricole. Le sahel et la baie d'Alger.

II.1.2 Climat de la Mitidja

Le climat est méditerranéen avec une influence continentale (le sirocco en été), des hivers

pluvieux et doux, et des étés chauds et secs.

Tableau II.1 : Pluies de l'année 2010

Mois J F M A M J J A S O N D Total

Pluies

(mm)

34.2 15.0 49.6 20.8 60.7 9.2 11.0 0.0 16.5 131.4 180.6 111.4 640.4

(Source: l'ANRH BLIDA)

II.1.2.1. Température

Les températures jouent un grand rôle dans la détermination de la période de l'irrigation tout a

fait comme les précipitations, les paramètres climatiques de l'année 2010 sont présentées dans les

tableaux suivants :

Tableau II.2 : Températures de l'année 2010

T°C J F M A M J J A S O N D

Max 14.8 12.6 19.2 21.0 19.8 28.3 31 29.2 33.0 28.2 19.0 14.5

Min 8.5 7.5 7.7 13.0 14.0 18.0 25.5 24 15 15 11 7.3

Moy 12.1 13.1 13.8 16.2 17.6 23.0 27.9 26.6 23.0 21.1 14.5 11.4

(Source : ANRH BLIDA)

Les températures les plus élevées se trouvent durant les mois de juillet et aout.

II.1.2.2. Humidité

Tableau II.3 : Humidité de l'année 2010

Mois J F M A M J J A S O N D

Hum % 14.8 12.6 19.2 21.0 19.8 28.3 31 29.2 33.0 28.2 19.0 14.5

(Source : ANRH BLIDA)

Page 32: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE

ENSH –SEPTEMBRE 2017 32

Les mois les plus humides sont : juillet, aout, septembre, octobre

II.1.2.3. Vent

Tableau II.4 : Vent de l'année 2010

Mois J F M A M J J A S O N D

vent (m/s) 1.5 2.0 3.4 3.0 3.1 3.2 2.8 2.7 3.30 2.3 2.9 2.6

(Source : ANRH BLIDA)

La vitesse du vent dans la Mitidja ouest a atteint les 3.3 m/s durant le mois de septembre.

II.1.3. Réseau hydrographique et ouvrages d'alimentation dans la plaine

II.1.3.1. Réseau hydrographique

La plaine de Mitidja est traversée par plusieurs Oueds qui coulent généralement du Sud vers

le Nord. Il s’agit principalement De l’Ouest à l’Est de :

Oued Djer qui se trouve à l’Ouest du chef-lieu de Daira d’El Affroun et à l’extrémité

Ouest de la Wilaya de Blida.

Oued Bouroumi qui est situé à l’Est de la ville d’El Affroun.

Oued Chiffa qui est localisé au bord de la ville du même nom et à l’extrémité Ouest de

la ville de Blida.

Ces trois oueds forment en aval de la plaine l’Oued Mazafran qui se jette dans la mer

Méditerranée.

Oued El Harrach qui se trouve à l’Ouest de la ville de Bougara qui se jette dans la

mer après la traversée de la localité d’El Harrach.

Oued djamaa qui est situé à la périphérie Ouest de la ville de l’Arbaa et rejoint Oued El

Harrach prés la ville de Bareki.

Les Oueds mentionnés ci-dessus sont en grande partie en liaison hydraulique avec la nappe de

la Mitidja puisque leurs eaux peuvent s’infiltrer ou inversement drainer la nappe. Ces cours sont

généralement pérennes.

En outre, la plaine de Mitidja est répartie entre trois sous bassins versants (bassin versants des

oueds Mazafran, El Harrach et El Hamiz) qui appartiennent en totalité au grand bassin versant

des côtiers Algérois. Par conséquent les exutoires des eaux superficielles qui traversent la plaine

sont situés à l’aval de ces trois Oueds, en bordure de la mer méditerranée où les eaux se jettent.

Page 33: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE

ENSH –SEPTEMBRE 2017 33

II.1.3.2. Ouvrage d'alimentation en eau pour l'agriculture

On distingue deux types d'ouvrage d'alimentation :

Alimentation par les eaux de surface collectées au niveau des barrages ou des retenues

collinaires.

Alimentation par les eaux souterraines par l'intermédiaire des forages et des puits.

A. les barrages

En ce qui concerne la tranche I de la Mitidja ouest le seul barrage qui est destiné à son

irrigation est celui de bouroumi qui a une capacité de rétention de 188 106 m

3 (selon l'agence

nationale des barrages) ; ce barrage se localise dans la wilaya de Blida à 8 km à l'Est du village

de boumadfaa, il est implanté dans le défilé rocheux qui traverse l'oued bouroumi avant de

joindre la plaine de la Mitidja. L'alimentation de ce barrage se fait à partir de l'oued djer, oued

chiffa, oued harbil en plus d'oued principal qui est celui de bouroumi.

B. Forages et puits (les eaux souterraines)

Comme présente la carte ci-dessous (figure II.4) on peut dire que la commune de Mouzaia se

trouve sur la nappe de la Mitidja ce qui permet aux agriculteurs d'irriguer leurs parcelles à partir

des puits et des forages en raison de la faiblesse des eaux de surface.

Figure II.4: localisation de la nappe de la Mitidja.

(Source : www.gecos.dz)

B.1. Caractéristiques de la nappe de la Mitidja

L'alimentation de la nappe de la Mitidja se fait à partir des eaux de surface (nappe libre) ou

par les sources de l'Atlas Blidéen et du sahel. L'écoulement de ces eaux souterraines se fait en

général du Sud vers le Nord.

B.2. Etat de la nappe

Page 34: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE

ENSH –SEPTEMBRE 2017 34

,

En raison du manque d'eau et de la mauvaise qualité de service de l'eau de surface, les

agriculteurs ont pour la plupart opté pour l'utilisation des eaux souterraines. Cette forme

d'exploitation a pour conséquence le rabattement de la nappe et sa probable disparition à terme.

II.1.4. Occupation des sols par cultures appliquées

Selon les résultats des enquêtes menées en 2006, la culture la plus répandue dans cette zone

est l'agrume avec 38% de la surface cultivée.

II.2. LA PLAINE DE HAUT CHELIFF :

La plaine alluviale du Haut Cheliff appelée aussi plaine d’El-khemis appartient à la wilaya

d’Ain Defla, située à 120 Km au Sud Ouest d’Alger et 25 Km à l’Est du chef-lieu de la wilaya

sur la route nationale N°4. Appartenant au sous bassin versant du Haut Cheliff d'un périmètre de

1025 Km et une superficie de 21035 Km2, cette plaine est limitée au Nord par les monts du

Zaccar, au sud par les contreforts de l’Ouarsenis, à l’Ouest par le massif de Doui et à l’Est par

djebel Gountas.

II.2.1. Morphologie :

La plaine a une pente relativement faible (15%) (Hatta, 1998). Elle est bordée au Nord par des

cônes de déjection qui constituent la zone de transition entre la vallée et la montagne. Ce secteur

est entouré au Nord par le massif de Zaccar et au Sud par Djebel Ouarsenis. La côte altimétrique

varie de 200m au niveau de la plaine à 1000m au niveau des sommets.

II.2.2. Urbanisation et démographie :

D’après le recensement 1999-2000 (DRE Ain Defla), la population totale de la zone d’étude

contenant 33 communes était 345 756 Habitants avec un taux de croissance de 3% par an. 65%

de cette totalité se localisent dans les zones à vocation agricole, semi urbaines et rurales où la

majorité s’alimente en eau par des forages ou des puits destinés à leur propos (DRE Ain Defla.,

2003).

II.2.3. Agriculture:

La plaine d’El-khemis est à vocation essentiellement agricole. Sa grande partie est occupée

par les cultures maraîchères et arboricultures et l’autre partie est utilisée pour les céréales

(OPIC., 2003)

II.2.3.1. Occupation du sol :

Chaque campagne d’irrigation est caractérisée par son assolement réalisé qui dépend du plan

de culture prévisionnel et la disponibilité des ressources en eau. Les cultures pratiquées dans les

Page 35: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE

ENSH –SEPTEMBRE 2017 35

dernières années montrent que les superficies irriguées ne dépassent pas 6000 Ha/Campagne sur

une totale de SAU de 16300 Ha.

Figure II.5 : Evolution des superficies irriguées dans le temps

II.2.4. Climatologie :

Avec un climat semi-aride de type méditerranéen, le Haut Cheliff est caractérisé par des étés

très chauds et des hivers tièdes et ce malgré la proximité de la mer (à environ 120 Km). Les

paramètres climatiques sont les suivants:

II.2.4.1. Température :

Les températures moyennes mensuelles sur une période de 40 ans pour les deux stations

d’ElKhemis et celle du Barrage Ghrib.

Tableau II.5: Valeurs de la température en C°

(Source: ANRH ALGER)

La température dans la région est maximale en Août, variant entre +27°C et 27,3°C, soit une

moyenne de l’ordre de +27,2°C., et minimale en Janvier entre +8,9°C et 8,2°C, soit une

moyenne de 8,6 °C.

II.2.5 Aspect hydrologique :

L’Oued Cheliff, le cours d’eau le plus important de l’Algérie du Nord traverse tout notre

secteur suivant un axe Est en Ouest. Notre plaine est séparée de la plaine du moyen Cheliff par le

STATION Sept

Oct Nov Dec Janv Fev Mar

s Avri

l Mai Juin Juil

Aout

Moy.

annuelle

Khemis 23.3 18.3 13 9.9 8.9 10.3 11.8 13.8 18 22.7 26.7 27.3 17.0

Barrage

Ghrib 21.9 17.5 12.7 8.8 8.2 9.3 12.3 13.3 17.6 22.3 26.1 27 16.4

Page 36: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE

ENSH –SEPTEMBRE 2017 36

seuil du Doui, ce seuil constitue un barrage relativement étanche entre les deux bassins qui n’ont

pour seule communication que le cours d'eau superficiel du Cheliff.

D’amont en aval de la zone d'étude, l'oued cheliff est influencé par le seuil naturel du Doui,

sièges d’échanges particuliers entre eaux de surface et aquifères.

En été, l’écoulement dans le Cheliff est quasi-nul, son alimentation étant essentiellement due

aux irrigations auxquels viennent s’ajouter quelques faibles débits provenant des lâchés du

barrage Ghrib où barrage Deurdeur où celui du Barrage Harreza.

En Hiver; les eaux issues des principaux affluents représentés par les oueds souffay, Boutane

et Rayhane, au nord et les oueds Deurdeur, Massine et Harrazza au sud sont collectées au centre

de la plaine par l’oued Chélif qui chaîne toutes les eaux du bassin versant vers l’exutoire

(SOGREAH.,1984) ( Fig II.7 ).

Figure II.7 : Réseau hydrographie de la zone d'étude

(Source: ANRH ALGER)

Plaine du haut cheliff

Page 37: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE

ENSH –SEPTEMBRE 2017 37

II.2.6. Cadre géologique général et Litho stratigraphie :

II.2.6.1. Cadre géologique général:

La plaine de Khemis-Miliana , d'apres (Perrodon.,1957) comme le montre (fig.II.8),

appartient à un bassin sédimentaire récent, Mio-plio-quaternaire.

L’autochtone de la région est constitué par les massifs jurassico-primaire du Zaccar, du Doui

et des Aribs. Le sillon intramontagneux auquel correspond le bassin du haut Cheliff a été comblé

par les sédiments néogènes et quaternaires en provenance des massifs environnants suite à une

désagrégation des différentes formations.

Figure II.7 : Carte géologique de la plaine d’EL-Khemis (Perrodon ,1957)

II.2.6.1. Litho stratigraphie :

Le secteur d’étude est représenté par des terrains anté-miocénes et les terrains de la plaine du

Cheliff qui représente l’aquifère même de la plaine. Donc on peut dire que l’étude géologique

(Perrondon. 1957) permet de mettre en évidence deux formations susceptibles d’être aquifères, il

s’agit :

- Des formations calcaires du Jurassique.

- Des dépôts alluvionnaires quaternaires de la plaine de Khemis-Miliana.

Page 38: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE

ENSH –SEPTEMBRE 2017 38

II.2.7. Aspect hydrogéologique :

La plaine alluviale du Haut Cheliff est un remplissage alluvionnaire d’âge Mio-Plio-

Quaternaire, représenté par des dépôts alluvionnaires comme du quaternaire et des grés du Mio-

Plio-Quaternaire d’une épaisseur de 50 m à 100 m au niveau de oued Chélif et d’une résistivité

de 100 ohm.m. Les marnes constituent le substratum de cet horizon aquifère. (Voir Tableau II.6)

L’alimentation de cette nappe est assurée par les eaux d’infiltration des:

Précipitations tombant sur la plaine.

Eaux de ruissellement des oueds (Deurdeur, Chélif, Souffay, Boutane…ext)

(SOGREAH.,1984).

Eaux d’irrigation excédentaires

Tableau II.6: Comportement hydrogéologique des différentes formations de la plaine d’El-

khemis

Formations Epaisseur

(m)

Age

géologiqu

e

Comportement

hydrogéologique Type de nape

Limons 6 – 20 Quaternair

e Imperméable

Peuvent rendre la nappe

des alluvions captive.

Alluvions

grossières 50-150

Quaternair

e

Perméable (porosité

d’interstices)

Captives à semi-captive

(parfois libre)

Marnes 200 Pliocène Imperméable -

Grés et

poudingues 100 – 200 Miocène

Perméable (porosité

d’interstices)

Nappe captive à semi-

captive (non exploitée)

(Source : ANRH Alger)

II.2.8. La piézométrie :

Dans le but d'étudier le comportement hydrodynamique de l'aquifère mio-plio- quaternaire,

l'étude piézométrique s'est déroulée en septembre 2003 (basses eaux) et en Avril 2004 (hauts

eaux) par des prélèvements des niveaux statiques des 34 puits repartis sur toute la plaine.

Page 39: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE

ENSH –SEPTEMBRE 2017 39

Figure II.8 : Carte piézométrique de la nappe alluviale du Haut Cheliff (période des basses eaux 2003)

(Source : ANRH ALGER)

Page 40: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE II PRESENTATION DE LA ZONE D’ETUDE

ENSH –SEPTEMBRE 2017 40

Figure II.9 : Carte piézométrique de la nappe alluviale du Haut Cheliff (période des hautes eaux 2004)

(Source : ANRH ALGER)

Page 41: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 41

II.3. CHOIX DE L’AIR D’ETUDE

Notre zone d’étude est située dans la partie Nord et Nord-Ouest de l’Algérie. Le choix se justifier

par l’ampleur de la sécheresse au cours de ces derniers années sur cette zone (Meddi, 2010). Outre,

cette parie regroupe des plaines fertiles avec un recours de plus en plus intense a l’irrigation, au

déterminent de l’équilibre des ressources en eau (Meddi, 2009). Ajoutant la grande population

concentrée dans l’air d’étude, où les besoins en eau s’accroissent d’année en année. Un tel contexte

nécessite des études bien précises sur l’évolution des paramètres climatiques, dans le but de

connaitre en mieux les circonstances futures ‘afin de mettre en œuvre des outils de gestions

efficaces et durables. (Zeroual, 2017).

II.4. CHOIX DES STATIONS

Pour un bassin versant donné ou une région donnée, les stations pluviométriques et

hydrométriques sont installées dans des conditions propres et forment le réseau d’observation. Les

données relatives aux stations sont d'une haute importance pour les statistiques climatiques, la

planification, la gestion des ressources et les projets de construction.

Pour un bon traitement des données recueillies, il est nécessaire et indispensable que la période

de collecte soit suffisamment longue, autrement dit l’échantillon doit être suffisamment grand).

Pour assurer une bonne représentation de notre région, nous avons d'abord travaillé sur 8 stations

pluviométriques et hydrométriques ayant des périodes aussi longues que possibles et réparties d'une

façon plus ou moins uniforme sur toute la zone. .

Les stations hydrométriques ont étés choisi selon un échantillonnage stratifié et le choix de nos

stations n’a pas été aléatoire, les stations où l’effet anthropique sur le régime hydrométrique est bien

évidant sont écartées ainsi celle qui se trouve près des ouvrages hydrauliques en raison de l’impact

de la régulation sur le comportement des oueds, on ajoutant la disponibilité des données. Sous ces

trois conditions les huit stations ont été sélectionnées. .

Les donnés pluviométriques et hydrométriques utilisées dans cette étude proviennent de

l’Agence Nationale des Ressources Hydraulique (A.N.R.H) d’Alger.

II.5.1. Données pluviométriques et hydrométriques

La localisation et les caractéristiques des stations pluviométriques et hydrométriques

utilisées dans cette étude, sont présentées sur les tableaux II.7 et II.8, ce nombre semble satisfaisant,

puisque ces stations sont implantées, assez régulièrement sur les deux bassins versants concernés

par cette étude. Six stations sur le bassin de Mitidja et deux sur le bassin de Haut Cheliff.

Page 42: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 42

Tableau II.7: Stations pluviométriques retenues dans la zone d’étude de la plaine de Metidja.

Code de la

station

Coordonnées période de mesure

latitude longitude Début fin

02-12-01 35.83 2.9 1960

2010

02-12-10

12-19

35.75 2.95 1960

2010

02-12-11 35.84 2.95 1960

2010

02-12-12 35.80 2.89 1960 2010

02-12-18 35.84 2.9 1960 2010

02-12-19 35.79 2.95 1960 2010

Tableau II.8 : Stations pluviométriques retenues dans la zone de l’étude de la plaine de Haute

Cheliff

Tableau II.9 : Les valeurs des pluviométries enregistrées durant 50 Années précédentes.

CODE STATION X Y Z PÉRIODE DE

MESURE

PL 011405 GHRIB BGE 487250 318400 460 1960-2010

PL 011407 GHRIB AMONT 495450 308800 435 1960-2010

Plaine

Nombre de

station

pluviométrique

Pluie

Moyenne

(mm)

Écart-type

(mm)

Pluie

Médiane

(mm)

Pluie

Maximale

(mm)

Pluie

Minimale

(mm)

Metidja 06 714 156,1 706,2 1082 449

Haut

Cheliff 02 419 89,9 432,5 652 179

Page 43: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 43

III. METHODOLOGIE

III.1. Introduction :

Les modèles de réseaux neuronaux artificiels utilisés dans cette étude ont été appelés

autorégressifs non linéaire (NAR). Dans cette étude, le modèle des réseaux neuronaux

autorégressifs utilisés avaient une couche d'entrée, une couche intermédiaire et une couche de

sortie, et ils ont été choisis parce qu'ils avaient une grande capacité à estimer les relations

complexes (Chegini, 2012)

Le fichier de données a été chargé dans l'environnement MATLAB®, qui est la plate-forme

principale pour analyser les données de cette recherche. Neural Network Toolbox ™ est la boîte à

outil la plus importante utilisée pour simuler et analyser les données fournies.

Dans ce chapitre, une brève explication est proposée sur les concepts et les définitions clés

utilisés dans le modèle mis en œuvre. Après les définitions de base, le modèle est défini dans les

détails.

III.2. Sélection des données

L'indice standardisé de précipitation «SPI» a été calculé à l’échelle de temps : 12 mois sur les

deux plaines (Metidja et haute Chelif) pendant la période 1960-2010. Cet indice a été développé par

MCKEE et al., (1993) pour caractériser les déficits de précipitation pour une période donnée.

III.3. Définitions de base

L'objectif de cette enquête est de trouver un modèle, d'ajuster et de prévoir l'indice de

Précipitations Standardisé SPI. Cet indice SPI est une variable aléatoire qui suit un processus

stochastique avec une tendance aléatoire. Au début, quelques définitions importantes qui sont utiles

et applicables dans le processus de modélisation sont présentées. Ensuite, la brève description des

modèles a été introduite.

III.3.1. Variables aléatoires

Une variable aléatoire est une fonction mesurable de à partir de l'espace de probabilité Ω dans

l'ensemble des nombres réels R connus comme espace d'état. Trois modifications sont nécessaires

pour rendre cette définition plus précise (Gallager, 2013):

Le mapping doit avoir la propriété que Ω est un événement pour

chaque .

Chaque ensemble fini de variables aléatoires a la propriété que pour chaque

, l'ensemble Ω Est un événement.

Page 44: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 44

X peut être indéfinie ou infinie pour un sous-ensemble de Ω qui a 0 probabilité. En d'autres

termes, la probabilité d'événements {X = ± ∞} est nulle.

III.3.2. Processus stochastique

Dans la théorie des probabilités, un processus stochastique est une famille de variables aléatoires

X de l'espace de probabilité Ω en R indexé par le temps défini , qui pourrait être désigné par

Ω . Nous simplifions la notation à ou lorsque la

variable de temps t est continue (T = R) ou est une variable discrète (T = N) respectivement

(Prabhu, 2007). Dans un processus stochastique ou aléatoire, nous avons toujours rencontré une

certaine incertitude, même si l'état initial du processus est réparé, il existe plusieurs directions,

nommées un chemin d'échantillonnage, dans lequel le processus peut se dérouler.

III.3.3. Processus discret

Processus discret ou mouvement brownien est un processus stochastique continu dans le

temps t, qui sert à modéliser l'intégralité d'un processus de Gaussian à blanc. Le processus se

caractérise par les propriétés suivantes :

avec une probabilité de 1.

est normalement distribué pour tout t ≥0 avec la moyenne 0 et la variance t .

a un accroissement indépendant : pour tout moment est indépendant.

a des chemins continus, ce qui signifie que toute réalisation de Wt est une fonction

continue de t.

III.3.4. Séries temporelles

La série chronologique est un processus stochastique de la variable aléatoire indexée par le

temps. est une notation utilisée pour le processus de paramètre discret et est une notation

pour le processus de paramètre continu. Dans cette recherche, nous traitons du processus discret des

paramètres des séries chronologiques

III.3.5. Série temporelle stationnaire

Une série temporelle est stationnaire si ses paramètres statistiques tels que la moyenne et la

variance restent constants pour toutes les étapes de temps. Le test Engle est l'une des

procédures standard pour déterminer la stationnarité d'une série temporelle.

III.3.6. Autocorrélation et autocorrélation partielle

La fonction d'autocorrélation est une corrélation de séries temporelles avec elle-même. Cette

fonction mesure la corrélation entre la variable et son retard qui est une valeur réelle entre

-1 et 1 où -1 implique une corrélation négative complète et 1 est une corrélation positive complète

Page 45: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 45

alors que 0 indique aucune corrélation entre les variables. D'une manière similaire, l'autocorrélation

partielle est une corrélation entre et lorsque entre dans l'image et améliore la

corrélation avec . D'autre part, l'autocorrélation partielle d'une variable dans l'ordre k est la

quantité de corrélation entre la variable et son lag qui n'a pas été expliquée par les corrélations à

tous les ordres inférieurs.

III.4. Modèles de réseaux neuronaux artificiels (ANN)

III.4.1. Principe du neurone artificiel

Chaque neurone artificiel est un processeur élémentaire. Il reçoit un nombre variable d’entrées

en provenance de neurones en amont ou des capteurs composant la machine dont il fait partie. A

chacune de ses entrées est associé un poids représentatif de la force de la connexion. Chaque

processeur élémentaire est doté d’une sortie unique, qui se ramifie ensuite pour alimenter un

nombre variable de neurones en aval. A chaque connexion est associé un poids.

Figure III.1: Modèle non linéaire d'un neurone (Haykin, 1999).

(III.1)

Et

(III.2)

Où :

: représente la somme pondérée des entrées du neurone.

Page 46: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 46

x i : sont les signaux d'entrée.

b k : le seuil interne du neurone.

Wkm: désigne le poids de la connexion reliant l’entrée m au neurone k.

est la sortie du neurone et sa fonction d’activation.

III.4.2. Types de fonction d'activation

Les fonctions les plus utilisées sont :

Fonction à seuil (Fonction

linéaire rectifiée)

(III.3)

Fonction sigmoïde

(III.4)

Fonction gaussienne

(III.5)

Fonction tangente

hyperbolique

(III.6)

La fonction d’activation de chaque neurone détermine ses propres caractéristiques. Par

conséquent, le type du neurone est caractérisé par sa fonction d’activation. Conformément au

neurone biologique, les fonctions d’activation sont généralement croissantes et continues. Les

fonctions les plus utilisées sont la fonction linéaire et la fonction sigmoïde. Leur choix revêt une

importance capitale et dépend souvent du type de l’application et du domaine de variation des

variables d’entrée/sortie (Burns, R.S .2001).

III.4.3. Modélisation des réseaux de neurones artificiels

Un réseau de neurones peut être considéré comme un modèle mathématique de traitement,

composé de plusieurs éléments de calcul non linéaire (neurones), opérant en parallèle et connectés

entre eux par des poids. Les réseaux de neurones artificiels sont des réseaux fortement connectés de

processeurs élémentaires fonctionnant en parallèle. Chaque processeur élémentaire calcule une

sortie unique sur la base des informations qu'il reçoit. Les neurones artificiels sont souvent utilisés

sous forme de réseaux qui diffèrent selon le type de connections entre les neurones, une

cinquantaine de types peut être dénombrée. Nous distinguons trois types de couches :

Couche d’entrée : les neurones de cette couche reçoivent les valeurs d’entrée du réseau et les

transmettent aux neurones cachés. Chaque neurone reçoit une valeur, il ne fait pas donc de

sommation.

Page 47: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 47

Couches cachées : chaque neurone de cette couche reçoit l’information de plusieurs couches

précédentes, effectue la sommation pondérée par les poids, puis la transforme selon sa fonction

d’activation qui est en général une fonction sigmoïde. Par la suite, il envoie cette réponse aux

neurones de la couche suivante.

Couche de sortie : elle joue le même rôle que les couches cachées, la seule différence entre ces

deux types de couches est que la sortie des neurones de la couche de sortie n’est liée à aucun autre

neurone.

III.4.4. Architecture des réseaux de neurones

On distingue deux structures de réseau, en fonction du graphe de leurs connexions, c’est-à dire

du graphe dont les nœuds sont les neurones et les arêtes les «connexions» entre ceux-ci :

Les réseaux de neurones statiques (ou non bouclés).

Les réseaux de neurones dynamiques (ou bouclés).

III.4.4.1. Réseaux de neurones non bouclés

Dans ce type de structure dite ‘feedforward’, la propagation de l’information se fait uniquement

de l’entrée vers la sortie. Les neurones de la même couche peuvent se connecter uniquement avec

les neurones de la couche suivante. L’architecture la plus utilisée est le perceptron multicouche.

Figure III.2: Perceptron à une couche cachée (Raihane Mechgoug, 2013)

Page 48: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 48

III.4.4.2. Réseaux de neurones bouclés

Un réseau dynamique ou récurrent possède la même structure qu’un réseau multicouche muni de

rétroactions. Les connexions rétroactives peuvent exister entre tous les neurones du réseau sans

distinction, ou seulement entre certains neurones. La figure II.3 montre deux exemples de réseaux

récurrents. Le premier est un simple multicouche qui utilise un vecteur d’entrée qui contient les

copies des activations de la couche de sortie du réseau et le deuxième est un réseau à mémoire se

distingue du premier par la présence des unités mémoires (Sastry, Santharam et Unnikrishnan,

(1994).

.

Figure III.3: Réseau de neurone bouclé

III.4.5. L'apprentissage

L'apprentissage d'un réseau de neurones peut être défini comme la phase durant laquelle les

divers paramètres le caractérisant sont remis à jour jusqu'à ce qu'ils permettent au réseau

d'approximer au mieux la fonction qu'il a à réaliser. Selon l'application dans laquelle le réseau va

être intégré, la fonction à approcher peut être connue ou inconnue analytiquement.

Dans la majorité des algorithmes actuels, les variables modifiées pendant l'apprentissage sont

les poids des connexions. L'apprentissage est la modification des poids du réseau dans l'optique

d'accorder la réponse du réseau aux exemples et à l'expérience.

III.4.5.1. Type d’apprentissage

Il existe de nombreux types de règles d’apprentissage qui peuvent être regroupées en trois

catégories : les règles d’apprentissage non supervisé, renforcé et supervisé. Mais l’objectif

fondamental de l’apprentissage reste le même : soit la classification, l’approximation de fonction ou

encore la prévision.

Apprentissage non-supervisé : Ce type d’apprentissage est choisi lorsqu’il n’y pas de

connaissances à priori des sorties désirés pour des entrées données. En fait, le réseau est laissé libre

de converger vers n’importe quel état final lorsqu’on lui présente des entrées.

Page 49: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 49

Apprentissage supervisé : Un apprentissage est dit supervisé lorsque l’on force le réseau à

converger vers un état final précis, en même temps qu’on lui présente un motif.

De façon générale, l’apprentissage artificiel supervisé consiste à créer un modèle de prédiction

(classification ou prévision) à partir d’une base d’apprentissage comprenant les exemples d’entrée

ainsi que les sorties désirés associées. Les paramètres du modèle vont ainsi s’adapter en comparant

à chaque fois les sorties obtenues et les sorties désirées, d’où l’appellation supervisé (Mitchell,

1997), (Nilsson, 2004). Une fois le modèle obtenu par une base d’apprentissage, l’utilisation d’une

base de test, comprenant des nouveaux exemples non utilisés pendant l’apprentissage, permet de

mesurer les performances de la méthode. Une des possibilités est de calculer l’Erreur Quadratique

Moyenne, en anglais Mean Square Error (MSE) (voir équation II.5).

Apprentissage par renforcement : L’apprentissage renforcé est une technique similaire à

l’apprentissage supervisé à la différence qu’au lieu de fournir des résultats désirés au réseau, on lui

accorde plutôt un grade (ou score) qui est une mesure du degré de performance du réseau après

quelques itérations. Les algorithmes utilisant la procédure d’apprentissage renforcé sont surtout

utilisés dans le domaine des systèmes de contrôle.

III.4.5.2. Algorithme d’apprentissage

L’algorithme d’apprentissage est la méthode mathématique qui va modifier les poids de

connexions afin de converger vers une solution qui permettra au réseau d’accomplir la tâche

désirée. L’apprentissage est une méthode d’identification paramétrique qui permet d’optimiser les

valeurs des poids du réseau.

L’algorithme d’apprentissage permet de "prédire" une valeur cible étant donnée une ou des

valeurs d’entrées. Dans le cas où cette valeur cible est discrète (dans un ensemble fini), la tâche

réalisée par l’algorithme est appelée classification supervisée puisqu’il s’agit de trouver la classe

correspondant à un exemple donné en entrée. Quand la valeur cible appartient à un ensemble

continu (par exemple R ou [0 ; 1]), la tâche est appelée régression. Elle représente le plus souvent la

prévision d’une ou de plusieurs valeurs futures correspondant à une suite de valeurs passées. Dans

cette thèse, on s’intéressera uniquement à cette dernière tâche, à savoir la prévision des séries

temporelles.

Soit l’ensemble de données qui peut être une base

d’apprentissage ou une base de test. X(t) est le vecteur d’entrée à l’instant t, X(t) Rd. y(t)

représente la valeur cible correspondant à X(t) et N le nombre d’exemples dans la base. Le but de

l’algorithme d’apprentissage est de trouver une fonction f, la représentation mathématique du

modèle obtenu, qui soit le plus proche possible de la fonction cible . On notera que reste

Page 50: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 50

toujours inconnue et dans de nombreux cas hypothétique. Le système pourra être évalué à la fin par

l’erreur MSE :

(III.5)

Où (t) est la valeur prédite c’est-à-dire f(X(t)) = (t) l’approximation de la valeur y(t).

Pour répondre à ce problème, plusieurs méthodes ont été développées. Une méthode peut être

décrite par un modèle dans lequel on définit la fonction f et un algorithme d’apprentissage par lequel

cette fonction a été déterminée.

Parmi les algorithmes les plus utilisées pour l’apprentissage est:

A. Algorithme de rétro propagation

Cet algorithme que l'on désigne couramment par "Back-propagation" est le plus populaire parmi

les deux techniques d'apprentissage des réseaux multicouches.

L'algorithme de rétro propagation est basé sur la généralisation de la règle de Widrow-Hoff (Hui

and Zak 1994) en utilisant une fonction d'activation sigmoïde. Le réseau utilisé est un réseau à

couchesoù chaque neurone est connecté à l'ensemble des neurones de la couche suivante. Le

principe de cet algorithme est la propagation d'un signal provenant des nœuds d'entrée vers la sortie

et ensuite on propage l'erreur commise de la sortie vers les couches internes jusqu'à l'entrée

(Dumolard 1994).

Formulation : Pour un exemple de données à apprendre, on note x le vecteur d'entrées et y d le

vecteur de sortie désirée. Supposant que notre réseau a n nœuds d'entrée et m neurones de sortie, on

a donc : et

On note le vecteur des sorties obtenues effectivement à l'issue de

rétro-propagation du vecteur . On cherche à minimiser l'erreur quadratique entre les sorties désirées

et les sorties obtenues, cette erreur étant considérée comme une fonction des poids des connexions :

(III.6)

La règle de modification des poids à la présentation numéro k de l'exemple x est la suivante:

(III.7)

Où est calculé de proche en proche, de la couche de sortie à la couche d’entrée :

Page 51: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 51

Où. ‘h’ parcourt les neurones vers lesquels le neurone i envoie une connexion.

est la fonction sigmoïde d'un neurone. : est sa dérivée ; : est la sortie du neurone j; est

l'entrée du neurone. . : est le pas du gradient à l'étape k.

Nous utilisons trois variantes de l'algorithme de rétro propagation dans notre travail : Levenberg–

Marquardt (RNA_LM), Bayesian Regularization (RNA_BR), et scaled conjugate gradient

(RNA_SCG).

A.1. Levenberg–Marquardt algorithme

L'algorithme de Levenberg-Marquardt converge plus rapidement que les autres algorithmes cités,

mais il demande plus de mémoire lorsque le réseau devient grand. La règle de correction des poids

est la suivante ; (Demuth 2002) et (Hagan et al. 1996).

(III.8)

: la matrice jacobienne des dérivées de l'erreur ; : scalaire ; : vecteur d'erreur.

Lorsque est grand, l'algorithme se rapproche de la méthode de descente du gradient. Par contre,

si est petit, l'algorithme se rapproche de la méthode de Gauss Newton. La procédure de

l'algorithme est la suivante :

1. présentation du vecteur d'entrée en propageant celui-ci jusqu'à la sortie et calcul de l'erreur

quadratique,

2. calcul de la matrice Jacobienne,

3. calcul de pour corriger les poids du réseau,

4. calcul des nouveaux poids, ajustement du paramètre et vérification de la convergence vers

l'erreur demandée.

A.2. Bayesian Regularization algorithm

BR est un algorithme de formation qui met à jour les valeurs de pondération et de biais en

fonction de LM optimisation (Foresee & Hagan, 1997; MacKay, 1992). Il minimise une

combinaison D'erreurs au carré et de poids, puis détermine la combinaison correcte de manière à

Page 52: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 52

Produisent un réseau qui se généralise bien (Pan, Lee & Zhang, 2013). BR présente Pondre le

réseau dans la fonction d'objectif de formation qui est désignée par ) dans (II.9) Et expliqué par

(Yue, Songzheng & Tianshi ,2011)

(III.9)

Où est la somme des poids de réseau au carré et ED est la somme du réseau les erreurs. Les

deux paramètres et sont les paramètres objectifs de la fonction.

Dans le cadre BR, Les poids du réseau sont considérés comme des variables aléatoires, puis la

répartition des poids du réseau et l'ensemble de formation sont considérés comme une distribution

gaussienne.

Les facteurs et sont définis en utilisant le théorème de Bayes. Le théorème de Bayes Relie

deux variables (ou événements), A et B, en fonction de leur précédent (ou marginal) Probabilités et

probabilités postérieures (ou conditionnelles) comme montre l’équation (II.10) (Li & Shi, 2012):

(III.10)

Lorsque P (A | B) est la probabilité postérieure de A conditionnelle sur B, P (B | A), le précédent

de B.

Conditionnel sur A, et P (B) la probabilité antérieure non nulle de l'événement B, qui fonctionne

comme une constante de normalisation. Afin de trouver l'espace de poids optimal, la fonction

objective (III.10) doit être minimisée, ce qui équivaut à maximiser la postérieure Fonction de

probabilité donnée comme dans (III.11) :

(III.11)

Où et sont les facteurs nécessaires à être optimisé, D est la distribution du poids, M

représente l'architecture de réseau neuronal particulier, P (D|M) est le facteur de normalisation, ( ,

|M) est la densité uniforme avant pour les paramètres de régularisation et (D| , ,M) est la

fonction de vraisemblance de D donné , ,M. La maximisation de la fonction postérieure ( ,

|D,M) est équivalent à maximiser la fonction de vraisemblance . A la suite de ce

processus, les valeurs optimales pour et pour un espace donné de poids se trouvent. Ensuite,

l'algorithme se déplace en phase LM où les calculs de Hessien lieu et met à jour l'espace de poids

afin de minimiser la fonction objective. Ensuite, si la convergence n’est pas satisfaite, l'algorithme

Page 53: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 53

estime de nouvelles valeurs et toute la procédure se répète jusqu'à ce que la convergence soit

atteinte (Yue, Songzheng et Tianshi, 2011).

A.3. Scaled conjugate gradient algorithm

L'algorithme de rétro propagation de base ajuste les coefficients de pondération dans la

direction de descente la plus forte, à savoir dans la direction du gradient négatif, étant la direction

dans laquelle la fonction de performance diminue plus rapidement (Demuth 2002). Il se trouve que

cette direction n'est pas forcément celle de la convergence plus rapide. Dans un algorithme de

gradient conjugué, en faisant une recherche du minimum dans des directions conjuguées, qui

produit généralement une convergence plus rapide que la direction de la pente la plus forte 'steepest

descent directions'. Tous les algorithmes de gradient conjugué commencent par la recherche dans le

sens inverse du gradient de la première itération et réinitialiser la méthode à toutes les m itérations.

Voici les principales étapes de l’algorithme :

1. t = 0 ;

2. Choisir la prochaine direction conjuguée de recherche :

(III.12)

est calculé comme à l’équation suivante :

3. Faire un pas comme à l’équation 11, en choisissant de manière à minimiser la fonction F

dans la direction de recherche :

(III.13)

Où est le vecteur de poids et biais actuels, est le gradient courant, et est le taux

d'apprentissage et un ensemble de vecteurs de poids non nuls.

4. t = t + 1 ;

5. Si le critère d’arrêt n’est pas atteint, alors recommencer à l’étape 2.

III.4.6. Conception d'un réseau de neurones

Les réseaux de neurones réalisent des fonctions non linéaires paramétrées. Leurs mises en œuvre

nécessitent :

La détermination des entrées et des sorties pertinentes, c’est à dire les grandeurs qui ont une

influence significative sur le phénomène que l’on cherche à modéliser.

Page 54: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 54

La collecte des données nécessaires à l’apprentissage et à l’évaluation des performances du

réseau de neurones.

La détermination du nombre de neurones cachés nécessaires pour obtenir une approximation

satisfaisante.

La réalisation de l’apprentissage

L’évaluation des performances du réseau de neurones à l’issue de l’apprentissage.

III.4.6.1. Détermination des entrées/sorties du réseau de neurones

Pour toute conception de modèle, la sélection des entrées doit prendre en compte deux points

essentiels :

Premièrement, la dimension intrinsèque du vecteur des entrées doit être aussi petite que

possible, en d’autre terme, la représentation des entrées doit être la plus compacte possible, tout en

conservant pour l’essentiel la même quantité d’information, et en gardant à l’esprit que les

différentes entrées doivent être indépendantes.

En second lieu, toutes les informations présentées dans les entrées doivent être pertinentes

pour la grandeur que l’on cherche à modéliser : elles doivent donc avoir une influence réelle sur la

valeur de la sortie.

III.4.6.2. Choix et préparation des échantillons

Le processus d'élaboration d'un réseau de neurones commence toujours par le choix et la

préparation des échantillons de données. La façon dont se présente l'échantillon conditionne le type

de réseau, le nombre de cellules d'entrée, le nombre de cellules de sortie et la façon dont il faudra

mener l'apprentissage, les tests et la validation. Il faut donc déterminer les grandeurs qui ont une

influence significative sur le phénomène que l’on cherche à modéliser. Lorsque la grandeur que l’on

veut modéliser dépend de nombreux facteurs, c'est-à-dire lorsque le modèle possède de nombreuses

entrées, il n’est pas possible de réaliser un « pavage » régulier dans tout le domaine de variation des

entrées : il faut donc trouver une méthode permettant de réaliser uniquement des expériences qui

apportent une information significative pour l’apprentissage du modèle. Cet objectif peut être

obtenu en mettant en œuvre un plan d’expériences. Pour les modèles linéaires, l’élaboration de

plans d’expériences est bien maîtrisée, par ailleurs, ce n’est pas le cas pour les modèles non

linéaires. Afin de développer une application à base de réseaux de neurones, il est nécessaire de

disposer de deux bases de données, une pour effectuer l’apprentissage et l’autre pour tester le réseau

obtenu et déterminer ses performances.

Page 55: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 55

III.4.6.3. Elaboration de la structure du réseau

La structure du réseau dépend étroitement du type des échantillons. Il faut d'abord choisir le type

de réseau : un perceptron standard, un réseau de Hopfield, un réseau à décalage temporel

(TDNN), un réseau autorégressif (NAR), etc...

Dans le cas du perceptron multicouches, il faudra aussi bien choisir le nombre de couches

cachées que le nombre de neurones dans cette couche.

Nombre de couches cachées : Mis à part les couches d'entrée et de sortie, il faut décider du

nombre de couches intermédiaires ou cachées. Sans couche cachée, le réseau n'offre que de faibles

possibilités d'adaptation.

Nombre de neurones cachés : Chaque neurone peut prendre en compte des profils

spécifiques de neurones d'entrée. Un nombre plus important permet donc de mieux

″coller″ aux données présentées mais diminue la capacité de généralisation du réseau. Il faut

alors trouver le nombre adéquat de neurones cachés nécessaire pour obtenir une approximation

satisfaisante.

III.4.6.4. Apprentissage

L’apprentissage est un problème numérique d’optimisation. Il consiste à calculer les

pondérations optimales des différentes liaisons, en utilisant un échantillon. La méthode la plus

utilisée est la rétro propagation, qui est généralement plus économe que les autres en termes de

nombres d’opérations arithmétiques à effectuer pour évaluer le gradient.

III.4.6.5. Validation et Tests

Alors que les tests concernent la vérification des performances d'un réseau de neurones hors

échantillon et sa capacité de généralisation, la validation est parfois utilisée lors de l'apprentissage.

Une fois le réseau de neurones développé, des tests s’imposent afin de vérifier la qualité des

prévisions du modèle neuronal. Cette dernière étape doit permettre d’estimer la qualité du réseau

obtenu en lui présentant des exemples qui ne font pas partie de l’ensemble d’apprentissage. Une

validation rigoureuse du modèle développé se traduit par une proportion importante de prédictions

exactes sur l’ensemble de la validation. Si les performances du réseau ne sont pas satisfaisantes, il

faudra, soit modifier l’architecture du réseau, soit modifier la base d’apprentissage.

III.4.7. Modèle NAR

Dans la majorité des cas, les applications de séries temporelles se caractérisent par des variations

élevées et des périodes transitoires fugaces. Ce fait rend difficile la modélisation des séries

Page 56: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE III METHODOLOGIE

ENSH –SEPTEMBRE 2017 56

chronologiques à l'aide d'un modèle de ligne, donc une approche non linéaire devrait être suggérée.

Un réseau neuronal autorégressif non linéaire (Baker J.E ,1985), appliqué à la prévision des séries

chronologiques, décrit un modèle discret, non linéaire, autorégressif qui peut être écrit comme suit

(J.J. Holland, 1992):

Y (t) = h (y (t - 1), y (t - 2), ..., y (t - p)) + c (t) (III.14)

Cette formule décrit comment un réseau NAR est utilisé pour prédire la valeur d'une série de

données à l'instant t, y (t), en utilisant les valeurs p passées de la série. La fonction h (•) est

inconnue à l'avance, et la formation du réseau neuronal vise à rapprocher la fonction au moyen de

l'optimisation du poids du réseau et du biais des neurones. Enfin, le terme c (t) représente l'erreur de

l'approximation de la série y à l'instant t.

La topologie d'un réseau NAR est illustrée à la Figure 1. Les caractéristiques p y (t-1), y (t-2),. . .

, Y (t-p), sont appelés retards de rétroaction. Le nombre de couches cachées et les neurones par

couche sont complètement flexibles et sont optimisés grâce à une procédure d'essai et d'erreur pour

obtenir la topologie du réseau qui peut fournir les meilleures performances. Néanmoins, il est

important de garder à l'esprit que l'augmentation du nombre de neurones rend le système plus

complexe, alors qu'un petit nombre de neurones peuvent restreindre les capacités de généralisation

et le pouvoir informatique du réseau.

Figure III.4. Réseau non-linéaire autorégressif (NAR).

Dans cette étude, nous utilisons des réseaux de neurones NAR pour modéliser les séries

chronologiques des SPI comme suit: la structure de réseau contient une entrée (correspondant au

SPI à l'instant t-1, y (t-1)) et une sortie (la prochaine Valeur de la série temporelle, y (t), à prédire).

Le nombre de retards est défini expérimentalement après une étape de prétraitement et d'analyse des

données.

Page 57: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE VI RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 57

IV. RESULTATS ET DISCUSSION

IV.1. Introduction

Dans cette étude, les modèles de réseaux neuronaux autorégressifs ont été appliqués pour

prévoir la sécheresse pour les deux plaines (Metidja et Haut Chelif) et toutes les étapes

nécessaires ont été programmées dans l'environnement logiciel MATLAB. Les réseaux de

neurones NAR utilisés dans cette étude se compose de : une couche d'entrée, une couche

cachée et une couche de sortie.

IV.2. Variabilité spatiale et temporelle du SPI à différentes échelles

L'indice standardisé de précipitation «SPI» a été calculé à échelle de temps 12 mois sur les

deux plaines (Metidja et Haut Chelif) pendant la période 1960-2010. Cet indice a été développé

par MCKEE et al (1993) pour caractériser les déficits de précipitation pour une période donnée.

Son calcul permet également de distinguer entre les années sèches et humides ou autrement

dites entre les années déficitaires et excédentaires.

Figure IV.1 : Les séries chronologiques concernant l’indice de précipitation normalisé(SPI)

L’analyse de la série de SPI à l’échelle 12-mois présentée dans la figure IV.1, montre que

les valeurs de l’SPI durant la période étudiée sont en général comprises entre [+3.9 et -2.8] et

indique une situation dominée par la sècheresse (SPI négative) sur les deux plaines étudiées.

Ensuite la figure IV.1 montre que la région de haut Chélif a enregistré des périodes de

sécheresse plus marquées que la région de Metidja dans les dernières années (1988-2006). De

plus la valeur positive maximale de SPI a été remarquée dans la plaine de la Metidja durant la

Page 58: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 58

période (1972, 1973), et il est noté aussi qu’en 1983 cette région a subit une année extrêmement

sèche avec une valeur extrême de : SPI = [-2.8].

IV.3. Autocorrélation et autocorrélation partielle de la série des SPI

Pour mettre en œuvre le modèle de séries chronologiques décrites ci-dessus sur l’indice SPI,

nous devons veiller à ce que les séries temporelles soient statiques. En tant que première étape,

les fonctions d’autocorrélation (ACF) et les fonctions d'autocorrélation partielle (PACF)

(Balaguer et al, 2008; Toth et al, 2000) des séries temporelles doivent être calculées, ce qui

indique le comportement stationnaire ou non stationnaire de la variable.

Les courbes représentées dans la figure IV.2, dont l'axe horizontal montre le temps de retard

et l'axe vertical représente respectivement les quantités de ACF et de PACF. Selon ces courbes,

on a observé que les quantités d'ACF et de PACF à l’avance d’un mois étaient élevées.

Figure IV .2 : Fonction Autocorrélation et Autocorrélation partielles pour les SPI

Comme le montre cette figure (IV.2), les fonctions d'autocorrélation pour la série temporelle

d'origine, les SPI, ne convergent pas beaucoup à zéro et sont significatives pour un nombre de

décalage un peu grand. Ils se décomposent dans la gamme lentement et ils n'ont pas pu

atteindre le domaine même si en arrivant à un décalage de 11 mois. Cependant, dans le

graphique de corrélation partielle après le deuxième décalage, ils ne deviennent pas

significatifs. Alors on peut déduire de ce comportement que cette variable n'est pas

stationnaire.

Page 59: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 59

IV.4. Prédiction de la sécheresse par les réseaux de neurones artificiels autorégressif

(NAR)

La prévision de la sécheresse peut jouer un rôle très important dans l'atténuation de ses

effets. En effet, la capacité et la fiabilité de modèles utilisés présentent les principaux axes à

prévoir les conditions de sécheresse à l'avance de quelques mois ou quelques saisons. Pour

répondre à cet objectif dans les deux plaines du nord-ouest de l’Algérie, nous proposons le

modèle neuronal de prédiction de la sécheresse à l’avance de 120 mois, dont le test et la

validation du modèle se font à la base des séries de SPI à échelle de temps (12- mois). Vu que

les séries chronologiques des SPI sont autorégressives d'ordre 1.

IV.4.1. Conception du modèle du réseau de neurone autorégressif (NAR)

Dans cette section, on a examiné le modèle du réseau neuronal autorégressif non linéaire

(NAR) pour prévoir la sècheresse à l’avance de un mois jusqu’à 120 mois.

La base de données représentant les SPI-12 a été subdivisée en deux ensembles; le premier

ensemble est 70% pour l’apprentissage du model, tandis que les données restantes (30%) ont

été utilisées pour la validation du modèle. Enfin, le processus d'essais et d'erreurs est utilisé

pour déterminer le nombre optimal de neurones (N) dans la couche cachée.

Après avoir fixé les variables d'entrée, le nombre de neurones dans la couche cachée et les

fonctions de transferts, la prochaine étape est d’apparenter le model avec l’ensemble de

données destinées à l’apprentissage avec les trois algorithmes.

IV.4.1. Sélection des entrées et architecture du modèle

Afin de prévoir les conditions de la sècheresse à l’avance d’un instant ‘t’ donné au niveau de

deux plaines, plusieurs combinaisons des valeurs de SPI (t-n) observés aux mois précédents

peuvent être utilisées comme entrées du modèle. Pour parvenir aux combinaisons d'entrées

optimales qu’elle faudrait inclure dans le modèle, plusieurs combinaisons ont été construite et

les meilleures seront déterminées par tâtonnements (by simple trial and errors) durant

l'apprentissage du model.

Dans un premier temps, pour chaque décalage de temps (à l’avance d’un mois, deux mois,

……….N mois) quatre modèles ont été choisis en fonction de la combinaison de cinq SPI

précédents, par la suite, la meilleure combinaison sera déterminée par tâtonnements. Les quatre

modèles NAR sont construits comme indiqué dans le tableau IV.1.

Page 60: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 60

Tableau IV.1. Conception des entrées utilisées pour l’apprentissage du modèle NAR pour la

prévision de la sécheresse d’un mois de décalage (à l’avance d’un mois)

Conception Vecteur d'entrées Variable prédit

01 SPI(t-1) SPI ( t )

02 SPI(t−1), SPI (t−2) SPI ( t )

03 SPI (t−1), SPI (t−2), SPI (t−3) SPI ( t )

04 SPI (t−1), SPI (t−2), SPI (t−3), SPI (t−4) SPI ( t )

Pour l’architecture du modèle basé sur le réseau de neurones artificiels (NAR) on a opté

pour une architecture simple de trois couches puisqu’il s'est avéré qu’un modèle à trois couches

est suffisant pour la prévision et la simulation dans le domaine des sciences de l'eau (Wang et

Ding 2003). Ainsi, nous avons utilisé un réseau (figure IV.3) avec 4 unités d’entrée et 1

neurone en sortie. Les entrées sont les indices SPI (SPI(t-1), SPI(t-2) SPI (t−3) et SPI (t−4)).

IV.4.3. Apprentissage du modèle auto-regressif (NAR)

Après la sélection des variables d'entrée et de sortie à travers chacun des deux plaines

étudiées, les quatre modèles NAR ont été examinés afin de trouver le meilleur modèle qui peut

capturer la non-linéarité dans les séries chronologiques des SPI. Pour ce faire, deux fonctions

d’activation sont utilisées : une fonction de type sigmoïde dans la couche cachée et une

fonction linéaire dans la couche de sortie.

Après avoir construit les quatre modèles à l'aide des différentes combinaisons de variables

SPI (t-n), les trois algorithmes : Levenberg–Marquardt (NAR_LM), Scaled conjugate gradient

algorithm (NAR_SCG) et Bayesian Regularization (NAR_BR) algorithme seront utilisés pour

l’apprentissage et la validation du modèle (NAR).

IV.4.4. Evaluation des Performances

Cette étape consiste à évaluer les modèles formés par comparaison de la différence entre les

valeurs estimées et les valeurs réelles. Le résultat de l'évaluation est exprimée de deux manières

: par des indicateurs statistiques et par l'examen des graphes.

La performance de tous les modèles développés dans cette étude a été évaluée à l'aide de

l’erreur moyenne quadratique (MSE) et le coefficient de détermination R2:

Page 61: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 61

(IV.1)

(IV.2)

Dans laquelle i(obs), i(sim), i(moyen) représentent, respectivement, l’indice SPI

observé, simulé et moyen; n: le nombre total de données de SPI.

La meilleure prédiction est quand R2 d’une part et MSE d’autre part tendent vers 1 et 0

respectivement.

Figue IV.3 : la structure du modèle de réseau neurone autorégressif NAR avec une

architecture (4-9-1) dans le cas d’une prévision de la sécheresse à l’avance d’un mois.

IV.5. Résultats et Discussion

IV.5.1 Résultats :

Les résultats de la meilleure conception du modèle NAR en termes de statistiques de

performance (MSE, R2) dans chaque plaine, pour chaque algorithme et pour chaque décalage

du temps sont présentés dans les tableaux ; (IV.2) pour la plaine de Metidja et (Annexe.1) Pour

la plaine de Haut Cheliff chelif. Aussi, un résumé de variation de MSE à chaque décalage du

temps avec le meilleur modèle est présenté dans Les figures IV.4 et IV.3 pour les deux plaines.

Page 62: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 62

LA Plaine De Metidja :

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

Nombre de

neurones dans

la couche cachée

Architecture MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

1

1 2 1-2-1 0.153 0.899 2 1-2-1 0.217 0.898 2 1-2-1 0.189 0.9

2 4 2-4-1 0.237 0.893 5 2-5-1 0.15 0.902 5 2-5-1 0.198 0.9

3 6 3-6-1 0.23 0.853 6 3-6-1 0.263 0.9 7 3-7-1 0.193 0.9

4 8 4-8-1 0.238 0.852 9 4-9-1 0.22 0.902 9 4-9-1 0.181 0.9

2

1 2 1-2-1 0.215 0.9 2 1-2-1 0.229 0.901 2 1-2-1 0.183 0.9

2 4 2-4-1 0.188 0.899 5 2-5-1 0.174 0.897 5 2-5-1 0.185 0.901

3 6 3-6-1 0.187 0.898 6 3-6-1 0.147 0.901 7 3-7-1 0.189 0.901

4 8 4-8-1 0.186 0.891 9 4-9-1 0.214 0.9 9 4-9-1 0.181 0.902

3

1 2 1-2-1 0.2 0.899 2 1-2-1 0.3 0.901 2 1-2-1 0.176 0.9

2 4 2-4-1 0.216 0.853 5 2-5-1 0.151 0.901 5 2-5-1 0.18 0.901

3 6 3-6-1 0.274 0.883 6 3-6-1 0.199 0.901 7 3-7-1 0.189 0.902

4 8 4-8-1 0.209 0.896 9 4-9-1 0.218 0.901 9 4-9-1 0.186 0.901

4

1 2 1-2-1 0.191 0.897 2 1-2-1 0.176 0.901 2 1-2-1 0.181 0.901

2 4 2-4-1 0.245 0.883 5 2-5-1 0.178 0.887 5 2-5-1 0.193 0.901

3 6 3-6-1 0.215 0.899 6 3-6-1 0.213 0.9 7 3-7-1 0.188 0.902

4 8 4-8-1 0.187 0.892 9 4-9-1 0.186 0.901 9 4-9-1 0.182 0.902

5

1 2 1-2-1 0.176 0.891 2 1-2-1 0.179 0.902 2 1-2-1 0.181 0.902

2 4 2-4-1 0.168 0.89 5 2-5-1 0.239 0.901 5 2-5-1 0.187 0.902

3 6 3-6-1 0.246 0.878 6 3-6-1 0.158 0.901 7 3-7-1 0.181 0.903

4 8 4-8-1 0.191 0.895 9 4-9-1 0.209 0.903 9 4-9-1 0.175 0.903

Page 63: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 63

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2 Nombre de

neurones dans

la couche cachée Architecture MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

6

1 2 1-2-1 0.213 0.902 2 1-2-1 0.152 0.902 2 1-2-1 0.181 0.903

2 4 2-4-1 0.187 0.9 5 2-5-1 0.138 0.903 5 2-5-1 0.182 0.904

3 6 3-6-1 0.174 0.901 6 3-6-1 0.246 0.905 7 3-7-1 0.192 0.904

4 8 4-8-1 0.213 0.898 9 4-9-1 0.23 0.902 9 4-9-1 0.183 0.903

7

1 2 1-2-1 0.176 0.903 2 1-2-1 0.215 0.904 2 1-2-1 0.185 0.905

2 4 2-4-1 0.199 0.902 5 2-5-1 0.195 0.905 5 2-5-1 0.178 0.906

3 6 3-6-1 0.168 0.898 6 3-6-1 0.218 0.905 7 3-7-1 0.178 0.905

4 8 4-8-1 0.198 0.9 9 4-9-1 0.212 0.905 9 4-9-1 0.182 0.906

8

1 2 1-2-1 0.184 0.897 2 1-2-1 0.166 0.905 2 1-2-1 0.183 0.905

2 4 2-4-1 0.173 0.904 5 2-5-1 0.149 0.905 5 2-5-1 0.185 0.906

3 6 3-6-1 0.254 0.895 6 3-6-1 0.194 0.906 7 3-7-1 0.172 0.906

4 8 4-8-1 0.169 0.884 9 4-9-1 0.175 0.905 9 4-9-1 0.171 0.906

9

1 2 1-2-1 0.168 0.904 2 1-2-1 0.231 0.906 2 1-2-1 0.18 0.906

2 4 2-4-1 0.214 0.883 5 2-5-1 0.208 0.907 5 2-5-1 0.174 0.907

3 6 3-6-1 0.304 0.836 6 3-6-1 0.152 0.906 7 3-7-1 0.178 0.907

4 8 4-8-1 0.125 0.903 9 4-9-1 0.193 0.906 9 4-9-1 0.173 0.907

10

1 2 1-2-1 0.197 0.898 2 1-2-1 0.139 0.906 2 1-2-1 0.167 0.906

2 4 2-4-1 0.22 0.89 5 2-5-1 0.238 0.906 5 2-5-1 0.178 0.907

3 6 3-6-1 0.191 0.901 6 3-6-1 0.246 0.908 7 3-7-1 0.18 0.907

4 8 4-8-1 0.177 0.899 9 4-9-1 0.182 0.907 9 4-9-1 0.172 0.908

11 1 2 1-2-1 0.192 0.897 2 1-2-1 0.159 0.906 2 1-2-1 0.167 0.907

Page 64: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 64

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2 Nombre de

neurones dans

la couche cachée Architecture MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

11

2 4 2-4-1 0.149 0.904 5 2-5-1 0.237 0.907 5 2-5-1 0.175 0.908

3 6 3-6-1 0.14 0.904 6 3-6-1 0.213 0.907 7 3-7-1 0.174 0.908

4 8 4-8-1 0.305 0.835 9 4-9-1 0.189 0.907 9 4-9-1 0.167 0.909

12

1 2 1-2-1 0.238 0.902 2 1-2-1 0.226 0.906 2 1-2-1 0.169 0.907

2 4 2-4-1 0.277 0.867 5 2-5-1 0.16 0.907 5 2-5-1 0.19 0.908

3 6 3-6-1 0.202 0.887 6 3-6-1 0.173 0.903 7 3-7-1 0.171 0.91

4 8 4-8-1 0.195 0.875 9 4-9-1 0.194 0.906 9 4-9-1 0.175 0.91

13

1 2 1-2-1 0.144 0.919 2 1-2-1 0.131 0.927 2 1-2-1 0.14 0.927

2 4 2-4-1 0.176 0.91 5 2-5-1 0.137 0.928 5 2-5-1 0.132 0.929

3 6 3-6-1 0.18 0.909 6 3-6-1 0.162 0.918 7 3-7-1 0.124 0.93

4 8 4-8-1 0.326 0.797 9 4-9-1 0.157 0.93 9 4-9-1 0.131 0.93

14

1 2 1-2-1 0.119 0.924 2 1-2-1 0.214 0.928 2 1-2-1 0.133 0.928

2 4 2-4-1 0.13 0.921 5 2-5-1 0.158 0.928 5 2-5-1 0.134 0.93

3 6 3-6-1 0.186 0.889 6 3-6-1 0.135 0.928 7 3-7-1 0.113 0.94

4 8 4-8-1 0.145 0.924 9 4-9-1 0.191 0.938 9 4-9-1 0.094 0.942

15

1 2 1-2-1 0.173 0.925 2 1-2-1 0.089 0.927 2 1-2-1 0.145 0.929

2 4 2-4-1 0.144 0.925 5 2-5-1 0.116 0.929 5 2-5-1 0.127 0.931

3 6 3-6-1 0.27 0.863 6 3-6-1 0.143 0.927 7 3-7-1 0.111 0.939

4 8 4-8-1 0.159 0.927 9 4-9-1 0.212 0.931 9 4-9-1 0.105 0.943

16 1 2 1-2-1 0.128 0.92 2 1-2-1 0.156 0.922 2 1-2-1 0.14 0.93

Page 65: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 65

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2 Nombre de

neurones dans

la couche cachée Architecture MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

16 3 6 3-6-1 0.177 0.893 6 3-6-1 0.132 0.933 7 3-7-1 0.102 0.942

4 8 4-8-1 0.199 0.915 9 4-9-1 0.173 0.932 9 4-9-1 0.102 0.945

17

1 2 1-2-1 0.117 0.926 2 1-2-1 0.138 0.928 2 1-2-1 0.135 0.929

2 4 2-4-1 0.113 0.925 5 2-5-1 0.097 0.929 5 2-5-1 0.119 0.931

3 6 3-6-1 0.175 0.925 6 3-6-1 0.115 0.93 7 3-7-1 0.111 0.94

4 8 4-8-1 0.175 0.927 9 4-9-1 0.14 0.93 9 4-9-1 0.117 0.933

18

1 2 1-2-1 0.208 0.924 2 1-2-1 0.167 0.928 2 1-2-1 0.133 0.929

2 4 2-4-1 0.194 0.899 5 2-5-1 0.154 0.929 5 2-5-1 0.124 0.931

3 6 3-6-1 0.188 0.92 6 3-6-1 0.156 0.926 7 3-7-1 0.112 0.935

4 8 4-8-1 0.105 0.921 9 4-9-1 0.158 0.927 9 4-9-1 0.106 0.94

19

1 2 1-2-1 0.158 0.914 2 1-2-1 0.148 0.929 2 1-2-1 0.138 0.928

2 4 2-4-1 0.116 0.927 5 2-5-1 0.16 0.929 5 2-5-1 0.132 0.932

3 6 3-6-1 0.157 0.917 6 3-6-1 0.158 0.931 7 3-7-1 0.113 0.934

4 8 4-8-1 0.177 0.896 9 4-9-1 0.155 0.929 9 4-9-1 0.122 0.94

20

1 2 1-2-1 0.283 0.858 2 1-2-1 0.149 0.929 2 1-2-1 0.14 0.94

2 4 2-4-1 0.136 0.923 5 2-5-1 0.169 0.93 5 2-5-1 0.13 0.933

3 6 3-6-1 0.156 0.887 6 3-6-1 0.178 0.93 7 3-7-1 0.116 0.938

4 8 4-8-1 0.158 0.904 9 4-9-1 0.157 0.938 9 4-9-1 0.103 0.94

21

1 2 1-2-1 0.099 0.927 2 1-2-1 0.113 0.928 2 1-2-1 0.13 0.929

2 4 2-4-1 0.158 0.926 5 2-5-1 0.13 0.929 5 2-5-1 0.12 0.932

3 6 3-6-1 0.269 0.86 6 3-6-1 0.135 0.937 7 3-7-1 0.128 0.934

Page 66: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 66

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2 Nombre de

neurones dans

la couche cachée Architecture MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

21 4 8 4-8-1 0.161 0.92 9 4-9-1 0.162 0.925 9 4-9-1 0.112 0.936

22

1 2 1-2-1 0.176 0.9 2 1-2-1 0.141 0.93 2 1-2-1 0.14 0.93

2 4 2-4-1 0.174 0.926 5 2-5-1 0.147 0.93 5 2-5-1 0.131 0.932

3 6 3-6-1 0.158 0.922 6 3-6-1 0.143 0.93 7 3-7-1 0.117 0.936

4 8 4-8-1 0.132 0.925 9 4-9-1 0.192 0.93 9 4-9-1 0.127 0.934

23

1 2 1-2-1 0.125 0.919 2 1-2-1 0.157 0.93 2 1-2-1 0.139 0.93

2 4 2-4-1 0.14 0.927 5 2-5-1 0.133 0.928 5 2-5-1 0.122 0.933

3 6 3-6-1 0.142 0.909 6 3-6-1 0.163 0.938 7 3-7-1 0.117 0.937

4 8 4-8-1 0.103 0.918 9 4-9-1 0.167 0.932 9 4-9-1 0.116 0.939

24

1 2 1-2-1 0.213 0.887 2 1-2-1 0.14 0.93 2 1-2-1 0.128 0.93

2 4 2-4-1 0.141 0.914 5 2-5-1 0.156 0.93 5 2-5-1 0.121 0.934

3 6 3-6-1 0.203 0.905 6 3-6-1 0.139 0.93 7 3-7-1 0.119 0.935

4 8 4-8-1 0.193 0.92 9 4-9-1 0.168 0.933 9 4-9-1 0.109 0.937

25

1 2 1-2-1 0.184 0.904 2 1-2-1 0.121 0.937 2 1-2-1 0.124 0.938

2 4 2-4-1 0.149 0.933 5 2-5-1 0.139 0.936 5 2-5-1 0.099 0.943

3 6 3-6-1 0.23 0.9 6 3-6-1 0.095 0.943 7 3-7-1 0.096 0.948

4 8 4-8-1 0.13 0.934 9 4-9-1 0.177 0.937 9 4-9-1 0.086 0.949

26

1 2 1-2-1 0.144 0.936 2 1-2-1 0.118 0.938 2 1-2-1 0.117 0.938

2 4 2-4-1 0.154 0.902 5 2-5-1 0.121 0.938 5 2-5-1 0.108 0.944

3 6 3-6-1 0.177 0.906 6 3-6-1 0.151 0.938 7 3-7-1 0.102 0.945

4 8 4-8-1 0.146 0.936 9 4-9-1 0.142 0.94 9 4-9-1 0.095 0.947

Page 67: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 67

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

27

1 2 1-2-1 0.121 0.927 2 1-2-1 0.161 0.937 2 1-2-1 0.115 0.938

2 4 2-4-1 0.122 0.937 5 2-5-1 0.165 0.936 5 2-5-1 0.107 0.943

3 6 3-6-1 0.171 0.919 6 3-6-1 0.107 0.938 7 3-7-1 0.093 0.947

4 8 4-8-1 0.213 0.867 9 4-9-1 0.129 0.935 9 4-9-1 0.097 0.95

28

1 2 1-2-1 0.161 0.931 2 1-2-1 0.138 0.937 2 1-2-1 0.122 0.94

2 4 2-4-1 0.157 0.933 5 2-5-1 0.121 0.938 5 2-5-1 0.105 0.943

3 6 3-6-1 0.128 0.927 6 3-6-1 0.126 0.943 7 3-7-1 0.096 0.95

4 8 4-8-1 0.149 0.934 9 4-9-1 0.143 0.939 9 4-9-1 0.096 0.95

29

1 2 1-2-1 0.223 0.896 2 1-2-1 0.149 0.937 2 1-2-1 0.111 0.94

2 4 2-4-1 0.092 0.934 5 2-5-1 0.129 0.939 5 2-5-1 0.107 0.94

3 6 3-6-1 0.182 0.922 6 3-6-1 0.14 0.938 7 3-7-1 0.109 0.95

4 8 4-8-1 0.253 0.901 9 4-9-1 0.168 0.936 9 4-9-1 0.089 0.951

30

1 2 1-2-1 0.103 0.932 2 1-2-1 0.142 0.939 2 1-2-1 0.083 0.95

2 4 2-4-1 0.157 0.927 5 2-5-1 0.139 0.939 5 2-5-1 0.124 0.94

3 6 3-6-1 0.2 0.911 6 3-6-1 0.2 0.937 7 3-7-1 0.11 0.944

4 8 4-8-1 0.175 0.917 9 4-9-1 0.201 0.942 9 4-9-1 0.1 0.943

31

1 2 1-2-1 0.153 0.928 2 1-2-1 0.151 0.939 2 1-2-1 0.088 0.95

2 4 2-4-1 0.237 0.891 5 2-5-1 0.107 0.941 5 2-5-1 0.112 0.94

3 6 3-6-1 0.198 0.883 6 3-6-1 0.136 0.941 7 3-7-1 0.113 0.942

4 8 4-8-1 0.165 0.919 9 4-9-1 0.174 0.938 9 4-9-1 0.089 0.95

32 1 2 1-2-1 0.107 0.931 2 1-2-1 0.153 0.939 2 1-2-1 0.092 0.95

Page 68: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 68

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

32

2 4 2-4-1 0.152 0.917 5 2-5-1 0.107 0.938 5 2-5-1 0.118 0.94

3 6 3-6-1 0.207 0.908 6 3-6-1 0.148 0.938 7 3-7-1 0.107 0.945

4 8 4-8-1 0.119 0.934 9 4-9-1 0.17 0.939 9 4-9-1 0.093 0.95

33

1 2 1-2-1 0.176 0.922 2 1-2-1 0.119 0.939 2 1-2-1 0.108 0.94

2 4 2-4-1 0.147 0.925 5 2-5-1 0.166 0.939 5 2-5-1 0.11 0.943

3 6 3-6-1 0.212 0.911 6 3-6-1 0.218 0.938 7 3-7-1 0.1 0.95

4 8 4-8-1 0.132 0.921 9 4-9-1 0.198 0.938 9 4-9-1 0.088 0.95

34

1 2 1-2-1 0.14 0.93 2 1-2-1 0.138 0.94 2 1-2-1 0.118 0.94

2 4 2-4-1 0.118 0.935 5 2-5-1 0.173 0.94 5 2-5-1 0.104 0.945

3 6 3-6-1 0.172 0.919 6 3-6-1 0.135 0.939 7 3-7-1 0.087 0.95

4 8 4-8-1 0.194 0.906 9 4-9-1 0.187 0.943 9 4-9-1 0.08 0.952

35

1 2 1-2-1 0.076 0.937 2 1-2-1 0.136 0.94 2 1-2-1 0.118 0.94

2 4 2-4-1 0.211 0.935 5 2-5-1 0.097 0.94 5 2-5-1 0.105 0.944

3 6 3-6-1 0.153 0.931 6 3-6-1 0.226 0.938 7 3-7-1 0.091 0.95

4 8 4-8-1 0.133 0.927 9 4-9-1 0.165 0.935 9 4-9-1 0.083 0.953

36

1 2 1-2-1 0.217 0.9 2 1-2-1 0.106 0.94 2 1-2-1 0.11 0.94

2 4 2-4-1 0.146 0.939 5 2-5-1 0.117 0.943 5 2-5-1 0.107 0.942

3 6 3-6-1 0.16 0.931 6 3-6-1 0.12 0.94 7 3-7-1 0.087 0.952

4 8 4-8-1 0.177 0.905 9 4-9-1 0.183 0.94 9 4-9-1 0.083 0.955

37 1 2 1-2-1 0.101 0.941 2 1-2-1 0.134 0.944 2 1-2-1 0.104 0.945

2 4 2-4-1 0.173 0.917 5 2-5-1 0.11 0.947 5 2-5-1 0.09 0.95

Page 69: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 69

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

37 3 6 3-6-1 0.162 0.939 6 3-6-1 0.14 0.95 7 3-7-1 0.077 0.954

4 8 4-8-1 0.184 0.91 9 4-9-1 0.116 0.945 9 4-9-1 0.071 0.956

38

1 2 1-2-1 0.116 0.934 2 1-2-1 0.157 0.943 2 1-2-1 0.109 0.945

2 4 2-4-1 0.344 0.786 5 2-5-1 0.14 0.942 5 2-5-1 0.093 0.95

3 6 3-6-1 0.12 0.93 6 3-6-1 0.126 0.944 7 3-7-1 0.077 0.957

4 8 4-8-1 0.157 0.923 9 4-9-1 0.128 0.946 9 4-9-1 0.063 0.958

39

1 2 1-2-1 0.181 0.922 2 1-2-1 0.178 0.95 2 1-2-1 0.103 0.946

2 4 2-4-1 0.174 0.912 5 2-5-1 0.184 0.945 5 2-5-1 0.091 0.952

3 6 3-6-1 0.116 0.944 6 3-6-1 0.141 0.944 7 3-7-1 0.082 0.956

4 8 4-8-1 0.247 0.88 9 4-9-1 0.12 0.948 9 4-9-1 0.066 0.96

40

1 2 1-2-1 0.182 0.926 2 1-2-1 0.145 0.94 2 1-2-1 0.102 0.946

2 4 2-4-1 0.178 0.925 5 2-5-1 0.125 0.945 5 2-5-1 0.096 0.952

3 6 3-6-1 0.166 0.897 6 3-6-1 0.157 0.947 7 3-7-1 0.078 0.955

4 8 4-8-1 0.148 0.933 9 4-9-1 0.148 0.944 9 4-9-1 0.071 0.96

41

1 2 1-2-1 0.134 0.93 2 1-2-1 0.316 0.877 2 1-2-1 0.105 0.95

2 4 2-4-1 0.157 0.926 5 2-5-1 0.118 0.944 5 2-5-1 0.095 0.953

3 6 3-6-1 0.181 0.934 6 3-6-1 0.109 0.947 7 3-7-1 0.077 0.957

4 8 4-8-1 0.158 0.936 9 4-9-1 0.13 0.945 9 4-9-1 0.065 0.961

42 1 2 1-2-1 0.168 0.93 2 1-2-1 0.144 0.946 2 1-2-1 0.105 0.95

2 4 2-4-1 0.165 0.935 5 2-5-1 0.121 0.945 5 2-5-1 0.096 0.951

Page 70: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 70

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

42 4 8 4-8-1 0.214 0.901 9 4-9-1 0.191 0.944 9 4-9-1 0.068 0.955

43

1 2 1-2-1 0.136 0.933 2 1-2-1 0.153 0.945 2 1-2-1 0.078 0.96

2 4 2-4-1 0.172 0.932 5 2-5-1 0.177 0.944 5 2-5-1 0.066 0.96

3 6 3-6-1 0.207 0.92 6 3-6-1 0.181 0.935 7 3-7-1 0.108 0.95

4 8 4-8-1 0.126 0.936 9 4-9-1 0.152 0.942 9 4-9-1 0.09 0.95

44

1 2 1-2-1 0.1 0.942 2 1-2-1 0.132 0.943 2 1-2-1 0.072 0.96

2 4 2-4-1 0.14 0.919 5 2-5-1 0.17 0.947 5 2-5-1 0.064 0.96

3 6 3-6-1 0.129 0.928 6 3-6-1 0.14 0.946 7 3-7-1 0.1 0.95

4 8 4-8-1 0.242 0.885 9 4-9-1 0.134 0.942 9 4-9-1 0.097 0.951

45

1 2 1-2-1 0.174 0..921 2 1-2-1 0.105 0.944 2 1-2-1 0.08 0.958

2 4 2-4-1 0.147 0.928 5 2-5-1 0.107 0.933 5 2-5-1 0.064 0.962

3 6 3-6-1 0.185 0.908 6 3-6-1 0.182 0.942 7 3-7-1 0.104 0.945

4 8 4-8-1 0.185 0.934 9 4-9-1 0.162 0.946 9 4-9-1 0.09 0.951

46

1 2 1-2-1 0.135 0.936 2 1-2-1 0.173 0.943 2 1-2-1 0.071 0.957

2 4 2-4-1 0.144 0.942 5 2-5-1 0.154 0.944 5 2-5-1 0.062 0.964

3 6 3-6-1 0.162 0.934 6 3-6-1 0.147 0.944 7 3-7-1 0.06 0.956

4 8 4-8-1 0.152 0.927 9 4-9-1 0.207 0.931 9 4-9-1 0.06 0.96

47

1 2 1-2-1 0.136 0.93 2 1-2-1 0.149 0.943 2 1-2-1 0.101 0.946

2 4 2-4-1 0.237 0.877 5 2-5-1 0.148 0.944 5 2-5-1 0.109 0.945

3 6 3-6-1 0.166 0.945 6 3-6-1 0.201 0.941 7 3-7-1 0.092 0.951

Page 71: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 71

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

48

1 2 1-2-1 0.238 0.925 2 1-2-1 0.143 0.942 2 1-2-1 0.05 0.963

2 4 2-4-1 0.141 0.929 5 2-5-1 0.135 0.946 5 2-5-1 0.093 0.953

3 6 3-6-1 0.209 0.904 6 3-6-1 0.184 0.95 7 3-7-1 0.073 0.96

4 8 4-8-1 0.152 0.934 9 4-9-1 0.186 0.947 9 4-9-1 0.052 0.968

49

1 2 1-2-1 0.183 0.931 2 1-2-1 0.183 0.947 2 1-2-1 0.111 0.95

2 4 2-4-1 0.146 0.943 5 2-5-1 0.117 0.94 5 2-5-1 0.083 0.952

3 6 3-6-1 0.188 0.894 6 3-6-1 0.159 0.951 7 3-7-1 0.069 0.96

4 8 4-8-1 0.196 0.913 9 4-9-1 0.128 0.948 9 4-9-1 0.06 0.97

50

1 2 1-2-1 0.138 0.947 2 1-2-1 0.165 0.947 2 1-2-1 0.104 0.95

2 4 2-4-1 0.098 0.942 5 2-5-1 0.165 0.947 5 2-5-1 0.089 0.955

3 6 3-6-1 0.219 0.926 6 3-6-1 0.152 0.95 7 3-7-1 0.066 0.96

4 8 4-8-1 0.138 0.92 9 4-9-1 0.144 0.95 9 4-9-1 0.061 0.963

51

1 2 1-2-1 0.138 0.942 2 1-2-1 0.096 0.95 2 1-2-1 0.098 0.95

2 4 2-4-1 0.148 0.918 5 2-5-1 0.161 0.947 5 2-5-1 0.088 0.954

3 6 3-6-1 0.167 0.896 6 3-6-1 0.189 0.947 7 3-7-1 0.064 0.96

4 8 4-8-1 0.196 0.94 9 4-9-1 0.146 0.948 9 4-9-1 0.055 0.963

52

1 2 1-2-1 0.178 0.923 2 1-2-1 0.172 0.946 2 1-2-1 0.093 0.948

2 4 2-4-1 0.201 0.918 5 2-5-1 0.157 0.95 5 2-5-1 0.084 0.96

3 6 3-6-1 0.2 0.92 6 3-6-1 0.426 0.877 7 3-7-1 0.065 0.96

4 8 4-8-1 0.152 0.936 9 4-9-1 0.22 0.931 9 4-9-1 0.04 0.965

53 1 2 1-2-1 0.189 0.91 2 1-2-1 0.171 0.945 2 1-2-1 0.095 0.95

Page 72: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 72

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

53

2 4 2-4-1 0.218 0.923 5 2-5-1 0.16 0.95 5 2-5-1 0.079 0.955

3 6 3-6-1 0.178 0.928 6 3-6-1 0.12 0.95 7 3-7-1 0.065 0.959

4 8 4-8-1 0.203 0.913 9 4-9-1 0.126 0.943 9 4-9-1 0.046 0.967

54

1 2 1-2-1 0.129 0.933 2 1-2-1 0.117 0.946 2 1-2-1 0.097 0.948

2 4 2-4-1 0.126 0.948 5 2-5-1 0.098 0.948 5 2-5-1 0.077 0.955

3 6 3-6-1 0.142 0.932 6 3-6-1 0.132 0.948 7 3-7-1 0.07 0.961

4 8 4-8-1 0.148 0.913 9 4-9-1 0.204 0.944 9 4-9-1 0.053 0.967

55

1 2 1-2-1 0.138 0.942 2 1-2-1 0.143 0.946 2 1-2-1 0.099 0.95

2 4 2-4-1 0.146 0.911 5 2-5-1 0.125 0.946 5 2-5-1 0.087 0.954

3 6 3-6-1 0.225 0.89 6 3-6-1 0.143 0.945 7 3-7-1 0.071 0.959

4 8 4-8-1 0.158 0.928 9 4-9-1 0.169 0.948 9 4-9-1 0.047 0.962

56

1 2 1-2-1 0.126 0.939 2 1-2-1 0.143 0.947 2 1-2-1 0.104 0.949

2 4 2-4-1 0.15 0.932 5 2-5-1 0.174 0.922 5 2-5-1 0.086 0.954

3 6 3-6-1 0.152 0.934 6 3-6-1 0.156 0.947 7 3-7-1 0.074 0.963

4 8 4-8-1 0.228 0.9 9 4-9-1 0.252 0.929 9 4-9-1 0.039 0.96

57

1 2 1-2-1 0.102 0.938 2 1-2-1 0.135 0.946 2 1-2-1 0.102 0.95

2 4 2-4-1 0.123 0.939 5 2-5-1 0.158 0.948 5 2-5-1 0.087 0.954

3 6 3-6-1 0.116 0.938 6 3-6-1 0.162 0.945 7 3-7-1 0.061 0.96

4 8 4-8-1 0.207 0.934 9 4-9-1 0.159 0.939 9 4-9-1 0.044 0.966

58 1 2 1-2-1 0.2 0.903 2 1-2-1 0.183 0.948 2 1-2-1 0.098 0.95

2 4 2-4-1 0.173 0.937 5 2-5-1 0.16 0.943 5 2-5-1 0.076 0.953

Page 73: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 73

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2 Nombre de

neurones dans

la couche cachée Architecture MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

58 3 6 3-6-1 0.163 0.925 6 3-6-1 0.193 0.946 7 3-7-1 0.057 0.96

4 8 4-8-1 0.253 0.909 9 4-9-1 0.205 0.946 9 4-9-1 0.048 0.97

59

1 2 1-2-1 0.223 0.871 2 1-2-1 0.158 0.93 2 1-2-1 0.1 0.95

2 4 2-4-1 0.266 0.867 5 2-5-1 0.17 0.942 5 2-5-1 0.085 0.953

3 6 3-6-1 0.192 0.911 6 3-6-1 0.18 0.95 7 3-7-1 0.075 0.96

4 8 4-8-1 0.164 0.928 9 4-9-1 0.124 0.95 9 4-9-1 0.052 0.97

60

1 2 1-2-1 0.216 0.929 2 1-2-1 0.114 0.948 2 1-2-1 0.094 0.95

2 4 2-4-1 0.129 0.931 5 2-5-1 0.128 0.95 5 2-5-1 0.074 0.953

3 6 3-6-1 0.169 0.906 6 3-6-1 0.153 0.954 7 3-7-1 0.05 0.965

4 8 4-8-1 0.158 0.898 9 4-9-1 0.335 0.943 9 4-9-1 0.041 0.968

61

1 2 1-2-1 0.148 0.928 2 1-2-1 0.131 0.949 2 1-2-1 0.092 0.95

2 4 2-4-1 0.188 0.899 5 2-5-1 0.143 0.95 5 2-5-1 0.074 0.958

3 6 3-6-1 0.185 0.88 6 3-6-1 0.22 0.943 7 3-7-1 0.06 0.962

4 8 4-8-1 0.172 0.948 9 4-9-1 0.161 0.953 9 4-9-1 0.04 0.968

62

1 2 1-2-1 0.129 0.939 2 1-2-1 0.094 0.95 2 1-2-1 0.093 0.95

2 4 2-4-1 0.158 0.921 5 2-5-1 0.15 0.95 5 2-5-1 0.078 0.955

3 6 3-6-1 0.17 0.934 6 3-6-1 0.179 0.95 7 3-7-1 0.07 0.96

4 8 4-8-1 0.112 0.942 9 4-9-1 0.186 0.947 9 4-9-1 0.037 0.973

63

1 2 1-2-1 0.163 0.921 2 1-2-1 0.084 0.952 2 1-2-1 0.09 0.952

2 4 2-4-1 0.185 0.933 5 2-5-1 0.14 0.95 5 2-5-1 0.071 0.96

3 6 3-6-1 0.13 0.939 6 3-6-1 0.164 0.94 7 3-7-1 0.055 0.968

Page 74: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 74

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2 Nombre de

neurones dans la

couche cachée Architecture MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

63 4 8 4-8-1 0.181 0.93 9 4-9-1 0.238 0.952 9 4-9-1 0.044 0.97

64

1 2 1-2-1 0.163 0.915 2 1-2-1 0.132 0.95 2 1-2-1 0.095 0.95

2 4 2-4-1 0.229 0.914 5 2-5-1 0.185 0.95 5 2-5-1 0.072 0.96

3 6 3-6-1 0.123 0.932 6 3-6-1 0.15 0.95 7 3-7-1 0.07 0.96

4 8 4-8-1 0.184 927 9 4-9-1 0.187 0.944 9 4-9-1 0.036 0.97

65

1 2 1-2-1 0.108 0.935 2 1-2-1 0.117 0.95 2 1-2-1 0.084 0.952

2 4 2-4-1 0.175 0.933 5 2-5-1 0.136 0.952 5 2-5-1 0.08 0.96

3 6 3-6-1 0.365 0.787 6 3-6-1 0.226 0.95 7 3-7-1 0.066 0.965

4 8 4-8-1 0.15 0.924 9 4-9-1 0.134 0.951 9 4-9-1 0.039 0.97

66

1 2 1-2-1 0.213 0.916 2 1-2-1 0.14 0.95 2 1-2-1 0.09 0.952

2 4 2-4-1 0.264 0.799 5 2-5-1 0.13 0.95 5 2-5-1 0.071 0.96

3 6 3-6-1 0.177 0.902 6 3-6-1 0.165 0.95 7 3-7-1 0.057 0.964

4 8 4-8-1 0.219 0.93 9 4-9-1 0.125 0.95 9 4-9-1 0.042 0.972

67

1 2 1-2-1 0.142 0.939 2 1-2-1 0.129 0.95 2 1-2-1 0.087 0.953

2 4 2-4-1 0.161 0.91 5 2-5-1 0.15 0.952 5 2-5-1 0.075 0.96

3 6 3-6-1 0.153 0.94 6 3-6-1 0.191 0.94 7 3-7-1 0.056 0.965

4 8 4-8-1 0.153 0.941 9 4-9-1 0.222 0.908 9 4-9-1 0.045 0.968

68

1 2 1-2-1 0.116 0.93 2 1-2-1 0.145 0.95 2 1-2-1 0.089 0.954

2 4 2-4-1 0.172 0.935 5 2-5-1 0.16 0.95 5 2-5-1 0.079 0.96

3 6 3-6-1 0.176 0.879 6 3-6-1 0.18 0.94 7 3-7-1 0.057 0.963

4 8 4-8-1 0.173 0.889 9 4-9-1 0.131 0.956 9 4-9-1 0.043 0.97

Page 75: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 75

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conceptio

n des

entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

69

1 2 1-2-1 0.197 0.937 2 1-2-1 0.143 0.948 2 1-2-1 0.088 0.953

2 4 2-4-1 0.215 0.861 5 2-5-1 0.146 0.95 5 2-5-1 0.073 0.96

3 6 3-6-1 0.179 0.921 6 3-6-1 0.203 0.95 7 3-7-1 0.055 0.97

4 8 4-8-1 0.195 0.942 9 4-9-1 0.152 0.95 9 4-9-1 0.034 0.974

70

1 2 1-2-1 0.175 0.914 2 1-2-1 0.139 0.95 2 1-2-1 0.092 0.954

2 4 2-4-1 0.138 0.934 5 2-5-1 0.16 0.95 5 2-5-1 0.077 0.96

3 6 3-6-1 0.159 0.92 6 3-6-1 0.225 0.952 7 3-7-1 0.054 0.96

4 8 4-8-1 0.118 0.938 9 4-9-1 0.242 0.93 9 4-9-1 0.034 0.97

71

1 2 1-2-1 0.172 0.922 2 1-2-1 0.16 0.95 2 1-2-1 0.082 0.952

2 4 2-4-1 0.172 0.93 5 2-5-1 0.14 0.952 5 2-5-1 0.076 0.96

3 6 3-6-1 0.178 0.906 6 3-6-1 0.199 0.911 7 3-7-1 0.057 0.964

4 8 4-8-1 0.242 0.927 9 4-9-1 0.209 0.95 9 4-9-1 0.04 0.971

72

1 2 1-2-1 0.122 0.939 2 1-2-1 0.179 0.937 2 1-2-1 0.09 0.953

2 4 2-4-1 0.143 0.934 5 2-5-1 0.2 0.937 5 2-5-1 0.079 0.96

3 6 3-6-1 0.222 0.911 6 3-6-1 0.202 0.95 7 3-7-1 0.054 0.97

4 8 4-8-1 0.278 0.888 9 4-9-1 0.213 0.94 9 4-9-1 0.047 0.967

73

1 2 1-2-1 0.155 0.926 2 1-2-1 0.1 0.954 2 1-2-1 0.089 0.96

2 4 2-4-1 0.123 0.949 5 2-5-1 0.119 0.956 5 2-5-1 0.07 0.961

3 6 3-6-1 0.129 0.943 6 3-6-1 0.22 0.94 7 3-7-1 0.052 0.968

4 8 4-8-1 0.208 0.916 9 4-9-1 0.131 0.95 9 4-9-1 0.03 0.97

74 1 2 1-2-1 0.132 0.933 2 1-2-1 0.154 0.953 2 1-2-1 0.085 0.956

Page 76: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 76

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

74

2 4 2-4-1 0.371 0.799 5 2-5-1 0.115 0.956 5 2-5-1 0.063 0.96

3 6 3-6-1 0.254 0.913 6 3-6-1 0.197 0.5 7 3-7-1 0.049 0.966

4 8 4-8-1 0.187 0.936 9 4-9-1 0.188 0.952 9 4-9-1 0.033 0.967

75

1 2 1-2-1 0.146 0.946 2 1-2-1 0.156 0.954 2 1-2-1 0.084 0.956

2 4 2-4-1 0.209 0.931 5 2-5-1 0.13 0.957 5 2-5-1 0.073 0.96

3 6 3-6-1 0.178 0.942 6 3-6-1 0.204 0.95 7 3-7-1 0.073 0.96

4 8 4-8-1 0.218 0.916 9 4-9-1 0.263 0.917 9 4-9-1 0.053 0.968

76

1 2 1-2-1 0.119 0.942 2 1-2-1 0.115 0.955 2 1-2-1 0.087 0.956

2 4 2-4-1 0.154 0.936 5 2-5-1 0.102 0.956 5 2-5-1 0.071 0.962

3 6 3-6-1 0.224 0.903 6 3-6-1 0.105 0.952 7 3-7-1 0.048 0.97

4 8 4-8-1 0.192 0.941 9 4-9-1 0.122 0.954 9 4-9-1 0.037 0.971

77

1 2 1-2-1 0.146 0.94 2 1-2-1 0.118 0.955 2 1-2-1 0.074 0.956

2 4 2-4-1 0.214 0.922 5 2-5-1 0.188 0.95 5 2-5-1 0.075 0.96

3 6 3-6-1 0.2 0.907 6 3-6-1 0.16 0.945 7 3-7-1 0.05 0.967

4 8 4-8-1 0.213 0.921 9 4-9-1 0.219 0.949 9 4-9-1 0.024 0.971

78

1 2 1-2-1 0.146 0.931 2 1-2-1 0.134 0.953 2 1-2-1 0.081 0.956

2 4 2-4-1 0.135 0.945 5 2-5-1 0.156 0.95 5 2-5-1 0.064 0.962

3 6 3-6-1 0.132 0.946 6 3-6-1 0.162 0.94 7 3-7-1 0.04 0.97

4 8 4-8-1 0.19 0.921 9 4-9-1 0.235 0.94 9 4-9-1 0.032 0.971

79 1 2 1-2-1 0.201 0.925 2 1-2-1 0.145 0.952 2 1-2-1 0.084 0.957

2 4

2-4-1 0.15 0.932 5 2-5-1 0.123 0.953 5 2-5-1 0.069 0.96

Page 77: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 77

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

79 3 6 3-6-1 0.18 0.931 6 3-6-1 0.225 0.953 7 3-7-1 0.056 0.967

4 8 4-8-1 0.166 0.896 9 4-9-1 0.223 0.944 9 4-9-1 0.029 0.972

80

1 2 1-2-1 0.193 0.916 2 1-2-1 0.093 0.957 2 1-2-1 0.089 0.96

2 4 2-4-1 0.154 0.935 5 2-5-1 0.111 0.956 5 2-5-1 0.069 0.963

3 6 3-6-1 0.135 0.938 6 3-6-1 0.147 0.954 7 3-7-1 0.046 0.97

4 8 4-8-1 0.172 0.938 9 4-9-1 0.295 0.936 9 4-9-1 0.025 0.975

81

1 2 1-2-1 0.19 0.929 2 1-2-1 0.114 0.956 2 1-2-1 0.084 0.956

2 4 2-4-1 0.14 0.938 5 2-5-1 0.133 0.955 5 2-5-1 0.059 0.962

3 6 3-6-1 0.244 0.893 6 3-6-1 0.155 0.953 7 3-7-1 0.044 0.97

4 8 4-8-1 0.324 0.85 9 4-9-1 0.25 0.933 9 4-9-1 0.033 0.97

82

1 2 1-2-1 0.218 0.912 2 1-2-1 0.116 0.956 2 1-2-1 0.086 0.957

2 4 2-4-1 0.207 0.914 5 2-5-1 0.165 0.955 5 2-5-1 0.072 0.962

3 6 3-6-1 0.2 0.93 6 3-6-1 0.236 0.922 7 3-7-1 0.048 0.965

4 8 4-8-1 0.178 0.922 9 4-9-1 0.25 0.944 9 4-9-1 0.023 0.973

83

1 2 1-2-1 0.151 0.938 2 1-2-1 0.148 0.954 2 1-2-1 0.083 0.957

2 4 2-4-1 0.273 0.832 5 2-5-1 0.109 0.54 5 2-5-1 0.068 0.963

3 6 3-6-1 0.21 0.937 6 3-6-1 0.218 0.936 7 3-7-1 0.046 0.97

4 8 4-8-1 0.221 0.905 9 4-9-1 0.251 0.91 9 4-9-1 0.028 0.975

84

1 2 1-2-1 0.112 0.948 2 1-2-1 0.138 0.954 2 1-2-1 0.086 0.956

2 4 2-4-1 0.249 0.889 5 2-5-1 0.177 0.95 5 2-5-1 0.058 0.965

3 6 3-6-1 0.241 0.928 6 3-6-1 0.206 0.948 7 3-7-1 0.049 0.97

Page 78: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 78

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

84 8 4 4-8-1 0.186 0.929 9 4-9-1 0.219 0.94 9 4-9-1 0.031 0.976

85

2 1 1-2-1 0.348 0.888 2 1-2-1 0.175 0.952 2 1-2-1 0.082 0.096

4 2 2-4-1 0.212 0.938 5 2-5-1 0.123 0.957 5 2-5-1 0.06 0.963

6 3 3-6-1 0.208 0.931 6 3-6-1 0.162 0.934 7 3-7-1 0.043 0.971

8 4 4-8-1 0.196 0.923 9 4-9-1 0.186 0.953 9 4-9-1 0.03 0.968

86

1 2 1-2-1 0.169 0.934 2 1-2-1 0.131 0.956 2 1-2-1 0.081 0.955

2 4 2-4-1 0.239 0.897 5 2-5-1 0.235 0.95 5 2-5-1 0.06 0.97

3 6 3-6-1 0.168 0.938 6 3-6-1 0.223 0.933 7 3-7-1 0.048 0.97

4 8 4-8-1 0.143 0.924 9 4-9-1 0.277 0.892 9 4-9-1 0.03 0.978

87

1 2 1-2-1 0.163 0.921 2 1-2-1 0.077 0.956 2 1-2-1 0.079 0.956

2 4 2-4-1 0.16 0.95 5 2-5-1 0.43 0.955 5 2-5-1 0.063 0.96

3 6 3-6-1 0.157 0.942 6 3-6-1 0.2 0.95 7 3-7-1 0.048 0.968

4 8 4-8-1 0.174 0.93 9 4-9-1 0.168 0.936 9 4-9-1 0.025 0.974

88

1 2 1-2-1 0.183 0.914 2 1-2-1 0.178 0.953 2 1-2-1 0.083 0.957

2 4 2-4-1 0.13 0.926 5 2-5-1 0.154 0.953 5 2-5-1 0.066 0.962

3 6 3-6-1 0.145 0.924 6 3-6-1 0.206 0.951 7 3-7-1 0.039 0.971

4 8 4-8-1 0.195 0.92 9 4-9-1 0.262 0.95 9 4-9-1 0.026 0.979

89

1 2 1-2-1 0.182 0.92 2 1-2-1 0.142 0.954 2 1-2-1 0.081 0.957

2 4 2-4-1 0.288 0.89 5 2-5-1 0.129 0.955 5 2-5-1 0.06 0.964

3 6 3-6-1 0.272 0.891 6 3-6-1 0.262 0.935 7 3-7-1 0.04 0.972

4 8 4-8-1 0.181 0.934 9 4-9-1 0.165 0.955 9 4-9-1 0.027 0.977

Page 79: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 79

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

90

1 2 1-2-1 0.169 0.938 2 1-2-1 0.091 0.957 2 1-2-1 0.082 0.957

2 4 2-4-1 0.185 0.921 5 2-5-1 0.188 0.95 5 2-5-1 0.07 0.96

3 6 3-6-1 0.176 0.939 6 3-6-1 0.153 0.955 7 3-7-1 0.039 0.97

4 8 4-8-1 0.16 0.94 9 4-9-1 0.245 0.911 9 4-9-1 0.022 0.975

91

1 2 1-2-1 0.211 0.913 2 1-2-1 0.161 0.955 2 1-2-1 0.077 0.957

2 4 2-4-1 0.175 0.894 5 2-5-1 0.157 0.947 5 2-5-1 0.06 0.964

3 6 3-6-1 0.192 0.937 6 3-6-1 0.195 0.911 7 3-7-1 0.036 0.972

4 8 4-8-1 0.208 0.921 9 4-9-1 0.243 0.91 9 4-9-1 0.03 0.974

92

1 2 1-2-1 0.172 0.93 2 1-2-1 0.101 0.957 2 1-2-1 0.079 0.956

2 4 2-4-1 0.152 0.911 5 2-5-1 0.215 0.921 5 2-5-1 0.065 0.965

3 6 3-6-1 0.145 0.953 6 3-6-1 0.27 0.936 7 3-7-1 0.05 0.968

4 8 4-8-1 0.16 0.937 9 4-9-1 0.345 0.939 9 4-9-1 0.033 0.968

93

1 2 1-2-1 0.229 0.93 2 1-2-1 0.147 0.954 2 1-2-1 0.088 0.957

2 4 2-4-1 0.206 0.941 5 2-5-1 0.184 0.955 5 2-5-1 0.057 0.964

3 6 3-6-1 0.187 0.919 6 3-6-1 0.16 0.958 7 3-7-1 0.048 0.971

4 8 4-8-1 0.239 0.915 9 4-9-1 0.16 0.953 9 4-9-1 0.021 0.98

94

1 2 1-2-1 0.215 0.898 2 1-2-1 0.155 0.955 2 1-2-1 0.085 0.957

2 4 2-4-1 0.391 0.85 5 2-5-1 0.198 0.95 5 2-5-1 0.07 0.962

3 6 3-6-1 0.204 0.919 6 3-6-1 0.206 0.944 7 3-7-1 0.043 0.968

4 8 4-8-1 0.206 0.925 9 4-9-1 0.296 0.926 9 4-9-1 0.019 0.977

95 1 2 1-2-1 0.145 0.914 2 1-2-1 0.132 0.955 2 1-2-1 0.08 0.956

Page 80: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 80

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

95

2 4 2-4-1 0.175 0.936 5 2-5-1 0.208 0.949 5 2-5-1 0.065 0.964

3 6 3-6-1 0.2 0.919 6 3-6-1 0.328 0.93 7 3-7-1 0.034 0.97

4 8 4-8-1 0.218 0.918 9 4-9-1 0.214 0.94 9 4-9-1 0.015 0.977

96

1 2 1-2-1 0.204 0.91 2 1-2-1 0.107 0.954 2 1-2-1 0.075 0.957

2 4 2-4-1 0.178 0.933 5 2-5-1 0.244 0.936 5 2-5-1 0.065 0.964

3 6 3-6-1 0.246 0.892 6 3-6-1 0.268 0.921 7 3-7-1 0.043 0.968

4 8 4-8-1 0.242 0.902 9 4-9-1 0.413 0.921 9 4-9-1 0.013 0.975

97

1 2 1-2-1 0.189 0.936 2 1-2-1 0.12 0.957 2 1-2-1 0.083 0.958

2 4 2-4-1 0.22 0.899 5 2-5-1 0.127 0.955 5 2-5-1 0.067 0.962

3 6 3-6-1 0.311 0.833 6 3-6-1 0.196 0.948 7 3-7-1 0.049 0.97

4 8 4-8-1 0.174 0.929 9 4-9-1 0.253 0.916 9 4-9-1 0.026 0.98

98

1 2 1-2-1 0.162 0.94 2 1-2-1 0.142 0.956 2 1-2-1 0.08 0.955

2 4 2-4-1 0.167 0.929 5 2-5-1 0.197 0.949 5 2-5-1 0.066 0.963

3 6 3-6-1 0.239 0.923 6 3-6-1 0.198 0.949 7 3-7-1 0.034 0.973

4 8 4-8-1 0.169 0.944 9 4-9-1 0.254 0.948 9 4-9-1 0.015 0.976

99

1 2 1-2-1 0.147 0.938 2 1-2-1 0.145 0.954 2 1-2-1 0.082 0.958

2 4 2-4-1 0.165 0.926 5 2-5-1 0.249 0.927 5 2-5-1 0.058 0.966

3 6 3-6-1 0.172 0.935 6 3-6-1 0.186 0.948 7 3-7-1 0.041 0.975

4 8 4-8-1 0.211 0.927 9 4-9-1 0.22 0.932 9 4-9-1 0.025 0.975

100 1 2 1-2-1 0.188 0.935 2 1-2-1 0.113 0.955 2 1-2-1 0.081 0.96

Page 81: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 81

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

102 3 6 3-6-1 0.163 0.929 6 3-6-1 0.123 0.958 7 3-7-1 0.036 0.971

4 8 4-8-1 0.332 0.904 9 4-9-1 0.221 0.954 9 4-9-1 0.012 0.97

101

1 2 1-2-1 0.19 0.927 2 1-2-1 0.127 0.953 2 1-2-1 0.084 0.957

2 4 2-4-1 0.4 0.89 5 2-5-1 0.158 0.948 5 2-5-1 0.06 0.965

3 6 3-6-1 0.142 0.94 6 3-6-1 0.261 0.942 7 3-7-1 0.038 0.968

4 8 4-8-1 0.217 0.899 9 4-9-1 0.359 0.942 9 4-9-1 0.013 0.972

102

1 2 1-2-1 0.212 0.938 2 1-2-1 0.141 0.955 2 1-2-1 0.083 0.956

2 4 2-4-1 0.148 0.945 5 2-5-1 0.153 0.951 5 2-5-1 0.058 0.963

3 6 3-6-1 0.183 0.906 6 3-6-1 0.177 0.953 7 3-7-1 0.026 0.974

4 8 4-8-1 0.128 0.925 9 4-9-1 0.194 0.954 9 4-9-1 0.012 0.983

103

1 2 1-2-1 0.158 0.926 2 1-2-1 0.131 0.951 2 1-2-1 0.087 0.955

2 4 2-4-1 0.227 0.923 5 2-5-1 0.145 0.951 5 2-5-1 0.05 0.966

3 6 3-6-1 0.203 0.939 6 3-6-1 0.183 0.94 7 3-7-1 0.043 0.968

4 8 4-8-1 0.151 0.924 9 4-9-1 0.288 0.913 9 4-9-1 0.012 0.978

104

1 2 1-2-1 0.176 0.937 2 1-2-1 0.155 0.953 2 1-2-1 0.08 0.952

2 4 2-4-1 0.177 0.921 5 2-5-1 0.21 0.95 5 2-5-1 0.064 0.963

3 6 3-6-1 0.183 0.921 6 3-6-1 0.197 0.939 7 3-7-1 0.043 0.973

4 8 4-8-1 0.227 0.921 9 4-9-1 0.303 0.932 9 4-9-1 0.012 0.976

105

1 2 1-2-1 0.308 0.891 2 1-2-1 0.134 0.954 2 1-2-1 0.084 0.956

2 4 2-4-1 0.215 0.925 5 2-5-1 0.189 0.947 5 2-5-1 0.071 0.963

3 6 3-6-1 0.199 0.922 6 3-6-1 0.29 0.926 7 3-7-1 0.035 0.973

Page 82: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 82

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

105 4 8 4-8-1 0.242 0.901 9 4-9-1 0.249 0.941 9 4-9-1 0.011 0.979

106

1 2 1-2-1 0.18 0.94 2 1-2-1 0.115 0.956 2 1-2-1 0.083 0.955

2 4 2-4-1 0.205 0.863 5 2-5-1 0.2 0.953 5 2-5-1 0.053 0.967

3 6 3-6-1 0.238 0.912 6 3-6-1 0.16 0.948 7 3-7-1 0.044 0.973

4 8 4-8-1 0.166 0.935 9 4-9-1 0.19 0.95 9 4-9-1 0.0064 0.977

107

1 2 1-2-1 0.179 0.915 2 1-2-1 0.18 0.953 2 1-2-1 0.074 0.956

2 4 2-4-1 0.272 0.86 5 2-5-1 0.156 0.948 5 2-5-1 0.056 0.965

3 6 3-6-1 0.192 0.905 6 3-6-1 0.131 0.923 7 3-7-1 0.036 0.976

4 8 4-8-1 0.188 948 9 4-9-1 0.193 0.948 9 4-9-1 0.014 0.981

108

1 2 1-2-1 0.216 0.937 2 1-2-1 0.196 0.954 2 1-2-1 0.084 0.957

2 4 2-4-1 0.182 0.911 5 2-5-1 0.195 0.946 5 2-5-1 0.062 0.963

3 6 3-6-1 0.234 0.921 6 3-6-1 0.187 0.948 7 3-7-1 0.03 0.971

4 8 4-8-1 0.237 0.924 9 4-9-1 0.313 0.915 9 4-9-1 0.015 0.98

109

1 2 1-2-1 0.203 0.924 2 1-2-1 0.153 0.955 2 1-2-1 0.083 0.957

2 4 2-4-1 0.208 0.918 5 2-5-1 0.145 0.956 5 2-5-1 0.067 0.962

3 6 3-6-1 0.213 0.925 6 3-6-1 0.145 0.956 7 3-7-1 0.041 0.973

4 8 4-8-1 0.204 0.925 9 4-9-1 0.314 0.873 9 4-9-1 0.023 0.971

110

1 2 1-2-1 0.314 0.875 2 1-2-1 0.194 0.948 2 1-2-1 0.081 0.957

2 4 2-4-1 0.213 0.938 5 2-5-1 0.2 0.948 5 2-5-1 0.062 0.963

3 6 3-6-1 0.247 0.892 6 3-6-1 0.14 0.958 7 3-7-1 0.034 0.975

4 8 4-8-1 0.187 0.94 9 4-9-1 0.227 0.915 9 4-9-1 0.013 0.974

Page 83: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 83

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

111

1 2 1-2-1 0.171 0.939 2 1-2-1 0.169 0.954 2 1-2-1 0.08 0.955

2 4 2-4-1 0.22 0.919 5 2-5-1 0.195 0.952 5 2-5-1 0.06 0.966

3 6 3-6-1 0.164 0.94 6 3-6-1 0.15 0.955 7 3-7-1 0.052 0.966

4 8 4-8-1 0.159 0.941 9 4-9-1 0.217 0.931 9 4-9-1 0.011 0.981

112

1 2 1-2-1 0.195 0.943 2 1-2-1 0.137 0.955 2 1-2-1 0.083 0.957

2 4 2-4-1 0.166 0.931 5 2-5-1 0.156 0.952 5 2-5-1 0.058 0.963

3 6 3-6-1 0.161 0.948 6 3-6-1 0.215 0.951 7 3-7-1 0.032 0.974

4 8 4-8-1 0.166 0.934 9 4-9-1 0.143 0.958 9 4-9-1 0.01 0.981

113

1 2 1-2-1 0.19 0.909 2 1-2-1 0.2 0.953 2 1-2-1 0.08 0.957

2 4 2-4-1 0.276 0.898 5 2-5-1 0.247 0.939 5 2-5-1 0.063 0.963

3 6 3-6-1 0.225 0.92 6 3-6-1 0.21 0.95 7 3-7-1 0.034 0.973

4 8 4-8-1 0.188 0.941 9 4-9-1 0.31 0.871 9 4-9-1 0.006 0.982

114

1 2 1-2-1 0.164 0.939 2 1-2-1 0.128 0.957 2 1-2-1 0.081 0.958

2 4 2-4-1 0.152 0.934 5 2-5-1 0.275 0.943 5 2-5-1 0.053 0.966

3 6 3-6-1 0.276 0.91 6 3-6-1 0.292 0.919 7 3-7-1 0.032 0.973

4 8 4-8-1 0.248 0.932 9 4-9-1 0.267 0.923 9 4-9-1 0.013 0.977

115

1 2 1-2-1 0.223 0.94 2 1-2-1 0.186 0.956 2 1-2-1 0.071 0.956

2 4 2-4-1 0.359 0.884 5 2-5-1 0.155 0.956 5 2-5-1 0.055 0.961

3 6 3-6-1 0.228 0.929 6 3-6-1 0.384 0.89 7 3-7-1 0.03 0.974

4 8 4-8-1 0.184 0.915 9 4-9-1 0.203 0.942 9 4-9-1 0.0054 0.98

116 2 4 2-4-1 0.229 0.904 5 2-5-1 0.151 0.941 5 2-5-1 0.061 0.963

Page 84: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 84

Tableau IV.2 : Paramètres statistiques de la prévision de la sécheresse dans la plaine de Metidja trouvées pour la meilleure conception d’entrées (suite et fin)

Décalage

Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architectur

e MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

117 3 6 3-6-1 0.244 0.9 6 3-6-1 0.219 0.948 7 3-7-1 0.029 0.971

4 8 4-8-1 0.152 0.944 9 4-9-1 0.304 0.904 9 4-9-1 0.0065 0.976

117

1 2 1-2-1 0.186 0.92 2 1-2-1 0.119 0.954 2 1-2-1 0.072 0.957

2 4 2-4-1 0.253 0.913 5 2-5-1 0.206 0.931 5 2-5-1 0.06 0.965

3 6 3-6-1 0.218 0.936 6 3-6-1 0.358 0.925 7 3-7-1 0.028 0.973

4 8 4-8-1 0.188 0.936 9 4-9-1 0.199 0.953 9 4-9-1 0.0032 0.976

118

1 2 1-2-1 0.227 0.919 2 1-2-1 0.143 0.954 2 1-2-1 0.068 0.957

2 4 2-4-1 0.144 0.914 5 2-5-1 0.203 0.948 5 2-5-1 0.058 0.968

3 6 3-6-1 0.231 0.872 6 3-6-1 0.236 0.946 7 3-7-1 0.037 0.973

4 8 4-8-1 0.315 0.894 9 4-9-1 0.226 0.947 9 4-9-1 0.018 0.981

119

1 2 1-2-1 0.147 0.936 2 1-2-1 0.117 0.952 2 1-2-1 0.078 0.957

2 4 2-4-1 0.268 0.907 5 2-5-1 0.144 0.938 5 2-5-1 0.051 0.965

3 6 3-6-1 0.255 0.899 6 3-6-1 0.295 0.934 7 3-7-1 0.03 0.971

4 8 4-8-1 0.165 0.936 9 4-9-1 0.26 0.931 9 4-9-1 0.0091 0.983

120

1 2 1-2-1 0.207 0.9 2 1-2-1 0.142 0.956 2 1-2-1 0.084 0.955

2 4 2-4-1 0.197 0.902 5 2-5-1 0.194 0.952 5 2-5-1 0.053 0.966

3 6 3-6-1 0.211 0.894 6 3-6-1 0.144 0.945 7 3-7-1 0.034 0.974

4 8 4-8-1 0.185 0.911 9 4-9-1 0.376 0.905 9 4-9-1 0.003 0.98

Page 85: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 85

Ci-après, les Figures (IV.4-IV.5) montrent la comparaison des données observées avec les

algorithmes Scaled Conjugate Gradient, Levenberg-Marquardt et Bayesian Regularization

dans la période de prévision de 120 mois (10 ans).

(a)

(b)

(c)

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0 20 40 60 80 100 120

MSE

Temps (mois)

Scaled Conjugate Gradient

0

0.1

0.2

0.3

0.4

0.5

0 20 40 60 80 100 120

MSE

temps (mois)

Levenberg-Marquardt

0

0.05

0.1

0.15

0.2

0 20 40 60 80 100 120

MSE

Temps (mois)

Bayesian Regularization

Page 86: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 86

Figue IV.4: Les résultats de l’erreur moyenne quadratique (MSE) obtenus dans la plaine de

Metidja en fonction de nombre de mois de décalage (prévision à l’avance de 120 mois) en

utilisant les trois algorithmes : (a) Scaled Conjugate Gradient algorithme ; (b)

Levenberg-Marquardt algorithme et (c) Bayesian Regularization algorithme.

Plaine de Haute Chelif :

(a)

(b)

(c)

0 0.05

0.1 0.15

0.2 0.25

0.3 0.35

0.4 0.45

0 20 40 60 80 100 120

MSE

Temps (mois)

Scaled Conjugate Gradient

0

0.1

0.2

0.3

0.4

0.5

0 20 40 60 80 100 120

MSE

Temps (mois)

Levenberg-Marquardt

0

0.05

0.1

0.15

0.2

0.25

0 20 40 60 80 100 120

MSE

Temps (mois)

Bayesian Regularization

Page 87: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 87

Figue IV.5 : Les résultats de l’erreur moyenne quadratique (MSE) obtenu dans la plaine de Haut

Chelif en fonction du nombre de mois de décalage (prévision à l’avance de 120 mois) en utilisant

les trois algorithmes : (a) Scaled Conjugate Gradient algorithme ; (b) Levenberg-Marquardt

algorithme et (c) Bayesian Regularization algorithme.

Figure IV.4. Progression de l’erreur de prévision (MSE) du modèle NAR avec l’architecture

(4-9-1) dans le cas d’une prévision de la sécheresse à l’avance de 120 mois.

Page 88: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 88

Figure IV.5. Résultats de régression au carré R2 du modèle NAR avec l’architecture (4-9-1)

dans le cas d’une prévision de la sécheresse à l’avance de 120 mois.

IV.5.2. Discussion :

A partir des résultats de l’apprentissage (Tableaux IV.2 et annexe.1), on constate que;

Pour les deux stations (Metidja et Haute Chelif) ; le meilleur modèle NAR qui prévoit la

sécheresse avec les trois algorithmes et quatre conception est obtenu comme suit ; le modèle

RNA avec la conception 1 est meilleur dans le cas de l’algorithme Conjugate Gradient, la

conception 2 dans le cas de l’algorithme levenberg–marquardt et la conception 4 dans le cas de

l’algorithme Bayesian Regularization.

Le nombre optimal de neurones cachés (N) a été trouvé différent d'une station à une autre et

d’un algorithme à un autre. Dans le cas de l’algorithme Bayesian Regularization, le nombre de

neurone dans la couche cachée est en conformité avec la loi: 2n+1 pour les deux stations Metidja

et Haute Cheliff, où "n" est le nombre d'entrée.

Comme il ressort de Figures. (IV.4 – IV.5), bien que les algorithmes Scaled Conjugate

Gradient, Levenberg-Marquardt aient une meilleure performance en période de formation dans le

modèle de réseau neuronal artificiel autorégressif avec fonction d'activité sigmoïde, l’algorithme

Bayesian Regularization était mieux que les deux autre algorithmes (Scaled Conjugate Gradient,

Levenberg-Marquardt) dans la période prévision, en particulier les pics. L’objectif des

algorithmes utilisés était l’erreur de prévision (MSE) des indices SPI pour les deux stations

choisis.

Les valeurs du MSE pour la validation du modèle NAR de la meilleure conception (CF.

Tableaux IV.2 – Annexe.1) montrent que la meilleure optimisation est obtenue par l’algorithme

Bayesian Regularization. . Les valeurs du MSE varient de 0,18 à 0.003. La plus faible valeur a

été observée au niveau de la station Metidja. Les valeurs R2 obtenues lors de la validation

varient de 0,61 à 0,98.

Selon les Figures (IV.4–IV.5), pour les deux algorithmes Scaled Conjugate Gradient et

Levenberg-Marquardt, les valeurs minimales de MSE ont été estimés mieux au court de la

période de prévision de 3 jusqu'à 5 ans que ceux des autres périodes; pour l’algorithme Bayesian

Regularization, les valeurs minimales de MSE qui correspondent aux 5 dernières années ont été

estimées beaucoup mieux que ceux des premiers 5 ans, bien qu'il soit facile de sélectionner le

meilleur temps de prévision.

Selon les Figures (IV.4 –IV.5), le modèle neuronal autorégressif NAR avec l’algorithme de

Bayesian Regularization montre que les fluctuations de MSE diminuent au fur à mesure que le

décalage du temps augmente jusqu'à 10 ans, on remarque aussi que la précision de la prévision

Page 89: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CHAPITRE IV RESULTATS ET DISCUSSION

ENSH –SEPTEMBRE 2017 89

augmente (en particulier dans les pics), et donc on peut conclure que les prochaine 10 ans

pourraient être prévus par ce modèle.

Ce modèle peut être utilisé pour la planification et la gestion des ressources en eau. Son

utilisation est recommandée pour les régions voisines caractérisées par une disponibilité très

limitée des données de pluies mensuelles. En outre, ce modèle ne nécessite pas une

compréhension conceptuelle de la dynamique de la plaine et sa précision est affectée seulement

par les données d'entrée utilisées pour l'apprentissage du modèle.

Page 90: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

CONCLUSION GENERALE

ENSH –SEPTEMBRE 2017 90

Conclusion générale L'objectif principal de ce travail portait plus particulièrement sur l’analyse et la prévision de la

sécheresse au sein de deux plaines représentatives, Metidja et Haute cheliff, du Nord-Ouest de

l’Algérie en utilisant la méthode de réseaux de neurones artificiel de type autorégressif.

Avant de s’intéresser à la construction du modèle neuronale pour la prévision de la sècheresse,

nous avons dressé un état de l’art du contexte géographique, géomorphologique et climatique de

deux plaines étudiées. Les données pluviométriques pour la période de 50 ans (1960-2010) ont été

recueillies à partir des stations pluviométriques réparties d’une manière plus au moins homogènes,

sur toute la zone d’étude et utilisées pour calculer l’indice de la sécheresse (SPI-12) qu’on va

l’utiliser par suite dans la conception du modèle neuronal. Ensuite, un aperçu théorique, sur les

modèles statistiques de prévision de la sécheresse qui ont été utilisées dans la littérature, a été

présenté. Dans le dernier chapitre, nous avons procédé à la construction et l’application du modèle

des réseaux neuronaux artificiels autorégressifs NAR. Durant la construction du modele NAR,

nous sommes intéressés au problème de la conception des prédicteurs neuronaux par les

algorithmes d’apprentissage. La difficulté de l’obtention de la structure de prédicteur neuronal (le

nombre de couches, les nombres de neurones par couche, la forme de la fonction d’activation

utilisée par couches, le nombre d’entrée de prédicteur, le retards), les paramètres de contrôle des

réseaux de neurones (paramètre d’apprentissage, paramètre d’inertie), et les intervalles initiaux des

poids synaptiques des couches cachées et de couche de sortie est en effet très pénalisante lors de

l’utilisation des réseaux de neurones. Le choix de ces paramètres est obligatoirement en fonction

des connaissances sur le comportement de la série temporelles et les capacités de l’utilisateur.

Ainsi, les performances de prévision sont en fonction de ces paramètres, ce qui rend les résultats

de prédiction très loin de l’optimum. Le but de ce travail est de concevoir un prédicteur neuronal

optimal qui peut prédire la future valeur d’une série temporelle avec des indicateurs de

performances très faible (MSE-R2).

Bien que les résultats obtenus soient satisfaisants quelque soit l’algorithme d’apprentissage en

terme d’erreur prévision, la méthode comme la plupart des méthodes proposées dans la littérature,

présente un inconvénient majeur c’est l’influence de nombre de données utilisées dans la phase

d’apprentissage sur la vitesse d’optimisation et aussi sur la qualité de prédiction (erreur de

prédiction). L’augmentation de nombre des données utilisées dans la phase d’apprentissage

améliore la qualité de prédiction et diminue la vitesse de prédiction.

Les résultats indiquent que, le modèle neuronal NAR avec; l’algorithme d’apprentissage

Bayesian Regularization (NAR_BR), une fonction d'activité appropriée était sigmoïde et

l’architecture (4-9-1) offre la meilleure performance en termes de prévision de la sécheresse.

Page 91: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

REFERENCES BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 91

Références bibliographiques

Alley, W. M. (1984). The Palmer Drought Severity Index: Limitations and assumptions, J.Clim.

Appl. Meteorol., 23, 1100-1109.

Baker J.E. (1985). “Adaptive selection Methods for Genetic Algorithm”, Proceedings of the

First International Conference on Genetic Algorithms, pp.101-111.

Balaguer, E., Palomares, A., Sorie, E., Martin-Guerrero, J.D. (2008). Predicting service request

in support centers based on nonlinear dynamics, ARMA modeling and neural networks. Expert

Syst. Appl. 34, 665–672.

Bollerslev, T. (1986). Generalized autoregressive conditional heteroskedasticity. Journal of

econometrics, 31(3), 307-327.

Box G.E.P., Jenkins G.M. (1976). Time Series Analysis, Forecasting and Control, Holden Day,

San Francisco.

Burns, R.S. (2001). Advanced Control Engineering. butterworth heinemann ed.

Cancelliere, A., Di Mauro, G., Bonaccorso, B., Rossi, G. (2007). Drought forecasting using the

Standardized Precipitation Index. Water Resources Management, 21(5): 801-819

Chakraborty, K, K Mehrotra, C.K Mohan et S. Ranka (1992). Forecasting the Behavior of

Multivariate Time Series Using Neural Networks. Neural Networks, 5: 961-970.

Cubero, RG. (1991). Neural Networks for Water Demand Time Series Forecasting. In:Artificial

Neural Networks, Proceedings ofthe International Workshop IWANN'91, A. Prieto éd., Springer-

Verlag, Germany, 453-460

Ellouza Et Abida (2008). Caractérisation de la sècheresse au sud Tunisien, 13

World Water

Congress, Montpellier, France, 14 p.

Engle, R.F. (1982). Autoregressive conditional heteroscedasticity with estimates of the variance of

United Kingdom inflation. Econometrica: Journal of the Econometric Society, 987-1007.

Page 92: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

REFERENCES BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 92

Foresee, F.D. and Hagan, M.T. (1997). Gauss-Newton Approximation to Bayesian Regularization.

Proceedings of the 1997 International Joint Conference on Neural

Networks, pp. 1930-1935,

French, M"N., W.F. Krajewski et R.R. Cuykendall. (1992). Rainfall forecasting in space and

time using a, neural network. Journal ofHydrology, 131: 1-31.

Gallager, R.G. (2013). Stochastic processes: theory for applications. Cambridge University Press.

GIEC, (2007). Bilan 2007 des changements climatiques, (OMM), Genève, Suisse.

Guttman N.B. (1994). On the sensitivity of sample L moments to sample size. Journal of Climate,

pp 1026–1029.

Guttman, N.B. (1998): Comparing the Palmer drought index and the Standardized Precipitation

Index.

Guy Melard (1990). Méthodes de prévision à court terme. Editions de l'Université de

Bruxelles, Avenue Paul Héger, 26 - 1050 Bruxelles (Belgique).

Haykin, S. (1999). Neural Networks, A Comprehensive Foundation. Prentice Hall.

Hsu, K.-l., V. Gupta et S. Sorooshian (1995). Artificial neural network modeling ofthe rainfall

runoff process. Water Resources Research, 31(10): 2517-2530.

J.J. Holland (1992). Adaptation in Natural and artificial systems (second edition), M.I.T Press,

Cambridge

Karamouz, M., Araghinejad, Sh. (2012). Advance Hydrology. Amirkabir University of

Technology Press.

Karunanithi, N. et al. (1994). Neural networks for river flow prediction, Journal ofcomputing in

civil engineering, 8 (201).

Keyantash, J. and Dracup, J. A. (2002). The quantification of drought: An evaluation of drought

indices, B. Am. Meteorol. Soc., 83, 1167–1180.

Page 93: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

REFERENCES BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 93

Kisi, I., Cigizoglu, K. (2005). Reservoir management using artificial neural networks. In: 14th. Reg.

Directorate of DSI (State Hydraulic Works), Istanbul, Turkey.

Labedzki L. (2007). Estimation of local drought frequency in central Poland using the standardized

precipitation index (SPI). Irrig. And Drain. 56: 67-77.

Lapedes, A. et R. Farber (1987). Nonlinear signal processing using neural networks: Prediction

and Modeling. Technical Report, LA-UR87-2662, Los Alamos National Laboratory, Los

Alamos, New Mexico.

M.T. Dastorani; H. Afkhami. Application of artificial neural networks on drought prediction in

Yazd (Central IRAN) Volume 16, Issue 1, Summer and Autumn 2011, Page 39-48

MacKay, D.J.C. (1992). A Practical Bayesian Framework for Backpropagation Networks. Neural

Computation, Vol. 4(3), pp. 448-472.

Maier, H.R. et G.C. Dandy (1996). The use pf artificial neural network for the prediction of water

quality parameters. Water Resources Research, 32(4): 1013-1022.

McCulloch, W.S. et W. Pitts (1943). A Logical Calculus ofthe Ideas Imminent in Nervous

Activity. Bulletin of Mathematical Biophysics, 5: 115-133.

Mckee T.B., Doesken N.J. Et Kleist J. (1993). The relationship of drought frequency and duration

to time scales. American Meteorological Society, 8th

Conference on applied climatology,

January 17th

-22nd

, Anaheim, CA, pp 179-184.

Mckee (1995). Drought monitoring with multiple timescales. In: Proceedings of the Ninth

Conference on Applied Climatology, Dallas, Texas, Boston American Meteorological Society, pp

233–236.

Meddi H., Meddi M. (2009). Variabilité des précipitations annuelles du Nord-Ouest de

l’Algérie. Sécheresse 20: 57-65.

Meddi H., Meddi M., Assani A. (2013). Study of Drought in Seven Algerian Plains. Arabian

Journal For Science And Engineering 39(1): 339-359 ·

Page 94: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

REFERENCES BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 94

Mitchell, 1997. Mitchell, T.M. (1997). Machine Learning, volume 4 de McGraw-Hill Series in

Computer Science. McGraw-Hill multi-scalar drought index sensitive to global warming: the

Standardized Precipitation Evapotranspiration Index – SPEI. Journal of Climate, pp 1696–1718,

Nilsson, N. J. (2004). Introduction to Machine Learning, volume 56. The MIT Press.

OMM, (1994). Organisation Météorologique Mondiale « guide des pratiques hydrologiques

(acquisition et traitement des données, analyses, prévision et autres applications )» ,cinquiéme

édition 1994, WMO-N 168, 793 p.

OMM, (2006). Organisation Météorologique Mondiale. Suivi de la sécheresse et alerte précoce:

principes, progrès et enjeux futurs, OMM-N°1006, Genève Suisse, 26 p.

OMM, (2012). Guide d’utilisation de l’indice de précipitations normalisé, OMM-N° 1090, 25p.

OSS, (2008). Projet de Mise en place d’un Système d’Alerte précoce à la Sécheresse dans trois pays

de la rive Sud de la Méditerranée: Algérie, Maroc, et Tunisie, 38 p.

OSS, (2009). Observatoire du Sahara et du Sahel. Vers un système d'alerte précoce à la sécheresse

au Maghreb, Observatoire du Sahel et du Sahara. Collection Synthèse N° 4. OSS, Tunis. 84p.

Palmer, W.C. (1965). MeteorologicalDrought, Weather Bureau, Research Paper, 45, U.S. Dept. of

Commerce, Washington, DC, 58 pp.

Prabhu, N.U. (2007). Stochastic processes: basic theory and its applications. World scientific.

Refenes, AN., A Zapranis et G. Francis (1994). Stock Performance Modeling Using Neural

Networks: A Comparative Study With Regression Models. Neural Networks, 7(2): 375-388.

Rumelhart, D.E. et J. L. McClelland (1986). Parallel Distributed Processing: Explorations in the

Microstructure of Cognition. Vol. 1. M.I.T. Press.

S. Weigend and N. A. Gershenfeld, editors. (1993). Time series prediction : Forecasting the future

and understanding the past. Addison Wesley.

Page 95: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

REFERENCES BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 95

Sakakima, S., T. Kojiri et K. Itoh (1992). Real-Time Reservoir Operation with Neural Nets

Concept. In: Applications ofArtificiallntelligence in Engineering VII, Computational

Mechanics Publications, Southampton, pp. 502-514.

Salas, J.D., J.W. Delleur, V. Yevjevich et W.L. Lane (1988). AppliedModeling of Hydrologic

Time Series. Water Resources Publication, Littleton, Colorado.

Sastry, P.S., G. Santharam et K.P. Unnikrishnan (1994). Memory neuron networks for

identification and control of dynamical systems. IEEE Transactions on Neural Networks (2),

306–319.

Smith, J. et R.N. Eli (1995). Neural networks models ofrainfall-runoffprocess, Journal of water

resource. Plann. & Manage., 121(56).

SOGREAH (1984). Etude hydrologique et hydrogéologique du périmètre du Haut Cheliff

Toth, E., Brath, A., Montanari, A. (2000). Comparison of short-term rainfall predication models

for real-time flood forecasting. J. Hydrol. 239, 132–147.

UNCCD, (2000). United Nations Convention to Combat Desertification (2000): Conférence des

parties. Comitéde la science et de la technologie, Rapport du Groupe GE.00-64137, Quatrième

session Bonn.

Valipour, M. (2012). Critical areas of Iran for agriculture water management according to the

annual rainfall. Eur. J. Sci. Res. 84 (4), 600–608.

Williams, R.J. (1990). Adaptive Sate Representation and Estimation using Recurrent

Connectionist Networks. In: Neural Networksfor Control, W.T. Moller, R.S. Sutton et P.J.

Werbos Eds, MIT Press, Cambridge.

Wang W., Ding J. (2003). «Wavelet Network Model and Its Application to the Prediction of

Hydrology» .Nature and Science, Vol. 1, No 1, p. 67-71, 2003.

Yue, Z., Songzheng, Z., Tianshi, L. (2011). "Bayesian regularization BP Neural Network

model for predicting oil-gas drilling cost," Business Management and Electronic

Page 96: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

REFERENCES BIBLIOGRAPHIQUE

ENSH –SEPTEMBRE 2017 96

Information (BMEI), 2011 International Conference on , vol.2, no., pp.483,487,

13-15 May 2011.

Zeroual A., Meddi M., Assani A. (2016). Artificial Neural Network Rainfall-Discharge Model

Assessment Under Rating Curve Uncertainty and Monthly Discharge Volume Predictions. Water

Resources Management 30 (9).

Zeroual A., Assani A., Meddi M. (2017). Combined analysis of temperature and rainfall

variability as they relate to climate indices in Northern Algeria over the 1972–2013 period.

Hydrology Research 48 (2), 584-595.

Zhang, E.Y. et P. Trimble (1996). Forecasting water availability by applying neural networks with

global and solar indices. Proceedings ofthe sixteenth annual American Geophysical Union

Hydrology Days. H. J. Morel-Seytoux Ed., Hydrology Days Publications, pp. 559-570.

Page 97: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones

dans la

couche cachée

Architecture MSE R2

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

1

1 2 1-2-1 0.134 0.908 2 1-2-1 0.165 0.906 2 1-2-1 0.182 0.908

2 4 2-4-1 0.18 0.908 5 2-5-1 0.163 0.903 5 2-5-1 0.181 0.909

3 6 3-6-1 0.238 0.905 6 3-6-1 0.196 0.904 7 3-7-1 0.184 0.908

4 8 4-8-1 0.199 0.909 9 4-9-1 0.189 0.902 9 4-9-1 0.173 0.908

2

1 2 1-2-1 0.223 0.908 2 1-2-1 0.163 0.905 2 1-2-1 0.17 0.908

2 4 2-4-1 0.169 0.908 5 2-5-1 0.1835 0.907 5 2-5-1 0.185 0.908

3 6 3-6-1 0.193 0.909 6 3-6-1 0.184 0.901 7 3-7-1 0.177 0.908

4 8 4-8-1 0.231 0.904 9 4-9-1 0.148 0.903 9 4-9-1 0.167 0.908

3

1 2 1-2-1 0.13 0.908 2 1-2-1 0.159 0.905 2 1-2-1 0.184 0.908

2 4 2-4-1 0.185 0.908 5 2-5-1 0.196 0.893 5 2-5-1 0.164 0.908

3 6 3-6-1 0.185 0.908 6 3-6-1 0.132 0.901 7 3-7-1 0.175 0.909

4 8 4-8-1 0.173 0.91 9 4-9-1 0.24 0.871 9 4-9-1 0.17 0.908

4

1 2 1-2-1 0.153 0.908 2 1-2-1 0.192 0.901 2 1-2-1 0.166 0.908

2 4 2-4-1 0.207 0.909 5 2-5-1 0.254 0.877 5 2-5-1 0.16 0.909

3 6 3-6-1 0.142 0.909 6 3-6-1 0.228 0.885 7 3-7-1 0.176 0.909

4 8 4-8-1 0.19 0.908 9 4-9-1 0.195 0.901 9 4-9-1 0.177 0.909

5

1 2 1-2-1 0.172 0.909 2 1-2-1 0.221 0.886 2 1-2-1 0.171 0.909

2 4 2-4-1 0.168 0.909 5 2-5-1 0.163 0.896 5 2-5-1 0.167 0.911

3 6 3-6-1 0.107 0.908 6 3-6-1 0.23 0.853 7 3-7-1 0.162 0.91

4 8 4-8-1 0.231 0.912 9 4-9-1 0.221 0.879 9 4-9-1 0.162 0.91

Page 98: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception des

entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre de

neurones dans

la couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

6

2 4 2-4-1 0.188 0.91 5 2-5-1 0.185 0.899 5 2-5-1 0.164 0.91

3 6 3-6-1 0.169 0.91 6 3-6-1 0.177 0.897 7 3-7-1 0.158 0.91

4 8 4-8-1 0.177 0.908 9 4-9-1 0.219 0.894 9 4-9-1 0.166 0.91

7

1 2 1-2-1 0.171 0.908 2 1-2-1 0.166 0.906 2 1-2-1 0.175 0.909

2 4 2-4-1 0.176 0.908 5 2-5-1 0.166 0.906 5 2-5-1 0.162 0.91

3 6 3-6-1 0.192 0.906 6 3-6-1 0.16 0.872 7 3-7-1 0.171 0.911

4 8 4-8-1 0.194 0.911 9 4-9-1 0.19 0.866 9 4-9-1 0.172 0.911

8

1 2 1-2-1 0.187 0.909 2 1-2-1 0.178 0.902 2 1-2-1 0.165 0.91

2 4 2-4-1 0.181 0.91 5 2-5-1 0.155 0.887 5 2-5-1 0.162 0.911

3 6 3-6-1 0.14 0.911 6 3-6-1 0.187 0.897 7 3-7-1 0.165 0.911

4 8 4-8-1 0.247 0.906 9 4-9-1 0.236 0.865 9 4-9-1 0.161 0.911

9

1 2 1-2-1 0.158 0.911 2 1-2-1 0.14 0.901 2 1-2-1 0.165 0.912

2 4 2-4-1 0.147 0.912 5 2-5-1 0.16 0.895 5 2-5-1 0.161 0.915

3 6 3-6-1 0.168 0.916 6 3-6-1 0.263 0.901 7 3-7-1 0.161 0.915

4 8 4-8-1 0.21 0.915 9 4-9-1 0.158 0.911 9 4-9-1 0.157 0.915

10

1 2 1-2-1 0.172 0.912 2 1-2-1 0.117 0.91 2 1-2-1 0.166 0.912

2 4 2-4-1 0.145 0.916 5 2-5-1 0.137 0.913 5 2-5-1 0.151 0.914

3 6 3-6-1 0.199 0.911 6 3-6-1 0.199 0.902 7 3-7-1 0.166 0.914

4 8 4-8-1 0.195 0.913 9 4-9-1 0.188 0.904 9 4-9-1 0.145 0.918

11 1 2 1-2-1 0.226 0.915 2 1-2-1 0.144 0.907 2 1-2-1 0.162 0.913

2 4 2-4-1 0.181 0.915 5 2-5-1 0.294 0.875 5 2-5-1 0.153 0.914

Page 99: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

22 3 6 3-6-1 0.121 0.936 6 3-6-1 0.243 0.894 7 3-7-1 0.105 0.941

4 8 4-8-1 0.13 0.936 9 4-9-1 0.266 0.9 9 4-9-1 0.083 0.944

23

1 2 1-2-1 0.132 0.935 2 1-2-1 0.151 0.924 2 1-2-1 0.118 0.937

2 4 2-4-1 0.139 0.937 5 2-5-1 0.096 0.926 5 2-5-1 0.116 0.939

3 6 3-6-1 0.117 0.939 6 3-6-1 0.154 0.928 7 3-7-1 0.102 0.939

4 8 4-8-1 0.118 0.936 9 4-9-1 0.187 0.924 9 4-9-1 0.085 0.949

24

1 2 1-2-1 0.138 0.938 2 1-2-1 0.202 0.883 2 1-2-1 0.115 0.938

2 4 2-4-1 0.119 0.939 5 2-5-1 0.138 0.928 5 2-5-1 0.11 0.94

3 6 3-6-1 0.136 0.937 6 3-6-1 0.195 0.922 7 3-7-1 0.104 0.94

4 8 4-8-1 0.132 0.937 9 4-9-1 0.178 0.923 9 4-9-1 0.083 0.949

25

1 2 1-2-1 0.11 0.942 2 1-2-1 0.117 0.919 2 1-2-1 0.104 0.943

2 4 2-4-1 0.142 0.94 5 2-5-1 0.154 0.891 5 2-5-1 0.098 0.945

3 6 3-6-1 0.129 0.943 6 3-6-1 0.098 0.937 7 3-7-1 0.097 0.947

4 8 4-8-1 0.174 0.942 9 4-9-1 0.168 0.924 9 4-9-1 0.068 0.953

26

1 2 1-2-1 0.102 0.943 2 1-2-1 0.092 0.932 2 1-2-1 0.108 0.943

2 4 2-4-1 0.085 0.943 5 2-5-1 0.173 0.917 5 2-5-1 0.093 0.947

3 6 3-6-1 0.152 0.947 6 3-6-1 0.166 0.91 7 3-7-1 0.075 0.955

4 8 4-8-1 0.14 0.939 9 4-9-1 0.136 0.925 9 4-9-1 0.065 0.955

27

1 2 1-2-1 0.083 0.942 2 1-2-1 0.14 0.912 2 1-2-1 0.098 0.943

2 4 2-4-1 0.131 0.942 5 2-5-1 0.17 0.913 5 2-5-1 0.095 0.946

3 6 3-6-1 0.126 0.944 6 3-6-1 0.142 0.93 7 3-7-1 0.096 0.948

Page 100: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

27 4 8 4-8-1 0.153 0.947 9 4-9-1 0.25 0.909 9 4-9-1 0.081 0.952

28

1 2 1-2-1 0.084 0.944 2 1-2-1 0.131 0.94 2 1-2-1 0.111 0.944

2 4 2-4-1 0.1 0.946 5 2-5-1 0.088 0.94 5 2-5-1 0.095 0.947

3 6 3-6-1 0.205 0.939 6 3-6-1 0.098 0.926 7 3-7-1 0.093 0.947

4 8 4-8-1 0.146 0.943 9 4-9-1 0.124 0.938 9 4-9-1 0.081 0.953

29

1 2 1-2-1 0.07 0.945 2 1-2-1 0.144 0.9926 2 1-2-1 0.108 0.946

2 4 2-4-1 0.156 0.994 5 2-5-1 0.276 0.9 5 2-5-1 0.088 0.949

3 6 3-6-1 0.107 0.946 6 3-6-1 0.123 0.933 7 3-7-1 0.085 0.951

4 8 4-8-1 0.189 0.946 9 4-9-1 0.123 0.933 9 4-9-1 0.071 0.956

30

1 2 1-2-1 0.118 0.944 2 1-2-1 0.178 0.912 2 1-2-1 0.101 0.946

2 4 2-4-1 0.124 0.945 5 2-5-1 0.194 0.617 5 2-5-1 0.103 0.949

3 6 3-6-1 0.221 0.944 6 3-6-1 0.152 0.902 7 3-7-1 0.071 0.952

4 8 4-8-1 0.15 0.944 9 4-9-1 0.109 0.924 9 4-9-1 0.058 0.958

31

1 2 1-2-1 0.089 0.945 2 1-2-1 0.084 0.943 2 1-2-1 0.106 0.946

2 4 2-4-1 0.125 0.946 5 2-5-1 0.136 0.927 5 2-5-1 0.095 0.95

3 6 3-6-1 0.197 0.944 6 3-6-1 0.113 0.932 7 3-7-1 0.074 0.955

4 8 4-8-1 0.117 0.946 9 4-9-1 0.208 0.893 9 4-9-1 0.074 0.959

32

1 2 1-2-1 0.146 0.946 2 1-2-1 0.112 0.944 2 1-2-1 0.094 0.946

2 4 2-4-1 0.132 0.943 5 2-5-1 0.188 0.887 5 2-5-1 0.088 0.949

3 6 3-6-1 0.16 0.944 6 3-6-1 0.155 0.925 7 3-7-1 0.066 0.956

4 8 4-8-1 0.173 0.913 9 4-9-1 0.136 0.944 9 4-9-1 0.075 0.957

Page 101: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Nombre de

neurones

dans la

couche

cachée

Architecture MSE

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

33

1 2 1-2-1 0.121 0.942 2 1-2-1 0.133 0.92 2 1-2-1 0.101 0.947

2 4 2-4-1 0.123 0.946 5 2-5-1 0.168 0.939 5 2-5-1 0.092 0.949

3 6 3-6-1 0.087 0.946 6 3-6-1 0.19 0.89 7 3-7-1 0.075 0.955

4 8 4-8-1 0.139 0.945 9 4-9-1 0.118 0.939 9 4-9-1 0.071 0.956

34

1 2 1-2-1 0.156 0.946 2 1-2-1 0.118 0.933 2 1-2-1 0.101 0.947

2 4 2-4-1 0.115 0.945 5 2-5-1 0.113 0.947 5 2-5-1 0.092 0.95

3 6 3-6-1 0.229 0.938 6 3-6-1 0.102 0.944 7 3-7-1 0.078 0.955

4 8 4-8-1 0.069 0.947 9 4-9-1 0.161 0.915 9 4-9-1 0.059 0.955

35

1 2 1-2-1 0.12 0.946 2 1-2-1 0.122 0.938 2 1-2-1 0.092 0.947

2 4 2-4-1 0.214 0.936 5 2-5-1 0.234 0.919 5 2-5-1 0.09 0.95

3 6 3-6-1 0.122 0.945 6 3-6-1 0.129 0.907 7 3-7-1 0.07 0.958

4 8 4-8-1 0.138 0.945 9 4-9-1 0.183 0.936 9 4-9-1 0.078 0.957

36

1 2 1-2-1 0.117 0.945 2 1-2-1 0.135 0.895 2 1-2-1 0.099 0.946

2 4 2-4-1 0.093 0.946 5 2-5-1 0.24 0.873 5 2-5-1 0.099 0.951

3 6 3-6-1 0.196 0.947 6 3-6-1 0.186 0.945 7 3-7-1 0.064 0.95

4 8 4-8-1 0.211 0.948 9 4-9-1 0.219 0.904 9 4-9-1 0.068 0.959

37

1 2 1-2-1 0.114 0.948 2 1-2-1 0.061 0.94 2 1-2-1 0.102 0.951

2 4 2-4-1 0.169 0.948 5 2-5-1 0.29 0.908 5 2-5-1 0.09 0.954

3 6 3-6-1 0.105 0.951 6 3-6-1 0.137 0.94 7 3-7-1 0.079 0.961

4 8 4-8-1 0.167 0.942 9 4-9-1 0.222 0.901 9 4-9-1 0.065 0.964

38 1 2 1-2-1 0.132 0.949 2 1-2-1 0.163 0.919 2 1-2-1 0.093 0.95

Page 102: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

38

2 4 2-4-1 0.149 0.952 5 2-5-1 0.108 0.927 5 2-5-1 0.088 0.953

3 6 3-6-1 0.152 0.947 6 3-6-1 0.141 0.946 7 3-7-1 0.074 0.959

4 8 4-8-1 0.109 0.953 9 4-9-1 0.191 0.928 9 4-9-1 0.07 0.959

39

1 2 1-2-1 0.11 0.948 2 1-2-1 0.13 0.935 2 1-2-1 0.09 0.95

2 4 2-4-1 0.122 0.95 5 2-5-1 0.189 0.909 5 2-5-1 0.091 0.954

3 6 3-6-1 0.134 0.947 6 3-6-1 0.091 0.936 7 3-7-1 0.067 0.958

4 8 4-8-1 0.156 0.957 9 4-9-1 0.145 0.938 9 4-9-1 0.065 0.964

40

1 2 1-2-1 0.131 0.949 2 1-2-1 0.226 0.857 2 1-2-1 0.086 0.95

2 4 2-4-1 0.067 0.949 5 2-5-1 0.241 0.913 5 2-5-1 0.085 0.953

3 6 3-6-1 0.111 0.953 6 3-6-1 0.131 0.896 7 3-7-1 0.068 0.961

4 8 4-8-1 0.142 0.922 9 4-9-1 0.129 0.945 9 4-9-1 0.056 0.965

41

1 2 1-2-1 0.124 0.95 2 1-2-1 0.073 0.943 2 1-2-1 0.086 0.95

2 4 2-4-1 0.142 0.95 5 2-5-1 0.134 0.931 5 2-5-1 0.091 0.954

3 6 3-6-1 0.139 0.952 6 3-6-1 0.313 0.874 7 3-7-1 0.069 0.962

4 8 4-8-1 0.151 0.95 9 4-9-1 0.116 0.919 9 4-9-1 0.054 0.965

42

1 2 1-2-1 0.087 0.95 2 1-2-1 0.121 0.936 2 1-2-1 0.092 0.951

2 4 2-4-1 0.098 0.949 5 2-5-1 0.16 0.93 5 2-5-1 0.089 0.954

3 6 3-6-1 0.162 0.947 6 3-6-1 0.17 0.933 7 3-7-1 0.068 0.96

4 8 4-8-1 0.199 0.932 9 4-9-1 0.177 0.911 9 4-9-1 0.058 0.962

43 1 2 1-2-1 0.15 0.947 2 1-2-1 0.089 0.945 2 1-2-1 0.087 0.95

2 4 2-4-1 0.126 0.954 5 2-5-1 0.146 0.937 5 2-5-1 0.082 0.953

Page 103: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

43 3 6 3-6-1 0.108 0.949 6 3-6-1 0.173 0.944 7 3-7-1 0.061 0.961

4 8 4-8-1 0.174 0.95 9 4-9-1 0.217 0.908 9 4-9-1 0.053 0.964

44

1 2 1-2-1 0.205 0.926 2 1-2-1 0.228 0.895 2 1-2-1 0.094 0.95

2 4 2-4-1 0.088 0.949 5 2-5-1 0.137 0.918 5 2-5-1 0.087 0.954

3 6 3-6-1 0.152 0.936 6 3-6-1 0.15 0.904 7 3-7-1 0.073 0.961

4 8 4-8-1 0.157 0.945 9 4-9-1 0.144 0.912 9 4-9-1 0.06 0.966

45

1 2 1-2-1 0.104 0.95 2 1-2-1 0.151 0.938 2 1-2-1 0.094 0.951

2 4 2-4-1 0.142 0.943 5 2-5-1 0.186 0.897 5 2-5-1 0.083 0.953

3 6 3-6-1 0.118 0.54 6 3-6-1 0.078 0.941 7 3-7-1 0.072 0.958

4 8 4-8-1 0.178 0.944 9 4-9-1 0.132 0.92 9 4-9-1 0.046 0.968

46

1 2 1-2-1 0.135 0.948 2 1-2-1 0.181 0.92 2 1-2-1 0.088 0.951

2 4 2-4-1 0.118 0.947 5 2-5-1 0.202 0.867 5 2-5-1 0.079 0.955

3 6 3-6-1 0.112 0.95 6 3-6-1 0.192 0.915 7 3-7-1 0.072 0.957

4 8 4-8-1 0.097 0.95 9 4-9-1 0.205 0.923 9 4-9-1 0.065 0.963

47

1 2 1-2-1 0.12 0.95 2 1-2-1 0.163 0.927 2 1-2-1 0.097 0.952

2 4 2-4-1 0.139 0.946 5 2-5-1 0.16 0.915 5 2-5-1 0.086 0.955

3 6 3-6-1 0.147 0.936 6 3-6-1 0.151 0.919 7 3-7-1 0.069 0.959

4 8 4-8-1 0.128 0.951 9 4-9-1 0.204 0.869 9 4-9-1 0.054 0.967

48 1 2 1-2-1 0.121 0.95 2 1-2-1 0.204 0.903 2 1-2-1 0.088 0.95

2 4 2-4-1 0.13 0.954 5 2-5-1 0.145 0.941 5 2-5-1 0.088 0.955

Page 104: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architectur

e MSE R2

Nombre de

neurones

dans la

couche

cachée

Architectur

e MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architectur

e MSE R2

48 3 6 3-6-1 0.136 0.955 6 3-6-1 0.158 0.948 7 3-7-1 0.07 0.957

4 8 4-8-1 0.265 0.925 9 4-9-1 0.13 0.939 9 4-9-1 0.049 0.966

49

1 2 1-2-1 0.265 0.925 2 1-2-1 0.104 0.942 2 1-2-1 0.04 0.97

2 4 2-4-1 0.119 0.952 5 2-5-1 0.207 0.903 5 2-5-1 0.079 0.956

3 6 3-6-1 0.141 0.949 6 3-6-1 0.113 0.93 7 3-7-1 0.066 0.961

4 8 4-8-1 0.219 0.944 9 4-9-1 0.178 0.925 9 4-9-1 0.046 0.965

50

1 2 1-2-1 0.127 0.952 2 1-2-1 0.115 0.934 2 1-2-1 0.089 0.954

2 4 2-4-1 0.128 0.951 5 2-5-1 0.195 0.92 5 2-5-1 0.075 0.956

3 6 3-6-1 0.141 0.947 6 3-6-1 0.229 0.905 7 3-7-1 0.068 0.959

4 8 4-8-1 0.17 0.937 9 4-9-1 0.135 0.936 9 4-9-1 0.057 0.964

51

1 2 1-2-1 0.101 0.952 2 1-2-1 0.132 0.943 2 1-2-1 0.088 0.954

2 4 2-4-1 0.118 0.952 5 2-5-1 0.159 0.922 5 2-5-1 0.08 0.957

3 6 3-6-1 0.245 0.941 6 3-6-1 0.143 0.928 7 3-7-1 0.059 0.965

4 8 4-8-1 0.144 0.942 9 4-9-1 0.144 0.92 9 4-9-1 0.047 0.968

52

1 2 1-2-1 0.114 0.948 2 1-2-1 0.239 0.892 2 1-2-1 0.08 0.953

2 4 2-4-1 0.101 0.952 5 2-5-1 0.128 0.946 5 2-5-1 0.086 0.957

3 6 3-6-1 0.172 0.946 6 3-6-1 0.171 0.948 7 3-7-1 0.067 0.962

4 8 4-8-1 0.091 0.947 9 4-9-1 0.226 0.862 9 4-9-1 0.039 0.967

53

1 2 1-2-1 0.151 0.937 2 1-2-1 0.202 0.928 2 1-2-1 0.086 0.954

2 4 2-4-1 0.162 0.953 5 2-5-1 0.291 0.845 5 2-5-1 0.077 0.956

3 6 3-6-1 0.156 0.949 6 3-6-1 0.132 0.937 7 3-7-1 0.063 0.96

Page 105: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

53 4 8 4-8-1 0.146 0.941 9 4-9-1 0.153 0.939 9 4-9-1 0.041 0.97

54

1 2 1-2-1 0.117 0.953 2 1-2-1 0.127 0.945 2 1-2-1 0.087 0.954

2 4 2-4-1 0.133 0.955 5 2-5-1 0.277 0.845 5 2-5-1 0.08 0.959

3 6 3-6-1 0.16 0.951 6 3-6-1 0.195 0.942 7 3-7-1 0.066 0.63

4 8 4-8-1 0.154 0.955 9 4-9-1 0.138 0.922 9 4-9-1 0.032 0.973

55

1 2 1-2-1 0.116 0.948 2 1-2-1 0.134 0.909 2 1-2-1 0.093 0.955

2 4 2-4-1 0.117 0.948 5 2-5-1 0.107 0.946 5 2-5-1 0.066 0.957

3 6 3-6-1 0.093 0.952 6 3-6-1 0.204 0.882 7 3-7-1 0.048 0.967

4 8 4-8-1 0.224 0.947 9 4-9-1 0.144 0.918 9 4-9-1 0.047 0.969

56

1 2 1-2-1 0.132 0.951 2 1-2-1 0.197 0.887 2 1-2-1 0.085 0.954

2 4 2-4-1 0.139 0.951 5 2-5-1 0.22 0.861 5 2-5-1 0.079 0.958

3 6 3-6-1 0.126 0.943 6 3-6-1 0.153 0.941 7 3-7-1 0.061 0.963

4 8 4-8-1 0.225 0.95 9 4-9-1 0.258 0.833 9 4-9-1 0.047 0.97

57

1 2 1-2-1 0.116 0.952 2 1-2-1 0.263 0.842 2 1-2-1 0.091 0.955

2 4 2-4-1 0.188 0.955 5 2-5-1 0.19 0.916 5 2-5-1 0.075 0.959

3 6 3-6-1 0.121 0.948 6 3-6-1 0.13 0.943 7 3-7-1 0.055 0.959

4 8 4-8-1 0.135 0.953 9 4-9-1 0.165 0.938 9 4-9-1 0.035 0.975

58 1 2 1-2-1 0.154 0.95 2 1-2-1 0.114 0.937 2 1-2-1 0.093 0.955

2 4 2-4-1 0.16 0.954 5 2-5-1 0.133 0.94 5 2-5-1 0.08 0.958

Page 106: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architectur

e MSE R2

Nombre de

neurones

dans la

couche

cachée

Architectur

e MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architectur

e MSE R2

58 3 6 3-6-1 0.151 0.95 6 3-6-1 0.211 0.906 7 3-7-1 0.057 0.966

4 8 4-8-1 0.156 0.951 9 4-9-1 0.141 0.909 9 4-9-1 0.04 0.97

59

1 2 1-2-1 0.184 0.946 2 1-2-1 0.203 0.912 2 1-2-1 0.092 0.954

2 4 2-4-1 0.162 0.951 5 2-5-1 0.128 0.95 5 2-5-1 0.074 0.959

3 6 3-6-1 0.175 0.952 6 3-6-1 0.132 0.936 7 3-7-1 0.058 0.966

4 8 4-8-1 0.163 0.949 9 4-9-1 0.193 0.921 9 4-9-1 0.033 0.974

60

1 2 1-2-1 0.132 0.951 2 1-2-1 0.182 0.921 2 1-2-1 0.083 0.954

2 4 2-4-1 0.16 0.943 5 2-5-1 0.183 0.915 5 2-5-1 0.081 0.957

3 6 3-6-1 0.135 0.955 6 3-6-1 0.168 0.929 7 3-7-1 0.051 0.969

4 8 4-8-1 0.117 0.951 9 4-9-1 0.198 0.93 9 4-9-1 0.038 0.968

61

1 2 1-2-1 0.13 0.952 2 1-2-1 0.189 0.914 2 1-2-1 0.084 0.955

2 4 2-4-1 0.149 0.949 5 2-5-1 0.16 0.932 5 2-5-1 0.068 0.957

3 6 3-6-1 0.181 0.954 6 3-6-1 0.372 0.775 7 3-7-1 0.061 0.963

4 8 4-8-1 0.171 0.941 9 4-9-1 0.136 0.941 9 4-9-1 0.045 0.971

62

1 2 1-2-1 0.167 0.952 2 1-2-1 0.251 0.905 2 1-2-1 0.084 0.953

2 4 2-4-1 0.17 0.932 5 2-5-1 0.188 0.939 5 2-5-1 0.072 0.96

3 6 3-6-1 0.129 0.952 6 3-6-1 0.172 0.928 7 3-7-1 0.055 0.968

4 8 4-8-1 0.185 0.938 9 4-9-1 0.158 0.938 9 4-9-1 0.044 0.972

63

1 2 1-2-1 0.118 0.953 2 1-2-1 0.117 0.94 2 1-2-1 0.079 0.955

2 4 2-4-1 0.117 0.947 5 2-5-1 0.11 0.94 5 2-5-1 0.058 0.967

3 6 3-6-1 0.125 0.956 6 3-6-1 0.197 0.906 7 3-7-1 0.045 0.971

Page 107: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

63 4 8 4-8-1 0.273 0.941 9 4-9-1 0.133 0.931 9 4-9-1 0.023 0.972

64

1 2 1-2-1 0.137 0.952 2 1-2-1 0.118 0.949 2 1-2-1 0.09 0.956

2 4 2-4-1 0.174 0.953 5 2-5-1 0.173 0.933 5 2-5-1 0.07 0.957

3 6 3-6-1 0.16 0.95 6 3-6-1 0.238 0.916 7 3-7-1 0.057 0.965

4 8 4-8-1 0.317 0.944 9 4-9-1 0.219 0.867 9 4-9-1 0.054 0.969

65

1 2 1-2-1 0.097 0.953 2 1-2-1 0.179 0.912 2 1-2-1 0.079 0.955

2 4 2-4-1 0.152 0.953 5 2-5-1 0.216 0.914 5 2-5-1 0.069 0.959

3 6 3-6-1 0.137 0.954 6 3-6-1 0.126 0.937 7 3-7-1 0.048 0.969

4 8 4-8-1 0.104 0.953 9 4-9-1 0.179 0.937 9 4-9-1 0.038 0.965

66

1 2 1-2-1 0.135 0.952 2 1-2-1 0.141 0.941 2 1-2-1 0.081 0.955

2 4 2-4-1 0.159 0.937 5 2-5-1 0.204 0.932 5 2-5-1 0.075 0.958

3 6 3-6-1 0.198 0.945 6 3-6-1 0.136 0.924 7 3-7-1 0.056 0.965

4 8 4-8-1 0.22 0.95 9 4-9-1 0.138 0.933 9 4-9-1 0.032 0.971

67

1 2 1-2-1 0.128 0.952 2 1-2-1 0.16 0.945 2 1-2-1 0.08 0.955

2 4 2-4-1 0.163 0.95 5 2-5-1 0.253 0.888 5 2-5-1 0.077 0.959

3 6 3-6-1 0.286 0.916 6 3-6-1 0.123 0.935 7 3-7-1 0.058 0.964

4 8 4-8-1 0.307 0.935 9 4-9-1 0.237 0.923 9 4-9-1 0.045 0.97

68

1 2 1-2-1 0.139 0.952 2 1-2-1 0.122 0.938 2 1-2-1 0.082 0.955

2 4 2-4-1 0.114 0.949 5 2-5-1 0.189 0.937 5 2-5-1 0.07 0.959

3 6 3-6-1 0.131 0.955 6 3-6-1 0.177 0.916 7 3-7-1 0.045 0.969

4 8 4-8-1 0.217 0.943 9 4-9-1 0.215 0.905 9 4-9-1 0.04 0.971

Page 108: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

69

2 4 2-4-1 0.116 0.951 5 2-5-1 0.157 0.938 5 2-5-1 0.074 0.958

3 6 3-6-1 0.145 0.946 6 3-6-1 0.185 0.936 7 3-7-1 0.056 0.964

4 8 4-8-1 0.163 0.952 9 4-9-1 0.131 0.924 9 4-9-1 0.03 0.969

70

1 2 1-2-1 0.093 0.954 2 1-2-1 0.256 0.875 2 1-2-1 0.079 0.955

2 4 2-4-1 0.157 0.952 5 2-5-1 0.279 0.909 5 2-5-1 0.066 0.964

3 6 3-6-1 0.218 0.95 6 3-6-1 0.186 0.904 7 3-7-1 0.052 0.968

4 8 4-8-1 0.285 0.94 9 4-9-1 0.241 0.902 9 4-9-1 0.041 0.972

71

1 2 1-2-1 0.129 0.953 2 1-2-1 0.197 0.917 2 1-2-1 0.082 0.956

2 4 2-4-1 0.14 0.95 5 2-5-1 0.139 0.931 5 2-5-1 0.066 0.959

3 6 3-6-1 0.184 0.936 6 3-6-1 0.212 0.927 7 3-7-1 0.042 0.972

4 8 4-8-1 0.42 0.862 9 4-9-1 0.129 0.935 9 4-9-1 0.049 0.968

72

1 2 1-2-1 0.082 0.954 2 1-2-1 0.21 0.882 2 1-2-1 0.078 0.956

2 4 2-4-1 0.139 0.95 5 2-5-1 0.147 0.944 5 2-5-1 0.065 0.96

3 6 3-6-1 0.117 0.944 6 3-6-1 0.35 0.85 7 3-7-1 0.063 0.965

4 8 4-8-1 0.195 0.954 9 4-9-1 0.19 0.925 9 3-6-1 0.046 0.967

73

1 2 1-2-1 0.123 0.955 2 1-2-1 0.213 0.9 2 4-9-1 0.031 0.973

2 4 2-4-1 0.114 0.955 5 2-5-1 0.146 0.936 5 1-2-1 0.076 0.959

3 6 3-6-1 0.185 0.947 6 3-6-1 0.188 0.935 7 2-5-1 0.07 0.962

4 8 4-8-1 0.168 0.957 9 4-9-1 0.253 0.93 9 3-6-1 0.045 0.966

74 1 2 1-2-1 0.151 0.957 2 1-2-1 0.117 0.945 2 4-9-1 0.025 0.979

Page 109: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

74 3 6 3-6-1 0.165 0.955 6 3-6-1 0.136 0.936 7 3-7-1 0.046 0.967

4 8 4-8-1 0.222 0.931 9 4-9-1 0.273 0.929 9 4-9-1 0.031 0.973

75

1 2 1-2-1 0.15 0.956 2 1-2-1 0.277 0.886 2 1-2-1 0.076 0.959

2 4 2-4-1 0.13 0.953 5 2-5-1 0.205 0.911 5 2-5-1 0.07 0.962

3 6 3-6-1 0.148 0.947 6 3-6-1 0.192 0.925 7 3-7-1 0.045 0.966

4 8 4-8-1 0.191 0.94 9 4-9-1 0.169 0.928 9 4-9-1 0.025 0.979

76

1 2 1-2-1 0.146 0.955 2 1-2-1 0.143 0.929 2 1-2-1 0.079 0.959

2 4 2-4-1 0.172 0.954 5 2-5-1 0.246 0.826 5 2-5-1 0.057 0.965

3 6 3-6-1 0.166 0.956 6 3-6-1 0.149 0.93 7 3-7-1 0.05 0.971

4 8 4-8-1 0.241 0.943 9 4-9-1 0.184 0.931 9 4-9-1 0.042 0.974

77

1 2 1-2-1 0.158 0.956 2 1-2-1 0.172 0.933 2 1-2-1 0.074 0.958

2 4 2-4-1 0.127 0.953 5 2-5-1 0.193 0.942 5 2-5-1 0.067 0.963

3 6 3-6-1 0.191 0.948 6 3-6-1 0.273 0.93 7 3-7-1 0.041 0.971

4 8 4-8-1 0.213 0.941 9 4-9-1 0.231 0.897 9 4-9-1 0.029 0.979

78

1 2 1-2-1 0.135 0.949 2 1-2-1 0.124 0.936 2 1-2-1 0.074 0.958

2 4 2-4-1 0.118 0.955 5 2-5-1 0.109 0.943 5 2-5-1 0.065 0.963

3 6 3-6-1 0.147 0.939 6 3-6-1 0.211 0.912 7 3-7-1 0.045 0.966

4 8 4-8-1 0.127 0.962 9 4-9-1 0.227 0.922 9 4-9-1 0.042 0.974

79 1 2 1-2-1 0.105 0.959 2 1-2-1 0.218 0.914 2 1-2-1 0.078 0.959

2 4 2-4-1 0.122 0.955 5 2-5-1 0.183 0.949 5 2-5-1 0.072 0.962

Page 110: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

3 6 3-6-1 0.206 0.886 6 3-6-1 0.122 0.944 7 3-7-1 0.043 0.968

4 8 4-8-1 0.234 0.951 9 4-9-1 0.163 0.89 9 4-9-1 0.023 0.976

80

1 2 1-2-1 0.073 0.958 2 1-2-1 0.102 0.934 2 1-2-1 0.08 0.96

2 4 2-4-1 0.099 0.958 5 2-5-1 0.184 0.943 5 2-5-1 0.054 0.965

3 6 3-6-1 0.156 0.955 6 3-6-1 0.227 0.912 7 3-7-1 0.048 0.967

4 8 4-8-1 0.241 0.952 9 4-9-1 0.282 0.881 9 4-9-1 0.04 0.973

81

1 2 1-2-1 0.104 0.957 2 1-2-1 0.102 0.937 2 1-2-1 0.075 0.96

2 4 2-4-1 0.146 0.956 5 2-5-1 0.126 0.948 5 2-5-1 0.057 0.963

3 6 3-6-1 0.286 0.954 6 3-6-1 0.36 0.871 7 3-7-1 0.031 0.973

4 8 4-8-1 0.121 0.953 9 4-9-1 0.149 0.907 9 4-9-1 0.029 0.976

82

1 2 1-2-1 0.08 0.959 2 1-2-1 0.205 0.867 2 1-2-1 0.079 0.96

2 4 2-4-1 0.152 0.957 5 2-5-1 0.21 0.91 5 2-5-1 0.059 0.964

3 6 3-6-1 0.209 0.944 6 3-6-1 0.237 0.917 7 3-7-1 0.047 0.971

4 8 4-8-1 0.131 0.946 9 4-9-1 0.249 0.878 9 4-9-1 0.032 0.974

83

1 2 1-2-1 0.092 0.958 2 1-2-1 0.243 0.903 2 1-2-1 0.071 0.959

2 4 2-4-1 0.132 0.955 5 2-5-1 0.169 0.928 5 2-5-1 0.062 0.962

3 6 3-6-1 0.193 0.96 6 3-6-1 0.233 0.87 7 3-7-1 0.043 0.968

4 8 4-8-1 0.42 0.882 9 4-9-1 0.147 0.939 9 4-9-1 0.029 0.973

84 1 2 1-2-1 0.111 0.957 2 1-2-1 0.231 0.906 2 1-2-1 0.076 0.96

Page 111: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

84

2 4 2-4-1 0.124 0.959 5 2-5-1 0.191 0.937 5 2-5-1 0.065 0.965

3 6 3-6-1 0.13 0.953 6 3-6-1 0.187 0.886 7 3-7-1 0.033 0.969

4 8 4-8-1 0.114 0.958 9 4-9-1 0.095 0.948 9 4-9-1 0.029 0.97

85

1 2 1-2-1 0.145 0.956 2 1-2-1 0.143 0.933 2 1-2-1 0.069 0.96

2 4 2-4-1 0.113 0.96 5 2-5-1 0.132 0.936 5 2-5-1 0.055 0.964

3 6 3-6-1 0.174 0.948 6 3-6-1 0.209 0.917 7 3-7-1 0.031 0.973

4 8 4-8-1 0.277 0.929 9 4-9-1 0.224 0.915 9 4-9-1 0.018 0.974

86

1 2 1-2-1 0.161 0.957 2 1-2-1 0.267 0.912 2 1-2-1 0.069 0.96

2 4 2-4-1 0.113 0.958 5 2-5-1 0.27 0.891 5 2-5-1 0.046 0.967

3 6 3-6-1 0.168 0.951 6 3-6-1 0.213 0.912 7 3-7-1 0.033 0.971

4 8 4-8-1 0.214 0.95 9 4-9-1 0.297 0.856 9 4-9-1 0.022 0.974

87

1 2 1-2-1 0.105 0.958 2 1-2-1 0.108 0.936 2 1-2-1 0.074 0.96

2 4 2-4-1 0.156 0.951 5 2-5-1 0.331 0.854 5 2-5-1 0.064 0.936

3 6 3-6-1 0.162 0.952 6 3-6-1 0.339 0.879 7 3-7-1 0.035 0.969

4 8 4-8-1 0.268 0.917 9 4-9-1 0.206 0.927 9 4-9-1 0.017 0.976

88

1 2 1-2-1 0.132 0.959 2 1-2-1 0.14 0.952 2 1-2-1 0.071 0.96

2 4 2-4-1 0.238 0.917 5 2-5-1 0.23 0.906 5 2-5-1 0.062 0.965

3 6 3-6-1 0.199 0.954 6 3-6-1 0.222 0.937 7 3-7-1 0.026 0.969

4 8 4-8-1 0.166 0.957 9 4-9-1 0.202 0.929 9 4-9-1 0.03 0.972

Page 112: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

89

1 2 1-2-1 0.089 0.96 2 1-2-1 0.185 0.932 2 1-2-1 0.068 0.961

2 4 2-4-1 0.299 0.94 5 2-5-1 0.131 0.44 5 2-5-1 0.057 0.965

3 6 3-6-1 0.158 0.94 6 3-6-1 0.157 0.932 7 3-7-1 0.039 0.972

4 8 4-8-1 0.155 0.958 9 4-9-1 0.227 0.899 9 4-9-1 0.02 0.976

90

1 2 1-2-1 0.119 0.956 2 1-2-1 0.152 0.943 2 1-2-1 0.072 0.96

2 4 2-4-1 0.125 0.953 5 2-5-1 0.19 0.934 5 2-5-1 0.061 0.963

3 6 3-6-1 0.162 0.951 6 3-6-1 0.147 0.949 7 3-7-1 0.036 0.969

4 8 4-8-1 0.22 0.946 9 4-9-1 0.155 0.939 9 4-9-1 0.024 0.976

91

1 2 1-2-1 0.129 0.957 2 1-2-1 0.177 0.885 2 1-2-1 0.072 0.962

2 4 2-4-1 0.211 0.954 5 2-5-1 0.133 0.929 5 2-5-1 0.057 0.965

3 6 3-6-1 0.236 0.947 6 3-6-1 0.121 0.942 7 3-7-1 0.042 0.967

4 8 4-8-1 0.283 0.952 9 4-9-1 0.193 0.932 9 4-9-1 0.017 0.978

92

1 2 1-2-1 0.109 0.959 2 1-2-1 0.15 0.909 2 1-2-1 0.075 0.962

2 4 2-4-1 0.113 0.954 5 2-5-1 0.186 0.915 5 2-5-1 0.062 0.966

3 6 3-6-1 0.237 0.942 6 3-6-1 0.261 0.874 7 3-7-1 0.039 0.969

4 8 4-8-1 0.192 0.936 9 4-9-1 0.192 0.921 9 4-9-1 0.0182 0.978

93

1 2 1-2-1 0.148 0.958 2 1-2-1 0.185 0.882 2 1-2-1 0.067 0.96

2 4 2-4-1 0.138 0.956 5 2-5-1 0.139 0.943 5 2-5-1 0.061 0.967

3 6 3-6-1 0.189 0.949 6 3-6-1 0.251 0.913 7 3-7-1 0.042 0.73

Page 113: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

93 4 8 4-8-1 0.239 0.949 9 4-9-1 0.236 0.936 9 4-9-1 0.019 0.978

94

1 2 1-2-1 0.143 0.956 2 1-2-1 0.225 0.891 2 1-2-1 0.074 0.961

2 4 2-4-1 0.128 0.96 5 2-5-1 0.151 0.945 5 2-5-1 0.05 0.969

3 6 3-6-1 0.267 0.938 6 3-6-1 0.149 0.901 7 3-7-1 0.039 0.971

4 8 4-8-1 0.219 0.926 9 4-9-1 0.222 0.926 9 4-9-1 0.021 0.978

95

1 2 1-2-1 0.101 0.96 2 1-2-1 0.161 0.915 2 1-2-1 0.069 0.961

2 4 2-4-1 0.144 0.959 5 2-5-1 0.227 0.876 5 2-5-1 0.063 0.963

3 6 3-6-1 0.135 0.955 6 3-6-1 0.208 0.92 7 3-7-1 0.038 0.971

4 8 4-8-1 0.283 0.849 9 4-9-1 0.129 0.949 9 4-9-1 0.018 0.979

96

1 2 1-2-1 0.138 0.959 2 1-2-1 0.189 0.908 2 1-2-1 0.067 0.96

2 4 2-4-1 0.134 0.958 5 2-5-1 0.176 0.956 5 2-5-1 0.058 0.967

3 6 3-6-1 0.233 0.948 6 3-6-1 0.221 0.908 7 3-7-1 0.037 0.972

4 8 4-8-1 0.28 0.942 9 4-9-1 0.256 0.927 9 4-9-1 0.016 0.979

97

1 2 1-2-1 0.144 0.958 2 1-2-1 0.195 0.903 2 1-2-1 0.076 0.959

2 4 2-4-1 0.126 0.957 5 2-5-1 0.279 0.896 5 2-5-1 0.053 0.965

3 6 3-6-1 0.156 0.953 6 3-6-1 0.19 0.874 7 3-7-1 0.026 0.972

4 8 4-8-1 0.364 0.86 9 4-9-1 0.165 0.94 9 4-9-1 0.02 0.976

98 1 2 1-2-1 0.098 0.959 2 1-2-1 0.238 0.923 2 1-2-1 0.075 0.963

2 4 2-4-1 0.115 0.958 5 2-5-1 0.361 0.854 5 2-5-1 0.061 0.965

Page 114: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalag

e

Conceptio

n des

entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architectur

e MSE R2

Nombre de

neurones

dans la

couche

cachée

Architectur

e MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architectur

e MSE R2

98 3 6 3-6-1 0.149 0.955 6 3-6-1 0.254 0.928 7 3-7-1 0.044 0.967

4 8 4-8-1 0.231 0.917 9 4-9-1 0.174 0.938 9 4-9-1 0.02 0.978

99

1 2 1-2-1 0.126 0.96 2 1-2-1 0.087 0.945 2 1-2-1 0.069 0.961

2 4 2-4-1 0.12 0.96 5 2-5-1 0.189 0.929 5 2-5-1 0.056 0.967

3 6 3-6-1 0.245 0.933 6 3-6-1 0.14 0.938 7 3-7-1 0.033 0.972

4 8 4-8-1 0.208 0.952 9 4-9-1 0.199 0.927 9 4-9-1 0.012 0.979

100

1 2 1-2-1 0.123 0.961 2 1-2-1 0.167 0.915 2 1-2-1 0.074 0.962

2 4 2-4-1 0.236 0.925 5 2-5-1 0.165 0.929 5 2-5-1 0.051 0.969

3 6 3-6-1 0.178 0.953 6 3-6-1 0.16 0.945 7 3-7-1 0.02 0.975

4 8 4-8-1 0.263 0.93 9 4-9-1 0.23 0.892 9 4-9-1 0.018 0.972

101

1 2 1-2-1 0.098 0.959 2 1-2-1 0.198 0.925 2 1-2-1 0.063 0.961

2 4 2-4-1 0.192 0.956 5 2-5-1 0.134 0.93 5 2-5-1 0.06 0.963

3 6 3-6-1 0.291 0.877 6 3-6-1 0.213 0.917 7 3-7-1 0.023 0.977

4 8 4-8-1 0.197 0.95 9 4-9-1 0.15 0.937 9 4-9-1 0.016 0.977

102

1 2 1-2-1 0.105 0.961 2 1-2-1 0.192 0.912 2 1-2-1 0.073 0.962

2 4 2-4-1 0.22 0.959 5 2-5-1 0.154 0.929 5 2-5-1 0.061 0.965

3 6 3-6-1 0.127 0.952 6 3-6-1 0.099 0.941 7 3-7-1 0.038 0.973

101 3 6 3-6-1 0.291 0.877 6 3-6-1 0.213 0.917 7 3-7-1 0.023 0.977

4 8 4-8-1 0.197 0.95 9 4-9-1 0.15 0.937 9 4-9-1 0.016 0.977

Page 115: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

102 1 2 1-2-1 0.105 0.961 2 1-2-1 0.192 0.912 2 1-2-1 0.073 0.962

2 4 2-4-1 0.22 0.959 5 2-5-1 0.154 0.929 5 2-5-1 0.061 0.965

3 6 3-6-1 0.127 0.952 6 3-6-1 0.099 0.941 7 3-7-1 0.038 0.973

4 8 4-8-1 0.335 0.924 9 4-9-1 0.128 0.947 9 4-9-1 0.017 0.98

103 1 2 1-2-1 0.157 0.958 2 1-2-1 0.262 0.917 2 1-2-1 0.072 0.962

2 4 2-4-1 0.206 0.949 5 2-5-1 0.167 0.943 5 2-5-1 0.05 0.965

3 6 3-6-1 0.263 0.948 6 3-6-1 0.2226 0.911 7 3-7-1 0.039 0.973

4 8 4-8-1 0.199 0.939 9 4-9-1 0.15 0.926 9 4-9-1 0.017 0.977

104 1 2 1-2-1 0.156 0.957 2 1-2-1 0.259 0.888 2 1-2-1 0.076 0.962

2 4 2-4-1 0.204 0.932 5 2-5-1 0.18 0.911 5 2-5-1 0.052 0.969

3 6 3-6-1 0.1 0.953 6 3-6-1 0.261 0.907 7 3-7-1 0.027 0.977

4 8 4-8-1 0.19 0.951 9 4-9-1 0.166 0.88 9 4-9-1 0.011 0.98

105 1 2 1-2-1 0.107 0.96 2 1-2-1 0.203 0.914 2 1-2-1 0.07 0.962

2 4 2-4-1 0.232 0.948 5 2-5-1 0.189 0.937 5 2-5-1 0.062 0.966

3 6 3-6-1 0.148 0.952 6 3-6-1 0.226 0.917 7 3-7-1 0.031 0.973

4 8 4-8-1 0.18 0.957 9 4-9-1 0.208 0.893 9 4-9-1 0.008 0.98

106 1 2 1-2-1 0.124 0.96 2 1-2-1 0.219 0.917 2 1-2-1 0.071 0.961

2 4 2-4-1 0.153 0.958 5 2-5-1 0.202 0.914 5 2-5-1 0.053 0.966

3 6 3-6-1 0.141 0.926 6 3-6-1 0.166 0.945 7 3-7-1 0.037 0.97

4 8 4-8-1 0.194 0.946 9 4-9-1 0.227 0.876 9 4-9-1 0.014 0.975

Page 116: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architectur

e MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architectur

e MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architectur

e MSE R2

107 1 2 1-2-1 0.18 0.953 2 1-2-1 0.199 0.917 2 1-2-1 0.078 0.962

2 4 2-4-1 0.133 0.96 5 2-5-1 0.197 0.9 5 2-5-1 0.055 0.965

3 6 3-6-1 0.183 0.96 6 3-6-1 0.177 0.938 7 3-7-1 0.026 0.973

4 8 4-8-1 0.187 0.953 9 4-9-1 0.255 0.941 9 4-9-1 0.016 0.977

108 2 4 2-4-1 0.222 0.947 5 2-5-1 0.114 0.937 5 2-5-1 0.055 0.963

3 6 3-6-1 0.168 0.951 6 3-6-1 0.235 0.935 7 3-7-1 0.033 0.973

4 8 4-8-1 0.223 0.947 9 4-9-1 0.161 0.931 9 4-9-1 0.007 0.976

109 1 2 1-2-1 0.12 0.96 2 1-2-1 0.175 0.929 2 1-2-1 0.069 0.961

2 4 2-4-1 0.169 0.95 5 2-5-1 0.257 0.921 5 2-5-1 0.054 0.967

3 6 3-6-1 0.241 0.94 6 3-6-1 0.162 0.908 7 3-7-1 0.032 0.973

4 8 4-8-1 0.279 0.941 9 4-9-1 0.205 0.922 9 4-9-1 0.01 0.976

110 1 2 1-2-1 0.161 0.959 2 1-2-1 0.184 0.881 2 1-2-1 0.069 0.959

2 4 2-4-1 0.363 0.912 5 2-5-1 0.205 0.925 5 2-5-1 0.042 0.68

3 6 3-6-1 0.311 0.939 6 3-6-1 0.202 0.906 7 3-7-1 0.037 0.975

4 8 4-8-1 0.196 0.935 9 4-9-1 0.378 0.885 9 4-9-1 0.009 0.981

111 1 2 1-2-1 0.154 0.957 2 1-2-1 0.168 0.939 2 1-2-1 0.072 0.962

2 4 2-4-1 0.248 0.938 5 2-5-1 0.257 0.92 5 2-5-1 0.058 0.966

3 6 3-6-1 0.231 0.956 6 3-6-1 0.203 0.909 7 3-7-1 0.038 0.972

4 8 4-8-1 0.229 0.944 9 4-9-1 0.164 0.948 9 4-9-1 0.012 0.967

Page 117: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

112

1 2 1-2-1 0.202 0.964 2 1-2-1 0.23 0.94 2 1-2-1 0.079 0.963

2 4 2-4-1 0.134 0.953 5 2-5-1 0.191 0.892 5 2-5-1 0.065 0.967

3 6 3-6-1 0.196 0.959 6 3-6-1 0.193 0.934 7 3-7-1 0.027 0.974

4 8 4-8-1 0.336 0.918 9 4-9-1 0.169 0.938 9 4-9-1 0.012 0.977

113

1 2 1-2-1 0.137 0.961 2 1-2-1 0.151 0.928 2 1-2-1 0.064 0.961

2 4 2-4-1 0.205 0.959 5 2-5-1 0.178 0.916 5 2-5-1 0.055 0.965

3 6 3-6-1 0.259 0.955 6 3-6-1 0.137 0.94 7 3-7-1 0.022 0.971

4 8 4-8-1 0.203 0.967 9 4-9-1 0.189 0.926 9 4-9-1 0.016 0.98

114

1 2 1-2-1 0.166 0.959 2 1-2-1 0.194 0.922 2 1-2-1 0.072 0.963

2 4 2-4-1 0.136 0.957 5 2-5-1 0.194 0.92 5 2-5-1 0.057 0.969

3 6 3-6-1 0.187 0.957 6 3-6-1 0.264 0.891 7 3-7-1 0.029 0.974

4 8 4-8-1 0.19 0.954 9 4-9-1 0.139 0.921 9 4-9-1 0.009 0.981

115

1 2 1-2-1 0.124 0.962 2 1-2-1 0.142 0.948 2 1-2-1 0.073 0.963

2 4 2-4-1 0.198 0.923 5 2-5-1 0.241 0.924 5 2-5-1 0.05 0.964

3 6 3-6-1 0.147 0.947 6 3-6-1 0.219 0.903 7 3-7-1 0.037 0.975

4 8 4-8-1 0.234 0.917 9 4-9-1 0.191 0.939 9 4-9-1 0.011 0.98

116

1 2 1-2-1 0.158 0.959 2 1-2-1 0.205 0.907 2 1-2-1 0.067 0.961

2 4 2-4-1 0.142 0.957 5 2-5-1 0.215 0.926 5 2-5-1 0.05 0.969

3 6 3-6-1 0.257 0.946 6 3-6-1 0.153 0.938 7 3-7-1 0.025 0.76

4 8 4-8-1 0.23 0.934 9 4-9-1 0.204 0.94 9 4-9-1 0.006 0.981

117 1 2 1-2-1 0.141 0.96 2 1-2-1 0.299 0.911 2 1-2-1 0.068 0.962

Page 118: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Tableau Annexe.1: Paramètres statistiques de la prévision de la sécheresse dans la Plaine de Haute Chelif trouvées pour la meilleure conception d’entrées (suit et fin)

Décalage Conception

des entrées

Scaled Conjugate Gradient Levenberg-Marquardt Bayesian Regularization

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre de

neurones

dans la

couche

cachée

Architecture MSE R2

Nombre

de

neurones

dans la

couche

cachée

Architecture MSE R2

119 3 6 3-6-1 0.23 0.954 6 3-6-1 0.197 0.93 7 3-7-1 0.035 0.973

4 8 4-8-1 0.304 0.919 9 4-9-1 0.171 0.925 9 4-9-1 0.006 0.981

118

1 2 1-2-1 0.132 0.96 2 1-2-1 0.164 0.943 2 1-2-1 0.068 0.961

2 4 2-4-1 0.175 0.955 5 2-5-1 0.206 0.929 5 2-5-1 0.068 0.966

3 6 3-6-1 0.307 0.917 6 3-6-1 0.175 0.932 7 3-7-1 0.025 0.974

4 8 4-8-1 0.2 0.93 9 4-9-1 0.194 0.938 9 4-9-1 0.004 0.0963

119

1 2 1-2-1 0.142 0.958 2 1-2-1 0.178 0.923 2 1-2-1 0.07 0.963

2 4 2-4-1 0.184 0.955 5 2-5-1 0.331 0.916 5 2-5-1 0.057 0.963

3 6 3-6-1 0.138 0.946 6 3-6-1 0.187 0.943 7 3-7-1 0.028 0.975

4 8 4-8-1 0.33 0.918 9 4-9-1 0.214 0.919 9 4-9-1 0.009 0.979

120

1 2 1-2-1 0.18 0.957 2 1-2-1 0.188 0.918 2 1-2-1 0.066 0.61

2 4 2-4-1 0.246 0.956 5 2-5-1 0.225 0.902 5 2-5-1 0.049 0.966

3 6 3-6-1 0.224 0.915 6 3-6-1 0.193 0.928 7 3-7-1 0.043 0.971

4 8 4-8-1 0.43 0.902 9 4-9-1 0.194 0.942 9 4-9-1 0.004 0.981

Page 119: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Annexe. 2: Nomenclature

ANN (Artificial Neural Network) Réseau de neurones artificiels

ARCH (Autoregressive Conditional Heteroscedasticity) Heteroscédasticité conditionnelle

autorégressive.

ARIMA (Autoregressive Integrated Moving Average) Moyenne mobile intégrée

autorégressive.

Bruit blanc à l'heure t

Opérateur arrière au routard r

d Paramètre d'intégration dans le modèle ARIMA

Valeur souhaitée du neurone k à l'itération n

Fonction énergétique de Boltzmann

Erreur calculée du neurone k à l'itération n

Erreur calculée du neurone k à l'itération n

GARCH (General Autoregressive Conditional Heteroscedasticity) Heteroscédasticité

conditionnelle autorégressive générale

(Mean Squared Error) erreur carrée moyenne

m Paramètre moyen en mouvement dans le modèle ARIMA

Ensemble de nombres naturels

NAR (Nonlinear Autoregressive) Autorégressif non linéaire

NARX (Nonlinear Autoregressive with exogenous variables non-linéaire) Autorégressif

non linéaire avec des variables exogènes

p Paramètre de modèle AR

q Paramètre de modèle MA

Ensemble de nombres réels (espace d'état)

r Paramètre Autorégressif dans le modèle ARIMA

Processus stochastique

Ensemble des chiffres démontrent l'heure

Indice de temps

Processus Wiener à l'heure t

Poids synaptique pour l'entrée de signal i dans le neurone k

Ajusté au poids synaptique à l'itération n

Page 120: MEMOIRE DE MASTERlibrary.ensh.dz/images/site_lamine/pdf/these_master/2017/6-0051-17.pdf · Au terme de cette modeste étude, je tiens à exprimer ma profonde gratitude et mes vifs

ANNEXES

Variable aléatoire

Variable de processus stochastique discret (aléatoire)

Variable stochastique continue (aléatoire)

Nombre réel

Signal d'entrée au neurone

Réponse du neurone k

Valeur calculée du neurone k à l'itération n

Réponse calculée pour le modèle dans le cas de base

Réponse calculée pour le modèle dans l'affaire c

Covariance automatique de la variable de série temporelle à l'instant t1 et t2

Covariance automatique de la variable de série temporelle à l'instant t1 et t2

Erreur aléatoire à l'instant t

Taux d'apprentissage

Ecart-type / volatilité

Coefficient de moyenne mobile (MA) au décalage m

Valeur moyenne

Variance

Variance conditionnelle à l'instant t

Domaine local induit du neurone k

Coefficient de régression automatique (AR) au décalage r

Fonction d'activation d'un neurone

Ω Espace de probabilité

Numéro de probabilité