Optimisation Avance Thème: Recherche dispersée

22
Optimisation Avance Thème: Recherche dispersée Université des Sciences et de la Technologie d’Oran -Mohamed Boudiaf- Faculté des Sciences Département d’Informatique Année Universitaire 2012 / 2013 Optimisation avancée 1

description

Université des Sciences et de la Technologie d’Oran -Mohamed Boudiaf- Faculté des Sciences Département d’Informatique. Optimisation Avance Thème: Recherche dispersée. Année Universitaire 2012 / 2013. Plan de travail. Introduction Historique Définition Principe de la méthode - PowerPoint PPT Presentation

Transcript of Optimisation Avance Thème: Recherche dispersée

Page 1: Optimisation Avance Thème:  Recherche dispersée

Optimisation Avance

Thème:

Recherche dispersée

Université des Sciences et de la Technologie d’Oran-Mohamed Boudiaf-Faculté des Sciences

Département d’Informatique

Année Universitaire 2012 / 2013Optimisation avancée 1

Page 2: Optimisation Avance Thème:  Recherche dispersée

Introduction

Historique

Définition

Principe de la méthode

Algorithme

Domaines d’application

Exemple d’application

Les Avantages et les inconvénients

Conclusion

Optimisation avancée 2

Page 3: Optimisation Avance Thème:  Recherche dispersée

• Les métaheuristiques forment un ensemble de méthodes utilisées en recherche opérationnelle pour résoudre des problèmes d’optimisation réputés difficiles. On peut distinguer deux approches en méta heuristiques:

1. Les approches trajectoire (recherche locale): Ces algorithmes partent d’une solution initiale (obtenue de façon exacte, ou par tirage aléatoire)

2. les approches population ( évolutionnaires): Elles consistent à travailler avec un ensemble de solutions simultanément, que l’on fait évoluer graduellement. L’utilisation de plusieurs solutions simultanément permet naturellement d’améliorer l’exploration de l’espace des configurations.

Optimisation avancée 3

Page 4: Optimisation Avance Thème:  Recherche dispersée

La recherche dispersée ou « Scatter Search » en anglais, est une méthode d’évolution qui a été proposée par Glover en 1977.

Le concept fondamental et le principe général de cette méthode ont été proposés en premier lieu dans les années 70 comme une heuristique basée sur une formulation donnée dans les années 60 pour les règles de décision de combinaison et les contraintes de problème.

Optimisation avancée 4

Page 5: Optimisation Avance Thème:  Recherche dispersée

La recherche dispersée du point de vue classification des métaheuristiques est une méthode d’évolution qui est basée sur la population. Elle construit des solutions par la combinaison d’autres solutions en se basant sur des principes qui capturent l’information qui n’existe pas dans les solutions originales.

Le rôle de cette méthodologie est de mettre en oeuvre des procédures permettant de dériver des nouvelles solutions à partir des éléments combinés, en vue d’obtenir une meilleure solution que des solutions basées seulement sur des ensembles originaux d’éléments.

Optimisation avancée 5

Page 6: Optimisation Avance Thème:  Recherche dispersée

Méthode

d’amélioration

Méthode de generation

de diversification

Méthode de

M-a-j de refSet

Méthode de Génération

de Sous-ensembless ss

Méthode

d’amélioration

Méthode de Combinaison

de solutions

TEST d’ARRET

P

RefSet

Optimisation avancée 6

Page 7: Optimisation Avance Thème:  Recherche dispersée

Les caractéristiques avancées de la recherche dispersée sont liées à la manière de la mise en œuvre de ses éléments. Ces éléments sont dits "méthodes" pour la recherche dispersée, qui peuvent être présentés comme suit:•Méthode de génération de diversification : génère une collection de divers solutions de départ en utilisant une solution d’essai arbitraire•Méthode d’amélioration : transforme la solution d’essai générée par la méthode de diversification à un ou plusieurs solutions plus efficaces •Méthode de mise à jour de l’ensemble de référence: construit un ensemble de référence constitué des meilleures solutions trouvées pour donner l’accès par autres parts de la recherche•Méthode de génération des sous ensembles : génère des sous ensembles à partir de L’ensemble de référence. Chaque sous ensemble de solutions est utilisé pour créer des solutions combinées•Méthode de combinaison de solutions : génère un ou plusieurs solutions en combinant les solutions de chaque sous ensemble donné par la méthode précédente

Optimisation avancée 7

Page 8: Optimisation Avance Thème:  Recherche dispersée

L’algorithme général de la recherche dispersée [GLO97] [GLO98] est constitué de deux phases: phase d’initialisation et phase d’évolution.

Phase d’initialisation :

1.génération des solutions de départ aléatoirement.

2.transformer les solution de départ en une ou plusieurs solution amélioré

3.Répéter l’exécution de l’étape 1 et 2 jusqu’ à l’obtention d’un nombre voulu de solutions qui constitueront la population initiale de l’ensemble de référence.

Optimisation avancée 8

Page 9: Optimisation Avance Thème:  Recherche dispersée

Phase d'évolution:

4. Générer des sous ensembles de la population de l’ensemble de référence à partir des quels seront construites les solutions

5. pour chaque sous ensemble X produit à l’étape 4 on applique une technique de combinaison des solutions pour produire l’ensemble C(X) qui consiste en une ou plusieurs solutions combinées

6. pour chaque solution produite à l’étape 5 appliquer la méthode d’amélioration pour avoir une (ou plusieurs) solution(s) de bonne qualitée

7. Si aucune solution n’est produite à l’étape 6, alors on réinitialise la population avec l'ensemble élit et on reprend à partir de l’étape 2.

8. Répéter l’exécution des étapes de 5 à 7 jusqu’à la rencontre d’un critère d’arrêt qui est le plus souvent un nombre maximum d’itérations atteint

Optimisation avancée 9

Page 10: Optimisation Avance Thème:  Recherche dispersée

Du fait de sa redécouverte récente, les applications de la recherche dispersée sont peunombreuses. Dont on cite:

•·Les travaux de Campos, Laguna et Marti pour le problème d'ordonnancement linéaire.

• Les travaux de Hamiez et Hao pour le problème de coloration de graphe.

• Les travaux de Ghalouche, Crainc et Gendreau pour le problème de conception des réseaux à faible capacité.

• Les travaux de Cung et al pour l'affectation quadratique.

Optimisation avancée 10

Page 11: Optimisation Avance Thème:  Recherche dispersée

11x1+10x2+9x3+12x4+10x5+6x6+7x7+5x8+3x9+8x10

Objectif 33x1+27x2+16x3+14x4+29x5+30x6+31x7+33x8+14x9+18x10100

xi={0,1} pour i=1,…,10

x’i=1-xi

La solution x est choisie comme solution initiale: x=(0,0,0,0,0,0,0,0,0,0)

Exemple du Sac à Dos(0-1) Maximiser

Optimisation avancée 11

h x' x''

1 (1,1,1,1,1,1,1,1,1,1) (0,0,0,0,0,0,0,0,0,0)

2 (1,0,1,0,1,0,1,0,1,0) (0,1,0,1,0,1,0,1,0,1)

3 (1,0,0,1,0,0,1,0,0,1) (0,1,1,0,1,1,0,1,1,0)

4 (1,0,0,0,1,0,0,0,1,0) (0,1,1,1,0,1,1,1,0,1)

5 (1,0,0,0,0,1,0,0,0,0) (0,1,1,1,1,0,1,1,1,1)

Page 12: Optimisation Avance Thème:  Recherche dispersée

1. Génération de diversification

Optimisation avancée 12

Page 13: Optimisation Avance Thème:  Recherche dispersée

1. Génération de diversification

Optimisation avancée 13

onmaximisati defonction la dans xdet Coefficien

Objectivefonction la dans xdet Coefficien Ratio

i

i

x1 = 0.333

x2 = 0.370

x3 = 0.563

x4 = 0.857

x5 = 0.345

x6 = 0.200

x7 = 0.226

x8 = 0.152

x9 = 0.214

x10 = 0.444

(0,1,1,0,1,1,0,1,1,0)(0,1,1,0,1,1,0,1,1,0)

Objective =43

maximum= 149

Page 14: Optimisation Avance Thème:  Recherche dispersée

Itération

Solution courante valeur objective

Poids total

Variables à modifier

Variable séléctionné

e

1 (0,1,1,0,1,1,0,1,1,0)

43 149 x2 = 0 (0,370) X8 = 0

x3= 0 ( 0,563)

x5= 0 ( 0,345)

x6 = 0 ( 0.200)

X8 = 0(0,152)

X9 =0 (0.214)

2 (0,1,1,0,1,1,0,0,1,0)

38 116 X2 =0 (0,370) x6 = 0

X3=0 (0,563)

X5=0 (0,345)

x6=0 (0,200)

X9=0 (0,214)

3 (0,1,1,0,1,0,0,0,1,0)

32 86 x4=1 (0,857) x4=1

4 (0,1,1,1,1,0,0,0,1,0)

44 100 ---

2. Méthode d’amélioration

Optimisation avancée 14

Page 15: Optimisation Avance Thème:  Recherche dispersée

Solution Solution améliorée Valeur objective

42

42

3 (1,0,0,1,0,0,1,0,0,1) 38

4 (1,0,0,1,1,0,0,0,1,0) 36

5 (1,0,1,1,0,1,0,0,0,0) 38

6 (0,1,1,1,0,0,0,0,0,1) 39

7 (0,1,0,1,0,1,0,0,0,1) 36

44

1 (0,1,1,1,0,0,0,0,1,1)

2 (1,0,1,1,1,0,0,0,0,0)

8 (0,1,1,1,1,0,0,0,1,0)

2. Solutions améliorées

Optimisation avancée 15

Page 16: Optimisation Avance Thème:  Recherche dispersée

Candidate Solution

Distance entre solutionsDistanceminimalSolution 1 Solution 2 Solution 8

5 4 7 4

4 (1,0,0,1,1,0,0,0,1,0) 5 2 3 2

5 (1,0,1,1,0,1,0,0,0,0) 5 2 5 2

6 (0,1,1,1,0,0,0,0,0,1) 1 4 3 1

3 6 5 3

Distance: (Solution 1 et Solution 3) (0, 1, 1, 1, 0, 0, 0, 0, 1, 1) Solution 1Distance: (Solution 1 et Solution 3) (0, 1, 1, 1, 0, 0, 0, 0, 1, 1) Solution 1

(1, 0, 0 ,1, 0, 0, 1, 0, 0, 1)(1, 0, 0 ,1, 0, 0, 1, 0, 0, 1) Solution 3 Solution 3

(1+1+1+0+0+0+1+0+1+0) = 5(1+1+1+0+0+0+1+0+1+0) = 5

• Solution 1 : (0, 1, 1, 1, 0, 0, 0, 0, 1, 1) Solution 1 : (0, 1, 1, 1, 0, 0, 0, 0, 1, 1)

• Solution 2 : (1, 0, 1, 1, 1, 0, 0, 0, 0, 0) Solution 2 : (1, 0, 1, 1, 1, 0, 0, 0, 0, 0)

• Solution 8 : (0, 1, 1, 1, 1, 0, 0, 0, 1, 0) Solution 8 : (0, 1, 1, 1, 1, 0, 0, 0, 1, 0)

3 (1,0,0,1,0,0,1,0,0,1)

7 (0,1,0,1,0,1,0,0,0,1)

Optimisation avancée

3. Mise à jour de L’ensemble de référence

16

Page 17: Optimisation Avance Thème:  Recherche dispersée

Solution SolutionObjective

Value

1 (0,1,1,1,0,0,0,0,1,1) 42

2 (1,0,1,1,1,0,0,0,0,0) 42

8 (0,1,1,1,1,0,0,0,1,0) 44

3 (1,0,0,1,0,0,1,0,0,1) 38

7 (0,1,0,1,0,1,0,0,0,1) 36

Type 1 Solutions

(1,2) (1,8) (1,3) (1,7)

(2,8) (2,3) (2,7)

(8,3) (8,7)

(3,7)

Type 2 Solutions

(1,2,8) (1,3,8) (1,7,8)

(2,3,8) (2,7,8)

(3,7,8)

Type 3 Solutions

(1,2,8,3) (1,7,8,2)

(3,7,8,1)

Type 4 Solutions

(1,2,8,3,7)

4. Generation des sous-ensembles

Optimisation avancée 17

Page 18: Optimisation Avance Thème:  Recherche dispersée

Sol’n x1 x2 x3 x4 x5 x6 x7 x8 x9 x10

3 0.322 0.000 0.000 0.322 0.000 0.000 0.322 0.000 0.000 0.322

7 0.000 0.305 0.000 0.305 0.000 0.305 0.000 0.000 0.000 0.305

8 0.000 0.373 0.373 0.373 0.373 0.000 0.000 0.000 0.373 0.000

Total 0.322 0.678 0.373 1.000 0.373 0.305 0.322 0.000 0.373 0.627

Optimisation avancée

5. Combinaison des Solutions

18

x’ = ( 0, 1, 0, 1, 0, 0, 0, 0, 0, 1 )

Sj

Sj

jOV

ji

xjOVxScore i

)(

)()(

0

1ix

if score (i) > 0.5

Page 19: Optimisation Avance Thème:  Recherche dispersée

Avantages et inconvénients

Couteuse en temps de calculeUn des avantages de la recherche dispersée et des algorithmes génétiques est aussi qu’ils génèrent plusieurs solutions de bonne qualité. Cela peut être intéressant dans différents contextes lorsqu’il est demandé de fournir plusieurs solutions élites.

Prend aussi l’avantage de quelques méthodes heuristiques pour sélectionner les éléments quivont être combinés pour générer une nouvelle solution.

Optimisation avancée 19

Page 20: Optimisation Avance Thème:  Recherche dispersée

• La recherche dispersée est une métaheuristique qui est basée sur l’évolution de la population. Durant la recherche, elle capture l’information dans les sous ensembles pour construire de nouvelles solutions, et elle conserve les deux grandeurs (diversité, qualité) de l’ensemble de référence. La recherche dispersée est constituée essentiellement par des méthodes de base. Entre ces méthodes, les méthodes de combinaison et les méthodes d'amélioration, qui sont liées au problème à traiter.

• La recherche dispersée est souvent comparée aux algorithmes génétiques, on trouve quelques différences :

Dans la recherche dispersée, toutes les solutions participent à la combinaison.

L’évolution de la population, est contrôlée par des règles déterministes, contrairement aux algorithmes génétiques, qui utilisent la randomisation.

La population n’est pas générée de manière aléatoire comme dans les algorithmes génétiques.

Optimisation avancée 20

Page 21: Optimisation Avance Thème:  Recherche dispersée

• [Glo, 94] F. Glover, Tabu search for nonlinear and parametric optimization (with links to genetic algorithms). Discrete Applied Mathematics, 49 , 231–255.1994.

• [Glo, 63] F. Glover, Parametric combinations of local job shop scheduling rules. Chapter IV, NR Research Memorandum No. 117, GSIA, Carnegie Mellon University, Pittsburgh, PA.1963.

• [Glo, 98] F. Glover , A template for scatter search and path relinking. In: J.-K. Hao, E. Lutton, E. Ronald, M. Schoenauer and D. Snyers (eds.), Artificial Evolution, Lecture Notes in Computer Science 1363. Springer, pp. 3–51. 1998

• [Glo, 97] F. Glover , Tabu search and adaptive memory programming—advances, Applications and challenges. In. R. Barr, Helgason and Kennington (Co-eds.), Advances in Meta-heuristics, Optimization and Stochastic Modeling Techniques. Kluwer Academic Publishers, Boston, USA, pp. 1–175. 1997.

• [LAP, 96] G. LAPORTE, I.H. OSMAN, Metaheuristics in combinatorial optimization, Annals of Operations Research 63, J.C. Baltzer Science Publishers, Basel, Switzerland, 1996.

• [REE 93, AAR 97] C.R. REEVES (Ed.) Modern heuristic techniques for combinatorial problems, Blackwell Scientific Publications, Oxford, 1993.

Optimisation avancée 21

Page 22: Optimisation Avance Thème:  Recherche dispersée

Optimisation avancée 22