Programme Gaspard Monge pour l’Optimisation et la...

60
Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle Bilan scientifique du PGMO Période de Mars 2012 à Décembre 2013 S. Charousset Janvier 2014

Transcript of Programme Gaspard Monge pour l’Optimisation et la...

Page 1: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Bilan scientifique du PGMO Période de Mars 2012 à Décembre 2013 S. Charousset Janvier 2014

Page 2: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 2 sur 60

Sommaire / Summary

1 Bilan scientifique des projets ......................................................... 3

1.1 Liste des projets lancés suite à l‘appel à projets de 2012 ....................................................... 3 1.2 Bilan scientifique des projets ................................................................................................... 4

1.2.1 Portail web et cours électroniques pour l'enseignement de l'optimisation stochastique (POCEOS) ........................................................................................................................................ 4 1.2.2 Programmation linéaire colorée : aspects géométriques, combinatoires et algorithmiques 5 1.2.3 Partitionnement des graphes sous contraintes de capacité ............................................ 7 1.2.4 SALADOUS – Semi-algebraic approaches to doubly sparse problems .......................... 9 1.2.5 Hybrid Approaches Combining Metaheuristics and Methods of Mathematical Analysis for Discrete Trace Ratio Optimization Problem ................................................................................... 10 1.2.6 Méthodes tropicales pour l‘optimisation ........................................................................ 13 1.2.7 Latin America Stochastic Optimization Network (LASON) ............................................ 23 1.2.8 MAORI - MAthématiques de l’Optimisation pouR l’Imagerie......................................... 24 1.2.9 Consistent Dual Signals and Optimal Primal Solutions ................................................. 26 1.2.10 Optimisation discrète robuste du design d'un parc autonome d'énergies hybrides ...... 28 1.2.11 Optimisation dans l‘incertain pour les problèmes de Unit Commitment ........................ 30 1.2.12 Optimality for Tough Combinatorial Hydro Valley Problems .......................................... 32 1.2.13 Hydro-electric scheduling under uncertainty ................................................................. 34 1.2.14 Décomposition/Coordination en commande optimale stochastique (StochDec) .......... 40 1.2.15 Equilibres de Nash pour la valorisation des offres dans la gestion de la production journalière : le point de vue du producteur ..................................................................................... 42 1.2.16 Optimisation Combinatoire sous contraintes en Probabilités Jointes : Application au problème des arrêts du nucléaire ................................................................................................... 43 1.2.17 Optimisation du placement des arrêts nucléaires (problème « PAN ») ......................... 46 1.2.18 Réduire la combinatoire par apprentissage ................................................................... 48 1.2.19 Contrôle stochastique optimal pour la gestion actif-passif ............................................ 50 1.2.20 Optimisation du coeur d'un reacteur a neutrons rapides ............................................... 52

2 Invitations de professeurs ............................................................. 54

3 Animation scientifique ................................................................... 54

3.1 Conférence de septembre 2012 ............................................................................................ 54 3.2 Conférence de septembre 2013 ............................................................................................ 55 3.3 Séminaire ............................................................................................................................... 57 3.4 ROADEF 2013 ....................................................................................................................... 58 3.5 Soutien à des workshop ........................................................................................................ 59 3.6 Prix de thèse .......................................................................................................................... 59

Page 3: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 3 sur 60

L‘objectif de ce document est d‘établir le bilan scientifique du fonctionnement du Programme Gaspard Monge pour l‘optimisation et la recherche opérationnelle sur sa première année de fonctionnement.

1 Bilan scientifique des projets

1.1 Liste des projets lancés suite à l’appel à projets de 2012

Le premier appel à projets du Programme Gaspard Monge pour l'Optimisation et la recherche opérationnelle a été lancé en mars 2012 et clos le 15 juin 2012. Suite à cet appel, les projets suivants ont été lancés dans le cadre du PGMO. Un bilan scientifique pour chaque projet (ayant démarré) figure dans le chapître suivant.

Projets sur le PRMO

« Portail web et cours électroniques pour l'enseignement de l'optimisation stochastique », porté par Michel De Lara, CERMICS, ENPC

« Programmation linéaire colorée : aspects géométriques, combinatoires et algorithmiques », porté par Frédéric Meunier, CERMICS, ENPC

« Partitionnement des graphes sous contraintes de capacité », porté par Viet Hun NGUYEN, LIP6, UPMC

« SALADOUS – Semi-algebraic approaches to doubly sparse problems‖, porté par Jérôme Bolte, Toulouse School of Economics

« Hybrid Approaches Combining Metaheuristics and Methods of Mathematical Analysis for Discrete Trace Ratio Optimization Problem», porté par Mohammed BELLALIJ et Said HANAFI, Université de Valenciennes

« Méthodes tropicales pour l‘optimisation », porté par Xavier Allamigeon, INRIA Saclay

« Latin America Stochastic Optimization Network (LASON) », porté par Michel De Lara, CERMICS et Bernardo Kulnig Pagnoncelli , Université Adolfo Ibanez, Santiago, Chili

« MAORI : MAthématiques de l‘Optimisation pouR l‘Imagerie », porté par Mathieu Kowalsky, L2S Université Paris Sud

Projets sur l'IROE

« Consistent Dual Signals and Optimal Primal Solutions », porté par Antonio Frangioni, Université de Pise, Italie

« Optimisation discrète robuste du design d'un parc autonome d'énergies hybrides », porté par Marie-Christine COSTA, ENSTA ParisTech

« Optimisation dans l‘incertain pour les problèmes de Unit Commitment », porté par Michel Minoux, LIP6

« Optimality for Tough Combinatorial Hydro Valley Problems », porté par Claudia D'Ambrosio, LIX Ecole Polytechnique

« Hydro-electric scheduling under uncertainty », porté par Andy Phillpott, Université d‘Auckland, Nle Zelande

« Décomposition/Coordination en commande optimale stochastique », porté par Pierre Carpentier, ENSTA ParisTech

« Equilibres de Nash pour la valorisation des offres dans la gestion de la production journalière », porté par Didier Aussel, Université de Perpignan

« Optimisation Combinatoire sous contraintes en Probabilités Jointes : Application au problème des arrêts du nucléaire », porté par Abdel Lisser, LRI Université Paris Sud

« Optimisation du placement des arrêts nucléaires », porté par Roberto Wolfler-Calvo, LIPN Université Paris Nord

« Réduire la combinatoire par apprentissage », porté par Nicolas BELDICEANU, Mines de Nantes

« STOGAP : Contrôle stochastique optimal pour la gestion actif-passif », porté par Frédéric Bonnans, CMAP Ecole Polytechnique

« Optimisation du coeur d'un reacteur a neutrons rapides », porté par Olivier Pantz, CMAP Ecole Polytechnique

Page 4: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 4 sur 60

1.2 Bilan scientifique des projets

1.2.1 Portail web et cours électroniques pour l'enseignement de l'optimisation stochastique (POCEOS)

Equipe :

Pierre Carpentier, UMA, ENSTA ParisTech

Jean-Philippe Chancelier, Michel De Lara, CERMICS, Ecole des Ponts ParisTech

Objectifs :

Développement de supports de formation video en ligne.

L‘objet de la première année est de tester la faisabilité et l‘intérêt du concept sur 3 cours spécifiques donnés par les membres de l'équipe.

Bilan scientifique :

Le projet POCEOS est un apprentissage des bonnes méthodes pour développer des supports de formation électroniques.

C‘est pourquoi, le projet a souhaité commencer par un format réduit et a effectué le tournage vidéo des trois cours suivants :

o Optimisation et contrôle (21 h), J.-P. Chancelier, P. Carpentier, M. De Lara, Ecole des Ponts 2ème année

o Optimisation pour la gestion durable des ressources naturelles (24h), M. De Lara, Ecole des Ponts 1ère année

o Stochastic Control for the Management of Renewable Energies (15h), J.-P. Chancelier, P. Carpentier, M. De Lara, CIRM school 2013

Un technicien audiovisuel de la direction de l‘enseignement de l‘Ecole des Ponts, a filmé les cours et procède à leur montage audiovisuel.

Un ‗teaser‘ a été réalisé et diffusé lors de la conférence PGMO d‘octobre 2013.

Page 5: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 5 sur 60

1.2.2 Programmation linéaire colorée : aspects géométriques, combinatoires et algorithmiques

Equipe :

o Antoine Deza, Advanced Optimization Laboratory, McMaster University, Hamilton, Canada o F. Meunier, Pauline Sarrabezolles, Cermics

Objectifs :

Ce projet vise à mener des travaux de recherche amont autour de la programmation linéaire colorée (aspects théoriques et algorithmiques) et à mettre en ligne du code libre.

Bilan Scientifique :

Contexte

La programmation linéaire colorée a été définie en 1997 par Bárány et Onn dans un article publié dans

Mathematics of Operations Research. Etant donnés des ensembles de points S1,S2,...,Sk dans ℝ𝑑et un

point p de ℝ𝑑 , la programmation linéaire colorée consiste à trouver un ensemble T ⊆ ⋃𝑖=1𝑘 Si tel que |T ∩

Si|≤ 1 pour i =1,...,k et tel que p ∈ conv(T). La programmation linéaire usuelle correspond au cas k = 1 et également au cas S1 = ··· = Sk. Dans leur article, Bárány et Onn prouvent un certain nombre de résultats

de complexité et proposent un algorithme efficace pour résoudre la programmation linéaire colorée dans un cas particulier. Ils prouvent en particulier que la programmation linéaire colorée dans sa formulation générale est NP-complète. Ils laissent comme question ouverte la complexité de la programmation linéaire colorée lorsque k = d + 1.

En dehors des questions algorithmiques et de complexité, un autre aspect de la programmation linéaire colorée a été assez étudié : celui du nombre d‘ensembles T solutions, en particulier lorsque k = d + 1 et que l‘on sait a priori que p ∈ conv(Si) pour i =1,...,d + 1. Sous ces conditions, un théorème de Bárány de 1982 assure qu‘il existe au moins un tel ensemble T. C‘est le théorème de « Carathéodory coloré ». Après une série de travaux dans les années 90 et 2000 menés entre autres par Bárány, Deza, Matoušek,

Stephen, Terlaky et Thomas, il a été montré qu‘il existe en réalité toujours au moins 1

2d

2

+ d+1

2 tels

ensembles T , sous ces mêmes conditions, appelées depuis conditions de Bárány. Il a été conjecturé que

sous les conditions de Bárány, il y en a toujours au moins d2

+ 1. Cette conjecture a été démontrée pour d = 2 par Deza et des coauteurs en 2006, et pour d = 3 par Bárány et Matoušek en 2007.

Résultat de complexité.

Dans le cadre du projet, Meunier et Sarrabezolles ont montré que la programmation linéaire colorée est

difficile, même dans la cas k = d + 1. Un algorithme polynomial pour ce problème permettrait en effet de calculer en temps polynomial un équilibre de Nash dans les jeux matriciels – problème qui est connu pour être PPAD-complet. Le cas k = d + 1 n‘a pas pour autant été montré NP-complet, mais cela est tout de même une réponse partielle à la question ouverte de B´ Bárány et Onn. En passant, il apparaît donc que la programmation linéaire colorée, en plus de généraliser la programmation linéaire usuelle, généralise également le calcul des équilibres de Nash dans les jeux matriciels.

De plus, dans ce travail, une version orientée de l‘opération du pivot du simplexe introduite par Todd dans les années 70 doit être à un moment utilisée. Il a été possible de simplifier assez fortement la construction de Todd – cela devrait s‘avérer utile pour d‘autres problèmes PPAD dans lesquels cette version orientée du pivot du simplexe joue un rôle.

Ce travail est en cours de rédaction et devrait être soumis a une conférence sélective au cours de l‘automne, avant d‘être soumis à un journal international.

Amélioration de la borne sur le nombre de solutions.

Deza, Meunier et Sarrabezolles ont amélioré la borne inférieure sur le nombre de solutions T sous les conditions de Bárány. En utilisant des hypergraphes simples n-parties particuliers – les systèmes

octaédriques – dont l‘étude a été suggérée par Bárány, il a été possible d‘une part de montrer que 1

2d

2

+ 7

2d − 8 est une borne inférieure et d‘autre part que la borne d

2

+ 1 conjecturée est vérifiée pour d = 4.

Page 6: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 6 sur 60

D‘autres résultats annexes sur les sytèmes octaédriques ont pu être également démontrés. Par exemple, il a été possible de les dénombrer, de montrer qu‘ils ne proviennent pas tous de configurations géométriques de points, ou encore de donner des bornes supérieures sur leur nombres d‘arêtes.

Tous ces résultats ont fait l‘objet d‘un article qui a été accepté pour publication au cours de l‘été 2013 par le journal SIAM Journal on Discrete Mathematics [1].

Publications et communications

[1] Deza, A., Meunier, F. et Sarrabezolles, P. : « A combinatorial approach to colourful simplicial depth », SIAM Journal on Discrete Mathematics, accepté pour publication.

[2] Deza, A., Meunier, F. et Sarrabezolles, P. : A combinatorial approach to colourfu simplicial depth, EUROCOMB 2013, Pise, Italie, Septembre 2013.

[3] Deza, A., Meunier, F. et Sarrabezolles, P. : Counting feasible bases in colourful linear programming, Congrès ROADEF 2013, Troyes, Février 2013.

[4] Pauline Sarrabezolles, " Programmation linéaire colorée : bases, polytopes et algorithmes", Séminaire PGMO de mars 2013

[5] Pauline Sarrabezolles & Frédéric Meunier , « “Programmation linéaire colorée », Conférence PGMO d‘octobre 2013

Page 7: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 7 sur 60

1.2.3 Partitionnement des graphes sous contraintes de capacité

Equipe :

Michel MINOUX, Professeur émérite à l'Université Pierre et Marie Curie Equipe Décision, Laboratoire d'Informatique de Paris 6 (LIP6)

Viet Hung NGUYEN, Maître de Conférences à l'Université Pierre et Marie Curie (Equipe Décision, Laboratoire d'Informatique de Paris 6 (LIP6) )

Pierre BONAMI, Chargé de Recherche au CNRS (Equipe CRO, Laboratoire d'Informatique Fondamentale de Marseille (LIF) )

Objectifs :

L‘objectif est de développer de nouvelles méthodes exactes pour résoudre des problèmes de partitionnement de graphe avec contraintes de capacité, ainsi que desméthodes approchées pour la grande taille. Le projet produira également du code libre et des jeux de tests.

Bilan scientifique :

Rappel du problème étudié et des objectifs

Nous considérons une variante du problème de Partitionnement de Graphes où les sous-ensembles dans la partition ne sont pas (uniquement) soumis à de contraintes de cardinalité mais (aussi) à de contrainte des capacité. Etant donnés une constante B et un graphe G=(V,E) où les arêtes sont pondérées. La capacité d'un sous-ensemble S de V est définie comme la somme des poids des arêtes ayant au moins une extrémité dans S. Le problème de Partitionnement de Graphes avec Contraintes de Capacité (PGCC) est de trouver une partition de V dont les sous-ensembles (clusters) ont tous une capacité inférieure et égale à B, qui minimise le poids les arêtes dans l'interconnexion. On peut trouver cette définition de capacité des sous-ensembles dans les applications diverses. Par exemple, dans le problème de conception des réseaux optiques de télécommunications SONET/SDH où le poids des arêtes représente le volume de trafic entre deux nœuds d'extrémité, on doit trouver une partition optimale des nœuds en anneaux respectant la contrainte de capacité. La capacité d'un anneau représente dans ce cas le volume de trafic total transit par l'anneau.

Modèles mathématiques

Modèle Noeud-Noeud (NN). Ce modèle modélise la relation d'appartenance ou non au même

cluster de toutes paires de nœuds par O(n2

) variables binaires. Plus précisement, il comporte : o une fonction objectif linéaire, o n-1 inégalités quadratiques représentant les contraintes de capacité.

o O(n3

) inégalités triangulaires.

Modèle Noeud-Cluster (NC). Ce modèle modélise la relation d'appartenance ou non d'un nœud à un cluster par une variable binaire. Pour cela, on se repose sur les faits qu'il y a au plus n clusters dans une partition et que un cluster peut être vide. Ce modèle comporte :

o une fonction objectif quadratique, o n inégalités quadratiques représentant les contraintes de capacité, o n égalités linéaires d'affectation + O(n2) inégalités linéaires d'asymétrie.

Les deux modèles ont le même nombre de variables binaires et sensiblement le même nombre de contraintes quadratiques. En revanche, le modèle NN est approximativement n fois plus riche en nombre de contrainte linéaire que le modèle NC.

Résultats existants et objectifs du projet

Les contraintes quadratiques dans les deux modèles et l'objectif quadratique du modèle NC sont non-convexes. Il est crucial donc de les convexifier/linéariser. Nous avons effectué un travail précédent au projet portant sur le modèle NN (Bonami et al., LNCS, vol. 7422, pp. 285-296). Ce travail propose une nouvelle méthode de linéarisation (linéarisation par projection) inspirée de Saxena et al. (Math. Prog. Vol. 124, pp. 383-411) qui ajoute des contraintes linéaires supplémentaires au lieu d'ajouter des variables supplémentaires au modèle comme le cas de la méthode de linéarisation classique de Fortet. Des expériences numériques ont confirmé la supériorité de cette méthode sur le modèle NN à des méthodes classiques de convexification/linéarisation comme : la linéarisation classique de Fortet et méthode de convexification par la plus petite valeur propre implémentée par défaut dans le solveur CPLEX . En

Page 8: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 8 sur 60

revanche, on a constaté aussi que le modèle NC est plus adapté pour la résolution exacte du problème que le modèle NN à savoir la linéarisation de Fortet pour NC est meilleure dans un Branch-and-Bound que la méthode de linéarisation par projection pour NN. Dans cette optique, l'objectif principal du projet était l'étude des techniques de convexification/linéarisation de contraintes quadratiques non-convexes en vue de la résolution exacte du modèle NC. Cette étude devait aussi mettre en évidence la meilleure technique parmi celles étudiées par des expériences numériques sur des instances diverses et réalistes.

Travail réalisé

Renforcement de linéarisation de Fortet pour le modèle NC par la méthode RLT (Reformulation et Linéarisation Technique) d'ordre 1.

Implémentation de la méthode de linéarisation par projection pour le modèle NC.

Nouvelle méthode de linéarisation pour le modèle NC basée sur la méthode proposée par Sherali et Smith (Opt. Letters, vol 1, pp. 33-47). Renforcement de cette linéarisation en faisant intervenir la contrainte de capacité dans le calcul des paramètres.

Résultats obtenus

Expérimentations numériques comparatives systématiques de plusieurs méthodes de convexification/linéarisation appliquées au modèle NC.

Réduction du temps de résolution par un facteur de l'ordre de 10 à 20 par rapport à la méthode de linéarisation classique de Fortet qui est la meilleure méthode précédemment connue.

Les résultats numériques obtenus illustrent par ailleurs une situation assez rarement observée, où, ayant le choix entre plusieurs modèles en nombres entiers logiquement équivalents, ce n'est pas nécessairement celui produisant la relaxation continue la plus forte, qui, intégré dans un Branch & Bound, conduit à la plus grande efficacité.

Tableau de comparaison (* : temps limite du CPU atteint, instance non résolue à l'optimum. )

Publications, communications, animation scientifique du PGMO :

Publications et communications du projet

[1] Mémoire Master MPRO d'Anthony Guilbert sous la direction de Michel Minoux et Viet Hung Nguyen

[2] Présentation à la conférence ICOTA 2013 (Taiwan) [3] VH Nguyen, "Solutions exactes pour un problème de partitionnement de graphes avec

contraintes de capacité ", Séminaire PGMO, octobre 2012 [4] VH Nguyen, « Techniques de linearisation et convexification pour la programmation

quadratique 0/1 non convexe : etude de cas du problem de partitionnement de graphes sous contrainte de capacité”», Conférence PGMO, octobre 2013

Page 9: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 9 sur 60

1.2.4 SALADOUS – Semi-algebraic approaches to doubly sparse problems

Equipe :

o J. Bolte, TSE o N Vayatis, E Richard, PS Savalle, CMLA Cachan o V Perchet, LPMA, Univ Paris Diderot

Objectifs :

L‘objectif de ce projet est de développer des algorithmes mêlant les techniques classiques du semi-algébrique (exploitation des propriétés géométriques et de la structure algébrique) et les méthodes modernes (splitting techniques and fast gradient methods, randomization, learning-based methods) pour attaquer la grande dimension, puis de réaliser des tests sur des cas réels.

Bilan scientifique :

L‘équipe a travaillé selon deux axes de recherches : la promotion de la "double-parcimonie" en minimisation semi-algébrique ainsi que le développement de l‘usage de la parcimonie dans les problèmes de bandits-manchots – problèmes centraux en apprentissage.

En ce qui concerne les questions de double parcimonie deux points de vue ont été développés.

1. Le premier aspect (travaux en collaboration avec S. Sabach et M. Teboulle de l‘Université deTel-Aviv (Israel)) a donné lieu à l‘élaboration d‘un algorithme de décomposition simultanée des sommes (à la forward-backward) et des coordonnées (à la Gauss-Seidel) – il se dénomme PALM pour Proximal Alternating Linearization Method. Son domaine d‘application est très large et permet de traiter de nombreux problèmes non lisses de grande taille. En ce qui concerne les aspects doublement parcimonieux, qui sont le sujet initial de ce projet, notre démarche consiste principalement à les réécrire comme des problèmes de factorisation matricielle avec contraintes de parcimonie. Ce faisant l‘algorithme que nous avons développé s‘applique, et il donne lieu à une méthode convergente dont les premières expériences sont particulièrement concluantes.

2. Un autre travail (en collaboration avec F. Bach et J.-P. Vert) porte sur l‘introduction de fonctions convexes non lisses promouvant la double-parcimonie ("ranksity") ainsi que l‘étude numérique des problèmes associés. Les techniques ont été validées par des résultats probabilistes ―à la Donoho". La "ranksity" a été exploitée à l‘aide de l‘algorithme de Chambolle-Pock sur des problèmes d‘apprentissage multi-tâches. Les résultats sont très satisfaisants et en voie d‘amélioration.

L‘autre axe de recherche, développé en collaboration avec P. Rigollet (Princeton U.) consiste en la problématique suivante : parmi un grand nombre de décisions à prendre de manière répétées, nous supposons que nombres d‘entre elles donnent des gains identiques ("parcimonie"), et nous cherchons à utiliser cette information supplémentaire pour améliorer les vitesses de convergence des algorithmes visant à une prise de décision optimale. Les travaux sont en cours.

Publications et communications

Publications et communications du projet

[1] Jérôme Bolte, Shoham Sabach, Marc Teboulle :―Proximal alternating linearized minimization for nonconvex and nonsmooth problems", Mathematical Programming Series A (http://link.springer.com/article/10.1007/s10107-013-0701-9 )

[2] Emile Richard, Francis Bach, Jean-Philippe Vert, ―Intersecting singularities for multi-structured estimation" , ICML 2013 (http://jmlr.org/proceedings/papers/v28/richard13.pdf )

Page 10: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 10 sur 60

1.2.5 Hybrid Approaches Combining Metaheuristics and Methods of Mathematical Analysis for Discrete Trace Ratio Optimization Problem

Equipe :

o Fred Glover (USA) o Monique Guignard (USA) o Saïd Hanafi, Christophe Wilbaut, Igor Crévits (LAMIH) o Nenad Mladenovic (Univ Brunel, UK) o Yousef Saad (USA) o Mohammed Bellalij, Fouzia Baghery, Isabelle Massa-Turpin (LAMAV) o Michel Vasquez

Objectifs :

L‘ibjectif est de résoudre des MIP NP-complets par hybridation de méthodes classiques type B&B ou B&C et de métaheuristique, centré sur l'optimisation du rapport de trace, et de produire du code libre.

Bilan scientifique :

Objet du projet :

L‘objectif principal a été d‘étendre au cas discret les travaux récents sur l‘optimisation des rapports de traces dans le cas continu. Nous proposons de développer des méthodes hybrides intégrant les métaheuristiques et les méthodes avancées d‘algèbre linéaire (Lanczos, Lanczos par blocs, Golub–Reinsch SVD, Demmel–Kahan SVD, … et la méthode de Newton, …) pour résoudre les problèmes discrets d‘optimisation de ratio de traces.

Contexte

Problème de rapport de traces : dans les dernières décennies, il y a eu une croissance phénoménale de l'information et des applications du monde réel d'aujourd'hui sont confrontées à de gros volumes de données stockées dans des bases de données. L'interprétation de ces données est un problème difficile. Par conséquent, un certain nombre de techniques d'apprentissage machine et d'analyse de données de grande dimension sont basées sur l'optimisation d'une trace de la forme Tr[V

TAV] sous une certaine

contrainte sur V. Ceci définit un projecteur avec la base V utilisée pour diverses tâches de réduction de la dimension. Ainsi, elles permettent de réduire le volume d‘informations à traiter et de faciliter le processus d‘apprentissage. Donc, de nombreux problèmes de réduction de la dimension conduisent à la

résolution du problème de maximisation du rapport de traces suivant : µ∗

= ma𝑥𝑉𝑇𝑉=𝐼

𝐓𝐫[𝑽𝑻 𝐀𝐕]

𝐓𝐫[𝑽𝑻 𝐁𝐕]. Ce

problème est résolu directement en approchant l‘unique zéro µ∗ de la fonction scalaire 𝑓 µ =

ma𝑥𝑉𝑇𝑉=𝐼

𝑇𝑟 𝑽𝑻 𝐀 − µ𝐁 𝑽 . Nous calculons de manière séquentielle : la matrice V des d vecteurs propres

associés aux d plus grandes valeurs propres de 𝑨 − µ𝑩 (méthode de Lanczos), puis le nouveau

paramètre µ𝑛𝑒𝑤

= 𝐓𝐫[𝑽𝑻 𝐀𝐕]

𝐓𝐫[𝑽𝑻 𝐁𝐕] (méthode de Newton). Ce schéma fournit µ

∗ et 𝑉∗ avec une convergence

quadratique. Un panel de ces problèmes concerne la fouille de données (data mining).

Approches hybrides : la conception et l‘utilisation de méthodes hybrides est désormais un axe de recherche reconnu lorsqu‘il s‘agit de résoudre des problèmes d‘optimisation difficiles. Cette hybridation peut prendre plusieurs formes, en particulier selon le type des approches utilisées ou selon la façon dont les approches sont combinées. De nombreux travaux plus ou moins récents font ainsi référence à des approches mixant des méthodes de résolution exacte avec des heuristiques ou des métaheuristiques, ou hybridant des heuristiques avec des métaheuristiques. Les méthodes mises en œuvre peuvent également interagir de différentes manières, mais nous retrouvons en général une structure du type maître-esclave avec un processus qui guide la recherche et un autre qui est utilisé pour explorer certaines partie de l‘espace de recherche. Dans ce projet nous nous intéressons plus particulièrement aux méthodes combinant les métaheuristiques et les techniques issues de la programmation mathématique. Dans ce cadre, les approches sont généralement conçues de sorte à exploiter des propriétés mathématiques du problème à résoudre. La métaheuristique peut alors être utilisée pour contrôler les appels à une méthode exacte ou la méthode exacte appelle et contrôle l‘utilisation de la métaheuristique.

Nous nous sommes intéressés à différents problèmes d‘optimisation difficiles qui résistent encore aux

Page 11: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 11 sur 60

meilleures méthodes exactes à l‘heure actuelle, avec l‘objectif de proposer de nouvelles méthodes et techniques efficace pour les résoudre.

Etat d’avancement

Préambule : jusqu‘à présent, nous pouvons résumer nos contributions par les points suivants :

o Proposition de nouvelles stratégies de résolution de problèmes NP-difficiles. o Proposition de nouvelles méthodes efficaces pour résoudre des problèmes d‘allocations et de bi-

niveaux. o Proposition d‘approches hybrides combinant les méthodes exactes, les techniques basées sur

des relaxations et des heuristiques pour résoudre des problèmes d‘allocation de ressources et de planification.

o L‘utilisation et l‘amélioration de la recherche à voisinage variable pour des problèmes de transports généralisés.

Principaux résultats obtenus : les résultats obtenus concernent un niveau théorique ou méthodologique et / ou pratique.

Au niveau méthodologique :

o Iterative Disagregation Algorithm : nous avons apporté des améliorations à l‘Algorithme Itératif de Désagrégation (IDA pour la terminologie anglaise) proposé initialement dans le cadre de la thèse de doctorat de Rita Macedo. Plus précisément, nous avons proposé des pas de discrétisation dynamiques permettant d´accélérer la convergence. La preuve de convergence de cet algorithme est également fournie avec des résultats théoriques. La méthode proposée est générique et peut être appliquée à plusieurs familles de problèmes NP-Difficiles. La condition d‘application est le fait de pouvoir formuler le problème sous forme d‘un problème de flot dans un graphe. Nous avons eu l‘occasion de collaborer avec le Professeur Nenad Mladenovic sur la métaheuristique Recherche à Voisinage Variable (Variable Neighborhood Search (VNS)) et de proposer une hybridation avec la programmation mathématique.

o Application de la technologie de groupe (group technology) : un autre panel en étude concerne les systèmes de production en cellules (cellular manufacturing). Il s‘agit d‘une des principales applications de la technologie de groupe qui consiste à décomposer des systèmes en sous-systèmes en groupant ensemble les éléments similaires du point de vue opératoire ou fonctionnel. Nous avons obtenu des avancées importantes dans la formulation de ces problèmes et nous allons mettre en œuvre les méthodes hybrides développées pour obtenir une solution optimale.

Au niveau applicatif :

o Nous avons appliqué la méthode IDA à deux problèmes combinatoires NP-Difficiles : le problème d‘élaboration de tournées multiples avec fenêtres de temps (Multiple Vehicles Routing Problem with Time Window) et le problème de découpes (Cutting Stock Problem). Les résultats numériques montrent que notre approche domine les méthodes exactes existantes dans la littérature et que les améliorations sont significatives. Cette approche a été également appliquée avec succès à un problème d‘ordonnancement juste à temps sur une machine avec une date d‘échéance commune de sortes à minimiser les pénalités de retard et d‘avance.

o Nous avons aussi proposé deux métaheuristiques basées sur la recherche à voisinage variable pour résoudre un problème d‘élaboration de tournées avec gestion de stock (Inventory Routing Problem). La performance de l‘algorithme proposé est largement supérieure à celle d‘un algorithme génétique existant pour le problème traité, aussi bien en termes de qualité des solutions fournies que du temps de calcul nécessaire pour les obtenir. Enfin, nous avons proposé une approche hybride qui combine la métaheuristique VNS avec la programmation mathématique pour résoudre un problème de localisation et routage qui améliore significativement les résultats existants dans la littérature.

o Nous avons aussi considéré un problème d‘ordonnancement dans lequel un ensemble de tâches doit être traité sur une machine avec des pénalités d‘avance et de retard. L‘objectif du problème est la minimisation de la somme des pénalités. Nous nous sommes intéressés à différentes modélisations mathématiques de ce problème et à l‘utilisation d‘heuristiques ou métaheuristiques pour le résoudre. Nous avons également travaillé sur l‘hybridation entre des techniques basées sur des relaxations et des heuristiques pour ce problème, et avons obtenu des résultats encourageants. Un autre travail a concerné le problème du sac-à-dos bi-objectif dans lequel il s‘agit de maximiser la valeur minimum associée à deux fonctions objectifs. Nous avons travaillé

Page 12: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 12 sur 60

sur la proposition d‘approches hybrides exploitant différentes modélisations mathématiques (linéaire ou quadratique) du problème ainsi que sur le renforcement d‘une méthode de résolution exacte utilisant une relaxation surrogate. Les résultats obtenus montrent que les nouvelles approches permettent de rivaliser avec les méthodes exactes actuelles.

Publications et communications

Chapitre de livres

[1] Ratli M., Benmansour R., Macedo R., Hanafi S., Wilbaut, C. (2013). Mathematical Programming and Heuristics for Scheduling Problems with Early and Tardy Penalties. Dans Metaheuristics for Production Scheduling, B. Jarboui, P. Siarry et J. Teghem (éditeurs), chap. 8, pp. 183 – 224, ISBN: 978-1-84821-497-2.

Articles dans une revue d’audience internationale

[2] Crévits I., Hanafi S., Mansi R., Wilbaut C. (2012). Iterative semi-continuous relaxation heuristics for the multiple-choice multidimensional knapsack problem. Computers & OR 39(1): 32-41.

[3] Khanafer A., Clautiaux F., Hanafi S., Talbi E.G. (2012). The min-conflict packing problem. Computers & OR 39(9): 2122-2132.

[4] Anis Mjirda, Bassem Jarboui, Rita Macedo, Saïd Hanafi: A variable neighborhood search for the multi-product inventory routing problem. Electronic Notes in Discrete Mathematics 39: 91-98 (2012)

[5] Todosijevic R., Mladenovic M., Hanafi S., Crévits I. (2012). VNS based heuristic for solving the Unit Commitment problem. Electronic Notes in Discrete Mathematics 39: 153-160.

[6] Mladenovic N., Urosevic D., Hanafi S., Ilic A. (2012). A general variable neighborhood search for the one-commodity pickup-and-delivery travelling salesman problem. European Journal of Operational Research 220(1): 270-285.

[7] Derbel H., Jarboui B., Hanafi S., Chabchoub H. (2012). Genetic algorithm with iterated local search for solving a location-routing problem. Expert Syst. Appl. 39(3): 2865-2871.

[8] Khemakhem M., Haddar B., Chebil K., Hanafi S. (2012). A Filter-and-Fan Metaheuristic for the 0-1 Multidimensional Knapsack Problem. Int. J. of Applied Metaheuristic Computing 3(4): 43-63.

[9] Hanafi S., Mansi R., Wilbaut C., Fréville A. (2012). Hybrid approaches for the two-scenario max–min knapsack problem. International Transactions in Operational Research, 19(3): 353–378.

[10] Hanafi S., Rebai A.R., Vasquez M. (2013). Several versions of the devour digest tidy-up heuristic for unconstrained binary quadratic problems. J. Heuristics 19(4): 645-677.

Communications

[11] Mladenovic M., Todosijevic R., Crevits I., Hanafi S., Mladenovic N. (2012). Environmental unit commitment problem with CO2 taxes. EURO XXV conference, 2012, Vilnius, Lithuania.

[12] Todosijevic R., Mladenovic M., Crevits I., Hanafi S., Mladenovic N. (2012). Variable neighborhood search for Unit commitment problem. EURO XXV conference, 2012, Vilnius, Lithuania.

[13] Todosijevic R., Mladenovic M., Hanafi S., Crevits I. (2012). VNS based heuristic for solving the Unit Commitment problem, MeCVNS (2012), Herceg-Novi, Montenegro.

[14] Macedo R., Hanafi S., Clautiaux F., Alves C., Valério de Carvalho J.M. (2012). Generalized Disaggregation Algorithm for the Vehicle Routing Problem with Time Windows and Multiple Routes. ICORES 2012: 305-312.

[15] Wilbaut C., Hanafi S., Benmansour R., Ratli M., Macedo R. (2012). Hybrid method for minimizing earliness and tardiness penalties in a single-machine problem with a common due date. 25th European Conference on Operational Research (EURO XXV), Vilnius (Lituanie), juillet.

[16] Hanafi S., Mansi R., Wilbaut C., Fréville A. (2013). Iterative relaxation based algorithms for the bi-objective max-min knapsack problem. 26th European Conference on Operational Research (EURO XXVI), Rome (Italie), juillet.

[17] M. Vasquez, F. Glover and S. Hanafi. Advanced Greedy Algorithms and Surrogate Constraint : Methods for the Multi-dimensional Knapsack Problem. (EURO XXVI), Rome (Italie), juillet.

[18] Mohammed Bellalij : « The trace ratio optimization problem for dimensionality reduction », Séminaire PGMO de janvier 2013

[19] Saïd Hanafi : « Hybrid Approaches for 0-1 Mixed Integer Program », Séminaire PGMO de janvier 2013

[20] M. Bellalij & S. Hanafi : ―Generalized trace ratio optimization and applications‖, Conférence PGMO d‘octobre 2013

Page 13: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 13 sur 60

α2

1.2.6 Méthodes tropicales pour l’optimisation

Equipe

Xavier Allamigeon, Marianne Akian, Stéphane Gaubert, Pascal Benchimol (PhD), Zheng Qu (PhD), INRIA, MAXPLUS

Ricardo David Katz, CONICET, Universidad Nacional de Rosario, Argentine

Objectifs :

L‘objectif est de développer des nouvelles classes de méthodes en optimisation et théorie des jeux, exploitant des avancées récentes en combinatoire et géométrie tropicale : algorithmique des jeux répétés et méthodes évitant la malédiction de la dimension en programmation dynamique pour les problèmes de contrôle

Bilan scientifique

Axe 1 : Algorithmes tropicaux pour les jeux repetes

Algorithme du simplexe tropical

Dans un travail mene en collaboration avec Michael Joswig (TU Berlin), nous avons defini un ana-logue tropical de l‘algorithme du simplexe qui permet de resoudre les problemes de programmation lineaire tropicale, i.e.

minimiser max1≤j≤n cj + xj

sous les contraintes max max1 ≤ 𝑗 ≤ 𝑛 aij+ + 𝑥𝑗 , 𝑏𝑖

+

≥ max max1 ≤ 𝑗 ≤ 𝑛 aij

− + 𝑥𝑗 , 𝑏𝑖− , i =1,…,m

x ∈ (ℝ∪ {−∞})n

où les entrees du programme a±, b±, cj sont a valeur dans ℝ∪ {−∞}. Ces problemes sont intimement

lies a la resolution de jeux repetes a somme nulle, puisque resoudre un jeux a paiement moyen deterministe est equivalent a determiner si un probleme de programmation lineaire admet un point realisable [14].

Comme son homologue usuel, le simplexe tropical pivote entre des points de base (tropicaux), jusqu‘a atteindre l‘optimum du programme lineaire. La difference fondamentale avec l‘algorithme du simplexe classique est que le pivotage est realise de maniere purement combinatoire, en s‘appuyant sur des descriptions locales du polyedre tropical defini par les contraintes a l‘aide d‘(hyper)graphes orientes. Ceci nous a permis de prouver que l’etape de pivotage (incluant le calcul des cou ts reduits) a la meme complexite en temps que dans l’algorithme classique, i.e. O(n(m + n)). Ceci est d‘autant plus inattendu que la structure des aretes tropicales entre deux points de base sont geometriquement plus complexes (elles sont constituees de plusieurs segments de droite, jusqu‘a n).

Le simplexe tropical a la propriete d‘etre fortement correle avec l‘algorithme du simplexe classique. Grace au principe de Tarski, le simplexe usuel peut etre transpose tel quel sur des programmes lineaires dont les

coefficients en entree sont non plus des reels, mais sur le corps ℝ 𝑡 des series de Puiseux

generalisees en une certaine indeterminee t, i.e. des objets de la forme : 𝑐𝛼1𝑡𝛼1 + 𝑐𝛼2

𝑡𝛼2 + ⋯

(1) ou les αi sont des reels, les coefficients cαi sont des reels non-nuls, et ou la sequence des

α1, α2, . . . est strictement croissante et soit finie, soit non-bornee. L‘oppose du plus petit exposant de la

serie, −α1, est appele valuation de la serie. Un programme lineaire tropical est dit releve en un

probleme lineaire sur ℝ 𝑡 }, si la valuation des coefficients en entree de ce dernier sont egaux aux

coefficients du probleme tropical. Dans nos travaux, nous avons etabli la correspondance suivante entre le simplexe usuel et le simplexe tropical : pour tout programme lineaire tropical generique, l’algorithme du simplexe tropical trace l’image par la valuation du chemin sur l’algorithme du simplexe

usuel sur n’importe quel relevement du programme tropical dans ℝ 𝑡 .

Page 14: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 14 sur 60

Figure 1 – Un polyedre tropical (a gauche) et la representation d‘un relevement (a droite). Dans les deux figures, les points de

bases sont indiques en rouge. Dans celles de gauche, les points en blanc sont des points intermediaires situes sur les aretes

tropicales entre deux points de base.

Ces resultats ouvrent la possibilite de relier la complexite du l‘algorithme du simplexe usuel avec celles des jeux deterministes. Pour ces derniers, on sait seulement que leur resolution est dans la classe de complexite NP ∩ coNP, et on ignore s‘il existe un algorithme de complexite polynomiale. De facon similaire, on ne sait pas caracteriser de facon precise la complexite de l‘algorithme du simplexe usuel.

Celle-ci depend fortement de la regle de pivotage utilisee, et il existe des problemes sur lesquelles de nombreuses regles de pivotage ont une complexite exponentielle. L‘existence d‘une regle de pivotage qui permettrait au simplexe de terminer en temps polynomial sur n‘importe quelle instance est encore aujourd‘hui une question ouverte.

Dans un deuxieme travail en collaboration avec Joswig, nous avons relie les deux problemes ouverts precedents, grace a l‘algorithme du simplexe tropical. Nous avons en effet exhibe une classe de regles de pivotage, dites combinatoires, et avons montré qu‘elles satisfont la propriete suivante : s’il existe une regle de pivotage combinatoire qui permet de resoudre tout probleme de programmation lineaire usuel en temps polynomial, alors on peut resoudre les jeux a paiement moyen en temps (fortement) polynomial. Le terme combinatoire fait reference au fait que la regle est definie en fonction du signe des mineurs de la matrice des coefficients du probleme lineaire.

Travaux amont sur les polyedres tropicaux

Dans le cadre de la collaboration avec Ricardo D. Katz (CONICET, Universidad Nacional de Rosa- rio, Argentine), nous avons obtenu plusieurs resultats sur les polyedres tropicaux. Ces resultats sont de nature plus theorique que les precedents, neanmoins les polyedres tropicaux sont au cœur des problemes de programmation lineaire tropicale, et il semble donc essentiel d‘explorer leurs proprietes. L‘un des problemes ouverts importants sur les polyedres tropicaux est que la notion de faces n‘est pas comprise. Nous avons resolu une conjecture formulee par Develin et Yu dans [20] sur la tropicalisation des faces des polyedres usuels.

Les polyedres tropicaux peuvent etre vus comme l‘image par la valuation de polyedres usuels sur le

corps des series de Puiseux ℝ 𝑡 .. Plus precisement, tout polytope tropical dont les sommets forment

l‘ensemble V peut etre releve en un polytope ℝ 𝑡 ., defini comme l‘enveloppe convexe d‘un ensemble V

obtenu comme une pré-image de V par la valuation. Naturellement, un tel relèvement n‘est pas unique.

Page 15: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 15 sur 60

Figure 2 – A gauche : un polytope tropical pur (les sommets sont en bleu). Au centre : deux exemples de

relevements sur ℝ 𝑡 .. A droite : tropicalisation des demi-espaces supportant les faces des relevements.

Figure 3 – Un polyedre tropical defini par des contraintes d’inegalites strictes et larges (les segments et les points en noir sont inclus).

Comme nous l‘avons vu precedemment, les polyedres sur ℝ 𝑡 . se comportent de maniere similaire a

ceux sur R. En particulier, les faces sont definies comme habituellement. Il est donc naturel d‘etudier

si les images par la valuation des faces des polyedres sur ℝ 𝑡 . pourraient fournir des candidats

pour etre des « faces tropicales ». Cette question est fortement liee a la conjecture formulee par Develin et Yu : etant donne un polytope tropical pur, existe-t-il un relevement sur R{{t}} tel que l’image par la valuation des demi-espaces supportant les faces forme une representation externe valide du polytope tropical. Nous avons prouve que la reponse est positive (voir Figure 2), et que n‘importe quel relevement convient si les sommets du polytope tropical sont en position generale.

Dans le cadre d‘une autre collaboration avec Ricardo D. Katz, mais aussi Uli Fahrenberg et Axel Legay (IRISA / INRIA Rennes), nous avons defini une generalisation des polyedres tropicaux qui per- mettent d‘exprimer des contraintes d‘inegalites strictes, et non plus simplement larges, voir Figure 3. Nous avons egalement etudie l‘algorithmique de ces polyedres non-clos topologiquement. Nous avons ainsi defini un analogue tropical de la methode d‘elimination de Fourier-Motzkin. Celle-ci ayant l‘in- convenient de generer des inegalites superflues, nous avons montre qu‘eliminer ces contraintes est equivalent a resoudre des jeux deterministes a paiement moyen. A noter que ces polyedres peuvent etre appliques a la verification formelle de systemes temps-reels.

Complexite de l‘iteration sur les politiques pour les jeux stochastiques

La complexite des jeux stochastiques avec paiement moyen est un probleme ouvert. Contrairement au cas des jeux deterministes, on ne connait meme pas d‘algorithme faiblement polyno mial pour resoudre ceux-ci. On s‘est interesse a la complexite de la methode d‘iteration sur les politiques, qui est l‘une des principales permettant de resoudre ces jeux (et peut etre la seule a ce jour a passer a l‘echelle). On demontre que l‘iteration sur les politiques pour les jeux avec paiement moyen a un

Page 16: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 16 sur 60

comportement fortement polynomial sur les instances telles que le temps de premier retour a un etat

donne est borne par une constante donnee. Ce resultat s‘appuie sur des techniques de theorie de Perron-Frobenius non-lineaire, qui permettent de donner une version invariante par changement d‘echelle de bornes de Ye, Hansen, Miltersen, et Zwick.

Structure de l’espace des potentiels des jeux avec paiement ergodiques

Un probleme fondamental dans l‘etude des jeux repetes consiste a determiner l‘ensemble des po-

tentiels, c‘est-a-dire l‘ensemble des points fixes d‘un operateur de Shapley T, {u | T(u) = u}. De tels

potentiels parametrisent en effet l‘ensemble des strategies stationnaires optimale. Dans le cas a un joueur deterministe, des resultats demontres dans un cadre combinatoire (theorie spectrale max-plus) ou EDP/systemes dynamiques (KAM faible) montre que l‘ensemble des potentiels est isomorphe a un espace de fonctions Lipchitzienne sur un ensemble d‘etats particuliers, l‘ensemble d‘Aubry projete, que l‘on peut decrire en termes laches comme l‘ensemble des points de recurrence des trajectoires associees a des contro les optimaux stationnaires. L‘extension de ce resultat au cas des jeux est une question ouverte, que nous avons aborde ici sous un angle combinatoire, en considerant des jeux avec espaces d‘etats et d‘action fini, information parfaite. Les questions d‘unicite / de representation des points fixes etudiees ici sont par ailleurs motivees par l‘etude des algorithmes d‘iteration sur les poli- tiques (la non-unicite du point fixe est une forme de degenerescence qui peut conduire certaines regles d‘amelioration de la politique a cycler, ou a etre lentes). Le cas particulier d‘operateurs de Shapley sans paiement (associes a des jeux d‘Everett, dans lesquels le paiement intervient seulement le jour ou le jeu s‘arrete) est deja substantiel, et a fait l‘objet ici d‘une etude particuliere. On a montre que :

• generiquement, l‘ensemble des points fixes est reduit a une droite.

• determiner si l‘ensemble des points fixes n‘est pas une droite est un probleme NP-complet.

• dans le cas d‘operateurs de Shapley sans paiement, on sait calculer en un temps 2n × Poly(input

size), n etant le nombre d‘etats du jeu, une abstraction combinatoire de l‘ensemble des po-tentiels. L‘interet de cette borne est d‘etre exponentielle en le nombre d‘etats mais polyno miale en le nombre d‘actions.

Axe 2 : Methodes tropicales de lutte contre la malediction de la dimension

L’essentiel du travail sur cet axe correspond a la these de Zheng Qu, soutenue en Octobre 2013, encadree par S. Gaubert et coencadree par S. Tang (Shanghai, Fudan). Nous nous permettons d’en donner une synthese en langue anglaise.

Introduction

Recently numerical methods of new type for solving HJ PDE, which are not grid-based, have been developed after the work of Fleming and McEneaney [23]. These methods are referred to as max-plus basis methods since they all rely on max-plus or tropical algebra. Their common idea is to approximate the

value function by a supremum of finitely many basis functions and to propagate the supremum forward in time by exploiting the max-plus linearity of the Lax-Oleinik semigroup, which is the evo- lution semigroup of the HJ PDE. The max-plus linearity properties of Lax-Oleinik semigroups were considered previously by several authors, mostly for theoretical purposes [33, 26, 16].

Various max-plus methods have been developed after the initial one [23], concerning different optimal control problems. In particular, McEneaney developed in [34] a method adapted to eigen- vector/ergodic problems, and then in [35] a method adapted to switched linear quadratic problems. Akian, Gaubert and Lakhoua [15] developed a max-plus analogue of the classical finite element me- thod, with a control of the error in terms of (non euclidean) projections. The analysis of the max-plus finite element methods also showed connection with Falcone‘s semi-Lagrangian schemes, as one parti- cular choice of the max-plus finite element yields the simplest method of the latter class, see Section 3.6 of [27] for details. More recent works on max-plus methods include the ones of McEneaney, Deshpande and Gaubert [36], of Sridharan et al. [47] on a quantum control problem, and of Dower and McEneaney

[22].

The method developed by McEneaney after [35], referred to as curse of dimensionality free method, is specially appealing since the complexity growth of the algorithm is polynomial (actually only cubic) with respect to the state space dimension d. In its initial form, the method applies to an infinite ho- rizon

switched optimal control problem with Hamiltonian written as the supremum of finitely many quadratic forms :

Page 17: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 17 sur 60

𝐻(𝑥, 𝑝) = maxmϵℳ

(𝐴𝑚 x)′ +1

2𝑥′

𝐷𝑚

𝑥 +

1

2𝑝′

Σ𝑚

𝑝 , ∀𝑥, 𝑝 ∈ ℝ𝑑

Although the complexity is polynomial in d for a fixed required precision, the number of basis functions

which are generated is a power of the number of switches |M|, and this power grows quickly as the

required precision increases. This is referred to as a curse of complexity. The latter can be reduced by applying a pruning procedure, which selects a subset of basis functions contributing most to the approximation. With an SDP-based pruning technique developed in [36], the curse of complexity can be reduced efficiently, allowing one to deal with problems of dimension up to 15 [47], inaccessible by classical grid based methods.

The analysis of this new class of methods leads to several questions which will be addressed in this thesis. First, the issue of the reduction of the curse of dimensionality by max-plus basis methods can be phrased as an approximation problem : given a value function satisfying certain convexity and re- gularity properties, what is the minimum number of max-plus basis functions needed to approximate it with a prescribed accuracy ? Next, we shall look for tighter error estimates applying to McEneaney‘s curse of dimensionality free method. Indeed, the known estimates are too conservative, i.e., the effi- ciency that the method shows in practice is much higher than the one guaranteed by the error bound given by McEneaney and Kluberg [37]. Also, the pruning procedure, which is a decisive ingredient in the efficient implementation of the curse of dimensionality free method, should be understood from the theoretical point of view, in order to allow further improvements. Finally, we shall look for new me- thods of max-plus type, possibly more efficient on some instances, and leading also to an attenuation of the curse of dimensionality.

Nonlinear Perron-Frobenius theory

Contraction properties play a key role in the error analysis of many approximate dynamic program- ming algorithms which have been developed so far. Indeed, in the case of the max-plus finite element method [15], the nonexpansiveness or contraction in the sup norm of the Lax-Oleinik semigroup is used to bound the total error. In the works on approximate value iteration (in which the value function is approximated by a classical linear combination of basis functions), strict contraction properties in the sup-

norm, or sometimes in other Lp norms, are also essential to establish the existence of the fixed point and a

fast convergence. Then, most known results on approximate value iteration concern discounted problems and require the discount rate to be bounded away from 1, see for example [48, 39, 17]. There is, however, no discount factor in the optimal control problem to which McEneaney‘s curse of dimen- sionality free method applies, and so, to get tighter error estimates, one should look for contraction properties of a different nature.

Actually, the curse of dimensionality free method relies on the solution of indefinite Riccati diffe- rential equations. We shall see that tight error estimates can be derived if the indefinite Riccati flows are local strict contractions in Thompson’s part metric, which is a metric classically considered in Perron- Frobenius

theory. The latter metric can be be thought of as a sup-norm ―with log-glasses‖. It can be defined on any closed convex pointed cone in a Banach space, and it is a Finsler metric. For positive definite

matrices A, B, it is simply given by dT (A, B) = log max(λmax(A−1 B), λmax(B−1 A)). It has the property of

being invariant by the action of the linear group on positive definite matrices.

A series of results in the theory of Riccati equations concern the contraction properties of the stan- dard Riccati flow with respect to various classical (invariant) Finsler metrics on the cone of positive semidefinite matrices. These include the invariant Riemannian metric, considered by Bougerol [19], and Thompson‘s part metric, considered by Liverani and Wojtkowski [31] and Lawson and Lim [28]. General invariant Finsler metrics were considered by Lee and Lim [29]. These results, which exploit the symplectic properties of the standard Riccati flow, only apply to the class of Riccati equations ari- sing from deterministic control problem in which the quadratic cost function is positive semidefinite. However, in the study of complexity of McEneaney‘s curse of dimensionality free method, it is an essential feature that the quadratic cost is indefinite. Moreover, there are other important classes of ge- neralized Riccati equations, arising for instance from stochastic control problems in which the volatility is controlled (with a bilinear term in the control and in the noise), for which the symplectic structure is lost, and it is natural to ask to what extent the known contraction properties carry over to more general Riccati equations.

These motivations led us to study several general questions in nonlinear Perron-Frobenius theory, concerning the contraction properties of linear and nonlinear, sometimes order-preserving, flows with

Page 18: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 18 sur 60

respect to various natural metrics, including Thompson‘s part metric and Hilbert‘s projective metric. Further motivations for the present work arise from the generalization of the classical Birkhoff‘s theo- rem [18] to nonlinear maps or flows. Birkhoff‘s theorem characterizes the contraction rate with respect to Hilbert‘s projective metric of bounded monotone linear operators preserving a cone. It is a fun- damental result in the theory of monotone or nonexpansive operators. In particular, a version of the Perron-Frobenius theorem can be deduced from Birkhoff‘s contraction property. It is therefore inter- esting to find a general characterization of the contraction rate of nonlinear operators with respect to Hilbert‘s projective metric. Also, contraction estimates of linear or nonlinear maps on cones appear to be useful in several fields, including classical consensus theory [38, 42] and quantum informa- tion [40, 45, 43], in which ―noncommutative consensus‖ problems arise.

Contributions to non-linear Perron-Frobenius theory

First, we give an explicit (computable) formula for the exponential contraction rate in Thompson‘s part metric of any order-preserving flow on the interior of a (possibly infinite dimensional) closed convex pointed cone.

As a first application, we show that the contraction results of Liverani and Wojtkowski [31] and of Lawson and Lim [28] concerning the standard Riccati equation, as well as new contraction results in the indefinite case, can be recovered, or obtained, by an application of our explicit formula. This provides an alternative to the earlier approaches, which rely on the theory of symplectic semigroups. In particular, we establish a necessary condition for indefinite Riccati flows to be local strict contraction, which we recall is the original motivation of this chapter.

As a second application, we show that the flow of the generalized Riccati equation arising in sto- chastic linear quadratic control is a local contraction on the cone of positive definite matrices and characterize its Lipschitz constant by a matrix inequality. We also show that the same flow is no longer a contraction in other invariant Finsler metrics on this cone, including the standard invariant Rieman- nian metric.

We make a detailed comparison with Nussbaum‘s approach [41], which relies on the Finsler struc- ture of Thompson‘s metric and is widely applicable in its spirit but leads to different technical as- sumptions, including geodesic convexity, whereas our proof relies on a flow invariance argument. We construct an

example in R2, for which Nussbaum‘s approach does not imply the nonexpansiveness but our explicit formula leads to establish the strict contraction of the flow and global exponential convergence of the solutions to a fixed point.

Next, we consider contraction properties with respect to Hilbert’s seminorm (which is also known as Hopf

oscillation, or as the diameter – Tsitsiklis‘ Lyapunov function in consensus theory). The Hilbert seminorm

is the infinitesimal norm associated to Hilbert‘s projective metric. In Rn equipped with its usual partial order, it is nothing but the difference between the maximum and minimum of a vector. We consider here an abstract (closed convex pointed ) cone in a Banach space, equipped with the order induced by this cone. We give a general characterization of the contraction ratio with respect to Hilbert‘s seminorm of a bounded linear map, in terms of the extreme points of a certain abstract ―simplex‖ (elements of the dual cone of unit mass). Some ingredients to establish our results include the observation that Hilbert‘s seminorm is a quotient norm of Thompson‘s norm (the infinitesimal norm associated to Thompson‘s part metric) and duality considerations.

The present results generalize classical results concerning the contraction rate of Markov operators. Indeed, when applying our characterization to stochastic matrices (linear operators leaving invariant the

standard positive cone of Rn, and preserving the unit vector), we recover the formula of Dobru- shin‘s ergodicity coefficient [21]. This coefficient determines both the contraction rate of a consensus system with respect to the diameter semimetric [32], and the contraction rate of a stochastic matrix acting on the set of probability vectors, equipped with the total variation distance [30]. When applying our result to the space of Hermitian matrices, equipped with the Loewner order, we therefore obtain a noncommutative version of Dobrushin‘s ergodicity coefficient, which gives the contraction ratio of a Kraus map (representing a quantum channel or a ―noncommutative Markov chain‖) with respect to the diameter of the spectrum. We shall see that it coincides with the contraction ratio of the dual operator with respect to the total variation distance.

Whereas contraction properties are easy to check for stochastic matrices, the verification of their noncommutative analogues require efforts. Using the noncommutative Dobrushin‘s ergodicity coef- ficient, we show that a number of decision problems concerning the contraction rate of Kraus maps reduce to finding a rank one matrix in linear spaces satisfying certain conditions. We then show that an

Page 19: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 19 sur 60

irreducible Kraus map is primitive if and only if the associated noncommutative consensus system is globally convergent. We show that this can be checked in polynomial time if the map is irredu- cible. However, we prove that unlike in the case of standard nonnegative matrices, deciding whether a Kraus map is strictly positive (meaning that it sends the cone to its interior) is NP-hard. We also show that deciding whether the noncommutative Dobrushin‘s ergodicity coefficientis strictly less than 1 is equivalent to a finding a clique of cardinality two in a quantum graph.

Then, we apply the formula of the contraction ratio in Hilbert‘s seminorm of linear maps, to finite dimensional nonlinear flows. We first deduce a characterization formula for the contraction rate in Hilbert‘s seminorm of nonlinear flows. Our characterization leads to an explicit computable formula in

the case of Rn equipped with its standard positive cone. In particular, we obtain explicit contraction rate bound for a class of nonlinear consensus protocols [44]. The circumstances in which this bound leads to global convergence result are not as general as Moreau‘s graph connectivity condition [38]. However, our method gives an explicit exponential contraction rate for this class of nonlinear consensus protocols. Using Nussbaum‘s Finsler approach [41], we also derive from the formula we obtained a characterization of the contraction rate of a nonlinear flow in Hilbert‘s projective metric. We apply the general formula to a nonlinear matrix differential equation and obtain an explicit contraction rate bound in Hilbert‘s projective metric.

Contributions to curse of dimensionality-free methods

The second part of the PhD applies the previous results to curse of dimensionality free methods. We first review the general principle of max-plus basis methods. Then, we establish a negative result, showing that some form of curse dimensionality is unavoidable for these methods, but also for more classical approximate dynamic programming methods like stochastic dual dynamic programming [46], in which a convex value function is approximated by a supremum of affine functions. Indeed, we show that asymptotically, the minimal approximation error in the L1 or L∞ norm, for a smooth convex func- tion,

using at most n affine minorants, is equivalent to 1/n2/d, as the number of basis functions n goes to infinity.

We derive the latter result as an analogue of Gruber‘s best asymptotic error estimates of approximating a convex body using circumscribed polytopes [24, 25]. We also give explicit asymptotic constants, respectively for the L1 or L∞ norm. Both constants rely on the determinant of the Hessian

matrix of the convex function to approximate. We deduce that an attenuation of the curse of dimensio- nality occurs (fewer basis functions are needed) when the convex function to be approximated is ―flat‖ in some direction, i.e., when its Hessian matrix has some eigenvalues close to zero.

Then, we focus on the algorithmic aspects of McEneaney‘s curse of dimensionality free method

introduced in [36] and propose several refinements of the algorithm. We show that the optimal pru-

ning problem, which is a critical step in the implementation of the method, can be formulated as a

continuous version of the facility location or k-center combinatorial optimization problems, in which the

connection costs arise from a Bregman distance. Hence, we propose several heuristics (combining

facility location heuristics and Shor SDP relaxation scheme). Experimental results show that by combi

ning the primal version of the method with improved pruning algorithms, a higher accuracy is reached for a

similar running time, by comparison with the results reported in [36].

Next, we provide an improved error analysis of McEneaney‘s curse of dimensionality free method, restricted to the case when the Hamiltonian is the pointwise maximum of pure quadratic forms (wi- thout affine terms). We use the contraction result for the indefinite Riccati flow in Thompson‘s metric that we established to show that under different technical assumptions, still covering an important class of

problems, the error is only of order O(e−αNτ ) + O(τ) for some α > 0, where τ is the time discretization

step and N is the number of iterations. This improves the approximation error bound 𝑂(1/(𝑁𝜏)) +

𝑂( τ) obtained in previous works of McEneaney and Kluberg. Besides, our approach allows to

incorporate the pruning error in the analysis and we show that if the pruning error is O(τ2), than the

same approximation error order holds. This allows us to tune the precision of the pruning procedure, which in practice is a critical element of the method.

Finally, we develop a new max-plus basis method, called max-plus randomized algorithm, for the class of infinite horizon switched optimal control problems with easily computable Hamiltonians. We give a first convergence proof of the method and present some experimental results. We apply the method to several instances with dimension varying from 4 to 15, and with the number of switches varying from 6 to 50. Experimental results show that the max-plus randomized algorithm can reach the same precision order obtained by the SDP-based method (introduced in [36] and refined with a speedup around 10 up to 100 and that the maximal precision order which can be reached by the new algorithm is much better

Page 20: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 20 sur 60

than what can be done by the SDP based algorithm. Besides, with the new randomized algorithm we are now able to deal with instances of more number of switches for which the previous SDP-based curse of dimensionality method can not reduce the initial backsubstitution error in a reasonable running time. This will allow us, in the future work, to consider more general infinite horizon optimal control problems with semiconvex Hamiltonians, because the latter one can be approximated by the supremum of a large number of linear quadratic functions.

Besides theoretical results, this new numerical method is perhaps the main contribution of the PhD from the point of view of applicability, it is the first method combining max-plus and randomization ideas, it allowed to treat structured instances from quantum control in dimension 15, it seems very promising and deserves to be further studied and tried on other problems. This new method seems likely to be more easily generalized to stochastic problems, this is one of the next goals.

Bibliographie

[14] M. Akian, S. Gaubert, and A. Guterman. Tropical polyhedra are equivalent to mean payoff games. Int. J. Algebra Comput., 22(1) :125001 (43 pages), 2012. E-print arXiv :0912.2462.

[15] M. Akian, S. Gaubert, and A. Lakhoua. The max-plus finite element method for solving deter- ministic optimal control problems : basic properties and convergence analysis. SIAM J. Control Optim., 47(2) :817–848, 2008.

[16] Marianne Akian, Jean-Pierre Quadrat, and Michel Viot. Duality between probability and optimi- zation. In Idempotency (Bristol, 1994), volume 11 of Publ. Newton Inst., pages 331–353. Cambridge Univ.

Press, Cambridge, 1998.

[17] Dimitri P. Bertsekas and Huizhen Yu. Q-learning and enhanced policy iteration in discounted dynamic programming. Math. Oper. Res., 37(1) :66–94, 2012.

[18] Garrett Birkhoff. Extensions of Jentzsch’s theorem. Trans. Amer. Math. Soc., 85 :219–227, 1957.

[19] Philippe Bougerol. Kalman filtering with random coefficients and contractions. SIAM J. Control Optim., 31(4) :942–959, 1993.

[20] M. Develin and J. Yu. Tropical polytopes and cellular resolutions. Experimental Mathematics, 16(3) :277–292, 2007. E-print arXiv:math.CO/0605494.

[21] R. Dobrushin. Central limit theorem for non-stationary Markov chains. I. Teor. Veroyatnost. i Primenen., 1 :72–89, 1956.

[22] P.M. Dower and W.M. McEneaney. A max-plus based fundamental solution for a class of infinite dimensional Riccati equations. In Decision and Control and European Control Conference (CDC-ECC), 2011 50th IEEE Conference on, pages 615 –620, dec. 2011.

[23] W. H. Fleming and W. M. McEneaney. A max-plus-based algorithm for a Hamilton-Jacobi-Bellman equation of nonlinear filtering. SIAM J. Control Optim., 38(3) :683–710, 2000.

[24] P. M. Gruber. Asymptotic estimates for best and stepwise approximation of convex bodies. I.

Forum Math., 5(5) :281–297, 1993.

[25] Peter M. Gruber. Asymptotic estimates for best and stepwise approximation of convex bodies. II.

Forum Math., 5(6) :521–538, 1993.

[26] V. N. Kolokoltsov and V. P. Maslov. Idempotent analysis and its applications, volume 401 of Mathema- tics and its Applications. Kluwer Academic Publishers Group, Dordrecht, 1997. Translation of Idem- potent analysis and its application in optimal control (Russian), “Nauka” Moscow, 1994 [ MR1375021 (97d :49031)], Translated by V. E. Nazaikinskii, With an appendix by Pierre Del Moral.

[27] Asma Lakhoua. Methode des elements finis max-plus pour la resolution numerique de problemes de

commande optimale deterministe. PhD thesis, E cole Polytechnique, France, 2007.

[28] Jimmie Lawson and Yongdo Lim. A Birkhoff contraction formula with applications to Riccati equations. SIAM J. Control Optim., 46(3) :930–951 (electronic), 2007.

[29] Hosoo Lee and Yongdo Lim. Invariant metrics, contractions and nonlinear matrix equations.

Nonlinearity, 21(4) :857–878, 2008.

Page 21: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 21 sur 60

[30] David A. Levin, Yuval Peres, and Elizabeth L. Wilmer. Markov chains and mixing times. American

Mathematical Society, Providence, RI, 2009. With a chapter by James G. Propp and David B. Wilson.

[31] Carlangelo Liverani and Maciej P. Wojtkowski. Generalization of the Hilbert metric to the space of positive definite matrices. Pacific J. Math., 166(2) :339–355, 1994.

[32] Cao M., Spielman D., A., and Morse A., S. A lower bound on convergence of a distributed network consensus algorithm. In Proc. of the joint 44th IEEE Conference on Decision and Control and European Control Conference, pages 2356–2361. IEEE, 2005.

[33] V. P. Maslov. Methodes Operatorielles. Edition Mir, Moscou, 1987.

[34] W. M. McEneaney. Max-plus eigenvector methods for nonlinear H∞ problems : Error analysis.

SIAM J. Control Optim., 43(2) :379–412, 2004.

[35] W. M. McEneaney. A curse-of-dimensionality-free numerical method for solution of certain HJB PDEs. SIAM J. Control Optim., 46(4) :1239–1276, 2007.

[36] W. M. McEneaney, A. Deshpande, and S. Gaubert. Curse-of-complexity attenuation in the curse- of-dimensionality-free method for HJB PDEs. In Proc. of the 2008 American Control Conference, pages 4684–

4690, Seattle, Washington, USA, June 2008.

[37] William M. McEneaney and L. Jonathan Kluberg. Convergence rate for a curse-of-dimensionality- free method for a class of HJB PDEs. SIAM J. Control Optim., 48(5) :3052–3079, 2009/10.

[38] Luc Moreau. Stability of multiagent systems with time-dependent communication links. IEEE Trans. Automat. Control, 50(2) :169–182, 2005.

[39] A. Nedic and D. P. Bertsekas. Least squares policy evaluation algorithms with linear function approximation. Discrete Event Dyn. Syst., 13(1-2) :79–110, 2003. Special issue on learning, optimi- zation

and decision making.

[40] Michael A. Nielsen and Isaac L. Chuang. Quantum computation and quantum information. Cam- bridge University Press, Cambridge, 2000.

[41] Roger D. Nussbaum. Finsler structures for the part metric and Hilbert‘s projective metric and applications to ordinary differential equations. Differential Integral Equations, 7(5-6) :1649–1707, 1994.

[42] Alex Olshevsky and John N. Tsitsiklis. Convergence speed in distributed consensus and averaging.

SIAM J. Control Optim., 48(1) :33–55, 2009.

[43] David Reeb, Michael J. Kastoryano, and Michael M. Wolf. Hilbert‘s projective metric in quantum information theory. J. Math. Phys., 52(8) :082201, 33, 2011.

[44] R.O. Saber and R.M. Murray. Consensus protocols for networks of dynamic agents. In American Control Conference, 2003. Proceedings of the 2003, volume 2, pages 951 – 956, 4-6, 2003.

[45] Rodolphe Sepulchre, Alain Sarlette, and Pierre Rouchon. Consensus in noncommutative spaces. In Proceedings of the 49th IEEE Conference on Decision and Control, pages 6596–6601, Atlanta, USA, Dec 2010.

[46] Alexander Shapiro. Analysis of stochastic dual dynamic programming method. European J. Oper. Res., 209(1) :63–72, 2011.

[47] Srinivas Sridharan, Mile Gu, Matthew R. James, and William M. McEneaney. Reduced-complexity numerical method for optimal gate synthesis. Phys. Rev. A, 82 :042319, Oct 2010.

[48] John N. Tsitsiklis and Benjamin Van Roy. An analysis of temporal-difference learning with function approximation. IEEE Trans. Automat. Control, 42(5) :674–690, 1997.

Publications et communications

Communications

[1] X. Allamigeon, P. Benchimol, S. Gaubert, and M. Joswig. Tropicalizing the simplex algorithm.

Presented at the SIAM Conference on Control and its Applications (SIAM CT’13), July 2013. [2] X. Allamigeon, P. Benchimol, S. Gaubert, and M. Joswig. Tropicalizing the simplex algorithm.

Page 22: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 22 sur 60

Presented at the 18th Conference of the International Linear Algebra Society (ILAS 2013), June 2013. [3] Gaubert, Stephane and Zheng Qu. Markov operators on cones and noncommutative consensus.

In Proceedings of the European Control Conference ECC 2013, pages 2693–2700. Zurich, 2013. [4] M. Akian and S. Gaubert. Policy iteration algorithm for zero-sum two player stochastic games :

complexity bounds involving nonlinear spectral radii. Presented at the 18th Conference of the Inter- national Linear Algebra Society (ILAS 2013), June 2013.

[5] Qu, Zheng. Contraction of Riccati flows applied to the convergence analysis of the max-plus curse of dimensionality free method. In Proceedings of the European Control Conference ECC 2013. Zurich

[6] Zheng QU (CMAP, Ecole Polytechnique), "Méthodes max-plus en programmation dynamique approchée", séminaire PGMO

Preprints :

[7] M. Akian and S. Gaubert. Policy iteration for perfect information stochastic mean payoff games

with bounded first return times is strongly polynomial. E-print arXiv:1310.4953, September 2013.

[8] X. Allamigeon, P. Benchimol, S. Gaubert, and M. Joswig. Combinatorial simplex algorithms

solve mean-payoff games. E-print arXiv:1309.5925, September 2013.

[9] X. Allamigeon, P. Benchimol, S. Gaubert, and M. Joswig. Tropicalizing the simplex algorithm,

E-print arXiv:1308.0454

[10] X. Allamigeon, U. Fahrenberg, S. Gaubert, R. D. Katz, and A. Legay. Tropical Fourier-Motzkin

elimination, with an application to real-time verification. E-print arXiv:1308.2122,

[11] Stephane Gaubert and Zheng Qu. The contraction rate in Thompson metric of order-

preserving flows on a cone - application to generalized Riccati equations. E-print

arXiv:1206.0448v2, 2012.

[12] Stephane Gaubert and Zheng Qu. Dobrushin ergodicity coefficient for markov operators on cones,

and beyond. E-print arXiv:1302.5226, 2012.

[13] Zheng Qu. Contraction of Riccati flows applied to the convergence analysis of a max-plus

curse of dimensionality free method. E-print arXiv:1301.4777

Rapports de stage

Antoine Hochart. Points fixes d’operateurs de jeux ergodiques : aspects algorithmiques. Master thesis, Universite Pierre et Marie Curie, 2013.

Production de code

Solveur maxplus de problemes de contro les optimaux lineaires quadratiques avec commutation, en matlab interface avec des routines C++.

Page 23: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 23 sur 60

1.2.7 Latin America Stochastic Optimization Network (LASON)

Equipe

Bernardo Kulnig Pagnoncelli, Tito Homem-de-Mello,Universidad Adolfo Ibáñez

Frédéric Bonnans, Laurent Pfeiffer (PhD), CMAP and INRIA, http://www.cmap.polytechnique.fr/~bonnans/

Pierre Carpentier, UMA, ENSTA ParisTech, http://www.ensta-paristech.fr/~pcarpent/

Jean-Philippe Chancelier, Michel De Lara, CERMICS, Vincent Leclère (PhD), CERMICS Ecole des Ponts ParisTech

Objectifs :

L‘objectif est de créer un réseau franco-chilien autour de l'optimisation stochastique

Bilan scientifique :

Les travaux de l‘équipe ont porté sur des problems d‘optimisation dans l‘incertain, dans le cadre de modèles multistage ie. comportant des décisions séquentielles au fur et à mesure de la révélation des aléas.

Des discussions autour de la prise en compte du risque ont eu lieu, en particulier dans le contexte de l‘extension d‘algorithmes de type SDDP (Stochastic Dual Dynamic Programming) et ADP (Approximate Dynamic Programming) à des fonctions objectif avec prise en compte du risque de façon plus générale que par l‘espérance.

Publications, communications

Workshops du projet, janvier/février 2013

Bernardo Pagnoncelli and Tito Homem-de-Mello (Universidad Adolfo Ibáñez): ―Tutorial on stochastic programming: from two stage to multistage risk averse stochastic programming‖

Francisco Silva (Université de Limoges), joint work with J. Frédéric Bonnans (Inria & Ecole Polytechnique): ―A glimpse on mean field games and its applications‖

Alejandro Jofré (CMM and DIM, Universidad de Chile) with Nicolas Figueroa (PUC-Chile) : ―Optimal mechanism-pricing rules for electricity market

Tito Homem-de-Mello (Universidad Adolfo Ibáñez): ―SDDP and scenario generation‖

Anes Dallagi (EDF R&D - Osiris) : ―European energy equilibrium and decomposition‖

Nicolas Grebille (PhD student CMAP) : ―SDDP and decomposition methods‖

Page 24: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 24 sur 60

1.2.8 MAORI - MAthématiques de l’Optimisation pouR l’Imagerie

Equipe :

Sandrine Anthoine, LATP, Marseille

Jean-François Aujol, IMB, Univ Bordeaux 1

Antonin Chambolle, CMAP, Ecole Polytechnique

Caroline Chaux, CNRS, LIGM, Univ Paris-Est

Emilie Chouzenoux, Laboratoire d‘Informatique Gaspard Monge, Univ Paris-Est

Philippe Ciuciu, CEA Saclay, Neurospin

Laurent Condat, CNRS, GREYC, ENSICaen

Jalal Fadili, GREYC, ENSICaen

Aurélia Fraysse, L2S, Univ Paris-Sud

Alexandre Gramfort, Telecom ParisTech et INRIA Saclay (Neurospin)

Matthieu Kowalski, L2S, Univ Paris-Sud

Mila Nikolova, CNRS, CMLA, ENS de Cachan

Gabriel Peyré, CNRS, Ceremade, Univ Paris-Dauphine

Nicolas Papadakis, CNRS, Grenoble

Nelly Pustelnik, CNRS, Laboratoire de Physique, ENS Lyon

Pierre Weiss, IMT Toulouse, INSA Toulouse

Objectifs :

L‘objectif est de créer un réseau autour de l‘étude et du développement d‘algorithmes efficaces pour les problèmes d‘optimisation en imagerie : algorithmes accélérés pour les problèmes de grande taille, méthodes d'éclatement pour le non lisse et le non convexe, analyse de sensibilité et de perturbation de problèmes d'optimisation

Bilan scientifique :

Le projet a pour but de fédérer plusieurs chercheurs en optimisation pour l‘imagerie en organisant des rencontres régulières entre les participants. Ces rencontres prennent la forme d‘un séminaire itinérant tous les deux mois entre les laboratoires des différents acteurs, et au moins une fois sur deux dans un des laboratoires de la région parisienne. Ces séminaires sont l‘occasion de faire le point sur l‘avancement par rapport aux quatre axes définis dans le document du projet. Outre les publications attendues sous formes d‘articles dans des revues et conférences internationales, des rapports techniques sont produits pour les différentes réunions et une toolbox matlab regroupant les techniques développées sera proposée pour faciliter la diffusion des algorithmes.

Workshops du projet

Décembre 2012

thème algo accéléré. Tutorial : M. Kowalski – méthode d‘ensembles actifs thème méthodes d’éclatement. Tutorial : J. Fadili – méthode d‘éclatement à métrique variable thème sensibilité et estimateurs du risque. Tutorial : G. Peyré – calcul du SURE thème applications. Tutorial : A. Gramfort et P. Ciuciu – l‘imagerie IRMf et la parcimonie

Cette réunion a été l‘occasion de faire émerger les questions de recherche suivantes :

Développement de nouveaux algorithmes de type continuation (homotopie). Développement de nouveaux algorithmes de gradient incrémentaux. Développement de nouveaux algorithmes d‘éclatement proximaux avec métriques variables. Convexification de fonctionnelles classiques en imagerie par méthode de calibration. Imagerie IRMf : problème de la connaissance partielle de la matrice de mélange. Imagerie EEG/MEG : trouver un bon dictionnaire temps/fréquence. Les transparents des

présentations sont disponibles sur la page web du projet.

Mars 2013

suite des travaux préliminaires sur l‘accéleration des descentes proximales à l‘aide de méthodes d‘ensembles actifs (en collaboration avec P. Weiss et A. Gramfort). Un article de revue est en

Page 25: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 25 sur 60

cours de rédaction. (M. Kowalski et S. Anthoine)

extension de certaines méthodes d‘éclatement proximales dans le cas non stationnaire (c‘est-à-dire avec des pas variables). Ceci dans le but d‘optimiser des fonctions lisses qui ne sont pas à gradient Lipschitz, en utilisant les méthodes classiques (explicite-implicite...), qui d‘habitude ont besoin de l‘hypothèse Lipschitz, avec des pas qui tendent vers zéro de manière judicieuse. (N. Pustelnik et L. Condat)

Avril 2013

présentation de Pierre Machart (Irisa, Rennes) : Non-Asymptotic Analysis for a Computationally Optimal Trade-Of for Inexact Proximal Methods

présentation de Giovanni Cherchia (Télécom ParisTech) : An epigraphical convex optimization approach for multicomponent image restoration using non-local structure tensor

mai 2013

présentation de Claire Boyer: Sampling by blocks of measurements in Compressed Sensing présentation de Nicolas Chauffert: From independent to continuous sampling in MRI: two

alternative approaches présentation de Emilie Chouzenoux: Variable Metric Forward-Backward Algorithm discussions et groupes de travail poursuite du travail sur les méthodes d‘accéleration des descentes proximales à l‘aide

d‘ensembles actifs.

Publications, communications, animation scientifique du PGMO :

Publications et communications du projet

[1] P. Balazs, M. Dörfler, M. Kowalski and B. Torrésani. “Adapted and adaptive linear time- frequency representations : a synthesis point of view“, IEEE Signal Processing Magazine (A paraître, Novembre 2013)

[2] F. Baus, M. Nikolova and G. Steidl, “Fully Smoothed l1 -TV Models : Bounds for the Minimizers and Parameter Choice”, Journal of Mathematical Imaging and Vision (DOI 10.1007/s10851-013-0420-0)

[3] A.Gramfort, B. Thirion and G. Varoquaux, “Identifying predictive regions from fMRI with TV-L1

prior”, Pattern Recognition in Neuroimaging (PRNI) conf., Juin 2013

[4] M. Nikolova, ―Fully smoothed L1-TV energies: properties of the optimal solution, minimization and applications‖, Conférence PGMO, octobre 2013

[5] L. Condat, ―A new generic proximal algorithm for large-scale nonsmooth optimization‖, Conférence PGMO, octobre 2013

[6] C. Boyer, ―An algorithm for variable density sampling via blocks of measurements‖ , Conférence PGMO, octobre 2013

Page 26: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 26 sur 60

1.2.9 Consistent Dual Signals and Optimal Primal Solutions

Equipe :

Antonio Frangioni, Univ Pise

Claude Lemaréchal, Jérôme Malick, INRIA Grenoble

Wellington Oliveira, Claudia Sagastizabal, IMPA, Brésil

W. van Ackooij, N. Oudjane, EDF, Paris, France

Rosa Figuereido, Postdoc, ENSTA, Saclay, France

Objectifs :

L‘objectif est l‘amélioration des approches par décomposition actuellement utilisées pour résoudre le problème de Unit Commitment : construction de solutions primales dans la phase duale (variantes des méthodes de faisceaux avec incertitude, accélération de convergence...), amélioration de la résolution primale, et exploitation de la structure des sous-problèmes

Bilan scientifique

Results that heve been produced are listed below. In particular:

the team of Pisa mostly worked on improving Bundle approaches, both via innovative convergence analysis and via development of versions exploiting specific structural properties, as well as on exploring the integration between decomposition approaches and B&C methods;

the team of Grenoble mostly worked on the theoretical analysis of inexact bundle methods and of the impact of inexactness on the practical usefulness of the computed dual information, with proposals for improving it;

the team of Paris mostly worked on Chance-Constrained versions of Unit-Commitment problems, and in particular to the development of specialized inexact decomposition approaches since the exact computation of chance constraints can be costly;

the team of Rio mostly worked on efficient approaches for stochastic programming, including reformulations of the chance-constrained UC problems above using p-efficient points, and variants of constrained bundle methods (both level and proximal) based on improvement functions.

Then the following tasks were accomplished in coordination between the teams :

1. collection and dissemination of papers about inexact computation in Lagrangian optimization;

2. wide and detailed discussion about the\interface of the oracle", i.e., precisely how the main algorithm and an inexact oracle should be able to interact in order to implement all the schemes proposed in the literature (and, hopefully, new ones to be proposed);

3. analysis of the current set of available software for Unit Commitment in order to select the best options for the future development and identify possible roadblocks to the intended coding and testing activities;

4. implementation of a first, limited set of different inexact schemes and first computational tests to compare them.

Publications, communications :

Communications du projet

[1] C. Sagastizabal ―How to exploit oracles with on-demand accuracy in energy problems‖, International Congress of Stochastic Programming 2013, Bergamo;

[2] R. Figueiredo, W. van Ackooij, A. Frangioni and C. Sag_stizabal , ―Bundle methods for energy problems‖, Session WD-54 of EURO 2013;

[3] C. Gentile, M. De Santis and A. Frangioni , ―A new Hybrid Lagrangian-MILP approach for the Unit-Commitment problem‖, Session TB-62 of EURO 2013;

[4] W. Oliveira, S. Zaourar and J. Malick, « Méthodes de faisceaux avec oracle inexact et incontrôlé, Journées annuelles du GdR MOA;

[5] W. Oliveira, S. Zaourar and J. Malick, ―Exploiting uncontrolled information in nonsmooth optimization methods‖, COCANA Seminar Series, University of British Columbia, Kelowna;

[6] W. Oliveira, S. Zaourar and J. Malick, ―Exploiting uncontrolled information in nonsmooth

Page 27: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 27 sur 60

optimization methods‖, by, is presented at SCAIM Seminar, University of British Columbia, Vancouver;

[7] C. Sagastizabal, ―The semiplenary lecture Divide to conquer: decomposition methods for en-ergy optimization‖, ISMP;

[8] A. Frangioni and C. Gentile, ―Exploiting structure in MIQP approaches to unit commitment problems‖, Invited Session MA 550 ―Nonlinear and combinatorial aspects in energy optimization" of ISMP 2012;

[9] S. Zaourar and J. Malick, ―Prices stabilization for inexact unit-commitment problem‖, Session MA 550 ―Nonlinear and combinatorial aspects in energy optimization" of ISMP 2012;

[10] W. van Ackooij, R. Henrion and C. Sagastizabal, ―Decomposition methods for unit-commitment with coupling joint chance constraints‖, Invited Session MA 549 ―Robust aspects of optimization in energy management" of ISMP 2012.

[11] W. Oliveira, ―Combining Level and Proximal Bundle Methods for Convex Optimization in Energy Problems‖, EngOpt 2012

[12] C.Sagastizabal, ―The impact of inexactness in nonsmooth optimization: an empirical analysis with application to power management problems‖, EngOpt 2012

[13] Seminaire de mai 2013 : Claude Lemaréchal, « Duality for Unit-Commitment: Primal Heuristics, Noisy Oracle »

[14] R. Figueiredo, W. van Ackooij, A. Frangioni and C. Sagastizabal ―Inexact Bundle methods: a computational comparison of differents schemes with applications to energy problems‖, Conférence PGMO octobre 2013

[15] S. Zaourar, W. Oliveira and J. Malick ―Exploiting uncontrolled information in nonsmooth optimization‖, Conférence PGMO octobre 2013

[16] A. Frangioni, C. Gentile and M. De Santis ―Hybrid Lagrangian-MILP approach for the Unit Commitment: issues and opportunities‖, Conférence PGMO octobre 2013

Publications du projet

[1] S. Zaourar, J. Malick, Stabilization of inexact prices in unit-commitment problems, Mathematical Methods of Operation Research, 2013

[2] A.Astorino and A. Frangioni and A. Fuduli and E. Gorgone , A Nonmonotone Proximal Bundle Method With (Potentially) Continuous Step Decisions , SIAM Journal on Optimization , to appear

[3] A.Frangioni and E. Gorgone , Generalized Bundle Methods for Sum-Functions with `Easy'' Components: Applications to Multicommodity Network Design , Mathematical Programming, to appear

[4] J.Y. Bello Cruz and W. Oliveira , Level bundle-like algorithms for convex optimization , Journal of Global Optimization , to appear

[5] W. L. Oliveira and C. Sagastizabal, ―Level Bundle Methods for Oracles with On-Demand Accuracy‖, Optimization Online, http://www.optimization-online.org/DB_HTML/2012/03/3390.html, 2012

[6] W. L. Oliveira and C. Sagastizabal and C. Lemaréchal, ―Bundle methods in depth: a unified analysis for inexact oracles‖, Optimization Online, http://www.optimization-online.org/DB_HTML/2013/02/3792.html, 2013

[7] W. Oliveira and S. Zaourar and J. Malick, Nonsmooth Optimization Using Uncontrolled Inexact Information, Optimization Online, 2013

[8] C.Sagastizabal, ivide to conquer: decomposition methods for energy optimization, Math. Program., volume 134, pages 187—222, 2012

[9] W. van Ackooij, Decomposition Approaches for Block-Structured Chance-Constrained Programs with Application to Hydro-Thermal Unit-Commitment, Submitted ; Preprint CR-2012-08, http://www.lgi.ecp.fr/Biblio/PDF/CR-LGI-2012-08.pdf,

[10] W. van Ackooij and W. Oliveira, Level bundle methods for constrained convex optimization with various oracles, Optimization Online, 2013*

[11] W. van Ackooij and C. Sagastizabal , Constrained Bundle Methods for Upper Inexact Oracles with Application to Joint Chance Constrained Energy Problems, Optimization Online, http://www.optimization-online.org/DB_HTML/2012/12/3711.html, 2012

[12] S. Zaourar and J. Malick, Stabilization of inexact prices in unit-commitment problems, Mathematical Methods of Operation Research, 2013

Page 28: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 28 sur 60

1.2.10 Optimisation discrète robuste du design d'un parc autonome d'énergies hybrides

Equipe

Alain BILLIONNET Professeur ENSIIE / CEDRIC

Marie-Christine COSTA, Pierre-Louis POIRION (PhD), ENSTA ParisTech / Cedric

Eric SOUTIF , CNAM Paris / Cedric

Objectifs

L‘objectif est de développer un modèle pour la conception optimisée d'un système autonome de génération et de stockage d'énergies renouvelables (solaire, éolien) avec prise en compte de divers types d'incertitudes (demande, conditions climatiques). Les incertitudes seront représentées avec des approches de type Bertsimas-Sim. L‘équivalent robuste du problème sera résolu par génération de contraintes.

Bilan scientifique

Presentation of the problem

We have studied a stand-alone hybrid system composed of wind turbines, solar photovoltaic (or PV) panels and batteries. To compensate for a lack of energy from these sources, an auxiliary fuel generator guarantees to meet the demand in every case but its use induces important costs. Such systems develop on islands or small isolated towns or regions. The aim is to determine the optimal number of photovoltaic panels, wind turbines and elements of battery to install in order to serve a given demand while minimizing the total cost of investment and use.

Moreover, the stochastic behavior of the solar and wind energy production on the one hand, and the demand on the other hand, needs to search for a robust solution, i.e. a solution which is good enough whatever the scenario that occurs. We assume that there is no known distributions of the data and following the approach proposed in [3], we consider that the uncertain data can vary between given bounds and that there are limits to the total variation of each kind of data.

We can state the robust problem as the following two stages mixed-integer mathematical program:

(𝑅𝑃)

min𝑥∈P𝑥

𝐶𝑝𝑥𝑝 + 𝐶𝑤𝑥𝑤 + 𝐶𝑏𝑥𝑏

+ max𝐷∈D

min𝑒∈P𝑒

𝐶𝑔 𝑒𝑡𝑔

𝑇

𝑡=1

𝐸𝑡𝑝𝑥𝑝 + 𝐸𝑡

𝑤𝑥𝑤 − 𝑒𝑡𝑖𝑛 + 𝛾𝑒𝑡

𝑜𝑢𝑡 + 𝑒𝑡𝑔

≥ 𝐷𝑡 𝑡 = 1. . 𝑇

Variables x are the decision variables and variables e are the recourse variables.

Results

COMPLEXITY RESULTS

We proved that the problem without uncertainty is NP-difficult when the number of integer variables is not fixed.

Nevertheless, we showed that, for our energy park design problem, the recourse problem, i.e. the second stage problem, can be solvable in polynomial time by using dynamic programming for any number of integer variables. We recall that in the general case, the problem is NP-difficult [2].

SOLVING APPROACH

We have proposed an exact approach based on constraints generation to solve the robust problem. The method requires a linearization of quadratic terms and a dualization of the minimization part of the recourse problem.

COMPUTATIONAL RESULTS

Page 29: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 29 sur 60

The test have been performed on a Bi-pro Intel Nehalem XEON 5570 at 2.93 GHz with 24 Go of RAM. We consider two cases: either there is uncertainty only on the demand, or the uncertainty also concerns wind and solar energy. We have considered real data obtained from [1]. We have tested several uncertainty levels for up to 8760 time periods in less than two minutes.

GENERALIZATION OF OUR APPROACH

We have also proved that our approach can be applied to general mixed integer problem with continuous recourse variables, even if the usual recourse property is not verified.

COMPARISON WITH A STOCHASTIC APPROACH

A new stochastic model based on scenarios has been proposed. This more classical approach was enable to solve the problem for only very small instances; no real instance have been solved.

References

[1] Homer energy, energy modeling software for hybrid renewable energy systems. available on line: http://www.homerenergy.com, 2011.

[2] M. Minoux. On 2-stage robust LP with RHS uncertainty: complexity results and applications. Journal of Global Optimization, 49:521–537, 2011.

[3] A. Thiele, T. Terry, and M. Epelman. Robust linear optimization with recourse. http://www.optimization-online.org=DBHTML=2009=03=2263:html, 2010.

Publications, communications, animation scientifique du PGMO :

Publications et communications du projet

[1] Billionnet , M.-C. Costa , P. Poirion - 2-Stage Robust MILP with continuous recourse variables , EURO-INFORMS International Conference on Operational research, Roma, Italie, July 2013, pp.405, et ROADEF, Troyes Février 2013. ACCEPTE pour publication dans Discrete Applied Mathematics, 17 pages.

[2] Billionnet , M.-C. Costa , P. Poirion - Optimisation robuste d‘un parc autonome de production d‘électricité , ROADEF, February 2013, pp.71, Troyes, France.

[3] Billionnet , M.-C. Costa , P. Poirion - Robust optimal sizing of an hybrid energy stand-alone system, Date de dépot: 2013/12/13, Nb pages 23, (Tech. Rep.: CEDRIC-13-2899) .

Page 30: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 30 sur 60

1.2.11 Optimisation dans l’incertain pour les problèmes de Unit Commitment

Equipe

René Henrion, Weierstrass Berlin

Michel Minoux, LIP6

Wim van Ackooij, EDF, France

Objectifs :

Le cadre de ce projet est le problème de Unit Comitment robuste sous contraintes en probabilités. Il s‘agira d‘étendre des méthodes de résolution (calcul efficace de gradient) à des lois de probabilité adaptées aux aléas considérés, puis de comparer avec les méthodes dites robustes et de travailler sur des méthodes de décomposition adaptées à la formulation proposée.

Bilan scientifique

Rappel des Objectifs

Le projet comporte deux axes principaux.

Le premier Axe est situé autour de la modélisation probabiliste des aléas du second membre (Incertitude sur la demande, production intermittente et apports hydrauliques). Les principaux thèmes sont les suivants :

a : élargir la classe des lois pour laquelle il existe des formules de calcul de gradient efficaces. L‘intérêt réside dans la possibilité d‘une modélisation plus riche des incertitudes.

b : étudier la prise en compte d‘un mélange de lois pour différents colonnes. Nous examinerons en particulier dans quelle mesure une extension des résultats de copules peut être espérée.

c : étudier la décomposabilité des problèmes d‘optimisation sous contraintes en probabilité. En particulier, il est proposé d‘étudier une modélisation plus réaliste des problèmes thermiques conduisant à un problème non-convexe, mais toujours convexe relativement à la partie probabiliste.

Le deuxième Axe de travail est situé autour de la modélisation robuste des aléas du second membre. Deux directions de recherche sont envisagées.

a : étudier des représentations efficaces des ensembles d‘incertitudes, à la fois dans le cas statique, et dans le cas dynamique. Des extensions vers des modèles d‘incertitudes plus réalistes (par exemple la prise en compte simultané des aléas sur la demande et la production intermittente) sont aussi envisagées.

b : étudier la décomposition des problèmes d‘optimisation robuste spécifiques aux problèmes de Unit-Commitment. En effet, comme pour l‘optimisation sous contrainte probabiliste, un déploiement industriel requiert la disponibilité de méthodes de décomposition.

Avancées Réalisées

Les principaux progrès réalisés concernent plusieurs des points mentionnés ci-dessus :

Sur le premier axe :

a) De nouvelles formules de gradient efficaces ont été rédigées. Il s‘agit d‘une extension intéressante des formules déjà disponibles pour des incertitudes Gaussiennes. Ceci a fait l‘objet d‘une soumission et d‘un preprint (WIAS Preprint No. 1799). On peut également noter les extensions récemment dérivées par R. Henrion qui couvrent le cas Gaussien dégénéré. Ce type de formule est d‘intérêt dès qu‘on considère un système dans lequel l‘incertitude est un produit d‘un vecteur Gaussien et une matrice comprenant davantage de lignes que de colonnes. Ce type de système se rencontre par exemple lorsqu‘on considère un graphe avec incertitude sur les nœuds. C‘est à ces derniers résultats que le stagiaire s‘est plus particulièrement intéressé. Son stage a permis de bien comprendre sous quelles conditions la différentiabilité peut être espérée et l‘implication pratique de ces conditions. Par la suite, un papier court a été rédigé qui permet d‘étendre légèrement les résultats obtenus par R. Henrion.

b) En cours

Page 31: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 31 sur 60

c) Afin de pouvoir utiliser les techniques de l‘optimisation sous incertitude dans des problèmes industriels, et en particulier pour des problèmes de grande taille, les techniques de décomposition sont importantes. En ce qui concerne le problème de Unit-Commitment, une première formulation du problème a été réalisée en utilisant une contrainte en probabilité jointe couplante. Cette contrainte traduit une robustification de la contrainte d‘équilibre offre-demande. Par ailleurs, au sein de ce problème, les sous-problèmes hydrauliques sont également robustes. Différentes techniques de décomposition ont été investiguées et il a été montré qu‘une décomposition efficace peut être réalisée. Mise à part une première itération potentiellement couteuse, on peut espérer que l‘ensemble des itérations ne soit pas beaucoup plus coûteux en temps de calcul que ces mêmes itérations pour un problème déterministe. Ces travaux ont été communiqués à ISMP-2012 et ont donné lieu à la soumission d‘un article auprès d‘une revue. Des avancées sur la résolution algorithmique des problèmes sous contraintes en probabilité ont été également réalisées. Celles-ci ont également donné lieu à la soumission d‘un article.

Sur le deuxième axe :

a) La représentation efficace des incertitudes proposée précédemment a permis la comparaison d‘une approche « Robuste » et « Robuste avec Recours » sur un problème de type « Unit Commitment ». Celle-ci aboutit à la conclusion que la solution « Robuste » seule apporte déjà beaucoup de gain par rapport à une solution déterministe. Il n‘est peut-être pas nécessaire de modéliser et « résoudre » le problème avec « recours » afin de disposer d‘une solution de référence (pour le problème de Unit-Commitment) pertinent. La transposition de cette approche au sein des Outils d‘Edf est en cours d‘investigation.

b) En cours

Publications, communications

Publications du projet

[1] R. Henrion and A. Möller, A gradient formula for linear chance constraints under Gaussian distribution, Mathematics of Operations Research, 37 (2012) 475-488.

[2] W. van Ackooij and C. Sagastizabal ; Constrained Bundle Methods for Upper Inexact Oracles with Application to Joint Chance Constrained Energy Problems ; http://www.optimization-online.org/DB_HTML/2012/12/3711.html, soumis

[3] W. van Ackooij ; Decomposition Approaches for Block-Structured Chance-Constrained Programs with Application to Hydro-Thermal Unit-Commitment ; Preprint : LGI Cahier de Recherche 2012-08, soumis

[4] W. van Ackooij and R. Henrion ; Gradient formulae for nonlinear probabilistic constraints with Gaussian and Gaussian-like distributions ; Preprint WIAS 1799, soumis

[5] W. van Ackooij and M. Minoux ; On a completion of the Henrion-Möller-Prékopa Gradient formula for Gaussian Distribution Functions, soumis

Communications du projet

[6] W. van Ackooij and R. Henrion ; Gradient formulae for nonlinear probabilistic constraints with Gaussian and Gaussian-like distributions ; ICSP2013 ; Bergamo Italy ; 08-12 July 2013

[7] W. van Ackooij, R. Henrion and C. Sagastizabal ; Decomposition Methods for Unit-Commitment with coupling Joint Chance Constraints ; 25th international symposium on mathematical Programming ; Berlin 2012

[8] W. van Ackooij, “Gradient Formulae for bilateral degenerate probabilistic constraints and applications”, Conférence PGMO d’octobre 2013

Rapport de Stage:

Patrice Nzi; Optimisation d‘éléctricité sous contrainte en probabilité, 'Stage de Master de l'Ecole Centrale de Paris, soutenu le 10 septembre 2013'

Page 32: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 32 sur 60

1.2.12 Optimality for Tough Combinatorial Hydro Valley Problems

Equipe

Claudia D'Ambrosio, CNRS, LIX, Ecole Polytechnique http

Frederic Roupin, LIPN, Paris XIII

Claudio Gentile, IASI, CNR, Italia

Youssef Sarhaoui, A. Lenoir, G. Doukopoulos, EDF, France

Objectifs

L‘objectif est de résoudre le problème d'optimisation de gestion dynamique d'une vallée hydraulique complexe, en variables mixtes et avec des contraintes non linéaires à travers le développement d‘heuristiques fondées sur des modèles de programmation mixte non linéaire.

Bilan scientifique :

In this project, we consider a single network of interconnected reservoirs and hydroelectric plants, i.e., a hydro valley, where power prices, water usage values, and external reservoir inflows are exogenous. The objective is to provide the feasible schedule yielding maximum revenues. We consider both continuous and discrete operating plants, and pumps.

The main research line will be to explore new methods for decomposition and reformulation for the linearization.

Results and Future Steps

Information may be seen on http://www.lix.polytechnique.fr/~dambrosio/PGMO.php.

Review of the literature: a list of the most relevant works that have been done in the area were collected. A technical report that surveys the state of the art of the methods for Hydro Valley problems will be written.

Data collecting: realistic data, in an AMPL format, are currently being built.

Modeling: different formulation of the problem have been designed and collected. The project is now in the phase of testing the first instances on these formulation so as to compare the results.

Study and implementation of the methods: reformulations. This will be done next.

Study and implementation of the methods: heuristics. This will be done next.

Mathematical Model

The aim of the mathematical model we propose is to cast as much as possible all the constraints that have to be considered in a operational phase and to model in the most accurate way so as the produced solutions would be practically usable. Thus, the main constraints considered are:

Water volume conservation: the water volume at each reservoir at time t is given by the the water volume at time t -1 plus the inflow, minus the outflow.

Volume capacity constraints: they are simple bound on the water volume at each reservoir and time period.

Active power and reserves produced: they are computed as a piecewise linear function of the water flow.

Flow gradient: bounds on the increase and decrease of water ow for each plant and time period. Monotony constraints: the passage between an operation point and the other has to be done in a

progressive way. Simultaneous pumping and generating interdiction constraints.

Another important aspect that we considered on the modeling phase was to include both continuous and discrete defined operational points for the units.

Finally, the objective function aims at maximizing a linear function of the profit and the value of the water saved in the reservoirs at the end of the time horizon.

The problem at hand show several constraints that are hard to satisfy simultaneously. Thus, we are trying to identify the major source of difficulty by identifying and solving di_erent types of reformulations like relaxations, approximations, etc.

Page 33: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 33 sur 60

Publications et communications

[1] W. van Ackooij, C. D'Ambrosio, G. Doukopoulos, A. Frangioni, C. Gentile, F. Roupin, T. Simovic. Optimality for Tough Combinatorial Hydro Valley Problems. Conference talk at Roadef 2013. Troyes, France, February 2013.

[2] C. D'Ambrosio, Optimality for Tough Combinatorial Hydro Valley Problems, PGMO Seminars, Palaiseau, France, November 2012, Séminaire PGMO, novembre 2012

Page 34: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 34 sur 60

1.2.13 Hydro-electric scheduling under uncertainty

Equipe

Andy Phillpot, W. Faisal, Univ Auckland, Nouvelle Zélande

F. Bonnans, CMAP Ecole polytechnique et INRIA Saclay

A . Dallagi, EDF, France

Objectifs

L‘objectif est de résoudre le problème d'optimisation des programmes d'une vallée hydraulique à court-terme en stochastique, en mixant des méthodes de décomposition stochastique (dantzig wolfe) et des méthodes de programmation en nombre entiers.

Bilan scientifique

We have developed a deterministic mathematical river chain model of the Waitaki Hydro Scheme (WHS). It is a mixed integer linear program (MILP). The WHS river chain model formulation represents the short term (between 48 (1 day) to 336 (1 week) trading periods) scheduling of production of electricity across WHS each half hour. The model produces dispatch schedules for each station, specifying the power output and number of units dispatched for each half hour at the least cost (minimize overall cost for production), while meeting specified block dispatch set point. The river chain model captures the following characteristics of the WHS:

Water storage bounds of each reservoir and forebay (headpond). The network topology of the hydro scheme Flow time delays between reservoirs. Flow restrictions and resource consents. Unit cusp curves (hill curves or I/O curves) as a function of water discharge (in cumecs) and

power output (megawatts). Inflow into specified reservoir and forebays.

This is decomposed by two layers of networks. First is the inter reservoir network which models the overall WHS and incorporates major tributaries, canals and rivers. The second tier is the intra reservoir network within each of the major nodes. The intra reservoir networks model the flows between the reservoirs, forebays and stations. Each major node has an entry and exit node labeled as ―ResIn” and “ResOut”. They connect the flows between the inter reservoir and the intra reservoir networks. Decomposing the WHS network in this type of configuration allows for easy switching of different unit cusp curve formulations without the need to reconfigure the entire network.

We assume identical units in each generating station. This allows us to efficiently formulate the production curves (cusp curves) and reduce the number of integer variables present in the model. We approximate one unit cusp curve for each station, to capture the nonlinear relationship of the water discharge and power output of a single unit as a piecewise linear function. We then multiplicatively scale this function based on an integer variable representing the number of units that are switched on.

Figure 1: Topology of the WHS highlighting major nodes and the inter reservoir network

Page 35: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 35 sur 60

BASE MODEL VALIDATION METHOD

The base model was used to validate the data and test the model through hindcasting or backtesting. Backtesting involves using the model to simulate historical operational situations and then comparing the output from the model to that of the actual operation.

To validate both the model and the data we alter the model formulation to force the WHS to mimic historical generation at each station and to see if such generation is feasible with respect to the historical hydraulic state.

The alteration in the formulation of the model is categorized into three cases. All three cases of the model

are fed the same data, involving the historical operation of the WHS between 13th

February 2008 and

20th

February 2008 inclusive (336 trading periods). The data were extracted from the Centralised Dataset

provided by the Electricity Authority.

Case 1: The first case involves three alterations. First is fixing the generation for each station at each trading period. This is achieved by creating an explicit equivalent constraint in the model that forces each station in WHS to generate at the historical generation at the particular trading period. This is illustrated by Equation 1.The second constraint involves the three biggest reservoirs in WHS, lakes Tekapo, Pukaki and Ohau where the storage (cubic meters) at each of these lakes must meet the historical storage at the end of each day. This constraint is a soft constraint; slack variables are added to create flexibility in the model to find a feasible solution without having to explicitly force the storage to be the same as the historical storage. This is described by Equation 2. The last alteration is to change the objective function of the model to minimize the amount of water discharged at each station and reduce the flexibility (slack variables) of storage. This is illustrated by Equation 3.

𝒈𝒔,𝒕 = 𝒔𝒔,𝒕 ∀𝒓 ∈ 𝓡, ∀𝒔 ∈ 𝑮 𝒓 , ∀𝒕 ∈ 𝑻 Equation 1: Fixed generation constraint for each station at each trading period

𝝂𝒇,𝒑−𝟒𝟖 + 𝝈𝒇,𝒑 ≥ 𝝂𝒇,𝒑 ∀𝒓 ∈ 𝓡, ∀𝒇 ∈ 𝑭 𝒓 , ∀𝒑 ∈ {𝟏, … , 𝟕} Equation 2: Soft storage constraint to meet historical storage

𝑴𝒊𝒏 𝒁 = 𝝈𝒇,𝒑 + 𝒒𝒔,𝒕𝒅𝒊𝒔𝒄𝒉𝒂𝒓𝒈𝒆

∗ 𝚫𝒕

𝒕∈𝑻𝒔∈𝑮 𝒓 𝒓∈𝓡

𝟕

𝒑=𝟏𝒇∈𝑭 𝒓 𝒓∈𝓡

Equation 3: Objective to minimize slack reservoir storage and water discharged across the stations

Case 2: Preliminary results from the first case show that there is excessive spill occurring throughout the WHS in order to force the storage levels to match the historical storage levels, which seems unrealistic. So the second case has the same alterations as illustrated by Equation 1 and Equation 2, but adds an extra term in the objective, so as to minimize the volume of spilled water. This is illustrated by Equation 4. The volume of spilled water in the objective has been scaled by a factor of 1000 in order to match the magnitude of the volumes of water in the storage slack variables and water discharged through the station. This drives the model to equally minimize storage slack, station water discharge and spill.

𝑴𝒊𝒏 𝒁 = 𝝈𝒇,𝒑 + 𝒒𝒔,𝒕𝒅𝒊𝒔𝒄𝒉𝒂𝒓𝒈𝒆

. 𝚫𝒕 + 𝟏𝟎𝟎𝟎. 𝒒𝒊,𝒋,𝒕𝒔𝒑𝒊𝒍𝒍

𝒕∈𝑻

. 𝚫𝒕

(𝒊,𝒋)∈𝑺

𝒕∈𝑻𝒔∈𝑮 𝒓 𝒓∈𝓡

𝟕

𝒑=𝟏𝒇∈𝑭 𝒓 𝒓∈𝓡

Equation 4: Objective to minimize storage slack, water discharged across the stations and spill volume

Case 3: The last case involves altering Equation 2 to only enforce the start and end of the week storage conditions, illustrated by Equation 5. It retains Equation 1 and Equation 4.

𝝂𝒇,𝟏 + 𝝈𝒇,𝟏 ≥ 𝝂𝒇,𝟏 ∀𝒓 ∈ 𝓡, ∀𝒇 ∈ 𝑭 𝒓

𝝂𝒇,𝟑𝟑𝟔 + 𝝈𝒇,𝟕 ≥ 𝝂𝒇,𝟕 ∀𝒓 ∈ 𝓡, ∀𝒇 ∈ 𝑭 𝒓 Equation 5: Soft storage constraint to meet historical storage at the start and end of the week

Page 36: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 36 sur 60

RESULTS

All 3 cases solved within 3 minutes using the industrial solver Gurobi and all involved the same number of binary, integer and linear variables. The only difference between the cases was the number of constraints. This detailed by Table 1.

Table 1: Summary of the number of variables and constraints for each case

Case #1 Case #2 Case #3

Binary Variables 66 66 66

Integer Variables 2225 2225 2225

Linear Variables 58476 58476 58476

Constraints 55478 55478 55460

After solving each of the cases the first metric that was compared was the storage levels (in cubic metres) of lakes Ohau, Tekapo and Pukaki. As shown in Figure 2, the storage levels of Lake Pukaki for all cases approximately matches the end of day storage levels from the CDS data. However case 1 and 2 storage level is below the storage level provided in the CDS (1.692x10^9 cubic metres) by the end of the second day (trading period 97), with case 2 storage levels also being less than the CDS storage level (1.692x10^9 cubic metres) for the end of day 3 (trading period 145). Case 3 indicates that in order to meet the start and end of the week storage conditions the storage level should have been much higher than what is stated in the CDS.

Figure 3, which illustrates the storage levels for Lake Tekapo, show that storage levels never deplete below the end of day storage levels provided in the CDS. However the storage levels for case 3 do show that like Pukaki, Tekapo‘s storage in the middle of the week is much higher than what is stated in the CDS if it were to match the storage level at the end of the week.

The most contrasting trend is Lake Ohau as illustrated by Figure 4. It shows that storage levels of Lake Ohau is significantly less than what is stated in the CDS during the week in order to match the end of the week storage levels (case 3). The storage levels for cases 1 and 2 are significantly lower than what is stated in the CDS (28x10^6 cubic metres) for the end of the third day (trading period 145) with case 2 storage also being significantly less than the stated CDS storage (28x10^6 cubic metres) for end of the fourth day (trading period 193).

Figure 2

Page 37: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 37 sur 60

Figure 3

Figure 4

Investigating this inconsistency on the mismatching of the storage levels indicate that for case 1 the model has to spill significantly in order to closely match the storage levels. This is illustrated by Figure 5, where the volume of water spilled throughout the WHS for all 7 days is approximately around 50x10^6 cubic metres. The other cases illustrated by Figure 6 and Figure 7 show the aggregated storage levels between Ohau, Pukaki and Tekapo to be significantly less than the CDS storage.

Page 38: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 38 sur 60

Figure 5

Figure 6

Figure 7

Page 39: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 39 sur 60

All three figures above (Figure 7, Figure 8 and Figure 9) show similar water used for generation throughout the seven days. However in close examination at selected stations (Ohau A, Benmore and Waitaki) we can see that Ohau A in all cases efficiently discharges water to generate electricity, whereas station‘s Benmore and Waitaki discharge water inefficiently in cases 2 and 3 in order to match the storage conditions for the upstream lakes. With the given generation requirements and storage levels, the stations are becoming bottlenecks and therefore are having to either spill excessively or ‗leak‘ water through the station by discharging large volumes of water at low power output.

REVIEW OF RESULTS

Solving the WHS model under the three cases illustrates that there is some inconsistency between the model and the CDS data. In case 1 the WHS model excessively spills in order to best match the end of day storage levels and is the best case. In case 2 the model reduces excessive spill because of the spill penalty term added to the objective, but discharges excessive water at lower power output where it essentially ‗leaks‘ water through the station units to best match CDS storage levels. Case 3 shows similar behavior as case 2 but shows that it needs to deplete the storage levels lower than the CDS storage levels for the end of the week for Ohau and increase storage levels for Pukaki and Tekapo.

More data are needed in order to verify if there have been similar spills historically during this time period. Additionally historical storage levels of the other lakes, station water discharge, and inflows are needed in order to comprehensively test the model.

Publications, communications, animation scientifique du PGMO :

[1] Andrew Phillpott, " Modelling water shortage risks in electricity markets with hydroelectric reservoirs ", Séminaire PGMO, avril 2013

Page 40: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 40 sur 60

1.2.14 Décomposition/Coordination en commande optimale stochastique (StochDec)

Equipe

Pierre Carpentier (UMA, ENSTA ParisTech)

Michel De Lara, Jean-Philippe Chancelier (CERMICS, Ecole des Ponts ParisTech)

Vincent Leclère (doctorant CERMICS, Ecole des Ponts ParisTech)

Jean-Christophe Alais (doctorant, EDF R&D)

Anes Dallagi, Nadia Oudjane (OSIRIS, EDF R&D)

Objectifs

Ce projet se situe dans le contexte de l‘utilisation de méthodes de décomposition/coordination pour des problèmes de commande optimale stochastique de grande taille, dans le but d‘obtenir des stratégies de gestion des stocks du problème, ce qui implique de résoudre les sous-problèmes par des techniques de type programmation dynamique. L‘algorithme proposé pour résoudre ce type de problèmes, appelé DADP (Dual Approximate Dynamic Programming) introduit de nouvelles variables d‘information permettant de représenter les interactions entre les sous-problèmes comme des processus stochastiques à mémoire limitée. Les enjeux du projet sont, d‘une part d‘appliquer la méthode DADP à des systèmes à « structure en chaîne » (comme par exemple une vallée hydraulique comportant de nombreux barrages), et d‘autre part de tester sur ces systèmes différentes possibilités de variables d‘information, et en particulier celles apportant de nouvelles dynamiques dans les sous-problèmes (ce qui n‘avait jamais été fait auparavant).

Bilan du projet

Les travaux menés dans le cadre de ce projet ont porté sur deux axes principaux.

1. Nous avons mené des études théoriques visant à donner un fondement mathématique à la méthode de décomposition-coordination dans le cadre stochastique. Le premier volet de ces études consiste à trouver des conditions permettant d‘assurer, dans des espaces de Banach « raisonnables », l‘existence d‘un point-selle pour le problème de commande optimale stochastique sous contraintes couplantes (condition nécessaire à l‘application de la méthode DADP), puis à prouver la convergence d‘un algorithme de type Uzawa dans ces espaces. L‘étude fait suite à un premier contact avec Roger Wets (University of California, Davis) en janvier 2013 et est l‘occasion d‘échanges et de contacts avec ce professeur et son équipe (workshop en Colombie en octobre 2013, et workshop prévu à Paris en juin 2014). Le second volet de ces travaux a pour objectif de prouver la convergence des solutions fournies par l‘algorithme de décomposition lorsque les tribus engendrées par les variables d‘information convergent vers la tribu de référence. Les techniques utilisées pour cela marient les notions d‘épiconvergence fonctionnelles classiques avec celles définissant de « bonnes » topologies dans les espaces de tribus. Ce dernier point a fait l‘objet d‘une publication en cours de soumission.

2. Le second axe de recherche a porté sur des aspects numériques, et a été mené dans le cadre de la thèse de Jean-Christophe Alais, qui a prolongé les travaux de Pierre Girardeau sur le même sujet. Nous avons procédé à une étude « clinique » de la méthode DADP sur un problème suffisamment simple pour pouvoir être entièrement analysé. Nous avons pour cela défini un problème de gestion d‘une vallée hydraulique comportant trois barrages, que nous avons résolu de manière exacte par application directe de la programmation dynamique. Ceci a fourni une solution de référence et a permis de synthétiser les variables duales optimales associées aux contraintes couplantes. Puis, nous avons appliqué la méthode DADP avec différentes variables d‘information : variable constante (pas d‘information), variable de bruit statique et enfin variable dynamique correspondant à une représentation de l‘évolution optimale du barrage en tête de vallée. Nous avons montré numériquement, d‘une part que la qualité de la solution obtenue ne variait pas de manière monotone avec la quantité d‘information fournie aux sous-problèmes, et d‘autre part que, dans ce cas, la prise en compte d‘une variable d‘information à mémoire permettait d‘améliorer la solution. Ces résultats, qui ne font pour le moment pas l‘objet d‘une publication, ont été présentés dans plusieurs conférences et workshops. Le code informatique écrit à cette occasion a été testé de manière intensive et peut être utilisé pour traiter des

Page 41: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 41 sur 60

problèmes généraux à structure en chaîne (comme le sont les vallées hydrauliques).

Pour ce qui concerne la poursuite de ce projet, les questions théoriques sont loin d‘être épuisées et nous continuerons à nous y intéresser dans les mois à venir. Pour la partie applicative, il faut maintenant traiter un « vrai » problème, par exemple une vallée hydraulique comportant une dizaine d‘ouvrages, et comparer les résultats avec ceux des méthodes utilisées de manière plus traditionnelle (SDDP par exemple). Il faudra ensuite mettre en œuvre l‘approche à des structures plus générales que les chaînes.

Publications, communications

Publications

[1] J.-C. Alais, P. Carpentier, V. Leclère. ―Decomposition-coordination method for the management of a chain of dams‖. CLAIO/SBPO Proceedings, Rio de Janeiro, Brésil, septembre 2012.

[2] V. Leclère. ―Epiconvergence of relaxed stochastic optimization problems‖. Preprint HAL, juillet 2013, soumis à Mathematics of Operation Research.

Communications

[1] V. Leclère. ―Relaxation of almost sure constraint and decomposition-coordination‖. Conférence MODE, Dijon, France, mars 2012.

[2] V. Leclère. ―Dual Approximate Dynamic Programming and applications‖. CLAIO/SBPO Conference, Rio de Janeiro, Brésil, septembre 2012.

[3] V. Leclère. Constraint qualification conditions in stochastic optimal control problem. Workshop, University of California, Davis, Etats-Unis, janvier 2013.

[4] J.-C. Alais. Decomposition-coordination methods in stochastic optimal control. ICSP 2013, Bergamo, Italie, juillet 2013.

[5] P. Carpentier. Decomposition-coordination methods, Dual Approximate Dynamic Programming and application to dams management problems. XM Workshop, Bogota, Colombie, octobre 2013.

[6] Jean-Christophe Alais « Méthodes de décomposition en optimisation stochastique : application à

la gestion d'une vallée hydraulique », Séminaire PGMO, février 2013.

[7] Jean-Christophe Alais « Gestion de la production hydroélectrique d‘une cascade de barrages par

décomposition », Les journées du PGMO, octobre 2013.

[8] Vincent Leclère « Epiconvergence of relaxed stochastic optimization problems », Les journées du

PGMO, octobre 2013.

Page 42: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 42 sur 60

1.2.15 Equilibres de Nash pour la valorisation des offres dans la gestion de la production journalière : le point de vue du producteur

Equipe

Didier Aussel, Univ. Perpignan

Miroslav Pistek, étudiant en 1ière année de thèse, (cotutelle avec Jiri Outrata, Académie des Sciences Tchèque, Prague)

P. Bendotti, T. Simovic, EDF France

Objectifs

Il s‘agit de développer une approche de type 'équilibre de Nash généralisé pour modéliser le mécanisme de fixation des prix de l'électricité dans le marché concurrentiel. Chaque producteur doit résoudre un problème bi-niveaux, chacun étant couplés par les problèmes de bas niveau, dans une structure de type jeu 'multi-leader-follower'. La prise en compte de l'incertitude sur la demande, sera abordée via l'étude de la stabilité des solutions. Une comparaison avec approche 'Supply Function Equilibrium' ou SFE sera effectuée.

Bilan scientifique :

L‘objectif durant cette première partie du projet était de formuler proprement le problème d'offre sur le marché de l'ajustement, du point de vue du producteur et, éventuellement via une reformulation par inéquation variationnelle, d'étudier la stabilité de la meilleure réponse.

La formulation classique du problème passe par un problème d'optimisation bi-niveaux, le bas-niveau représentant la minimisation du régulateur du marché (ISO) et le haut-niveau le problème de maximisation de gain du producteur.

Après de premier travaux préliminaires, les résultats suivants ont été obtenus :

Formulation explicite des solutions du problème de l'ISO

Caractérisation sous forme de solution d'un système non linéaire de la meilleure réponse du producteur.

Démonstration du fait que, dans ce modèle à demande fixe, la meilleure réponse du producteur aux enchères quadratiques des autres producteurs est en fait une enchère linéaire.

Des simulations numériques préliminaires ont aussi été réalisées à partir de données réalistes. Ces simulations vont permettre de confronter les résultats théoriques à des données pseudo-réelles.

Publications, communications, animation scientifique du PGMO :

Publications et communications du projet

[1] Sur quelques modèles de marchés de l'électricité : limites et reformulations - Didier Aussel, Michal Cervinka, Matthieu Marechal, Rachana Gupta conférence ROADEF 2013 – février 2013

[2] analytical approach to electricity market, Mirosalv Pistek au Workshop ADGO (Algorithms and Dynamics for Games and Optimization) – Octobre 2013 – Playa Blanca, Chili.

[3] Aussel D., Bendotti P. and Pistek M., An analytical approach to electricity market, prepublication, soumis, 28 pages.

[4] Miroslav Pistek (Académie des sciences de Pragues) et Didier Aussel (Université de Perpignan), "An analytical approach of one producer best response to other producers bids estimates in electricity market", Séminaire PGMO de juin 2013

[5] M. Pistek, ―An analytical approach of one producer best response to other producersbids estimates in electricity market‖, Conférence PGMO d‘octobre 2013

Page 43: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 43 sur 60

1.2.16 Optimisation Combinatoire sous contraintes en Probabilités Jointes : Application au problème des arrêts du nucléaire

Equipe

Abdel Lisser, Céline Giquel, Jianqiang Cheng(PhD), LRI Univ Orsay

Agnes Gorge, Riadh Zorgati, EDF, Paris

Objectifs

Il s‘agit de résoudre le problème de planification des arrêts du nucléaire avec aléas sous la forme d'un problème avec contraintes en probabilités jointes et variables discretes via une reformulation SOCP ou SDP de problèmes avec contraintes en probabilité individuelles (CPI) qui utilisent des bornes valables pour de larges classes de distributions.

Bilan scientifique :

Ce projet porte sur l‘optimisation stochastique avec contraintes en probabilités et application au management de l‘énergie. Ce projet a été proposé sur deux ans. Le programme de l‘année en cours porte sur :

l‘étude des contraintes en probabilités individuelles (CPI) et équivalence avec des problèmes co-niques et application aux problèmes des arrêts;

développement d‘un prototype basé sur les méthodes de Branch-and-Bound (B&B) pour calculer des solutions entières optimales.

Introduction

Dans le cadre de ce projet, on étudie le problème d‘optimisation suivant :

min 𝑐𝑇𝑥 sous les contraintes ℙ{𝑇𝑥 ≤ 𝑕} ≥ 𝑝, 𝑥 ∈ 𝑋 , (1)

où X ⊂ ℝn est un ensemble déterministe convexe et fermé, c ∈ ℝ

n, h = (h1, , hK)

T ∈ℝ

K sont des vecteurs

déterministes, T = (tT

1, , tT

K)T ∈ ℝ

K×ℝ

n est une matrice aléatoire, et p∈[0; 1] est une probabilité donnée.

Soit

𝑋 𝑝 ≔ 𝑥 ∈ 𝑋 | ℙ 𝑇𝑥 ≤ 𝑕 ≥ 𝑝 = 𝑥 ∈ 𝑋 | ℙ 𝑡𝑘𝑇𝑥 ≤ hk , 𝑘 = 1, 𝐾 ≥ 𝑝 (2)

Lorsque k=1, on parlera de problème avec contraintes en probabilités individuelles (CPI), sinon il s‘agit de problème avec des contraintes en probabilités jointes (CPJ).

Les problèmes d‘optimisation avec contraintes en probabilité ont été formulés pour la première fois par Charnes et al. en 1958. Depuis ces premiers travaux, ces problèmes ont été considérés comme difficiles à traiter à la fois sur le plan théorique qu‘algorithmique et numérique. En 1963, van de Panne et al. ont proposé une méthode de résolution pour les problèmes de type eq:intro:LCP avec une seule contrainte dont les variables aléatoires sont normalement distribuées; ils ont transformé cette contrainte en contrainte conique.

La convexité est largement considérée comme une difficulté majeure pour résoudre les problèmes avec contraintes en probabilités. En général, le domaine de solutions réalisables de ces problèmes n‘est pas convexe. Plusieurs techniques ont été développées pour contourner cette difficulté. Miller et Wagner en 1965 ont montré sous certaines conditions que le problème en contraintes en probabilités jointes dont les lignes sont indépendantes est convexe. Jagnannathan en 1974 a étendu ce résultat au cas dépendant sous certaines conditions. L‘avancée majeure a été proposée par Prekopa en 1971; il a introduit la notion de mesure de probabilité logarithmiquement concave. Il a montré dans un théorème général la convexité de l‘ensemble de solution pour le problème avec contraintes en probabilités jointes dont le second membre est aléatoire et ce pour plusieurs distributions de probabilités (normale multivariée, Wishart, beta, Dirichlet).

Dans la suite de ce rapport, nous présenterons les résultats obtenus durant cette année; à savoir les problèmes avec CPI et avec CPJ. Les relaxations semidéfinie positives et copositives appliquées aux problèmes avec contraintes en probabilités. Enfin, des premiers résultats sur les problèmes avec CPJ et variables binaires.

Page 44: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 44 sur 60

Contraintes en probabilités individuelles

Si on considère le problème (1) où les lignes 𝑇𝑘 de la matrice 𝑇 sont indépendantes et suivent une

disribution normale Nn (µk; Σk ≻ 0), on peut écrire

𝜉𝑘 𝑥 ≔ 𝑇𝑘

𝑇𝑥 − 𝜇𝑘𝑇𝑥

𝑥𝑇 𝑥𝑘

𝑔𝑘 𝑥 ≔ 𝑕𝑘 − 𝜇𝑘

𝑇𝑥

𝑥𝑇 𝑥𝑘

Par conséquent, on peut définir les contraintes par𝐺(𝑥) tel que

𝐺 𝑥 = ℙ gk x ≥ ξk x , k ϵ K

où ξk(x)∼ N(0;1).

Dans le cas de problèmes avec une contrainte en probabilité, i.e., K=1, l‘ensemble de solutions (2) s‘écrit sous la forme :

𝑋 𝑝 = 𝑥𝜖𝑋 | 𝜇1𝑇𝑥 + 𝜙−1(𝑝) 𝑥𝑇 𝑥

1≤ 𝑕1

où Φ est la fonction de répartition. Dans ce cas, résoudre le problème (1) revient à résoudre le problème conique de second ordre (SOCP) suivant :

min 𝑐𝑇𝑥 sous les contraintes 𝑥𝜖𝑋 𝑝 (3)

Le problème (3) est un problème convexe lorque p ≥ 0.5 et peut être résolu en temps polynomial à l‘aide des méthodes de points intérieurs. Nous avons utilisé le solveur libre SeDuMi pour la résolution de ces problèmes. Pour résoudre les problèmes des arrêts du nucléaire qui contiennent des variables binaires, nous avons développé sous matlab un prototype de B&B. Nous avons donc résolu ce problème combinatoire stochastique de manière exacte pour des instances de taille moyenne.

Contraintes en probabilités jointes

Si le nombre de contraintes en probabilités dans (2) est supérieur à 1, i.e., K > 1, on a montré en 2012 que le problème avec des CPJ peut s‘écrire sous la forme :

𝑋 𝑝 = 𝑥𝜖𝑋 | ∃𝑦𝑘 ≥ 0, 𝑦𝑘 = 1 ∶

𝐾

𝑘=1

𝜇𝑘𝑇𝑥 + 𝜙−1(𝑝𝑦𝑘 ) 𝑥𝑇 𝑥

𝑘≤ 𝑕𝑘 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑘 𝜖 𝐾

où yk sont des variables auxilaires (cf. Cheng et Lisser (2012) pour plus de détails).

Au-delà de la formulation SOCP pour les CPI, nous avons commencé à étudier les problèmes en contraintes en probabilités jointes (CPJ) qui sont de très loin beaucoup plus complexes que ceux avec CPI. Nous avons considéré ces problèmes dans le cas où les variables sont binaires. Nous avons formulé les problèmes avec CPI puis avec CPJ et variables binaires à l‘aide de relaxation semidéfinies positives et copositives. L‘optimisation copositive est une approche conique plus puissante que l‘optimisation semi-définie. Notons que les problèmes avec CPJ font partie du programme de la deuxième année du projet.

Les relaxations semidéfinies positives et copositives permettent de prendre en compte de manière efficace l‘intégrité des variables.

Optimisation distributionnellement robustes

Lorsque la distribution de probabilité relative aux variables aléatoires du problème n‘est pas connue mais on dispose des premiers moments, on peut prendre en compte l‘incertitude par les méthodes distributionnellement robustes. Le concept d‘optimisation distributionnellement robuste a été proposé pour la première fois par H. Scarf en 1958 qui avait appelé son approche la méthode min-max pour l‘optimisation stochastique. La première application de cette approche était le problème de vendeurs de

Page 45: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 45 sur 60

journaux. Peu d‘applications ont été réalisées à cause de la difficulté de résolution d‘instances de grande taille. Depuis l‘extension des méthodes de points intérieurs pour la résolution de problèmes d‘optimisation semi-définis, ce domaine a connu un essor important comme en témoigne le nombre de publications. Delage et Ye ont démontré en 2010 que les problèmes distributionnellement robustes (PDR) peuvent être résolus en temps polynomial grâce à l‘optimisation SDP lorsque les deux premiers moments sont contraints. Chen et al. en 2006 et Zymler et al en 2013 ont étendu le travail de Calfiore et al. (2006) pour fournir des approximations pour les problèmes en CPJ. A notre connaissance, il n‘y a pas eu de travaux sur ce problèmes robustes avec des variables entières. La formulation distributionnellemnt robustes du problème (1) s‘écrit:

min 𝑐𝑇𝑥 sous les contraintes ℙF {𝑡𝑘𝑇𝑥 ≤ 𝑕𝑘 , k = 1, . . , K} ≥ 𝑝, 𝑥 ∈ 𝑋 , (4)

où F est une mesure de probabilité sur l‘espace (𝑡, ℱ)

Dans le cadre de ce projet, nous avons généralisé notre approche algorithmique utilisée pour la résolution de problèmes avec CPJ pour la résolution des problèmes de type (4) avec en plus des variables binaires. Nous avons appliqué notre approche à quelques problèmes combinatoires standards tels le problème de sac-à-dos multidimentionnel. Les résultats sont très prometteurs et sont plus performants que la plupart des approches de la littérature citée ci-dessus.

Suite des travaux

Un accent particulier sera mis sur la capture de la dépendance entre les variables aléatoires des lignes de la matrice aléatoire à l‘aide des copules.

Publications, communications, animation scientifique du PGMO :

Publications et communications du projet

Articles

[1] Jianqiang Cheng, Abdel Lisser, Marc Letournel: Distributionally robust stochastic shortest path problem. Electronic Notes in Discrete Mathematics 41: 511-518 (2013)

[2] Jianqiang Cheng, Abdel Lisser : A completely positive representation of 0–1 linear programs with joint probabilistic constraints, Operations Research Letters, 41(6):597-601 (2013)

[3] Jianqiang Cheng, Erick Delage and Abdel Lisser : Distributionally robust stochastic knapsack problem, submitted to SIAM journal on optimization.

[4] Agnès Gorge, Abdel Lisser, Riadh Zorgati and Jianqiang Cheng : Investigating a distributionnally robust approach for handling a joint chance-constraint, submitted

[5] Jianqiang Cheng, Marc Letournel and Abdel Lisser : Distributionally robust stochastic shortest path problem, submitted to Networks.

Communications

[6] Jianqiang Cheng, Erick Delage and Abdel Lisser : Distributionally robust stochastic knapsack problem, International conference on Stochastic Programming, Bermao, Italy, Juillet 2013

[7] Jianqiang Cheng and Abdel Lisser: Stochastic two-player zero sum game with joint probabilistic constraints, EURO-INFORMS, Juillet 2013, Rome, Italie (A. Lisser a co-organisé le cluster stochastic programming de la conférence).

[8] Abdel Lisser: A CP representation of 0-1 LPs with Joint Probabilistic Constraints, EUROPT‘13, Florence, Italie, Juin 2013 (invited talk in copositive optimization and discrete structures)

[9] Pablo Adasme, Abdel Lisser and Chen Wang: A Distributionally Robust Formulation for Stochastic Quadratic Bi-level Programming, ICORES‘2013, Barcelone, Espagne, Févier 2013.

[10] Jianqiang Cheng, Marc Letournel and Abdel Lisser : Distributionally robust stochastic shortest path problem, INOC‘13, Tenerife, Espagne, Mai 2013

[11] Jianqiang Cheng, Abdel Lisser : A completely positive representation of 0–1 linear programs with joint probabilistic constraints, ROADEF, Troyes, Février 2013

[12] Jianqiang Cheng, Eric Delage, Abdel Lisser: Distributionnally robust chance constrained knapsack problem, Conférence PGMO d‘octobre 2013

[13] Michal Houda, Abdel Lisser: On the use of copulas for the joint probabilistic constrained problems, Conférence PGMO d‘octobre 2013

[14] Abdel Lisser, Jianqiang Cheng: A completely positive representation of 0-1 Linear Programs with Joint Probabilistic Constraints, Conférence PGMO d‘octobre 2013

Page 46: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 46 sur 60

1.2.17 Optimisation du placement des arrêts nucléaires (problème « PAN »)

Equipe

Wolfer-Calvo Roberto , Rozenknop Antoine, Parix XIII, LIPN

Jost Vincent, Savourey David, CNRS, LIX

Vanderbeck François, Dupin Nicolas (PhD), RealOpt INRIA

Marc Porcheron, Pascale Bendotti, EDF, Paris

Objectifs :

Il s‘agit d‘étendre le problème d‘optimisation du placement des arrêts nucléaires à la prise en compte des aléas (demande, durée des arrêts,...) via des approches de type recours (réoptimisation sous contrainte de rester « proche » du planning nominal). Une étude méthodologique des compromis possibles entre finesse de modélisation et maîtrise de la complexite calculatoire des modèles sera réalisée.

Bilan scientifique :

Le problème abordé dans ce projet consiste à déterminer les dates d'arrêts pour maintenance des centrales nucléaires, ainsi que les quantités de combustible rechargées lors de ces arrêts, en minimisant un coût globale de production tout en respectant diverses contraintes de fonctionnement, d'ordonnancement et de satisfaction de demande (problème décrit initialement lors du challenge ROADEF 2010).

Ce problème est réoptimisé à chaque mois, en fonction de l’état courant du système et de nouvelles

prévision sur les aléas susceptibles de l’affecter dans le futur. La solution change donc d'un mois sur

l'autre. Cependant, les variables de décision peuvent difficilement être modifiées au fil de ces réoptimisations, car elles induisent des engagements logistiques à moyen terme. (contractualisation avec des sociétés prestataires pour la réalisation des opérations de maintenance pendant un arrêt prévus dans 2 ans, par exemple),.

L’ensemble des solutions calculées au fil des réoptimisations mensuelles pour une décision particulière

(date d’un arrêt, typiquement) doit donc être « stable »..

La spécification de cette « stabilité » et la définition/mise en œuvre d’une méthodologie de résolution

garantissant cette stabilité constituent les objectifs principaux du projet.

La première partie du travail a consisté à définir les nouveaux types d'aléas qui viennent compléter ceux

pris en compte dans le sujet du challenge ROADEF.. Il s’agit :

des arrêts « fortuits » (i ;e. des arrêts involontaires de la production durant un certain nombre de pas de temps. La présence d'un fortuit stoppe temporairement la consommation du combustible, ce qui peut potentiellement invalider des contraintes de sécurité sur le stock maximal en cœur au

moment de l’arrêt suivant la campagne de production en cours..

des aléas sur la durée des arrêts.

Ces deux types d'aléas ont un impact sur l'espacement des dates d'arrêt.

Toujours dans la première phase nous avons aussi discuté la forme et la typologie de la fonction objectif et son adéquation avec la question de la stabilité.

Le problème tel que formulé lors du challenge ROADEF 2010 était déjà complexe et nous ajoutons ici de nouvelles problématiques, (aléas supplémentaires, robustesse, stabilité, réoptimisation). Par conséquent nous avons du initialement réfléchir à des simplifications pour pouvoir aborder le problème. Nous avons commencé par travailler sur une formulation simplifiée, avec une seule centrale et ramener la description de l'évolution de l'état de la centrale à une suite de contraintes de précédence.

Nous nous focalisons maintenant sur le problème complet. Les méthodes de résolution que nous sommes en train d‘étudier sont basées sur la technique de génération de colonnes (« Dantzig-Wolfe en nombres entiers »). Chaque sous-problème détermine des plannings pour chaque centrales et le programme maître se charge de coordonner ces plans pour satisfaire les diverses contraintes de couplage.

Pour assurer une forme de stabilité, nous introduisons une contrainte d'intervalle respectée en probabilité. Pour la traiter, nous étendons une approche de type Chance Constraints, proposée par Guy Desaulniers

Page 47: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 47 sur 60

et al. (TRISTAN 2013).

Publications, communications

[1] C. Pira, “Optimization of stochastic combinatorial problem: scheduling maintenance and refueling outages of nuclear power plants”, Conférence PGMO d‘octobre 2013

Page 48: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 48 sur 60

1.2.18 Réduire la combinatoire par apprentissage

Equipe

Nicolas Beldiceanu, Mines de Nantes

A. Lenoir, JY Lucas, EDF France

Objectifs

A partir d'une base de données contenant un nombre important de solutions au problème de Unit Commitment, l'idée est d'appliquer des outils d'apprentissage de contraintes développés par l'équipe dans le but de réduire la combinatoire lors de la recherche de nouveaux plannings du problème, et de vérifier l'applicabilité de la méthode à de vrais problèmes industriels

Bilan scientifique

Travaux réalisés

Le projet s‘est déroulé comme suit:

1. La première étape a consisté prendre connaissance des problèmes potentiels ou l‘extraction de contraintes pouvait avoir un sens. Le problème choisi est un problème d‘extraction de contraintes à partir de planning de production à court terme (2 jours) sur 300 unités.

2. Dans un premier temps nous sommes repartis du model seeker qui extrait des modèles de contraintes dans le cadre de problèmes structurés, i.e. des problèmes pour lesquels on peut décrire de manière très concise l‘ensemble des contraintes par un petit nombre de conjonctions de contraintes globales telles que chaque conjonction porte sur des contraintes de nature identique.

3. Dans un deuxième temps nous avons décidé de reécrire un model seeker plus adapté aux caractéristiques du problème, à savoir:

– Nous avons à faire à un problème semi structuré dans lequel des séries temporelles donnent la production d‘une unité par tranches d‘une demi-heure. Ces séries capturent des contraintes structurelles (i.e., les contraintes représentant les conditions spécifiques de fonctionnement de l‘unité) et des facteurs plus aléatoires (e.g., variations des conditions climatiques, évênements particuliers, . . . ).

– La taille des données étant très importante (donnés à la journée par pas d‘une demi heure sur 6 ans pour 300 sites) cela posait des problèmes de performances à différents niveaux qu‘il a fallu prendre en compte.

– Vu que les donnés sont des séries temporelles et qu‘elles ont une certaine variabilité il est illusoire de ne vouloir apprendre que des contraintes dures valables pour toutes les séries. Pour cette raison nous avons:

(a) Fait un clustering en amont des séries temporelles pour les regrouper en un petit nombre de cluster similaires sur lesquels on peut apprendre des modèles plus précis.

(b) Nous avons donc opté de se concentrer sur des contraintes correspondant à une dépendance fonctionnelle sur une séquence, e.g. le nombre de valeurs distinctes, le nombre de pics, distance minimale entre deux pics consécutifs . . . . Un certain nombre de contraintes métier ont été rajoutées dans le catalogue de contraintes globales à cette occasion.

Enfin tout au long du projet un certain nombre d‘outils de visualisations ont été developpés pour aider à mieux appréhender les données et saisir les résultats.

Suites

Les points suivants seront traités l‘an prochain:

L‘apprentissage sur des périodes de temps de plus d‘un mois: en effet il semble que certains processus (ese déroulent sur des périodes de plus d‘un mois et que l‘on peut apprendre l‘évolution au cours du temps de certains critères (et pas juste une fourchette min/max comme c‘est le cas maintenant).

Apprentissage de contraintes de répartition (sur une somme, un nombre de pics, . . . )

Recherche de corrélation entre demande globale et production au niveau d‘une unité.

Page 49: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 49 sur 60

Génération de conditions nécessaires fortes pour rendre robuste les modéles appris.

Ce dernier item est basé sur le constat suivant. Les modéles appris correspondent essentiellement à une conjonction de contraintes où chaque contrainte restreint une caractéristique (e.g., restreint le nombre de pics, la somme, . . . à être situées dans des fourchettes données). Comme toutes ces caractéristiques s‘appliquent à une même série temporelle, ces caractéristiques ne sont pas indépendantes. On souhaite donc identifier de maniére systématique des conditions nécessaires fortes reliant ces caractéristiques pour injecter ces conditions dans les modéles appris.

Publications, communications, animation scientifique du PGMO :

Publications et communications du projet

[1] N. Beldiceanu, G. Ifrim, A. Lenoir, H. Simonis: Describing and Generating Solutions for the EDF Unit Commitment Problem with the ModelSeeker. Principles and Practice of Constraint Programming - 19th International Conference, CP2013, Uppsala, Sweden, September 16-20, 2013. Lecture Notes in Computer Science vol. 8124, pp. 733–748.

[2] N. Beldiceanu, M. Carlsson, J.-X. Rampon: Global Constraint Catalog 2nd Edition (revision a), version courante du 11 septembre 2013 du SICS Technical Report T2012:03 téléchargeable à http://www.emn.fr/z-info/sdemasse/aux/doc/catalog.pdf. Intégre contraintes métiers sur séries temporelles, e.g., all equal peak p. 468, big peak p. 700, equilibrium p. 1172, min width peak p. 1678, . . . .

[3] Nicolas Beldiceanu (Ecole des Mines de nantes) " Description de contraintes par des méta-données et application à des problèmes d'apprentissage ", Séminaire PGMO d‘avril 2013

[4] Nicolas Beldiceanu (Ecole des Mines de nantes) " Résolution de problèmes d'ordonnancement cumulatif de grande taille ", Séminaire PGMO d‘avril 2013

[5] N. Beldiceanu, ―Describing and Generating Solutions for theEDF Unit Commitment Problem with the ModelSeeker”, Conférence PGMO d‘octobre 2013 :

Page 50: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 50 sur 60

1.2.19 Contrôle stochastique optimal pour la gestion actif-passif

Equipe :

F. Bonnans,L. Pfeiffer, CMAP

O. Klopfenstein, EDF Paris

Objectifs :

Il s‘agit d‘étudier des modèles de contrôle stochastique pour la gestion d'un portefeuille d'actifs destiné à couvrir sur le long terme les coûts de gestion des déchets et de démantèlement des réacteurs nucléaires

Bilan scientifique

Présentation générale

Ce projet a porté sur des problèmes de contrôle optimal stochastique avec une contrainte en probabilité. Une application à la gestion actif-passif a été étudiée. Considérons une variable d‘état X dont la dynamique est donnée par:

𝑑𝑋𝑡 = 𝑓 𝑋𝑡 , 𝑢𝑡 𝑑𝑡 + 𝜎 𝑋𝑡 , 𝑢𝑡 𝑑𝑊𝑡 (1)

où Wt est un mouvement brownien, 𝒰 l‘ensemble des processus adaptés à W à valeur dans un compact

U. Le controle u appartient à 𝒰. Etant donnés un contrôle u et la condition initiale𝑋𝑡 = 𝑥, nous notons 𝑋𝑡 ,𝑥 ,𝑢 la solution de (1). Nous étudions:

𝑉 𝑡, 𝑥, 𝑧 = min𝑢𝜖𝒰 𝔼 Φ(𝑋𝑇𝑡 ,𝑥 ,𝑢) , (2)

tel que 𝔼 g(𝑋𝑇𝑡 ,𝑥 ,𝑢) ≥ 𝑧 (3)

Lorsque g est la fonction indicatrice d‘un ensemble K et z∈[0,1], la contrainte (3) est équivalente à la

contrainte en probabilité : ℙ 𝑋𝑇𝑡,𝑥 ,𝑢𝜖 𝐾 ≥ 𝑧. Un contrôle u satisfait la contrainte (3) si et seulement si il

existe une martingale Z telle que 𝑍𝑡=z et 𝑍𝑡 ≤ g(𝑋𝑇𝑡 ,𝑥 ,𝑢) presque sûrement, ce qui motive une approche

par programmation dynamique.

Propriétés générales

Trois nouvelles propriétés de la fonction valeur de la fonction valeur ont été étudiées.

1. Si g est lipschitzienne, alors V(t,x,z) est convexe par rapport à z. Sans hypothèses sur g et dans une formulation en temps continu ou discret, cette propriété reste vraie si l‘on autorise des stratégies mixtes à la place de contrôles purs.

2. Etant donnés un contrôle optimal u, la trajectoire 𝑋𝑇𝑡 ,𝑥 ,𝑢

et la martingale Z associée, si λ∈ℝ est un

sous-gradient de V(t,x,z), alors presque sûrement, λ est un sous-gradient de 𝑉(𝑠, 𝑋𝑇𝑡 ,𝑥 ,𝑢 , 𝑍𝑠), pour

tout s∈[t,T]. En d‘autres termes, à l‘optimum, la sensibilité par rapport au niveau d‘espérance z est constante le long des trajectoires optimales.

3. La transformée de Fenchel par rapport à z, notée 𝑉∗(𝑡, 𝑥, 𝜆) est elle-même solution d‘un problème

de contrôle optimal stochastique (sans contraintes), visant à maximiser 𝔼 −Φ 𝑋𝑇𝑡 ,𝑥 ,𝑢 + 𝜆𝑔(𝑋𝑇

𝑡,𝑥 ,𝑢 ) .

EDP pour la fonction valeur, sa transformée de Fenchel et la frontière du domaine

Bouchard, Elie et Touzi ont récemment montré que V était solution de viscosité d‘une certaine EDP, pour laquelle le hamiltonien et les contrôles impliqués sont non-bornés [2]. Nous proposons une autre EDP, adaptée de [1], pour laquelle le hamiltonien et les contrôles impliqués sont bornés.

D‘un point de vue numérique, il est important de pouvoir calculer la frontière du domaine de V. Deux

approches sont envisageables : la première consiste à calculer la valeur maximale de 𝔼[𝑔 𝑋𝑇𝑡 ,𝑥 ,𝑢 ], étant

donné (t,x). La seconde consiste à calculer la plus petite valeur de x pour laquelle il existe un contrôle

admissible, étant donné (t,z) (dans le cas où g est croissante et x∈ℝ). La première approche a retenu notre attention.

Enfin, nous donnons l‘EDP satisfaite par V*, qui est la fonction valeur d‘un problème standard sans

contrainte.

Page 51: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 51 sur 60

Méthodes numériques

Une première approche essentiellement fondée sur l‘EDP régissant V est envisageable, en adaptant la méthode de [1], consistant en un schéma implicite de différences finies généralisées de dimension supérieure ou égale à 2. Cette approche n‘a pas été retenue, étant donnée sa complexité. De plus, la prise en compte de la frontière du domaine semble difficile.

Une deuxième approche, dite de relaxation lagrangienne [3], consiste à évaluer la bi-conjuguée de V (par

rapport à z), puisqu‘en général, V est convexe en z. Pour cela, nous calculons 𝑉∗(𝑡, 𝑥, 𝜆) pour un échantillon convenablement choisi de valeurs possibles de λ, avec des schémas classiques (différences finies ou schéma semi-lagrangien). Cette approche est équivalente à celle consistant à discrétiser d‘abord X avec une chaîne de Markov contrôlée puis à considérer la contrainte (3) sur la variable discrétisée.

Modélisation du problème de gestion actif-passif

Des tests numériques ont pu être réalisés sur un problème (simplifié) de gestion actif-passif proposé par EDF. Dans ce modèle, l‘actif est un portefeuille d‘actifs, pour lequel la variable de contrôle est la répartition au sein des différents actifs. Le passif est la valeur estimée du coût du démantelement d‘une centrale à une date donnée. A cette date, la valeur du portefeuille doit être supérieure au coût de démantelement.

Perspectives

Plusieurs questions théoriques restent ouvertes. La justification de nos schémas numériques et de l‘EDP que nous proposons sont les plus importantes. Du point de vue de l‘application, une formulation plus sophistiquée du problème est à présent enviseable : une mesure de risque à la place d‘une simple espérance pour la fonction coût, une contrainte en probabilité portant sur l‘ensemble des pas de temps, par exemple.

Bibliographie

[1] O. Bokanowski, B. Bruder, S. Maroso, and H. Zidani. Numerical approximation for a super-replication problem under γ-constraints. SINUM, 2009.

[2] B. Bouchard, R. Elie, and N. Touzi. Stochastic target problems with controlled loss. SICON, 2010.

[3]J.-B. Hiriart-Urruty and C. Lemaréchal, Convex Analysis and Minimization Algorithms. Springer, 1993.

Publications, communications

[1] Olivier klopfenstein (EDF R&D) et Laurent Pfeiffer (Ecole Polytechnique) : "Contrôle Stochastique Optimal pour la gestion Actif-Passif", Séminaire PGMO de décembre 2012

[2] Laurent Pfeiffer, « Contrôle Stochastique Optimal pour la gestion Actif-Passif", Conférence PGMO d‘octobre 2013

Page 52: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 52 sur 60

1.2.20 Optimisation du coeur d'un reacteur a neutrons rapides

Equipe

Gregoire Allaire, Olivier Pantz, CMAP Ecole Polytechnique

D. Schmitt, EDF Clamart

Objectifs

Il s‘agit d‘améliorer un algorithme d'optimisation de formes

Bilan scientifique

Problématique

L‘épuisement des ressources fissiles à long terme (approximativement sur la période 2050-2100) conduit à envisager, pour la fin du siècle, le remplacement du parc nucléaire actuel par un parc de Réacteurs a Neutrons Rapides (RNR) surgénérateurs, fonctionnant avec un combustible composé d‘uranium appauvri et de plutonium.

Parmi les six filières retenues dans le forum international Génération IV, trois sont des RNR, dont le RNR-Na, ou SFR (Sodium Fast Reactor), qui est refroidi au sodium. Des études sont actuellement en cours afin d‘améliorer le comportement de ces cœurs lors d‘un accident de perte du caloporteur (le sodium) en l‘absence de chute des barres de contrôle. Contrairement aux réacteurs à eau pressurisée, la perte du

caloporteur dans un RNR-Na peut avoir un effet positif en réactivité, ce qui induit une augmentation de puissance alors même que l‘on perd tout moyen de l‘évacuer. Récemment, un regain d‘intérêt a été constaté pour les géométries hétérogènes de cœurs. Une optimisation de la seule forme de la géométrie du cœur peut permettre d‘améliorer fortement leur comportement. Des cœurs hétérogènes ont d‘ailleurs été conçus au CEA et à EDF.

En mécanique, l‘utilisation d‘un cadre mathématique adéquat pour des méthodes d‘optimisation de forme donne de très bons résultats pour la conception optimale de structures. Nous avons donc choisi d‘appliquer ces méthodes d‘optimisation géométrique et paramétrique à la conception d‘un RNR-Na.

Ce projet s‘inscrit dans la continuation de travaux réalisés lors des stages d‘Emmanuel Dombre (actuellement thésard à EDF) et de Guillaume Gourlaouen (actuellement à AREVA), à travers le stage de Nicolas Pozin (élève à l‘ Ecole Centrale).

Résultats obtenus

Des résultats partiels ont d‘ores et déjà été obtenus par l‘équipe, aboutissant à la réalisation d‘un code d‘optimisation de forme basé sur une modélisation simplifiée du réacteur. Dans une première phase, un

algorithme d‘optimisation des paramètres matériaux (sections efficaces) et un algorithme d‘optimisation géométrique de l‘interface entre les différents sous-domaines (zone fissile, zone fertile, plenum et réflecteur) ont été développés. Les contraintes (de type volume prescrit) ont été prises en compte par une

méthode de Lagrangien augmenté. L‘optimisation est effectuée par un simple algorithme de gradient avec une heuristique sur le choix de pas de descente (sachant que chaque évaluation de la fonction objectif coûte cher car cela correspond à un calcul de diffusion par éléments finis). Des techniques de régularisation de la direction de descente (pour éviter des oscillations du maillage) sont aussi utilisées. Ces travaux ont fait l‘objet de la rédaction d‘un article de proceedings.

Dans un deuxième temps, Guillaume Gourlaouen a apporté des améliorations substantielles à la version initiale. Ces améliorations portent sur le choix de fonctions coût plus réalistes, sur l‘amélioration de la prise en compte de la contrainte de volume sur la zone fissile et sur l‘implémentation de la méthode des points intérieurs comme alternative à la méthode de gradient classique. Ces travaux ont fait l‘objet d‘un rapport de stage.

Perspectives

Plusieurs améliorations à l‘algorithme d‘optimisation actuel seront apportées afin d‘une part de le rendre

plus efficace et d‘autre part de générer des géométries plus réalistes (en utilisant des modèles plus fins et en intégrant des contraintes de faisabilité). Plus précisément, les objectifs futurs consistent à :

Améliorer l‘algorithme d‘optimisation multi-critères (par exemple, en implémentant un algorithme

de type SLP ou SQP) et étudier sa robustesse à différents paramètres (géométrie d‘initialisation, contrainte de volume, régularisation du champ de déplacement, etc.).

Page 53: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 53 sur 60

Effectuer une recherche systématique des designs optimaux suivant le poids affecté a chacun des critères à optimiser, c‘est a dire a déterminer le front de Pareto.

Relâcher les contraintes géométriques (actuellement le rayon externe du cœur est fixé), et voir comment déboucher sur des géométries innovantes mais réalistes, c‘est a dire qui peuvent être réalisées à l‘aide d‘un réseau d‘assemblages. Ceci implique la prise en compte de contraintes géométriques de faisabilité qui n‘ont pour le moment pas été intégrées.

Ajouter de nouvelles contraintes (prise en compte du bilan neutronique à travers le gain de régénération instantané ou l‘ajout des équations d‘évolution) et améliorer la prise en compte de la contrainte de volume.

Comprendre physiquement pourquoi la géométrie du ou des optimum(s) trouvé(s) correspond à une minimisation de l‘effet de densité du sodium sous les contraintes choisies et vérifier les performances du cœur de RNR-Na correspondant à l‘aide du code de calcul neutronique de référence ERANOS.

Publications, communications, animation scientifique du PGMO :

Publications et communications du projet [1] Damien Schmitt, Grégoire Allaire, Olivier Pantz, Nicolas Pozin, Shape optimization of a so-

dium cooled fast reactor, Joint Internation Conference on Supercomputing in Nuclear Applica-tions and Monte Carlo 2013

[2] Emmanuel Dombre, Grégoire Allaire, Olivier Pantz, Damien Schmitt, Shape optimization of a Sodium Fast Reactor core ESAIM: Proc. 38 319334 (2012) DOI: 10.1051/proc/201238017

[3] Guillaume Gourlaouen Application d‘une méthode d‘optimisation géométrique à un RNR-Na à effet densitè sodium réduit, rapport de fin de stage.

[4] Présentation lors de CEMRACS 2012 par G. Gourlaouen [5] Présentation dans le cadre du séminaire du SERMA (CEA Saclay) par G. Allaire

Production de code

Plusieurs scripts d‘optimisation ont été implémentés afin de tester les méthodes d‘optimisation proposées. Ces derniers on été réalisé sous FreeFem++ (www.freefem.org), logiciel libre de calcul d‘éléments finis. Ils ont permis de dégager de nouvelles pistes de designs possibles du cœur des réacteur à neutrons rapides.

Page 54: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 54 sur 60

2 Invitations de professeurs

Sur la période considérée, une invitation de professeur étranger a été réalisée : Giuseppe Buttazzo

Giuseppe Buttazzo, professeur à l'Université de Pise en Italie et expert renommé en calcul des variations (récemment ses travaux on porté surtout sur des modèles de transport optimal et des questions d'optimisation de forme), a été invité par le Laboratoire de Mathématiques d'Orsay pendant un mois en 2012/13.

Son séjour s'est déroulé sur dex périodes de deux semaines : la deuxième quinzaine de mars et la première de juillet.

Lors de son premier séjour, il a dispensé un cours, intitulé ``Topics in Shape Optimization'', devant un public composé essentiellement d'étudiants de M2 et doctorants. Le cours a eu un certain succès, suivi par une douzaine de personnes, et validé par 5 étudiants du M2 EDP et Calcul Scientifique de l'Université Paris-Sud.

Giuseppe Buttazzo a plusieurs collaborations dans la région parisienne, et ses séjours ont été l'occasion de les développer. En particulier, son premier séjour a servi à terminer la phase finale de rédaction d'un article en collaboration avec F. Santambrogio et l'équipe de J.-M. Morel à l'ENS Cachan sur les équations d'évolution d'un paysage géologique, article récemment accepté par la revue Interfaces and Free Boundaries. Ce papier, qui s'est finalement concentré sur des modèles évolutifs, est né des modèles d'optimisation de réseaux idrauliques et de leurs applications en géophysique étudiés par Buttazzo, Santambrogio et Morel en 2002-2007.

La présence de Giuseppe Buttazzo au laboratoire LMO a été également profitable aux doctorants de la même équipe, en particulier à Jean Louet, qui était en train de travailler sur des questions de transport optimal dans des espaces de Sobolev par rapport à des mesures singulières, sujet introduit par G. Buttazzo et des collaborateurs en 1996.

3 Animation scientifique

Le PGMO organise chaque année une conférence internationale à l‘automne, et un séminaire mensuel régulier.

3.1 Conférence de septembre 2012

La conférence de septembre 2012 a été l‘occasion d‘inaugurer le programme, en présence de 150 chercheurs et industriels. Des exposés invités ont été présentés par Terry Rockafellar, Youri Nesterov, Jean-Baptiste Hiriart-Uruty, Philippe Toint, et Pierre-Louis Lions. La deuxième journée a été l‘occasion pour les chercheurs du plateau de Saclay de présenter leurs travaux. Notamment Alexandre d‘Aspremont, Marie-Christine Costa, Stéphane Gaubert, Leo Liberti, Abdel Lisser, Filippo Santambroggio, Mario Cigalotti et Nizar Touzi ont proposé des exposés. La présence d‘EDF a été notable via les allocutions de Bernard Delpech, directeur délégué de la R&D et de Stéphane Andrieux, directeur scientifique, ainsi que d‘exposés techniques sur les thèmes de l‘IROE par Marc Porcheron et Nadia Oudjane .

Première journée :

F. Pacard, Ecole Polytechnique Deputy Director

Introduction

JB. Hiriart-Urruty, University Paul Sabatier, Toulouse, France

―Variational aspects of rank minimization problems‖

P. Toint University of Namur, Belgium

―Evaluation complexity in smooth constrained and unconstrained optimization‖

Y. Nesterov University of Louvain, Belgium

―Subgradient methods for huge-scale optimization problems‖

R.T. Rockafellar University of Washington, Seattle, USA

―The modeling of risk in optimization involving uncertainty‖

Grégoire Allaire, Ecole ―Presentation of FMJH and PGMO, 2012 "call for projects" : elected

Page 55: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 55 sur 60

Polytechnique, France Sandrine Charousset, EDF R&D, France

projects

Stéphane Andrieux EDF R&D scientific director

―Evolutions et nouveaux besoins du système électrique‖

Yves Laszlo, FMJH Director Bernard Delpech (EDF R&D Deputy Director)

Conclusion

Deuxième journée :

A. Reichart, ENSTA deputy director

Introduction

PL. Lions Collège de france

"On mean field games"

A. D'Aspremont CNRS and Ecole Polytechnique, FRANCE

"Phase Recovery, MaxCut and Complex Semidefinite Programming"

M. Porcheron EDF R&D, France

"Optimisating nuclear outages : recent advances and perspectives"

MC. Costa ENSTA Paristech and CEDRIC, France

"Robust mixed integer programming with continuous recourse variables"

S. Gaubert INRIA and Ecole Polytechnique, France

"A tropical approach of zero-sum games"

L. Liberti Ecole Polytechnique, France

"Distance constraints in Euclidean geometry"

A. Lisser University Paris-Sud, France

"Optimizing with probabilistic constraints"

N. Oudjane EDF R&D, France

"Unit-Commitment in Energy Management : recent advances and perspectives"

F. Santambrogio University Paris-Sud, France

"Asymptotical problems in optimal location‖

M. Sigalotti INRIA and Ecole Polytechnique, France

"Second-order optimality conditions and small-time geodesics in sub-Finsler geometry"

N. Touzi Ecole Polytechnique, France

"Optimal transportation under controlled stochastic dynamics"

Les exposés sont publiés sur www.fondation-hadamard.fr/pgmo/conferences/2012

3.2 Conférence de septembre 2013

La conférence d‘octobre 2013 a vu la présence de Arkadii Nemirovski, Andrea Lodi, Marc Teboulle et Yves Smeers qui ont proposé des exposé.

La deuxième journée a été l‘occasion d‘un bilan de la première année du PGMO sous forme de sessions thématiques où les équipes projet ont présenté leurs travaux.

Première journée :

Arkadi NEMIROVSKI ―Norm-regularized Conditional Gradient algorithm for large-scale convex optimization―

Yves SMEERS ―Market design, investment and Mothballing : a complementarity problem analysis‖

Andrea LODI ―Mixed-integer nonlinear optimization – Recent advances and applications to energy networks‖

Marc TEBOULLE ―Sparse optimization in action‖

Page 56: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 56 sur 60

Olivier Fercoq (PGMO PhD Prize)

"Optimization of Perron eigenvectors and applications:from web ranking to chronotherapeutics‖

Thibaut Vidal (PGMO PHD Prize)

―On unified methods for multi-attribute VRPs, route evaluation operators and large neighborhoods"

Grégoire Allaire Sandrine Charousset

"Review of PGMO first year"

Grégoire Allaire Sandrine Charousset

"Presentation of PGMO New Projects"

Deuxième journée :

COMBINATORIAL OPTIMIZATION

A. Gleixner “Lagrangian variable bounds or how to profit from redundancy in MINLP?”

E. Traversi “Extended linear formulationfor binary quadratic problems”

V.H. Nguyen “Techniques de linearisation et convexification pour la programmation quadratique 0/1 non convexe : etude de cas du problem de partitionnement de graphes sous contrainte de capacité”

F. Serrano “Operation and Optimization of Gas Transmission Networks”

R. Lenz “Topology Planning of Gas transport Networks”

J. Humpola “Solving Nonconvex MIQCP arising in Gas Network Extension Planning”

R. Wolfler Calvo “Local reoptimization for set partitioning problems”

F. Meunier / P. Sarrabezolles “Programmation linéaire colorée”

M. Bellalij / S. Hanafi “Generalized trace ratio optimization and applications”

R. Grappe “Reverse Chvatal-Gomory Ran”

A. Cassioli “On the complexity of discretization vertex orders for distance geometry problems”

SCHEDULING OUTAGES FOR NUCLEAR PLANTS

P. Bendotti “Scheduling of nuclear outages: problem, current approaches, areas of research in progress”

N. Dupin “Formulations and resolutions for the deterministic problem of scheduling of nuclear outages”

A. Gorge “Addressing the combinatorial and quadratic features of the nuclear outages scheduling problem with Semidefinite Programming”

C. Pira “Optimization of stochastic combinatorial problem: scheduling maintenance and refueling outages of nuclear power plants”

B. Detienne “Extended formulation for maintenance planning of nuclear power plants”

PROBABILISTIC CONSTRAINTS AND ROBUST OPTIMIZATION

W. Van Ackooij “Gradient Formulae for bilateral degenerate probabilistic constraints and applications”

J. Cheng “Distributionnally robust chance constrained knapsack problem”

L. Pfeiffer “Chance-constrained stochastic optimal control”

J.-C. Alais “Contrôle optimal de la production hydroélectrique d’un barrage sous contrainte en probabilité”

M. Houda “On the use of copulas for the joint probabilistic constrained

Page 57: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 57 sur 60

problems”

A. Lisser “A completely positive representation of 0-1 Linear Programs with Joint Probabilistic Constraints”

SHORT TERM OPTIMIZATION OF ELECTRICITY GENERATION SCHEDULES

N. Beldiceanu “Describing and Generating Solutions for the EDF Unit Commitment Problem with the ModelSeeker”

N. Oudjane “Another viewpoint on augmented Lagrangian approaches for unit commitment problems”

V. Berge “On-demand accuracy bundle methods for chance-constrained problems”

R. Figueiredo “Inexact Bundle methods: a computational comparison of differents schemes with applications to energy problems”

S. Zaourar “Exploiting uncontrolled information in nonsmooth optimization”

A. Frangioni “Hybrid Lagrangian-MILP approach for the Unit Commitment: issues and opportunities”

MARKET EQUILIBRIUM AND HYDROELECTRIC VALLEYS

N. Grebille “Approximate quantity decomposition methods for long-term electricity networks”

M. Pistek “An analytical approach of one producer best response to other producersbids estimates in electricity market”

A. Dallagi “On cutting plane algorithms and dynamic programming for hydroelectricity generation”

LARGE SCALE SYSTEMS AND DYNAMIC PROGRAMMING

P. Mahey “Operator splittingfor large structured optimization models”

Z. Qu “Max-plus numerical methods for Hamilton-Jacobi equations: attenuation of the curse of dimensionality”

V. Leclère “Epiconvergence of relaxed stochastic”

A. Lenoir “Decomposition and supervised learning for electricity production plan repair”

J.-C. Alais “Gestion de la production hydroélectrique d’une cascade de barrages par décomposition”

M. De Lara “Movie session: two short video trailers on optimization”

OPTIMIZATION FOR IMAGING

M. Nikolova “Fully smoothed L1-TV energies: properties of the optimal solution, minimization and applications”

L. Condat “A new generic proximal algorithm for large-scale nonsmooth optimization”

C. Boyer “An algorithm for variable density sampling via blocks of measurements”

Les exposés sont publiés sur www.fondation-hadamard.fr/pgmo/conferences/2013

3.3 Séminaire

11 sessions du séminaire PGMO, regroupant 23 exposés ont eu lieu :

Page 58: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 58 sur 60

Dany Ralph (University of Cambridge), "Risk aversion in capacity equilibria", joint work with Yves Smeers (Université de Louvain)

Miroslav Pistek (Académie des sciences de Pragues) & Didier Aussel (Université de Perpignan), "An analytical approach of one producer best response to other producers bids estimates in electricity market"

Nordine MAZEGHRANE & Sébastien Lepaul (EDF R&D) "Modeling the coal market‖ Nadia Oudjane (EDF R&D) " Un autre point de vue sur le Lagrangien augmenté pour la gestion

de production électrique au court-terme " Claude Lemaréchal (INRIA Grenoble) " Duality for Unit-Commitment Primal Heuristics Noisy

Oracle " Nicolas Beldiceanu (Ecole des Mines de nantes) " Description de contraintes par des méta-

données et application à des problèmes d'apprentissage Nicolas Beldiceanu (Ecole des Mines de nantes) " Résolution de problèmes d'ordonnancement

cumulatif de grande taille " Andrew Phillpott (University of Auckland, New Zealand " Modelling water shortage risks in

electricity markets with hydroelectric reservoirs " Pauline Sarrabezolles (CERMICS Ecole des Ponts) " Programmation linéaire colorée : bases,

polytopes et algorithmes " Nabil Mustafa (LIGM, ESIEE), "Local-search techniques for geometric optimization problems" Jean-Christophe Alais (EDF R&D et CERMICS) "Méthodes de décomposition en optimisation

stochastique : application à la gestion d'une vallée hydraulique" Zheng QU (CMAP, Ecole Polytechnique), "Méthodes max-plus en programmation dynamique

approchée" Bernardo Pagnoncelli and Tito Homem-de-Mello, "Tutorial on stochastic programming: from two

stage to multistage risk averse stochastic programming" Francisco Silva (Université de Limoges), joint work with J. Frédéric Bonnans (Inria & Ecole

Polytechnique), "A glimpse on mean field games and its applications" Alejandro Jofré (CMM and DIM, Universidad de Chile), joint work with Nicolas Figueroa, "Optimal

mechanism-pricing rules for electricity market" Mohammed Bellalij (université de Valenciennes): "The trace ratio optimization problem for

dimensionality reduction" Saïd Hanafi (université de Valenciennes): "Hybrid Approaches for 0-1 Mixed Integer Program" Nadia Oudjane (EDF R&D) : "Méthodes de particules en interaction pour les problèmes d'arrêt

optimal et applications à la valorisation de centrales électriques« Olivier klopfenstein (EDF R&D) et Laurent Pfeiffer (Ecole Polytechnique) : "Contrôle Stochastique

Optimal pour la gestion Actif-Passif" Anes Dallagi et Tomas Simovic (EDF R&D) : "Optimisation des actifs hydrauliques d'EDF :

besoins métiers, méthodes actuelles et perspectives" Claudia D'Ambrosio (LIX-Ecole Polytechnique) : "Optimality for tough combinatorial hydro-valleys

problems" R. Sirdey (CEA LIST) "Partitionnement stochastique de réseaux de processus" V.H. Nguyen (LIP6) "Solutions exactes pour un problème de partitionnement de graphes avec

contraintes de capacité"

Les exposés sont publiés sur www.fondation-hadamard.fr/pgmo/seminar

3.4 ROADEF 2013

Des sessions dédiées aux projets PGMO ont été organisées lors de la conférence ROADEF 2013 :

Session S40 : Optimisation pour le management d'énergies ( Sandrine Charousset et Grégoire Allaire)

Optimisation robuste d‘un parc autonome de production d‘électricité - Alain Billionnet,

Marie‐Christine Costa, Pierre‐Louis Poirion Optimality for Tough Combinatorial Hydro Valley Problems - Wim van Ackooij, Claudia

D'Ambrosio, Grace Doukopoulos, Antonio Frangioni, Claudio Gentile, Frederic Roupin, Tomas Simovic

Résolution d'un problème d'écoulement de puissance optimal en régime alternatif (AC‐OPF) avec

prise en compte de l'arrêt‐démarrage des groupes de production - Manuel Ruiz, Alexandre Marié, Pierre Girardeau

Page 59: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 59 sur 60

Le problème d'écoulement de puissance optimal en régime alternatif (AC‐OPF) consiste à déterminer, sur la base

Une modélisation LocalSolver pour le placement des assemblages combustibles en piscine -

Jean‐Yves Lucas, Didier Marcel, Thierry Benoist, Frédéric Gardi, Romain Megel

Session S52 : Optimisation pour le management d'énergies

Un jeu d'ordonnancement avec minimisation d'énergie - Christoph Dürr, Łukasz Jeż, Oscar C. Vasquez

VNS based heuristic for solving Unit Commitment problem - Raca Todosijevic, Marko Mladenovic, Said Hanafi, Igor Crevits

Centrale de pilotage PEGASE de gestion d‘une batterie couplée à un moyen de production intermittent - David Defossez, Julien Menana, Ala Ben Abbes, Stéphane Lascaud

A completely positive representaion of 0‐1 Linear Programs with Joint Probabilistic Constraints - Jianqiang Cheng, Abdel Lisser

Sur quelques modèles de marchés de l'électricité : limites et reformulations - Didier Aussel, Michal Cervinka, Matthieu Marechal, Rachana Gupta

3.5 Soutien à des workshop

Un workshop soutenu par le PGMO a été organisé par le projet « Imagerie » :

3.6 Prix de thèse

Deux prix de thèse ont été décernés cette année lors de la conférence d‘octobre, attribués par le PGMO avec la participation et le patronage scientifique de la ROADEF et de la SMAI (groupe thématique MODE). Ils sont destinés à récompenser deux thèses de doctorat, soutenues en France lors de l'année civile 2012, apportant des contributions significatives en optimisation et recherche opérationnelle, aussi bien du point de vue théorique qu'applicatif, en mathématiques et/ou informatique.

Les lauréats 2013 sont :

Page 60: Programme Gaspard Monge pour l’Optimisation et la ...95.142.164.215/sites/default/files/images/pgmo_bilanscientifique... · Bilan scientifique 2012-2013 Programme Gaspard Monge

Bilan scientifique 2012-2013 Programme Gaspard Monge pour l’Optimisation et la recherche opérationnelle

Page 60 sur 60

Olivier FERCOQ

Olivier Fercoq a fait sa thèse sous la direction de Stéphane Gaubert, Marianne Akian (X, CMAP +INRIA) et Mustapha Bouhtou (Orange Labs).

Le sujet était: "Optimisation de vecteurs propres de Perron et applications: du référencement de pages web à la chonothérapie."

Cette thèse constitue une "contribution majeure dans le domaine de l'optimisation de fonctions d'utilité sur l'ensemble des matrices positives" (selon l'un des rapporteurs). Elle présente à la fois un ensemble de résultats théoriques (propriétés, analyse de complexité,...) et des applications intéressantes.

Thibaut VIDAL

Thibaut Vidal a fait sa thèse sous la direction de Michel Gendreau, Theodor Crainic et Christian Prins, avec une co-tutelle entre les universités de Montréal et Troyes (CIRRELT+LOSI).

Le sujet était: "General solution approaches for multi-attribute vehicle routing and scheduling problems".

Cette thèse peut être vue comme "un recueil des résultats les plus intéressants et les plus marquants des dernières décades dans le domaine des recherche de solutions heuristiques pour les tournées de véhicules"(selon l'un des rapporteurs) et "un pas en avant dans la quête d'une approche générale de résolution d'une large palette de problèmes de tournées" (selon l'autre). Elle présente des résultats génériques concernant les méta-heuristiques pour les problèmes riches de tournées et pouvant être étendus à d'autres problèmes, une analyse complète de ces problèmes et s'appuie sur de lourdes réalisations informatiques.