Groupe d’études et de recherche en analyse des décisions

Optimisation de boîtes noires

Sébastien Le Digabel Professeur titulaire, Département de mathématiques et de génie industriel, Polytechnique Montréal, Canada

Stéphane Alarie Chercheur, Institut de recherche d'Hydro-Québec (IREQ), Canada

Inscription gratuite obligatoire

L’optimisation mathématique est un outil précieux puisqu’elle permet de maximiser ou minimiser les quantités que l’on veut, en fonctions des variables, des paramètres, et des contraintes d’un problème donné. L’ingrédient principal des algorithmes d’optimisation est le gradient. Or, il se trouve que dans les applications réalistes du génie et de diverses applications mathématiques telles que l’optimisation des hyperparamètres en apprentissage automatique, le gradient n’existe pas ou ne peut pas se calculer. C’est entre autres dans ces conditions qu'on doit considérer l’optimisation sans dérivées.

En d’autres termes et circonstances, ce type d’optimisation peut s’avérer également grandement utile pour optimiser des fonctions requérant des simulations informatiques coûteuses à évaluer et dont les caractéristiques ne sont pas connues ou exploitables.

Voici quelques autres exemples d’applications potentielles (crédit: Juliane Mueller) :

  • Optimisation de la redondance de la fiabilité - maximiser la fiabilité du système
  • Modèle climatique global - calibrer les paramètres liés au modèle au méthane
  • Conception de voilure - maximiser la portance et minimiser la traînée simultanément
  • Gestion des bassins versants - retrait des terres agricoles pour réduire le ruissellement du pH
  • Réglage du générateur d'événements physiques - faire correspondre les simulations avec les observations
  • Efficacité des moteurs - concevoir de meilleurs moteurs et de meilleurs carburants
  • Énergies renouvelables - optimiser l'énergie produite par les cerfs-volants, l'hydroélectricité
  • Ordonnancement - comment assembler les produits en ligne le plus efficacement possible
  • Et bien d'autres encore....

Ce séminaire introduira les bases de l’optimisation, puis décrira comment l’optimisation sans dérivées fonctionne sans le gradient via un algorithme dit de "recherche directe" appelé MADS, qu'on utilise via le logiciel gratuit NOMAD.

Des algorithmes et des outils logiciels seront présentés, puis des exemples d’applications chez Hydro-Québec où l’optimisation sans dérivées a été l’option gagnante seront discutés.

Langue : diapositives en anglais, présentation en français.

Agenda :

13:00-13:45
Présentation de Sébastien Le Digabel - Membre, GERAD, Professeur titulaire, Département de mathématiques et de génie industriel, Polytechnique Montréal, Canada

13:45-14:00
Présentation d’applications développées chez Hydro-Québec par Stéphane Alarie, Membre associé du GERAD - Chercheur, Institut de recherche d'Hydro-Québec, Canada

14:00-14:30
Période de questions et réponses

14:30-14:45
Discussion relative au possible déploiement d’un projet consortium