Matière : Optimisation sans contraintes

Unité d’enseignement : Méthodologie  

Crédits :5

Coefficient :2

Objectifs de l’enseignement

Le module propose une introduction à l’optimisation sans contraintes. Un étudiant ayant suivi ce cours saura reconnaître les outils et résultats de base en optimisation ainsi que les principales méthodes utilisées dans la pratique. Des séances de travaux pratiques sont proposées pour être notamment implémentés sous le logiciel de calcul scientifique Matlab et ce, afin d’assimiler les notions théoriques des algorithmes vues en cours.

Connaissances préalables recommandées : Notions de base de calcul différentiel dans R^n.

Contenu de la matière :

Chapitre1 : Quelques rappels de calcul différentiel, Convexité

  • Différentiabilité, gradient, matrice hessienne
  • Développement de Taylor
  • Fonctions convexes

Chapitre2 : Minimisation sans contraintes

  • Résultats d’existence et d’unicité
  • Conditions d’optimalité du 1er ordre
  • Conditions d’optimalité du 2nd ordre

Chapitre3 : Algorithmes

  • Méthode du gradient
  • Méthode du gradient conjugué
  • Méthode de Newton
  • Méthode de relaxation
  • Travaux pratiques

Mode d’évaluation : Examen (60%) , contrôle continu (40%)

Références:

  • M. Bierlaire, Introduction à l’optimisation différentiable, PPU‘, 2006.
  • J-B. Hiriart-Urruty, Optimisation et analyse convexe, exercices corrigés, EDP sciences, 2009.