Matière : Optimisation sans contraintes
Unité d’enseignement : Méthodologie
Crédits :5
Coefficient :2
Objectifs de l’enseignement
Le module propose une introduction à l’optimisation sans contraintes. Un étudiant ayant suivi ce cours saura reconnaître les outils et résultats de base en optimisation ainsi que les principales méthodes utilisées dans la pratique. Des séances de travaux pratiques sont proposées pour être notamment implémentés sous le logiciel de calcul scientifique Matlab et ce, afin d’assimiler les notions théoriques des algorithmes vues en cours.
Connaissances préalables recommandées : Notions de base de calcul différentiel dans R^n.
Contenu de la matière :
Chapitre1 : Quelques rappels de calcul différentiel, Convexité
- Différentiabilité, gradient, matrice hessienne
- Développement de Taylor
- Fonctions convexes
Chapitre2 : Minimisation sans contraintes
- Résultats d’existence et d’unicité
- Conditions d’optimalité du 1er ordre
- Conditions d’optimalité du 2nd ordre
Chapitre3 : Algorithmes
- Méthode du gradient
- Méthode du gradient conjugué
- Méthode de Newton
- Méthode de relaxation
- Travaux pratiques
Mode d’évaluation : Examen (60%) , contrôle continu (40%)
Références:
- M. Bierlaire, Introduction à l’optimisation différentiable, PPU‘, 2006.
- J-B. Hiriart-Urruty, Optimisation et analyse convexe, exercices corrigés, EDP sciences, 2009.