|
Créneau
| Sem 4/Sem 6 SL |
|
Prérequis
| Calcul différentiel, Algèbre linéaire. Idéalement programmation linéaire et introduction à l'optimisation (e.g. cours Optimisation de première année). |
|
Enseignant responsable
|
Vincent LECLERE
|
|
Equipe enseignante
| Vincent LECLERE, François PACAUD, Pierre-Cyril AUBIN |
|
Objectifs du module
| Le module d'optimisation convexe aura pour but de présenter les algorithmes classiques et plus récents de l'optimisation non linéaire. Les outils et méthodes développées dans ce module trouvent des applications dans l'industrie mais également au service d'autres domaines scientifiques comme l'apprentissage automatique ou l'analyse numérique, dont certaines seront traitées en exemple. À l'issue du module les élèves sauront : - modéliser un problème réel comme un problème d'optimisation - identifier à quelle classe de problème d'optimisation appartient un problème - proposer une méthode de résolution et évaluer la solution obtenue - implémenter un algorithme d'optimisation à direction de descente |
|
Programme du module
| Partie 1 : Algèbre et Analyse Convexe (3 séances) Après un rappel sur des outils d'algèbre linéaire, nous présentons les outils basiques de l'analyse convexe qui nous permettent d'arriver aux conditions d'optimalité du premier ordre (dit de Karush-Kuhn-Tucker) et à la théorie de la dualité pour un problème d'optimisation (convexe) différentiable. Partie 2 : Algorithmes du XXème siècle (3 séances - 1 TP) Nous présentons le principe des algorithmes d'optimisation à direction de descente en exposant les plus classiques : algorithme du gradient, gradient conjugué, Newton, quasi-Newton. Ces algorithmes sont aujourd'hui utilisés dans de nombreux codes informatiques avec lesquels de futurs ingénieurs peuvent avoir à interagir. L'étude théorique des algorithmes est complétée d'une mise en pratique par un TP informatique. Partie 3 : Algorithmes du XXIème siècle (3 séances) Dans cette dernière partie nous présentons des méthodes plus récentes. Nous verrons le principe de la méthode des points intérieurs, une des méthodes phares pour l'optimisation linéaire et plus largement conique. Nous terminons par une introduction à l'algorithme du gradient stochastique, qui est l'algorithme utilisé pour entraîner les méthodes d'apprentissage statistique. |
|
Modalités
| Le cours se déroule sur 12 séances de 3 heures découpées en 1h15 de cours magistral et 1h45 de TD ou TP. En complément : - 1 projet en binôme - 1 DM |
|
Contrôle des connaissances - Règles de validation du module
| L'évaluation du module repose sur: - le projet - le DM - le devoir final La validation nécessitera d'avoir au moins 8/20 au devoir final. |
|
Documents pédagogiques - Bibliographie
| Convex Optimization, S. Boyd and L. Vandenberghe Elements d'optimisation différentiable Fragments d'Optimisation Différentiable - Théories et Algorithmes, Jean-Charles Gilbert |
|
Effectif maximal
| Effectif limité à 40 élèves |
|
Département de rattachement
| Département Ingénierie Mathématique et Informatique |
|
Nombre de crédits ECTS
| 3 crédits ECTS |
|
Mise à jour
| 10 Novembre 2025 |
|
Code
| OPTIM |