ENPC Ecole des ponts
ACCUEIL DU CATALOGUE DES COURS ACCUEIL DU SITE FRANCAIS ACCUEIL DU SITE INTERNATIONAL
Optimisation convexe
Année scolaire 2025-2026
Créneau Sem 4/Sem 6
SL
Prérequis

Calcul différentiel, Algèbre linéaire. Idéalement programmation linéaire et introduction à l'optimisation (e.g. cours Optimisation de première année).

Enseignant responsable Vincent LECLERE
Equipe enseignante Vincent LECLERE, François PACAUD, Pierre-Cyril AUBIN
Objectifs du module

Le module d'optimisation convexe aura pour but de présenter les algorithmes classiques et plus récents de l'optimisation non linéaire. Les outils et méthodes développées dans ce module trouvent des applications dans l'industrie mais également au service d'autres domaines scientifiques comme l'apprentissage automatique ou l'analyse numérique, dont certaines seront traitées en exemple.

 

À l'issue du module les élèves sauront :

 

- modéliser un problème réel comme un problème d'optimisation

 

- identifier à quelle classe de problème d'optimisation appartient un problème

 

- proposer une méthode de résolution et évaluer la solution obtenue

 

- implémenter un algorithme d'optimisation à direction de descente

Programme du module

Partie 1 : Algèbre et Analyse Convexe (3 séances)

 

Après un rappel sur des outils d'algèbre linéaire, nous présentons les outils basiques de l'analyse convexe qui nous permettent d'arriver aux conditions d'optimalité du premier ordre (dit de Karush-Kuhn-Tucker) et à la théorie de la dualité pour un problème d'optimisation (convexe) différentiable.

 

Partie 2 : Algorithmes du XXème siècle (3 séances - 1 TP)

 

Nous présentons le principe des algorithmes d'optimisation à direction de descente en exposant les plus classiques : algorithme du gradient, gradient conjugué, Newton, quasi-Newton. Ces algorithmes sont aujourd'hui utilisés dans de nombreux codes informatiques avec lesquels de futurs ingénieurs peuvent avoir à interagir.

 

L'étude théorique des algorithmes est complétée d'une mise en pratique par un TP informatique.

 

Partie 3 : Algorithmes du XXIème siècle (3 séances)

 

Dans cette dernière partie nous présentons des méthodes plus récentes. Nous verrons le principe de la méthode des points intérieurs, une des méthodes phares pour l'optimisation linéaire et plus largement conique. Nous terminons par une introduction à l'algorithme du gradient stochastique, qui est l'algorithme utilisé pour entraîner les méthodes d'apprentissage statistique.

Modalités

Le cours se déroule sur 12 séances de 3 heures découpées en 1h15 de cours magistral et 1h45 de TD ou TP.

 

En complément :

 

- 1 projet en binôme

 

- 1 DM

Contrôle des connaissances - Règles de validation du module

L'évaluation du module repose sur:

 

- le projet

 

- le DM

 

- le devoir final

 

La validation nécessitera d'avoir au moins 8/20 au devoir final.

Documents pédagogiques - Bibliographie

Convex Optimization, S. Boyd and L. Vandenberghe

 

Elements d'optimisation différentiable

 

Fragments d'Optimisation Différentiable - Théories et Algorithmes, Jean-Charles Gilbert

Effectif maximal Effectif limité à 40 élèves
Département de rattachement Département Ingénierie Mathématique et Informatique
Nombre de crédits ECTS 3 crédits ECTS
Mise à jour

10 Novembre 2025

Code OPTIM
Dernière mise à jour  :  10 Novembre 2025
Rechercher des modules      Liste complète des titres de module      Liste complète des responsables de module
Imprimer © École nationale des ponts et chaussées Haut de page