|
Créneau
| Sem 3/Sem 5T/Sem 5 Sem 6T |
|
| NA |
|
Prérequis
| Ouvert à tous les élèves de 2A. |
|
Enseignant responsable
|
Mathieu aubry
|
|
Equipe enseignante
| Mathieu aubry, Loic LANDRIEU, David PICARD |
|
Objectifs du module
| Les outils d'apprentissage profond ont pris ces dernières années une importance considérable dans les applications industrielles, au point que de très nombreux élèves de l'École des Ponts s'y trouvent confrontés pendant leur stage/année de césure ou même durant leurs projets de département. L'enjeu de ce module est donc de les amener à utiliser ces outils de manière efficace, critique et pertinente. À l'issue du module, les élèves auront compris les composantes essentielles de l'apprentissage profond : (i) architectures ; (ii) fonctions de coûts ; (iii) optimisation. Les élèves seront également sensibilisés à la pratique de l'apprentissage profond, et en particulier aux problèmes du sur/sous-apprentissage, aux stratégies d'optimisation, aux sources d'erreur et aux pratiques courantes, aux outils d'analyse des résultats et à l'utilisation d'une librairie d'apprentissage profond moderne (PyTorch). Ils auront également acquis une culture générale sur les approches récentes à différents problèmes. Enfin, les élèves devront avoir gagné en autonomie dans la lecture critique d'articles scientifiques en IA. |
|
Programme du module
| Le module sera organisé en trois blocs: - Introduction et bases des réseaux de neurones (e.g., perceptron, perceptron multi-couches, fonction de coût, backpropagation). Le premier TP/TD visera à implémenter complètement des réseaux de neurones simples, sans utiliser de librairie particulière. - Réseaux de neurones modernes et profonds (e.g., Adam, batch normalization, architectures résiduelles, transformers, data augmentation, fine-tunning, implémentation efficace...) Deux TP/TD porteront sur l'entrainement et l'utilisation d'un modèle convolutionnel et un autre sur l'entrainement d'un modèle de langue avec PyTorch. - Thématiques avancées, interventions invitées sur un certain nombre de thèmes populaires (e.g., modèles de diffusion, apprentissage non et faiblement supervisé, données spatiales, données 3D, impact environnemental de l'IA) |
|
Modalités
| 1 séance d'introduction (2,5h) , 5-7 séances de classe inversées (5-7 x 1,5h) et aides à la réalisation des TPs/TDs / (5-9 x 1h office hours), 4-6 séances invitées (4-6 x 1,5h) |
|
Contrôle des connaissances - Règles de validation du module
| La présence est obligatoire à tous les cours (sauf office hours), la validation sera conditionnée au rendu des QCM pendant les sessions et au rendus des TPs/TDs. En cas de non présence répétée aux cours ou en l'absence de rendu ponctuel des TP et des QCM, aucun rattrapage ne sera possible. |
|
Adresse du site du module
| http://gede.enpc.fr/Programme/Fiche.aspx |
|
Documents pédagogiques - Bibliographie
| Understanding Deep Learning, Simon J.D. Prince, MIT press 2023 https://udlbook.github.io/udlbook/ Deep Learning, Goodfellow, Bengio and Courville, MIT press 2016: https://www.deeplearningbook.org Pytorch documentation: https://pytorch.org/ |
|
Effectif maximal
| Effectif illimité |
|
Département de rattachement
| Département Ingénierie Mathématique et Informatique |
|
Nombre de crédits ECTS
| 3 crédits ECTS |
|
Mise à jour
| 10 Novembre 2025 |
|
Code
| DEEPL |