1. Statistique en grande dimension : enjeux et intuition. Phénomènes géométriques et probabilistes contre-intuitifs. " Fléau de la dimension ". 2. Modèle de suite gaussienne : un premier cas d'école. Sous-optimalité des estimateurs " naturels ". Shrinkage et paradoxe de Stein. 3. Estimation de la moyenne : un deuxième cas d'école. Limites des estimateurs classiques. Robustesse face aux queues lourdes. 4. Régularisation et parcimonie : le cas des modèles linéaires. Problèmes mal posés en grande dimension. Moindres carrés et systèmes indéterminés. 5. Relaxation convexe : l'estimateur LASSO. Définition et analyse géométrique du LASSO. 6. Théorie du LASSO. Analyse théorique de l'estimateur. 7. Méthodes à noyaux et espaces de Hilbert. Estimation en grande dimension dans les RKHS. " Bénédiction de la dimension ". 8. Sur-paramétrisation et généralisation. Interpolation, double descente, sur-ajustement bénin et régularisation implicite. |