Cours HDL (High Dimensional Statistical Learning) – M2 SIF

Apprentissage en grande dimension (HDL)

Description

Ce module présente les fondations mathématiques de l’apprentissage statistique moderne en décrivant les bases théoriques et les outils conceptuels nécessaires pour analyser et justifier les algorithmes. L’accent est mis sur les problématiques liée à la grande dimension et aux grands volumes de données, et aux techniques de réduction de dimension qui permettent de les aborder.

Mots-clés

PAC (probably approximately correct), VC-dimension (Vapnik and Chervonenkis), complexité de Rademacher, SVM (support vector machines), regression, méthode à noyaux, deep learning

Prérequis

Algèbre linéaire, probabilités, optimisation, analyse convexe

Contenu

  • Le cadre PAC (probably approximately correct) pour l’apprentissage statistique
  • Mesurer la complexité d’un problème d’apprentissage
  • Notion de stabilité algorithmique
  • Réduction de dimension
  • Parcimonie et optimisation convexe pour l’apprentissage

Compétences acquises

  • Comprendre les liens entre complexité et sur-apprentissage
  • Connaître les outils de mesure de complexité en apprentissage
  • Comprendre les enjeux statistiques et algorithmiques liés à la grande dimension en apprentissage
  • Comprendre les outils de réduction de dimension pour l’apprentissage

Enseignants

Rémi Gribonval (responsable), Elisa Fromont, Aline Roumy

Etudiants (avec mot de passe)


 

Planning du cours: voir horaires et salles sur l’ENT

  • 21/11, 1/12, 8/12 Rémi Gribonval
  • 24/11 Elisa Fromont
  • 15/12, 19/12, 22/12, 9/1 Aline Roumy
  • 16/1, 23/1 Rémi Gribonval

Modalités d’évaluation (détails à venir)

  • Présentation d’article: évaluation orale le 12/1/2018
  • Examen écrit le 26/1/2018

Quelques références