Optimisation stochastique pour le Machine Learning en finance
Responsable : Gilles Pagès
Objectif : Ce cours présent les principes mathématiques d’analyse des algorithme de gradient ou de pseudo-gradient stochastiques en apprentissage supervisé ou non supervisé
Prérequis : Notions fondamentales de probabilités à temps fixe et à temps discrets (martingales, chaîne de Markov)
Thèmes abordés :
- Introduction à l’optimisation, algorithme de Newton-Raphson, descente de gradient
- Simulation versus data : un changement de paradigme
- Genèse d’un algorithmes stochastique : pourquoi et comment. Descente de Gradient stochastique (SGD)
- Théorèmes de convergence : lemme de Robbins-Siegmund et application à la convergence p.s.
- Autres modes de convergence, vitesse : principe de moyennisation de Ruppert & Pòliak
- Application aux réseaux de neurones : rétro-propagation du gradient, approximation universelle
- Apprentissage non supervisé : des k-means à la quantification optimale
- Algorithme de Langevin Monte Carlo
- Accélération d’une descente de gradient : SAGA, etc
Ressources : Moodle