Utilisateur:Pamango/Brouillon Convergence FW

Résultats de convergence

modifier

L'analyse de convergence de l'algorithme de Frank-Wolfe dépend fondamentalement d'une mesure de non-linéarité de la fonction minimisée, la constante de courbure.[1] Cette constante, définie pour une fonction   et un ensemble compact   est la suivante :

 

Convergence — Soit f une fonction convexe différentiable sur un ensemble convexe et compact  . L'algorithme de Frank-Wolfe ci-dessus, génère une suite   convergeant sous-linéairement vers l'unique minimum x* de f. Plus précisément, on a

 

Contrairement à d'autres algorithmes d'optimisation, comme l'algorithme du gradient, la convergence linéaire de l'algorithme de Frank-Wolfe n'est pas établie. Toutefois, une modification dans le choix choix de la direction de descente permet d'obtenir ce type de convergence plus rapide[2].

  1. (en) Martin Jaggi, « Revisiting Frank-Wolfe: Projection-Free Sparse Convex Optimization », Proceedings of the 30th International Conference on Machine Learning,‎ , p. 427--435 (lire en ligne)
  2. (en) Simon Lacoste-Julien, « On the global linear convergence of Frank-Wolfe optimization variants », Proceedings of the 28th International Conference on Neural Information Processing Systems-Volume 1,‎ , p. 496--504 (lire en ligne)