Gradient Projection Method (GPM)
- Gradient Projection Method (GPM) is a numerical technique for solving convex constrained optimization problems by combining gradient descent with projection onto convex sets.
- It employs fixed-point iterations with an optimal step-size selection that ensures sublinear convergence under Lipschitz continuity of the gradient.
- GPM is widely used in applications such as signal processing, machine learning, and image reconstruction, demonstrating its practical versatility.
La méthode du gradient projeté (GPM) est un algorithme de point fixe visant à résoudre des problèmes d’optimisation de la forme
où est une fonction différentiable (typiquement convexe) sur , et un sous-ensemble convexe fermé de . La GPM est un cas particulier du schéma plus général de la méthode du gradient proximé (méthode de Forward–Backward Splitting) – qui elle-même repose sur la minimisation d’une somme de deux fonctions convexes, dont l’une est lisse. La GPM trouve des applications dans de nombreux domaines : mécanique, traitement du signal, problèmes inverses, apprentissage automatique, reconstruction d'images, équations variationnelles, statistique, recherche opérationnelle, transport optimal, analyse parcimonieuse, etc. Elle englobe de façon unifiée diverses méthodes numériques d’optimisation, telles que la descente du gradient, le gradient projeté, le seuillage itératif, les projections alternées, la méthode de Landweber contrainte, ainsi que de nombreux algorithmes de la statistique moderne.
1. Fondements et formulation générale
Considérant un problème de minimisation structuré : où est différentiable à gradient Lipschitzien, est propre, fermée et convexe. L’itération typique de la méthode du gradient proximé est : où désigne le proximal :
Lorsque est l’indicatrice du convexe , soit , on obtient alors : c'est la classique méthode du gradient projeté.
2. Algorithme du gradient projeté
L’algorithme s’écrit :
- Initialiser , choisir une suite de pas , epsilon de tolérance.
- Pour :
- Calculer
- Projeter sur :
- Arrêter si ou si pour un certain
Sortie : une approximation de la solution optimale dans .
La projection correspond, pour tout , à
3. Analyse de convergence et choix du pas
Sous les hypothèses suivantes :
- est convexe et différentiable, et est -Lipschitz
- convexe fermé non vide
Le lemme de descente donne, pour tout ,
Si , alors la suite générée par GPM vérifie
Tout point limite est stationnaire, et si est strictement convexe, la convergence est vers l’unique minimiseur.
La sélection du pas :
- If est connu, alors le choix optimal est
- Sinon, on peut utiliser une recherche linéaire du type Armijo, où l’on prend puis on réduit par un facteur jusqu’à satisfaction de
4. Conditions d’arrêt et aspects pratiques
Critères d’arrêt classiques :
- Petit écart entre deux itérés
- Norme du gradient projeté petite avec
- Faible diminution relative de l’objectif
Les projections sur des ensembles simples (boîte, boule, simplexe, hyperplans) admettent souvent une forme close ; pour des ensembles polyédriques, des méthodes actives ou des routines spécialisées peuvent être employées.
5. Exemples et applications
Exemple canonique : moindres carrés non négatifs
Ici , , . Itération GPM : La convergence est pour ce problème.
L’utilisation dans des contextes variés découle de la capacité du schéma à traiter explicitement la contrainte via la projection. La GPM intervient alors en traitement d’images, apprentissage machine (régularisation, contraintes de rareté ou de regroupement), problèmes physiques contraints, transport optimal, statistiques (Lasso, OSCAR…), etc.
6. Liens avec la méthode du gradient proximé
La GPM apparaît comme un cas particulier de la méthode du gradient proximé pour . La méthode du gradient proximé s’applique à des situations où n’est pas seulement l'indicatrice d'un convexe, mais éventuellement une fonction simple, qui rend la prox-operator explorable efficacement (par ex. euclidienne, , ou groupe d’appartenance). De fait, un large éventail d’algorithmes modernes (seuillage itératif, projections alternées, Landweber contraint, etc.) relèvent formellement du même paradigme.
7. Remarques supplémentaires et extensions
- La convergence est du type sublinéaire , et elle s’accélère si est fortement convexe.
- Les variantes à projection inexacte accélèrent les itérations lorsqu’une projection exacte serait trop coûteuse.
- La GPM se généralise au cadre hilbertien, aux variétés riemanniennes (via projection intrinsèque, cf. applications à l’espace hyperbolique), ou encore à des contextes non convexe sous certaines hypothèses sur l’objectif.
- Les extensions incluent la combinaison avec des techniques de majoration-minimisation, la prise en compte d'erreur inexacte dans la projection, et l'intégration au sein d'algorithmes à deux phases, méthodes actives ou alternées.
En résumé, la méthode du gradient projeté offre un cadre théorique et algorithmique robuste et adaptable pour l’optimisation sous contraintes, central parmi les schémas de type gradient proximé et largement utilisé dans la résolution de problèmes concrets multidisciplinaires (Combettes, 18 Mar 2025).