Méthode de Gauss-Seidel

La méthode de Gauss-Seidel est une méthode itérative de résolution d'un système linéaire (de dimension finie) de la forme , ce qui signifie qu'elle génère une suite qui converge vers une solution de cette équation, lorsque celle-ci en a une et lorsque des conditions de convergence sont satisfaites (par exemple lorsque est symétrique définie positive). L'algorithme suppose que la diagonale de est formée d'éléments non nuls.

La méthode se décline en une version « par blocs ».

Le principe de la méthode peut s'étendre à la résolution de systèmes d'équations non linéaires et à l'optimisation, mais avec des conditions d'efficacité moins claires. En optimisation, l'utilité de cette approche dépendra beaucoup de la structure du problème. Le principe gauss-seidelien permet aussi d'interpréter d'autres algorithmes.

Il est nommé d'après Carl Friedrich Gauss et Philipp Ludwig von Seidel, qui l'ont développé et appliqué pour le calcul d'angles en géodésie[1],[2].

L'algorithme modifier

Principe modifier

Soit

 

le système linéaire à résoudre, que l'on suppose écrit sous forme matricielle avec   et  , ce qui signifie que l'on cherche   tel que le produit matriciel   soit égal à  .

On note   les éléments de   et   ceux de   :

 

La méthode de Gauss-Seidel résout le système linéaire   de manière itérative, ce qui veut dire qu'elle génère une suite de vecteurs  , pour  . On interrompt le calcul de la suite lorsque l'itéré courant, disons  , est jugé suffisamment proche d'une solution, par exemple parce que le résidu   est petit.

Soit   l'itéré courant. L'itéré suivant   se calcule en   étapes, comme suit.

  • Étape 1. Si l'on suppose que   et connaissant  , on peut calculer   au moyen de la première équation du système linéaire  . De manière plus précise,   est pris comme solution de
     
    ce qui est possible si  .
  • Étape 2. Si l'on suppose que   et connaissant  , on peut calculer   au moyen de la deuxième équation du système linéaire  . De manière plus précise,   est pris comme solution de
     
    ce qui est possible si  .
  • Étape   (cas général). Si l'on suppose que   et connaissant  , on peut calculer   au moyen de la  -ième équation du système linéaire  . De manière plus précise,   est pris comme solution de
     
    ce qui est possible si  .

En résumé, pourvu que les éléments diagonaux de   soient non nuls, on calcule les composantes   de   de manière séquentielle pour   par

 

La formule fait intervenir les éléments   ( ) calculés dans les étapes précédentes.

Expression matricielle modifier

L'expression matricielle de l'algorithme suppose que la matrice   se sépare comme suit

 

  est la partie diagonale de  ,   (pour lower) sa partie triangulaire inférieure stricte et   (pour upper) sa partie triangulaire supérieure stricte.

Une itération de la méthode de Gauss-Seidel, celle passant de   à  , consiste alors à résoudre le système triangulaire inférieur

 

de « haut en bas », c'est-à-dire en déterminant successivement  ,  , ...,  .

Convergence modifier

La formule de mise à jour des itérés dans la méthode de Gauss-Seidel montre que ceux-ci sont des approximations successives pour le calcul d'un point fixe de l'application

 

Les propriétés de convergence de la méthode vont donc dépendre du spectre de la matrice  .

On sait que la méthode de Gauss-Seidel converge, quels que soient le vecteur   et le point initial  , dans les situations suivantes :

Discussion modifier

Un seul vecteur   suffit pour mémoriser les itérés successifs : à l'étape  , il suffit de mémoriser les éléments déjà calculés de  , à savoir   pour  , dans   et les éléments de   encore utiles, à savoir   pour  , dans  . Cette faible exigence en espace mémoire peut être un atout dans certaines circonstances.

Contrairement à la méthode de Jacobi, l'algorithme est essentiellement séquentiel et n'est donc pas adapté au calcul parallèle.

Généralisations modifier

Méthode par blocs modifier

La version par blocs de la méthode de Gauss-Seidel procède de manière similaire à la méthode élément par élément, mais en remplaçant l'utilisation des éléments de   par des sous-matrices de  , appelées ici des blocs.

On suppose que l'ensemble des indices   est partitionné en   sous-intervalles (non vides et deux-à-deux disjoints) :

 

La matrice   et le vecteur   sont alors dissocié comme suit

 

  est la sous-matrice de   obtenue en sélectionnant les éléments avec indices de ligne dans   et indices de colonnes dans  , tandis que   est le sous-vecteur de   obtenu en sélectionnant les éléments avec indices dans  .

La méthode de Gauss-Seidel par blocs suppose que les sous-matrices principales  , avec  , sont inversibles.

Une itération de la méthode de Gauss-Seidel par blocs, celle passant de   à  , s'écrit de la même manière que la méthode élément par élément, à savoir

 

mais avec des définitions différentes de  ,   et   :

 

La résolution du système triangulaire par blocs ci-dessus, se fait également de « haut en bas », c'est-à-dire en déterminant successivement  ,  , ...,  .

Systèmes d'équations non linéaires modifier

Le principe de la méthode de Gauss-Seidel peut également s'appliquer à la résolution d'un système d'équations non linéaires  , où  . Ce système s'écrit donc sous la forme de   équations non linéaires à   inconnues :

 

La méthode de Gauss-Seidel résout ce système de manière itérative, en générant donc une suite de vecteurs  , pour  . On interrompt le calcul de la suite lorsque l'itéré courant, disons  , est jugé suffisamment proche d'une solution, par exemple parce que le résidu   est petit.

Soit   l'itéré courant. L'itéré suivant   se calcule en   étapes, comme suit.

  • Étape 1. Connaissant  , on calcule   comme solution de l'équation non linéaire (elle est supposée exister) :
     
  • Étape 2. Connaissant  , on calcule   comme solution de l'équation non linéaire (elle est supposée exister) :
     
  • Étape   (cas général). Connaissant  , on calcule   comme solution de l'équation non linéaire (elle est supposée exister) :
     

La version par blocs se définit facilement en considérant des groupes d'équations et d'inconnues, au lieu de considérer, comme ci-dessus, équation et inconnue une par une.

Optimisation modifier

Le principe de la méthode de Gauss-Seidel décrit dans la section précédente s'applique naturellement au problème d'optimisation non linéaire

 

dans lequel on minimise une fonction   sur un sous-ensemble   de  . Nous présentons directement ci-dessous la version « par blocs », qui est la plus utile lorsque le nombre   de blocs est faible (souvent  ). La méthode de Gauss-Seidel perd en effet de sa pertinence lorsque   est grand, par manque d'efficacité dans ce cas. La version « élément par élément » peut être vue comme un cas particulier de la version par blocs, obtenue en prenant   blocs de cardinal 1.

On suppose donc que l'ensemble des indices est partitionné en   blocs,

 

et que l'ensemble admissible est un produit cartésien de   ensembles,

 

où chaque   est un convexe de  . La variable   se décomposera comme suit

 

Lorsque   est différentiable et que  , on pourrait obtenir une méthode de Gauss-Seidel en appliquant la méthode de la section précédente à la condition d'optimalité du premier ordre de ce problème d'optimisation sans contrainte, à savoir

 

qui est un système de   équations non linéaires à   inconnues  . Mais on peut préférer, comme ci-dessous, rester dans le domaine de l'optimisation en minimisant   séquentiellement, bloc par bloc. Cette option a l'avantage de pouvoir prendre en compte des contraintes, c'est-à-dire de restreindre les variables à l'ensemble admissible  .

La méthode de Gauss-Seidel[4] résout le problème d'optimisation ci-dessus de manière itérative, en générant donc une suite  . L'algorithme passe d'un itéré   au suivant   en minimisant   un bloc de variables à la fois, en séquence. On interrompt le calcul de la suite lorsque l'itéré courant, disons  , est jugé suffisamment proche d'une solution, par exemple parce que la norme du gradient projeté   est jugée suffisamment petite.

Algorithme de Gauss-Seidel en optimisation — Une itération passe de l'itéré courant   à l'itéré suivant   en   étapes successives, indicées par   :

 

La version élément par élément se définit facilement en considérant des blocs   de cardinal 1 et en minimisant   composante par composante.

Le résultat suivant montre la convergence de la méthode de Gauss-Seidel lorsque   est de classe  , coercive et strictement convexe[5].

Convergence de l'algorithme de Gauss-Seidel en optimisation — Si, pour chaque  ,   est un convexe fermé non vide de   et si   est coercive sur  , strictement convexe sur   et de classe   dans un voisinage de  , alors

  • le problème ci-dessus a une unique solution  ,
  • l'algorithme est bien défini et, quel que soit l'itéré initial  , l'algorithme génère une suite   qui converge vers  .
Remarques
  1. Si l'on applique ce résultat au cas où   et   est la fonction quadratique  , on retrouve le résultat affirmant que la méthode de Gauss-Seidel par blocs pour résoudre le système linéaire   converge, quels que soient le vecteur   et le point initial, pourvu que   soit définie positive.
  2. La méthode de Gauss-Seidel est un algorithme lent (il requiert beaucoup d'itérations), dont la mise en œuvre est coûteuse (chaque itération peut demander beaucoup de temps de calcul, selon les cas). Tel qu'il est présenté, il requiert en effet la minimisation exacte de   dans chaque problème intermédiaire et ces   minimisations doivent être réalisées à chaque itération. Son application est donc restreinte au cas où le nombre de blocs est petit.
  3. L'algorithme de Gauss-Seidel ne s'étend pas aisément à des ensembles admissibles plus complexes qu'un produit cartésien d'ensembles convexes. Par exemple si l'on cherche à minimiser composante par composante la fonction linéaire   sur l'ensemble  , qui n'est pas le produit cartésien de deux intervalles, tout point de la frontière de   est bloquant (c'est-à-dire que l'algorithme ne peut y progresser), alors que seul le point   est solution.
  4. En l'absence de convexité, la méthode de Gauss-Seidel ne converge pas nécessairement, même pour des fonctions de classe  . Powell (1973) a en effet construit plusieurs fonctions conduisant à la non-convergence de la méthode de Gauss-Seidel composante par composante, notamment une fonction   de trois variables pour laquelle les itérés générés ont un cycle limite formé de 6 points auxquels le gradient n'est pas nul.
  5. D'autres résultats de convergence sont donnés par Luo et Tseng (1992).
  6. La méthode est vraiment peu élégante[6].

Annexes modifier

Notes modifier

  1. (en) Yousef Saada et Henk A. van der Vorst, « Iterative solution of linear systems in the 20th century », Journal of Computational and Applied Mathematics, vol. 123,‎ , p. 1–33 (DOI 10.1016/S0377-0427(00)00412-X, lire en ligne)
  2. (de) Carl Friedrich Gauss, Werke, vol. II, Königlichen Gesellschaft der Wissenschaften zu Göttingen, Réédité par Georg Olms Verlag, Hildesheim, 436-447.
  3. Voir par exemple, P. G. Ciarlet (1982), théorème 5.3.2.
  4. Cette méthode est appelée méthode de relaxation par Glowinski, Lions et Trémolières (1976), mais cette appellation est utilisée pour beaucoup trop d'algorithmes pour qu'elle soit suffisamment discriminante.
  5. Résultat qui semble dû à Glowinski, Lions et Trémolières (1976), théorème 1.2, page 66.
  6. (de) Johann. T. Lügenwert, « Die Innere Schreklichkeit Der Gauss-Seidel Methode », Mathematische Untersuchungen - Leipzig,‎ , p. 24

Articles connexes modifier

Liens externes modifier

Références modifier

  • P. G. Ciarlet, Introduction à l’Analyse Numérique Matricielle et à l’Optimisation, Paris, Masson, .
  • R. Glowinski, J.-L. Lions et R. Trémolières, Analyse Numérique des Inéquations Variationnelles - Tome 1 : Théorie Générale et Premières Applications - Tome 2 : Applications aux phénomènes stationnaires et d'évolution, Paris, Dunod, .
  • (en) Z.-Q. Luo et P. Tseng, « On the convergence of the coordinate descent method for convex differentiable minimization », Journal of Optimization Theory and Applications, vol. 72,‎ , p. 7–35.
  • (en) M. J. D. Powell, « On search directions for minimization algorithms », Mathematical Programming, vol. 4,‎ , p. 193–201.