Rang (algèbre linéaire)

Dimension du sous-espace vectoriel engendré par une famille de vecteurs ou par l'image d'une application linéaire ou celle d'une matrice
(Redirigé depuis Rang (mathématiques))

En algèbre linéaire :

Rang d'une matrice

modifier

Le rang d'une matrice   (dont les coefficients appartiennent à un corps commutatif de scalaires,  ), noté  , est :

  • le nombre maximal de vecteurs lignes (ou colonnes) linéairement indépendants ;
  • la dimension du sous-espace vectoriel engendré par les vecteurs lignes (ou colonnes) de   ;
  • le plus grand des ordres des matrices carrées inversibles extraites de   ;
  • le plus grand des ordres des mineurs non nuls de   ;
  • la plus petite des tailles des matrices   et   dont le produit est égal à  .

Tous ces nombres sont bien égaux.

On peut déterminer le rang en procédant à une élimination via la méthode de Gauss-Jordan et en examinant la forme échelonnée obtenue de cette manière.

Exemple

modifier

Soit la matrice suivante :

 

On appelle   les vecteurs formés par les quatre lignes de  .

On voit que la 2e ligne est le double de la première ligne, donc le rang de   est égal à celui de la famille  .

On remarque aussi que la 4e ligne peut être formée en additionnant les lignes 1 et 3 (c'est-à-dire  ). Donc le rang de   est égal à celui de  .

Les lignes 1 et 3 sont linéairement indépendantes (c'est-à-dire non proportionnelles). Donc   est de rang 2.

Finalement, le rang de   est 2.


Une autre manière est de calculer une forme échelonnée de cette matrice. Cette nouvelle matrice a le même rang que la matrice originale, et le rang correspond au nombre de ses lignes qui sont non nulles. Dans ce cas, nous avons deux lignes qui correspondent à ce critère.

 

On remarque que le rang d'une matrice donnée est égal au rang de sa transposée. Pour l'exemple, prenons la transposée de la matrice A ci-dessus :

 

On voit que la 4e ligne est triple de la première, et que la troisième ligne moins la deuxième est double de la première.


Après échelonnement, on obtient donc :

 

et le rang de cette matrice est bien 2.

Le rang d'une forme quadratique est le rang de la matrice associée.

Rang d'une application linéaire

modifier

Étant donnés deux  -espaces vectoriels  ,  , où   est un corps commutatif, et une application linéaire   de   dans  , le rang de   est la dimension de l'image de  .

Si   et   sont de dimensions finies, c'est aussi le rang de la matrice associée à   dans deux bases de   et  . En particulier, le rang de la matrice associée à   ne dépend pas des bases choisies pour représenter  . En effet, la multiplication à droite ou à gauche par une matrice inversible ne modifie pas le rang, ce qui amène  , où   est la matrice représentant   dans un premier couple de bases, et  ,   des matrices de changement de base.

Rang d'une famille de vecteurs

modifier
  • Pour une famille, son rang correspond au nombre maximal de vecteurs que peut contenir une sous-famille libre de cette famille.
  • On peut aussi définir le rang d'une famille   par :  .

Remarque : si   est une famille de vecteurs indexée par les entiers de 1 à  , alors le rang de   est le rang de l'application linéaire   est le corps des scalaires. La raison est la suivante :   est l'image de cette application linéaire.

Propriétés

modifier

Soient A, B et C des matrices.

  • Inégalité de Frobenius :  
  • (Cas particulier) Inégalité de Sylvester : si   a   colonnes et   a   lignes, alors  
  • Théorème du rang :   une application linéaire de   dans  ,  
  • Matrice transposée et application transposée :   et  
  • Produit de matrices et composition d'applications linéaires :   et   ; en particulier — par composition à gauche ou à droite par l'identité — le rang d'une application linéaire de   dans   est inférieur ou égal à   et à  
  • Sous-additivité :  , avec égalité si, et seulement si, les images de   et   ne s'intersectent qu'en zéro et les images des transposées   et   ne s'intersectent qu'en zéro[1].
  • Le rang d'une famille de vecteurs est invariant par opération élémentaire.
  • Deux matrices sont équivalentes si et seulement si elles ont le même rang.
  • L'application rang, de   dans  , est semi-continue inférieurement.
  • La plus grande fonction convexe fermée qui minore le rang sur la boule  , où   (on a noté   le vecteur des valeurs singulières de  ) est la restriction à cette boule de la norme nucléaire  . De manière plus précise, si l'on définit   par  , où   est l'indicatrice de  , alors sa biconjuguée s'écrit  [2],[3]. Sans restriction du rang à un ensemble, on obtient  , une identité de peu d'utilité.

Cas où le corps des scalaires n'est pas commutatif

modifier

Dans ce qui précède, on a supposé que le corps des scalaires est commutatif. On peut étendre la notion de rang d'une matrice au cas où le corps des scalaires n'est pas forcément commutatif, mais la définition est un peu plus délicate.

Soient   un corps non forcément commutatif et   une matrice à m lignes et n colonnes à coefficients dans  . On appelle rang de   (par rapport à  ) la dimension du sous-espace engendré par les colonnes de   dans   muni de sa structure de  -espace vectoriel à droite[4]. On prouve que le rang de   est aussi égal à la dimension du sous-espace engendré par les lignes de   dans   muni de sa structure de K-espace vectoriel à gauche[5].

Considérons par exemple un corps non commutatif K et la matrice  , où   et   sont deux éléments de   qui ne commutent pas (ces éléments sont donc non nuls).

Les deux lignes de cette matrice sont linéairement liées dans l'espace vectoriel à gauche  , car  . De même, les deux colonnes sont liées dans l'espace vectoriel à droite  , car  . Le rang de la matrice est donc égal à 1.

En revanche, les deux colonnes ne sont pas liées dans l'espace vectoriel à gauche  . En effet, soient   et   des scalaires tels que  . Alors (premières composantes)  , d'où (secondes composantes)  . Puisque   et   sont supposés ne pas commuter, ceci entraîne   (multiplier par   pour obtenir une contradiction) et notre résultat   donne  . Nous avons ainsi prouvé que les deux colonnes de la matrice sont linéairement indépendantes dans l'espace vectoriel à gauche  .

Notes et références

modifier
  1. (en) G. Marsaglia et G. P. H. Styan, « When does rank(A + B) = rank(A) + rank(B)? », Canadian Mathematical Bulletin, vol. 15,‎ , p. 451-452 (lire en ligne).
  2. (en) M. Fazel, Matrix rank minimization with applications : PhD Thesis. Department of Electrical Engineering, Université Stanford, .
  3. Cette propriété intervient dans les problèmes où l'on cherche à obtenir des objets parcimonieux par minimisation du rang (en compression d'images par exemple). Le rang étant une fonction à valeurs entières, donc difficile à minimiser, on préfère parfois considérer l'approximation convexe du problème qui consiste à y minimiser la norme nucléaire.
  4. Définition conforme à N. Bourbaki, Algèbre, partie I, Paris, Hermann, 1970, p. II.59, définition 7.
  5. Voir N. Bourbaki, Algèbre, partie I, Paris, Hermann, 1970, p. II.59, prop. 10 et alinéa suivant la démonstration de cette proposition.

Articles connexes

modifier