Démonstrations du théorème du minimax

Cet article ne fait que recenser des preuves du théorème du minimax de John von Neumann. L'énoncé du théorème ainsi qu'une présentation globale de la variété de ses démonstrations sont disponibles dans l'article principal Théorème du minimax de von Neumann auquel on se réfèrera donc.

Toutes les preuves commencent par la même remarque, selon laquelle l'inégalité max-min est satisfaite, information signalée dans l'article principal qu'on supposera donc connue ici.

Preuves par arguments de convexité

modifier

La preuve de Jean Ville

modifier

La preuve qui suit ci-dessous est une variante de celle de Jean Ville et n'utilise que des arguments de convexité élémentaires[Note 1].

Supposons que l'inégalité entre le maximin et le minimax soit stricte, et introduisons une constante   strictement comprise entre ces deux réels. Si on retranche   à tous les coefficients de  , la quantité   est diminuée de   pour chaque  . Quitte à modifier   de cette façon, on peut donc supposer  .

Il nous suffit ainsi de montrer qu'il est impossible que le maximin soit strictement négatif tandis que le minimax est strictement positif.

Dans l'espace des vecteurs-colonnes à   entrées, notons   ( ) les colonnes de la matrice   et   ( ) la base canonique. Introduisons K enveloppe convexe des   et des   :   est un convexe compact. Soit enfin   la projection de   sur ce convexe fermé.

1er cas :  . On va montrer que  , ce qui impliquera via l'inégalité max-min que  .

Si  , ceci signifie que  . Comme  est convexe, cela signifie qu'il existe des réels positifs ou nuls   et   dont un au moins n'est pas nul et pour lesquels  , ce qui se réécrit  .

Dans cette égalité il n'est pas possible que tous les   soient nuls (cela entraînerait la nullité de tous les  ) et cela a donc un sens de considérer le vecteur  . L'identité   assure alors que   est à coefficients négatifs ou nuls. Chaque vecteur   étant à coefficients positifs ou nuls, le produit matriciel   est donc négatif ou nul. Par conséquent le maximum   est lui-même négatif ou nul, et enfin le minimax, qui est lui-même inférieur ou égal à  , est lui aussi négatif ou nul.

2d cas :  . On va montrer que  , ce qui impliquera via l'inégalité max-min que  .

Notons  . Pour chaque  , puisque   est la projection de   sur   qui est convexe, et que   est un élément de  , on peut écrire l'inégalité   dont on déduit   : le vecteur   est donc à coefficients strictement positifs. En exploitant de même pour chaque   l'inégalité  , on constate que chaque   est un réel positif, et donc que le vecteur ligne   est à coefficients positifs. Il n'y a plus qu'à introduire   ; c'est un élément de   pour lequel le vecteur ligne   est à coefficients positifs. On finit alors comme au premier cas : on en déduit successivement que pour tout  ,   est un réel positif, et donc que   est un réel positif, et enfin que   est positif.

Démonstration par la dualité en optimisation linéaire

modifier

On se référera à l'article Théorème du minimax de von Neumann pour de multiples informations sur le théorème et à l'article Optimisation linéaire pour les notations utilisées dans l'écriture des problèmes d'optimisation linéaire.

Notations :

  •   désigne un vecteur dont tous les éléments valent 1 et dont la dimension dépend du contexte,
  • pour deux vecteurs   et  , l'écriture   signifie que   pour tout indice  ,
  •   désigne le simplexe unité de  ,
  •   est une matrice réelle de type  .

Le théorème du minimax de von Neumann affirme que

 .

On note   [resp.  ] le membre de gauche [resp. de droite] de cette identité que l'on va à présent démontrer.

Commençons par deux observations simples à démontrer :

  1. quitte à augmenter d'une même quantité tous les coefficients de  , on peut supposer que   et  , ce que nous ferons,
  2.   est le plus grand élément de   et   est le plus petit élément de  .

Par ailleurs tous les problèmes d'optimisation dans l'identité de von Neumann ont une solution car on y minimise ou maximise des fonctions continues sur un simplexe (un compact non vide) ; pour le problème externe du membre de droite (le raisonnement est le même pour celui du membre de gauche), on utilise le fait que l'application   est continue comme fonction convexe (enveloppe supérieure de fonctions convexes) ne prenant que des valeurs finies. L'utilisation des opérateurs   et   (au lieu de   et  ) est donc justifiée.

On peut alors écrire la suite d'équivalences suivantes :

 

Dès lors

 

Il s'agit bien d'un  , car ce problème d'optimisation linéaire est réalisable (par les équivalences ci-dessus) et borné (sa valeur optimale est  , qui est finie) ; il a donc une solution. Un calcul similaire montre que

 

Par le résultat de dualité forte en optimisation linéaire (les deux problèmes d'optimisation linéaire sont duaux l'un de l'autre et ont une solution ; il n'y a donc pas de saut de dualité, ce qui veut dire que les valeurs optimales sont égales), on obtient alors

 

Le résultat est démontré.

  1. On a privilégié la concision à l'intuition géométrique dans la rédaction de la preuve ; le lecteur intéressé pourra trouver une présentation du principe de cette preuve qui met davantage en relief les idées géométriques sous-jacentes dans (en) Jörg Bewersdorff et David Kramer, Luck, Logic, and White Lies, Wellesley, A K Peters, , 486 p., poche (ISBN 978-1-56881-210-6), p. 369-372.

Bibliographie

modifier
  • Michel Willem, Analyse convexe et optimisation, Bruxelles, CIACO, , 136 p. (ISBN 9782870852026). (Ce livre contient une démonstration du théorème du minimax à partir du théorème de dualité en optimisation linéaire ainsi que la démonstration de ce dernier.)