En informatique théorique, le principe de Yao, ou principe min-max de Yao, est un théorème qui établit une relation générale entre les performances des algorithmes probabilistes et des algorithmes déterministes.

Le théorème montre notamment que pour connaître une borne inférieure sur le temps de calcul d'un algorithme probabiliste il suffit de s’intéresser aux performances des algorithmes déterministes sur des entrées aléatoires : si tout algorithme déterministe a une complexité élevée en moyenne sur une certaine distribution des entrées, alors tout algorithme probabiliste aura une complexité élevée sur sa pire entrée.

Le principe porte le nom d'Andrew Yao. On peut le prouver d'un point de vue de théorie des jeux, en utilisant le théorème minimax de von Neumann.

Contexte et notations modifier

On mesure les performances des algorithmes avec des mesures, appelées « mesure de complexité » ou plus simplement « complexité ». Les mesures les plus classiques sont la complexité en temps et la complexité en espace. Le principe de Yao considère une mesure de complexité abstraite et fonctionne donc pour ces deux cas particuliers.

Un algorithme probabiliste est un algorithmes utilisant une source d'aléas, un générateur de bits aléatoires. On s’intéresse en particulier aux algorithmes de Las Vegas qui sont ceux qui donnent toujours une réponse exacte, mais dont le temps de calcul est une variable aléatoire. La complexité d'un tel algorithme est l'espérance de la complexité de l’algorithme.

Un algorithme déterministe n'utilise pas de bits aléatoires, mais on peut par contre mesurer sa complexité en moyenne sur une distribution d'entrées. Il s'agit, sachant que les entrées suivent telle loi de probabilité, de savoir quel va être le temps de calcul de l'algorithme si on moyenne sur toutes les entrées selon cette distribution. On parle de complexité distributionnelle.

Étant donné un algorithme déterministe A, on peut noter C(A,x), la complexité de l'algorithme sur l'entrée x. Pour un algorithme probabiliste B, on note C(B,R,x) la complexité de l’algorithme sur l'entrée x, avec les bits aléatoires R. On peut ensuite définir, pour un algorithme probabiliste, C(B,x), l'espérance de C(B,R,x) ; et pour un algorithme déterministe et une distribution D, C(A,D), l'espérance de C(A,x) quand x suit D.

Énoncé modifier

Le théorème donne pour tout problème algorithmique, une borne inférieure sur l'espérance de la complexité d'un algorithme probabiliste. Cette complexité, ne peut pas être inférieure à la complexité sur la pire des distributions d'entrées du meilleur algorithme déterministe pour cette distribution.

Plus formellement, et en suivant les notations de la section précédente[1] :  .

Autrement dit pour tout algorithme B et toute distribution D,  .

Preuve modifier

Par la théorie des jeux modifier

On considère un jeu à deux joueurs, Alice et Bob où Alice définit l'algorithme et Bob choisit l'entrée. Pour une entrée et un algorithme on peut définir la complexité, qui devient le but du jeu : Bob gagne l'équivalent de la complexité et Alice le perd. C'est un jeu à somme nulle. En utilisant le théorème minimax de von Neumann, on obtient qu'il existe un équilibre pour les stratégies probabilistes, ce qui est équivalent au principe de Yao[2].

Preuve directe modifier

Pour toute distribution D et tout algorithme B, et en notant P la probabilité sur R, et   la probabilité suivant la loi D:

 .

Ainsi il doit exister un r, tel que  , et B sur cette chaîne r' donne un algorithme déterministe A qui satisfait l'inégalité.

Variante modifier

On peut écrire un analogue du principe de Yao pour les algorithmes de Monte-Carlo[2],[3].

Applications modifier

Le principe de Yao est notamment utilisé en test de propriété[4]. Un exemple d'application est l'évaluation des arbres de jeux[2].

De façon plus générale le principe est utilisé pour prouver des bornes inférieures sur des algorithmes probabiliste. La technique consiste à trouver une distribution des entrées qui est difficile pour tout algorithme déterministe puis à transférer la borne inférieure[5].

Histoire modifier

 
Andrew Yao

Andrew Yao a publié le principe et sa preuve dans l'article Probabilistic computations: toward a unified measure of complexity en 1977[3]. Il a obtenu le prix Turing en 2000 pour ses travaux en informatique théorique et notamment pour ce principe décrit comme «une technique fondamentale dans l'étude des algorithmes probabilistes, ayant eu des applications dans d'autres domaines comme le test de propriété et la théorie de l'apprentissage automatique »[6].

Notes et références modifier

  1. Elena Grigorescu, « Current Topics in Theoretical CS: Lecture 20, 1: Yao's Principle », sur Université de Purdue, .
  2. a b et c (en) Rajeev Motwani et Prabhakar Raghavan, Randomized Algorithms, Cambridge, New York et Melbourne, Cambridge University Press, (réimpr. 1997, 2000), 1re éd., 476 p. (ISBN 978-0-521-47465-8, lire en ligne), chap. 2.2.2 (« The minimax principle: Yao's technique »), p. 35.
  3. a et b Andrew Chi-Chih Yao, « Probabilistic Computations: Toward a Unified Measure of Complexity (Extended Abstract) », dans 18th Annual Symposium on Foundations of Computer Science, Providence, Rhode Island, USA, 31 October - 1 November 1977, (DOI 10.1109/SFCS.1977.24), p. 222-227.
  4. On peut trouver trois applications dans le document suivant : Sofya Raskhodnikov, « Lecture 5: Yao's Minimax Principle », .
  5. (en) Sanjeev Arora et Boaz Barak, Computational Complexity : A Modern Approach, Cambridge University Press, (ISBN 0-521-42426-7), chap. 12.5 (« Lower bounds on Randomized complexity »), p. 229
  6. « A. M. Turing Award Winners: Andrew Chi-Chih Yao », sur ACM.