Théorie de la simplicité

La théorie de la simplicité est une théorie du domaine des sciences cognitives qui cherche à expliquer l'intérêt des situations et des événements pour l'esprit humain. Cette théorie est fondée sur les travaux scientifiques de Nick Chater (en)[1], Paul Vitanyi[2], Jacob Feldman[3], Jean-Louis Dessalles[4],[5], et Jürgen Schmidhuber (en)[6]. Elle fait l'hypothèse que les situations intéressantes sont celles qui apparaissent de manière inattendue comme les plus simples aux yeux de l'observateur.

Définition intuitive

modifier

Techniquement, la simplicité correspond à une baisse soudaine de complexité au sens de Kolmogorov, c'est-à-dire que la plus courte description de la situation est plus courte encore que celle anticipée par l'observateur. Par exemple, la description d'un tirage du Loto tel 22-23-24-25-26-27 est plus courte que celle d'un tirage typique tel 12-22-27-37-38-42. La première description ne nécessite qu'une instance (le choix du premier numéro ), tandis que la seconde nécessite six instances différentes.

La théorie de la simplicité établit plusieurs prédictions quantitatives quant à la manière dont le caractère atypique[7], la « distance », la « célébrité » (lieux, individus)[5] influencent l'intérêt porté à une situation.

Formalisation

modifier

Le concept de base de la théorie de la simplicité est l'inattendu, défini comme la différence entre la complexité attendue (en anglais expected)   et la complexité observée   :

 

Cette définition généralise la notion de déficit d'aléatoirité[7].   correspond dans la plupart des cas à la complexité de génération de la situation, c'est-à-dire la complexité de son explication causale la plus simple définie comme la description la plus concise des valeurs des paramètres qui doivent être fixés pour que la situation existe. Dans l'exemple du Loto, pour autant qu'il n'y ait pas tricherie, la complexité de génération est identique pour toutes les combinaisons possibles. Elle correspond simplement à 6 tirages.

La théorie de la simplicité évite la plupart des critiques adressées à la complexité de Kolmogorov en ne considérant que les descriptions disponibles pour un observateur donné (plutôt que toutes descriptions imaginables). Cela revient à dire que la complexité, et donc l'inattendu, sont dépendants de l'observateur. Une même combinaison qui apparaît complexe à la plupart des gens, comme 12-22-27-37-38-42, peut apparaître très simple à une personne, par exemple si elle a joué précisément ce numéro. Elle a alors un moyen très simple de décrire la combinaison que les autres n'ont pas, sa complexité observée est alors plus petite et son inattendu plus grand.

Lien avec les probabilités

modifier

La probabilité algorithmique est définie à partir de la complexité de Kolmogorov[8]: les objets complexes sont moins probables que les objets plus simples. Le lien entre complexité et probabilité est inversé lorsque la probabilité mesure la surprise[7] et l'inattendu[5]: les événements simples apparaissent moins probables que ceux qui sont complexes. L'inattendu   est lié à la probabilité subjective   par la formule :

 

L'avantage de cette formule est que la probabilité subjective peut être décrite sans connaître nécessairement toutes les alternatives. Les approches classiques de la probabilité considèrent des ensembles d'événements, car les événements entièrement précisés ont une probabilité virtuellement nulle de s'être produits et de se produire à nouveau dans le monde. La théorie de la simplicité mesure la probabilité subjective pour des événements particuliers, d'après leur déficit d'aléatoirité, ou baisse de complexité. Cette notion de probabilité subjective ne porte pas sur l'événement lui-même, mais sur ce qui fait l'unicité de cet événement.

Références

modifier
  1. Chater, N. (1999). "The search for simplicity: A fundamental cognitive principle?" The Quarterly Journal of Experimental Psychology, 52 (A), 273–302.
  2. Chater, N. & Vitányi, P. (2003). "Simplicity: a unifying principle in cognitive science?". [Trends in Cognitive Sciences], 7 (1), 19–22.
  3. Feldman, J. (2004). "How surprising is a simple pattern? Quantifying 'Eureka!'". Cognition, 93, 199–224.
  4. Jean-Louis Dessalles, La pertinence et ses origines cognitives : nouvelles théories, Paris, Hermes-Science Publications, , 204 p. (ISBN 978-2-7462-2087-4)
  5. a b et c Dessalles, J.-L. (2013). "Algorithmic simplicity and relevance". In D. L. Dowe (Ed.), Algorithmic probability and friends - LNAI 7070, 119-130. Berlin, D: Springer Verlag.
  6. Schmidhuber, J. (1997). "What’s interesting?" Lugano, CH: Technical Report IDSIA-35-97.
  7. a b et c Maguire, P., Moser, P. & Maguire, R. (2019). "Seeing patterns in randomness: a computational model of surprise". Topics in Cognitive Science, 11 (1), 103-118.
  8. Solomonoff, R. J. (1964). "A Formal Theory of Inductive Inference. Information and Control, 7 (1), 1-22.

Liens externes

modifier