Information mutuelle

notion de mathématique en probabilité

Dans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit.

Entropies individuelles (H(X),H(Y)), jointes (H(X,Y)), d'une paire de sous-systèmes (X, Y), avec l'information mutuelle I(X; Y).

L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.

Informellement, on dit que deux variables sont indépendantes si la réalisation de l'une n'apporte aucune information sur la réalisation de l'autre. Le coefficient de corrélation est une mesure du cas particulier de dépendance dans lequel la relation entre les deux variables est strictement linéaire.

L'information mutuelle est nulle si et seulement si les variables sont indépendantes, et croit lorsque la dépendance augmente.

Définition modifier

Soit   un couple de variables aléatoires de densité de probabilité jointe données par   (on fait, dans cet article, l'abus de notation   pour représenter la probabilité de l'événement  ). On note les distributions marginales   et  . Alors l'information mutuelle est dans le cas discret :

 

et, dans le cas continu :

 

 ,   et   sont respectivement les densités des lois de  ,   et  .


Cas gaussien modifier

L'information mutuelle dans le cas d'une distribution gaussienne s'écrit sous la forme suivante:

 

avec   le déterminant de la matrice de covariance de X et Y,   le déterminant de la matrice de covariance de X et   le déterminant de la matrice de covariance de Y.

Propriétés modifier

  •   si et seulement si X et Y sont des variables aléatoires indépendantes.
  • L'information mutuelle est positive ou nulle.
  • L'information mutuelle est symétrique.
  • Data processing theorem: si   et   sont deux fonctions mesurables alors  . Ceci signifie qu'aucune transformation sur les données brutes ne peut faire apparaître de l'information.
  • Lorsque la distribution jointe des variables aléatoires   et   suit une loi normale multidimensionnelle  , il a été montré[1] que l'information mutuelle est directement reliée au coefficient de corrélation   entre ces deux variables :  

Plusieurs généralisations de cette quantité à un nombre plus grand de variables ont été proposées, mais aucun consensus n'a encore émergé.

Liens avec la théorie de l'information modifier

Entropie modifier

L'information mutuelle mesure la quantité d'information apportée en moyenne par une réalisation de X sur les probabilités de réalisation de Y. En considérant qu'une distribution de probabilité représente notre connaissance sur un phénomène aléatoire, on mesure l'absence d'information par l'entropie de cette distribution. En ces termes, l'information mutuelle s'exprime par:

 

H(X) et H(Y) sont des entropies, H(X|Y) et H(Y|X) sont des entropies conditionnelles, et H(X, Y) est l'entropie conjointe entre X et Y.

Ainsi on voit que   si et seulement si le nombre de bits nécessaires pour coder une réalisation du couple est égal à la somme du nombre de bits pour coder une réalisation de X et du nombre de bits pour coder une réalisation de Y.

Divergence de Kullback-Leibler modifier

L'information mutuelle peut aussi être exprimée par la divergence de Kullback-Leibler. On a

 

Ainsi   mesure une sorte de "distance" entre les distributions   et  . Comme, par définition, deux variables sont indépendantes ssi ces deux distributions sont égales, et comme   ssi  , on retrouve l'équivalence entre   et indépendance.

Intuitivement   porte plus d'information lorsque les variables sont dépendantes que lorsqu'elles ne le sont pas. Si les deux variables sont discrètes à N cas, il faut, au pire,   coefficients pour spécifier  , contre seulement   si  .

La divergence   donne le nombre de bits d'information apportés par la connaissance de   lorsqu'on connait déjà   et  .

Notes et références modifier

  1. (en) S. Kullback, Information theory and statistics, John Wiley and Sons, NY,