Théorème du codage de canal

En théorie de l'information, le théorème du codage de canal aussi appelé deuxième théorème de Shannon montre qu'il est possible de transmettre des données numériques sur un canal bruité avec un taux d'erreur arbitrairement faible si le débit est inférieur à une certaine limite propre au canal. Ce résultat publié par Claude Shannon en 1948 est fondé sur des travaux antérieurs de Harry Nyquist et Ralph Hartley. La première preuve rigoureuse fut établie par Amiel Feinstein en 1954. D'une importance fondamentale en théorie de l'information, il possède de larges applications dans les domaines des télécommunications et du stockage d'information.

Introduction

modifier

L'un des principaux avantages de la représentation numérique des données est de permettre la transmission d'information sans perte. Néanmoins, les données transitent la plupart du temps sur des canaux bruités non fiables subissant diverses interférences. Comment peut-on alors éliminer les erreurs de transmission ? Une solution générale consiste à introduire de la redondance dans le message émis par la source afin de pouvoir corriger les erreurs a posteriori. On parle d'encodage de voie par un code correcteur.

Le théorème montre que pour des sources dont le débit est plus faible qu'une certaine capacité liée au canal de transmission, il existe des codes tels que, au décodage, le taux d'erreur soit aussi faible que voulu.

Souvent, les symboles étant émis sur une durée fixe, on substitue l'entropie d'une source à son débit en bit/s. Il en est de même pour la capacité d'un canal qui peut-être un débit ou une information mutuelle (d'où une certaine confusion). Cette dernière est déterminée par les caractéristiques physiques du canal. Le théorème de Shannon-Hartley donne par exemple la capacité d'un canal à bande passante limitée subissant un bruit Gaussien (voir signal sur bruit).

Il est à noter que pour annuler le taux d'erreur, les diverses preuves font tendre la longueur des mots de code vers l'infini. Ainsi si le théorème permet de trouver de tels codes, il ne fournit pas d'algorithmes de décodage de complexité algorithmique satisfaisante. Aujourd'hui, les turbo codes convolutifs, les codes LDPC (Low-density parity-check) ou encore les codes polaires permettent de transmettre des signaux dont l'entropie approche la capacité du canal tout en restant décodables en temps réel[1].

Théorème

modifier

En notant   et   les distributions marginales d'une distribution jointe  , on note l'information mutuelle de  ,

 

  correspond a l'entropie.

Si on note   et   des suites de   variables aléatoires appariées issues de la distribution  , alors étant données deux suites de fonctions   et   telles que,

 

en notant,

 

on a l'égalité :

 

Précisions

modifier

Ici la distribution jointe   modélise le canal,   représente ce que l'on cherche a transmettre et   ce qui est effectivement reçu en sortie du canal de communication. En général, on préfère modéliser le canal par la distribution conditionnelle  de sorte que la capacité du canal s'exprime comme :

 

Enfin, pour des blocs de données   (resp.  ) de longueur   les fonctions   (resp.  ) constituent des encodeurs (resp. décodeurs) des messages transmis (resp. reçus).

Notations utilisées

modifier

Soient   et   deux variables aléatoires, suivant les probabilités conditionnelles, on a,

 

donc,

 

et l’espérance étant linéaire,

 

on notera,

 

  peut être vue comme une variable aléatoire fonction de   dont la fonction dépend de la réalisation préalable de  .

On remarque que  , où   désigne la divergence de Kullback-Leibler et   le produit tensoriel.

Cette quantité s'annule seulement si   et   sont indépendants, ainsi,

 

et l'égalité ci-dessus démontre l’indépendance de   et  .

Capacité du canal comme borne inférieure

modifier

Capacité du canal comme borne supérieure

modifier

Par contradiction, avec la notation de Landau   et en notant   l'information mutuelle, supposons qu'il existe   tel que,

 

comme   est indépendant de  , on aurait,

 

mais comme :

 

Contradiction.

Articles connexes

modifier

Notes et références

modifier
  1. (en) Sae-Young Chung, G. David Forney, Jr. (en), Thomas J. Richardson et Rüdiger Urbanke, « On the Design of Low-Density Parity-Check Codes within 0.0045 dB of the Shannon Limit », IEEE Communication Letters, vol. 5,‎ , p. 58-60 (ISSN 1089-7798, lire en ligne)