Utilisateur:Béranger BRACQ/Brouillon

Régularisation et non-négativité en déconvolution

modifier

En mathématiques, la déconvolution est un procédé algorithmique destiné à inverser les effets de la convolution. La déconvolution est largement utilisé en traitement du signal et traitement d'image, notamment en microscopie et astronomie. La régularisation et la non-négativité sont des concepts mathématiques inventés par divers chercheurs afin de parfaire les résultats de la déconvolution.

Principe de la déconvolution.

modifier

La déconvolution est une opération en traitement du signal qui, idéalement, corrige les effets de la convolution produite par un système linéaire et invariant dans le temps avec un signal d’entrée. Dans la déconvolution, le signal de sortie et le système sont connus; l’objectif étant de reconstruire le signal d’entrée.

Dans la pratique, pour effectuer la déconvolution une image, on cherche à optimiser le critère des moindres carrés. On recherche donc l'estimateur   qui minimise la fonction   :


 


Cependant, au sens de Hadamard, il y a deux problèmes à retenir :

  • Il n'y a pas unicité de la solution
  • La solution retenue ne sera pas stable

En effet, la déconvolution présente un problème majeur lié au bruit : les variations de l'image observée   sont inversement proportionnelles aux variations de l'image restaurée  . De petites fluctuations sur  seront lourdes d'impact sur  .

Notion de régularisation

modifier

La régularisation est une méthode mathématique qui consiste à chercher l'estimateur   qui minimise l'énergie U(X). Le but est de lisser le bruit (dans les zones homogènes) et de préserver les discontinuités (détails intéressants et contours).

 
  •   représente le terme d'attache aux données (la donnée étant  );
  •   et   sont appelés les hyperparamètres du modèle :   est le poids du terme de régularisation par rapport à l'attache aux données et   fixe le seuil des discontinuités;
  •   est le terme de régularisation, qui pénalise les images bruitées, avec :

 

Le gradient de   dans la formule précédente représente la différence entre pixels voisins.


Les gradients augmentent   car   est croissante : l'amplification du bruit est limitée. Préservation des forts gradients (contours) car   augmente moins vite au-delà d'un certain seuil.   doit vérifier trois propriétés :

  •  
  •  
  •   est continue et strictement décroissante sur  

  et   peuvent être choisis manuellement, mais le travail de recherche des bons paramètres est long et fastidieux, il est préférable de trouver une méthode pour les choisir automatiquement.

Choix automatique des hyperparamètres

modifier

La détermination manuelle de   est longue et fastidieuse. Pour cela, il est préférable d'adopter des méthodes déterministes, comme par exemple la méthode du maximum de vraisemblance, afin de gagner en efficacité.

Méthode du maximum de vraisemblance

modifier

On cherche à optimiser un critère qui dépend de ces hyperparamètres. C'est le maximum de vraisemblance de  ,   sur l'image observée Y:


 


Cela revient à maximiser une probabilité par rapport à  , 


 


  est l'ensemble des images  , avec   niveau de gris


On emploie la règle de Bayes pour calculer la vraisemblance :


 


Deux lois de probabilité apparaissent :


  •   : probabilité d'obtenir l'observation   sachant l'image de départ   (vraisemblance jointe de   et des hyperparamètres);
  •   : probabilité a priori sur l'image   calculée sans attache aux données, elle caractérise le type de régularisation choisie.

Calcul de la vraisemblance

modifier

  suit la distribution du bruit gaussien  ,  :


 


Distribution a priori de   : c'est une probabilité gibbsienne, car   est un champ de Markov.


 



La vraisemblance de  ,  s'écrit donc :


 



 ,  est une fonction de partition (voir physique statistique) : ces deux termes sont des constantes de normalisation.


 


 


  est l'ensemble des images  ,   niveaux de gris.


  : minimum  


Il est donc impossible de calculer directement les fonctions de partition à cause de la dimension de l'espace  . Il est préférable de les estimer que de les calculer.

Calcul du logarithme de la vraisemblance

modifier

Il faut minimiser   par rapport à  ,  .


Pour cela, il faut calculer ses dérivées par rapport aux hyperparamètres :


 



avec :  



  est l'espérance calculée sur des échantillons  


Il y a par conséquent deux types d'espérance à calculer :


  •   loi a priori :   sans attache aux données
  •   loi a posteriori :   avec attache aux données


Modèle a priori
modifier

Au voisinage du premier ordre, on utilise des échantillonneurs de Geman & Yang, Gibbs ou encore Metropolis.


Modèle a posteriori
modifier

On s'attache ici aux données (image observée Y), on avoisine un ordre élevé dépendant de la taille de H. On emploie uniquement l'échantillonneur de Geman & Yang modifié puisque ceux de Gibbs et de Metropolis sont trop lents a ce niveau d'ordre.


Echantillonneur de Geman & Yang modifié

modifier

On utilise un développement semi-quadratique de  :


 



On introduit ici la variable auxiliaire  , images auxiliaires   et   (gradients sur   et  ). On effectue un échantillonnage de triplets ( ,  , ) de manière alternée sur   et  , . Les pixels de   et   sont indépendants et la probabilité de   sachant  ,   est gaussienne. Le tirage de   s'effectue en une seule fois (contrairement à Gibbs et Metropolis), le traitement est indépendant de la taille du voisinage, ce qui en fait un algorithme rapide pour échantillonner la distribution a posteriori.

Algorithme d'estimation MCMCML

modifier

MCMCML signifie Markov Chain Monte Carlo Maximum Likelihood". Dans cet algorithme, on minimise le logarithme de la vraisemblance :


 



Méthode de descente : utilisation du gradient du critère sur  ,  . On fixe  , et on utilise uniquement  , le gradient du critère par rapport à   est fixé, car pour tout   on peut trouver un   tel que le couple   soit optimal. L'estimation et la restauration sont simultanées : échantillonneur de Geman-Yang initialisé avec  )


Le cheminement de l'algorithme est détaillé dans ce lien.

Algorithme de restauration ICM-DCT

modifier

Cet algorithme, déterministe, est basé sur l'échantillonneur de Geman & Yang modifié a posteriori, dont on supprime la partie aléatoire.

On utilise le même développement semi-quadratique de   :


 


variable auxiliaire  , images auxiliaires   et   (gradients sur   et  ). Minimisation alternée sur   et  ,  . Le critère à optimiser s'écrit alors :


 



avec le nouveau terme de régularisation :



 



Le cheminement de l'algorithme est détaillé dans ce lien.

Notion de non-négativité

modifier

Le problème standard de factorisation en matrices à coefficients positifs, sous la forme la plus générique possible, s’exprime comme suit : étant donnée une matrice V de dimensions F × N à coefficients réels positifs ou nuls, la NMF est la détermination d’une factorisation approchée :


V ≈ WH = V

où W et H sont des matrices de dimensions respectives F × K et K × N dont tous les coefficients sont des réels positifs ou nuls, et où l’opérateur ≈ désigne une « approximation » à définir.

L’ordre du modèle, K, est habituellement choisi tel que FK + KN ≪ F N, ce qui fait de la NMF une technique de réduction de la dimensionnalité.

Si l’on attribue plus ou moins de fait la « paternité » de la NMF à Lee et Seung en1999, il faut cependant remarquer que, cinq ans plus tôt, Paatero et Tapper en 1994 posent et résolvent le même problème.

La gloire lui échappera pour une dénomination malheureuse : la « factorisation en matrices positives » (PMF, ou Positive Matrix Factorization) contient une ambiguïté sur la notion de matrice positive (est-elle à coefficients positifs, ou semi-définie positive c’est-à-dire à valeurs propres réelles positives ?).

Malgré cette maladresse, on trouve de nombreuses applications de la PMF entre 1994 et 1999, principalement dans des domaines liés à la chimie, l’étude des pollutions et les sciences de l’environnement.

Néanmoins, c’est véritablement Lee et Seung en 1999 qui font date et créent l’enthousiasme autour de la NMF, qui prend alors son nom définitif et commence à être appliquée dans de très nombreux domaines.

Nous illustrerons la variété des domaines d’applications par quelques exemples :

– Traitement de l’image : représentation d’images de visages, classification d’images.

– Traitement du texte : surveillance de messages électroniques, classification de documents, extraction de caractéristiques sémantiques dans des textes.

– Économie : diversification de portefeuilles d’actions

– Biologie : clustering 2 de gènes impliqués dans le cancer, détection de l’activité neuronale pour les interfaces cerveau-machine.

– Gastronomie : clustering de scotch whiskeys.

Applications

modifier

Les principales applications actuelles de la déconvolution sont la sismologie ou encore l’optique.

- En optique, le terme de « Déconvolution » est spécifiquement utilisé pour se référer aux processus qui corrigent les distorsions optiques (diffraction et aberrations des lentilles) liées à l’utilisation des microscopes, des télescopes, et autres instruments optiques. - La déconvolution permet ainsi d’obtenir des images plus claires, parfois même plus proche de la réalité.

Un exemple concret d’application: Les images du « Télescope Hubble » sont souvent traitées par déconvolution pour les rendre plus nettes, et donc plus facilement interprétables.

- Le concept de déconvolution avait une application au début de la réflexion de la sismologie . En 1950 , Enders Robinson était étudiant au MIT . Il a travaillé avec d'autres au MIT , comme Norbert Wiener , Norman Levinson afin de développer le " modèle de convolution " d'un sismogramme de réflexion . Ce modèle transpose le sismogramme enregistré en une fonction. C'est la convolution d'une fonction dite "Terre de réflectivité" et d'une onde sismique émise à partir d'une source ponctuelle pendant un temps donné représentant la durée d'enregistrement.

- Le principe de déconvolution, se retrouve également dans des domaines tels que la médecine ou la chimie. En effet les procédés de chromatographie ou d'imagerie médicale nécessitent un traitement par déconvolution afin de facilité la lecture des résultats.

Sources

modifier

Rôle de la régularisation

Estimation rapide du paramètre de régularisation en déconvolution d’images

http://micro.magnet.fsu.edu/primer/digitalimaging/deconvolution/deconvolutionhome.html

http://visl.technion.ac.il/demos/bss

http://pichotjm.free.fr/Photos/Traitement/Deconv/Deconv.php

http://www.dspguide.com/ch17/2.htm

  1. Haeberlé O., Colicchio B., «Technique d'amélioration de la résolution en microscopie de fluorescence: de la production des photons au traitements des images. », Spectra Analysevol. 244,‎ p. 22-26 (lire en ligne [archive])
  2. Nasse M. J., Woehl J. C., Huant S., « High resolution mapping of the three dimensional point spread function in the near-focus region of a confocal microscope », Appl. Phys. Lett.vol. 90, no 031106,‎ p. 031106-1-3(DOI 10.1063/1.2431764)
  3. Blind Image Deconvolution: Theory and Applications sur Google Livres

Voir aussi[modifier | modifier le code]

modifier