En traitement du signal et en traitement d'images, la super-résolution désigne le processus qui consiste à améliorer la résolution, c'est-à-dire le niveau de détail, d'une image ou d'un système d'acquisition. Cela regroupe des méthodes matérielles qui visent à contourner les problèmes optiques et autres difficultés physiques rencontrées lors de l'acquisition d'image, ainsi que des techniques algorithmiques qui, à partir d'une ou de plusieurs images déjà capturées, créent une image de meilleure résolution.

Méthodes algorithmiquesModifier

Énoncé du problèmeModifier

Pour les méthodes algorithmiques, le problème de super-résolution est en général formulé comme le fait de recréer une image haute résolution   à partir d'une ou de plusieurs images basse résolution  . Le terme de résolution doit ici être compris comme le niveau de détails, c'est-à-dire au niveau de hautes fréquences significatives contenues dans l'image.

Le résultat produit par l'algorithme a généralement des dimensions plus grandes que l'image d'entrée, c'est-à-dire une meilleure définition. On notera par la suite   le facteur d'agrandissement, i.e. le rapport entre les tailles des entrée et sortie. Il arrive parfois que des algorithmes de super-résolution soient utilisés pour améliorer la qualité d'une image sans l'agrandir (i.e.  ), mais on parle dans ce cas plutôt de restauration.

ModélisationModifier

En considérant les images comme des vecteurs, le problème peut être modélisé de la manière suivante. Une observation basse résolution   de l'image d'origine   est obtenue en appliquant un opérateur modélisant le mouvement (la transformation géométrique)  , un opérateur de floutage  , puis via un opérateur de sous-échantillonnage  . Un bruit additif   est également ajouté.

 

Selon la modélisation, le mouvement peut possiblement être le même pour toutes les observations. Le bruit est généralement considéré Gaussien et de moyenne nulle.

Dans le cas d'une unique image d'entrée  , et d'absence de déformation géométrique, l'expression se simplifie:

 

Il est généralement considéré qu'une image   produite par un algorithme de super-résolution à partir d'une seule image   doit vérifier la contrainte de reconstruction, i.e. doit donner à nouveau   via le modèle d'observation. On parle de contrainte de reconstruction.

Il est important de noter que   étant de plus petite taille que  , l'opérateur d'observation (échantillonnage + floutage)   contient plus colonnes que de lignes, i.e. le système est sous-déterminé.

Méthodes de résolutionModifier

Différentes approches algorithmiques ont été développées pour résoudre le problème de super-résolution.

InterpolationModifier

De simples algorithmes d'interpolation numérique permettent d'obtenir une image de plus grandes dimensions. Ils fournissent toutefois souvent des résultats trop lisses, c'est-à-dire échouent à recréer les hautes fréquences. Ils ont toutefois l'avantage d'être très rapides, et sont parfois utilisés pour traiter les sous-parties d'une image ne contenant que peu de hautes fréquences (par exemple un ciel bleu), en combinaison avec une méthode plus sophistiquée mais plus lente pour ces parties contenant des hautes fréquences (arêtes, coins).

Approches fréquentiellesModifier

Historiquement, le problème de super-résolution a été formulé au sein de la communauté de traitement du signal et de nombreuses méthodes fréquentielles ou à base d'ondelettes ont été proposées. La plupart des méthodes qui ont été proposées par la suite préfèrent travailler dans le domaine spatial.

Projection arrièreModifier

Les méthodes de projection arrière utilisent la contrainte de reconstruction comme régulariseur. L'idée est de partir d'une estimation   de l'image recherchée, de calculer l'observation correspondante  , et de projeter l'erreur   dans l'espace haute résolution pour mettre à jour l'estimation courante. Ces opérations sont répétées jusqu'à atteindre un certain critère de convergence. Le résultat dépend souvent de l'initialisation.

Méthodes statistiquesModifier

Dans un cadre Bayésien, en supposant le bruit   gaussien et de moyenne nulle, le problème peut être reformulé de la manière suivante:

 

  est un régulariseur et   caractérise le compromis entre les deux termes de l'équation.

Méthodes à base de tuilesModifier

À l'inverse des méthodes statistiques qui définissent explicitement une distribution a priori, les méthodes à base de tuiles visent à apprendre les correspondances entre tuiles de basse et haute résolution en utilisant des images d'entraînement. En apprenant un dictionnaire de tuiles de hautes et basses résolutions pour un facteur d'échelle donné, il est possible de calculer la version haute-résolution d'une image d'entrée en la découpant en tuiles, en codant chaque tuile comme une combinaison linéaire de tuiles du dictionnaire de basse résolution, et en utilisant comme version haute-résolution la même combinaison linéaire, mais sur les tuiles correspondantes du dictionnaire haute-résolution. En associant toutes les tuiles obtenues et en ajoutant des contraintes pour éviter les effets de bords, on parvient à obtenir une image de haute résolution.

Notes et référencesModifier

BibliographieModifier

  • (en) Subhasis Chaudhuri, Super-Resolution Imaging, vol. 632, Springer Science & Business Media,
  • (en) Kamal Nasrollahi et Thomas B. Moeslund, « Super-resolution: a comprehensive survey », Machine vision and applications, Springer, vol. 25, no 6,‎ , p. 1423-1468