Super-résolution

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche

En traitement du signal et en traitement d'images, la super-résolution désigne le processus qui consiste à améliorer la résolution, c'est-à-dire le niveau de détail, d'une image ou d'un système d'acquisition. Cela regroupe des méthodes matérielles qui visent à contourner les problèmes optiques et autres difficultés physiques rencontrées lors de l'acquisition d'image, ainsi que des techniques algorithmiques qui, à partir d'une ou de plusieurs images déjà capturées, créent une image de meilleure résolution.

Méthodes algorithmiques[modifier | modifier le code]

Énoncé du problème[modifier | modifier le code]

Pour les méthodes algorithmiques, le problème de super-résolution est en général formulé comme le fait de recréer une image haute résolution à partir d'une ou de plusieurs images basse résolution . Le terme de résolution doit ici être compris comme le niveau de détails, c'est-à-dire au niveau de hautes fréquences significatives contenues dans l'image.

Le résultat produit par l'algorithme a généralement des dimensions plus grandes que l'image d'entrée, c'est-à-dire une meilleure définition. On notera par la suite le facteur d'agrandissement, i.e. le rapport entre les tailles des entrée et sortie. Il arrive parfois que des algorithmes de super-résolution soient utilisés pour améliorer la qualité d'une image sans l'agrandir (i.e. ), mais on parle dans ce cas plutôt de restauration.

Modélisation[modifier | modifier le code]

En considérant les images comme des vecteurs, le problème peut être modélisé de la manière suivante. Une observation basse résolution de l'image d'origine est obtenue en appliquant un opérateur modélisant le mouvement (la transformation géométrique) , un opérateur de floutage , puis via un opérateur de sous-échantillonnage . Un bruit additif est également ajouté.

Selon la modélisation, le mouvement peut possiblement être le même pour toutes les observations. Le bruit est généralement considéré Gaussien et de moyenne nulle.

Dans le cas d'une unique image d'entrée , et d'absence de déformation géométrique, l'expression se simplifie:

Il est généralement considéré qu'une image produite par un algorithme de super-résolution à partir d'une seule image doit vérifier la contrainte de reconstruction, i.e. doit donner à nouveau via le modèle d'observation. On parle de contrainte de reconstruction.

Il est important de noter que étant de plus petite taille que , l'opérateur d'observation (échantillonnage + floutage) contient plus colonnes que de lignes, i.e. le système est sous-déterminé.

Méthodes de résolution[modifier | modifier le code]

Différentes approches algorithmiques ont été développées pour résoudre le problème de super-résolution.

Interpolation[modifier | modifier le code]

De simples algorithmes d'interpolation numérique permettent d'obtenir une image de plus grandes dimensions. Ils fournissent toutefois souvent des résultats trop lisses, c'est-à-dire échouent à recréer les hautes fréquences. Ils ont toutefois l'avantage d'être très rapides, et sont parfois utilisés pour traiter les sous-parties d'une image ne contenant que peu de hautes fréquences (par exemple un ciel bleu), en combinaison avec une méthode plus sophistiquée mais plus lente pour ces parties contenant des hautes fréquences (arêtes, coins).

Approches fréquentielles[modifier | modifier le code]

Historiquement, le problème de super-résolution a été formulé au sein de la communauté de traitement du signal et de nombreuses méthodes fréquentielles ou à base d'ondelettes ont été proposées. La plupart des méthodes qui ont été proposées par la suite préfèrent travailler dans le domaine spatial.

Projection arrière[modifier | modifier le code]

Les méthodes de projection arrière utilisent la contrainte de reconstruction comme régulariseur. L'idée est de partir d'une estimation de l'image recherchée, de calculer l'observation correspondante , et de projeter l'erreur dans l'espace haute résolution pour mettre à jour l'estimation courante. Ces opérations sont répétées jusqu'à atteindre un certain critère de convergence. Le résultat dépend souvent de l'initialisation.

Méthodes statistiques[modifier | modifier le code]

Dans un cadre Bayésien, en supposant le bruit gaussien et de moyenne nulle, le problème peut être reformulé de la manière suivante:

est un régulariseur et caractérise le compromis entre les deux termes de l'équation.

Méthodes à base de tuiles[modifier | modifier le code]

À l'inverse des méthodes statistiques qui définissent explicitement une distribution a priori, les méthodes à base de tuiles visent à apprendre les correspondances entre tuiles de basse et haute résolution en utilisant des images d'entraînement. En apprenant un dictionnaire de tuiles de hautes et basses résolutions pour un facteur d'échelle donné, il est possible de calculer la version haute-résolution d'une image d'entrée en la découpant en tuiles, en codant chaque tuile comme une combinaison linéaire de tuiles du dictionnaire de basse résolution, et en utilisant comme version haute-résolution la même combinaison linéaire, mais sur les tuiles correspondantes du dictionnaire haute-résolution. En associant toutes les tuiles obtenues et en ajoutant des contraintes pour éviter les effets de bords, on parvient à obtenir une image de haute résolution.

Notes et références[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • (en) Subhasis Chaudhuri, Super-Resolution Imaging, vol. 632, Springer Science & Business Media,
  • (en) Kamal Nasrollahi et Thomas B. Moeslund, « Super-resolution: a comprehensive survey », Machine vision and applications, Springer, vol. 25, no 6,‎ , p. 1423-1468