Dématriçage

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche

Le dématriçage (aussi connu sous le néologisme débayerisator) est une des phases du traitement du signal brut issu du capteur d'un appareil photographique numérique. Il consiste à interpoler les données de chacun des photosites monochromes rouge, vert et bleu composant le capteur électronique pour obtenir une valeur trichrome pour chaque pixel.

La mosaïque de Bayer, comportant une moitié de capteurs à filtre vert disposés en quinconce, séparés par des capteurs à filtre alternativement rouge et bleu, est la disposition la plus courante pour les capteurs couleur. Le dématriçage est l'opération de base du traitement de l'image ; il s'accompagne souvent d'opérations correctives. Il se fait dans l'appareil et, si on a enregistré un fichier RAW, avec un logiciel spécialisé, tenant compte des caractéristiques de l'appareil.

Principes[modifier | modifier le code]

Le capteur[modifier | modifier le code]

Le capteur
La matrice de Bayer

Le capteur photographique dans une grande majorité des cas, qu'il s'agisse de CCD ou de CMOS, est formé d'alignements d'éléments appelés « photosites ». Les colonnes et rangées de ces photosites composent la « matrice » du capteur, ils réagissent à la lumière qu'ils reçoivent et la transforment en charge électrique, sur le principe d'une cellule photo-électrique.

Ces photosites sont sensibles à l'éclairement reçu, quelle que soit sa couleur. Aussi le capteur photosensible est-il recouvert d'une mosaïque de filtres de couleur affectant chaque photosite à une des trois couleurs primaires du système de synthèse additive des couleurs de l'appareil. La disposition la plus commune de ces filtres s'appelle matrice de Bayer, du nom de son inventeur.

La matrice de Bayer tient compte du fait de l'importance prépondérante du vert dans la luminance, qui gouverne la perception des forme. La moitié des photosites sont affectés au vert, tandis que le rouge et le bleu se partagent le reste à parts égales. Les filtres sont régulièrement espacés, les verts disposés en damier son chacun entourés d'un rouge et d'un bleu dans le sens horizontal comme dans le sens vertical, de sorte que la disposition de chacune des trois couleurs soit un réseau permettant un échantillonnage régulier.

Le capteur produit un tableau de valeurs proportionnelles à l'éclairement des photosites, dans lequel les trois composantes sont entrelacées.

Le traitement par le boîtier[modifier | modifier le code]

L'appareil doit produire rapidement une image, ne serait-ce que pour la visée et le contrôle technique. Le traitement le plus simple consiste à sélectionner les données des capteurs verts, et à envoyer directement ces valeurs à un écran de contrôle noir et blanc. Ce procédé simple et rigoureux est quelquefois employé pour vérifier la netteté et la mise au point.

Pour produire une image en couleurs selon les normes informatiques, il faut effectuer une interpolation numérique entre les valeurs des capteurs, pour pouvoir faire correspondre à un pixel un triplet de valeurs rouge, vert, bleu, puis appliquer à chacune une correction gamma, qui les rend plus représentatives de la luminosité perçue par la vision humaine. Pour améliorer l'aspect des images et faciliter la prise de vues, le constructeur propose de plus des réglages, quelquefois accessibles à l'utilisateur, concernant le contraste, la balance des blancs, la saturation des couleurs et l'accentuation de la netteté. Très souvent, ces réglages s'accompagnent de corrections paliant les défauts de l'optique : vignettage, aberrations, déformations.

L'enregistrement d'images consultables sur n'importe quel appareil s'effectue en JPEG, avec une compression de données qui élimine les informations qui ne contribuent pas à l'aspect de l'image avec les réglages indiqués.

Le processeur propose des images selon des modes de calculs résultant de compromis raisonnables mais pas toujours conformes aux souhaits des photographes. Pour s'en affranchir, on choisit un format d'enregistrement RAW, c'est-à-dire brut, comprenant l'ensemble des valeurs nécessaires au dématriçage et aux opérations correctives.

La production d'images standard
  • A. Du capteur, sont extraites des informations analogiques qui vont être plus ou moins amplifiées, pour faire cadrer sa sensibilité native de 30-40 ISO avec celles – plus cohérentes – exigées par l'utilisateur : 100, 200, 400, etc. ISO. Au passage, ces signaux analogiques sont numérisés.
  • B. C'est le dématriçage. Il convient à partir des photosites : V, V, B et V, V, R de produire d'authentiques pixels composés chacun des trois couleurs : RVB afin d'en faire des images tricouches reconnues par les afficheurs, les imprimantes et les logiciels de traitement.
  • C. On applique une sorte de calibrage à l'image ainsi formée, en partant de profils génériques liés aux facultés visuelles humaines. On va donc par exemple maîtriser les seuils maximums des hautes et basses lumières, le contraste donc, et les profils choisis par l'utilisateur ou les automatismes. À savoir la température (K) des couleurs (balance des blancs), la saturation des couleurs, le contrôle de netteté, etc. À ce stade l'image dispose toujours de la profondeur de couleurs « native » du capteur : 12 à 14 bits linéaires en général.
  • D. À partir de là, deux choix éventuels possibles :
    • D1. Passage en 8 bits non-linéaires, production d'un fichier JPEG avec choix de la compression si le firmware le permet.
    • D2. Production d'un fichier TIFF en 8 bits non linéaires ou 16 bits linéaires si le firmware propose ce format en option, ou d'un fichier RAW, généralement TIFF/EP, comportant en métadonnées tous les paramètres de traitement.

Le traitement a posteriori d'après un fichier RAW[modifier | modifier le code]

Article détaillé : RAW (format d'image).
Traitement du fichier RAW a posteriori

Le fichier RAW contient à peu près toutes les informations nécessaires à la constitution d'une image finale. L'ordinateur qui les traite est beaucoup moins limité que les appareils portatifs par des impératifs de consommation électrique et de temps de traitement, et le photographe peut observer l'image dans de bien meilleurs conditions que sur le terrain.

Le logiciel de dématriçage (Lightroom, Capture One, Camera Raw, DXOpro, Rawtherapy, Canon DPP, UFRaw, etc., etc.) va reproduire les phases B, C et D du traitement en se basant sur les paramètres indiqués par le boîtier, mais en laissant l'opérateur les modifier.

Le dématriçage proprement dit peut s'effectuer suivant plusieurs algorithmes. Selon le théorème d'échantillonnage, la matrice de Bayer devrait aboutir à une image d'autant de pixels qu'il y a de capteurs à filtre vert (la moitié du total), avec une résolution de moitié pour ce qui concerne les filtres rouge et bleu. Les algorithmes de dématriçage appliquent des règles empiriques pour que les plus hautes fréquences spatiales présentes dans le sujet ne produisent pas d'effets désagréables[1]. La prise en compte d'un plus grand nombre de capteurs voisins, avec interpolation bicubique et utilisation des lignes verticales, horizontales et diagonales permet d'atténuer, au prix de calculs considérablement plus importants, le crénelage des contours[2]. Les algorithmes qui utilisent l'ensemble des trois canaux ont permis une amélioration considérable. Les scènes ordinaires présentent en effet une corrélation des couleurs. Le gradient d'évolution des valeurs pour chaque couleur est parallèle : on l'utilise pour déterminer la formule de reconstitution du pixel manquant. Les algorithmes les plus perfectionnés effectuent pratiquement des opérations de segmentation d'image pour obtenir des contours d'objets à partir des variations de chaque couleur dans toutes les directions. Les plus simples se basent sur la corrélation entre le canal vert et un canal de luminance[3].

Algorithmes de dématriçage canal par canal[modifier | modifier le code]

Le dématriçage consiste à estimer les niveaux manquants dans une image RAW afin de fournir une image couleur. Depuis plus de 40 ans, de nombreuses méthodes de dématriçage ont vu le jour dans la littérature[4]. Nous nous contentons de présenter le formalisme du dématriçage et proposons trois méthodes simples de dématriçage.

Formalisme du dématriçage[modifier | modifier le code]

Décomposition d'une image RAW en sous images, puis dématriçage pour obtenir une image couleur

Une Image numérique Couleur (notée ) comporte en chaque pixel l'information de trois composantes couleur (, , ). La couleur du pixel est alors déduite par Synthèse additive des trois composantes couleur. La Matrice de Bayer permet d'obtenir une image dite RAW (notée ) dans laquelle chaque pixel porte l'information d'une unique composante en accord avec la Matrice de Bayer[5]. Ainsi la moitié des pixels portent l'information de la composante verte ( et sont manquants), un quart portent l'information de la composante rouge ( et sont manquants) et un quart portent l'information de la composante bleue ( et sont manquants).

Le dématriçage consiste à estimer les niveaux manquants en chaque pixels de l'image RAW pour obtenir une image couleur[5].

Décomposition en sous-images[modifier | modifier le code]

La première étape du dématriçage consiste à décomposer l'image RAW en trois sous-ensembles, dans lesquelles l'information d'une unique composante est disponible. Pour cela on effectue un Masquage en utilisant les masques binaires de la taille de l'image possédant pour valeur 1 aux pixels ou la composante est disponible et 0 partout ailleurs. Les masques sont définis pour tout pixel par[5] :

en masquant l'image successivement avec les trois masques (,,) nous obtenons trois sous-images , et dans lesquelles uniquement l'information correspondant à la composante respective R , V ou B est disponible et valant 0 partout ailleurs.

Dématriçage par copie de pixels[modifier | modifier le code]

L'interpolation par copie de pixels est la méthode de dématriçage la plus simple, elle consiste à remplacer un niveau manquant par le niveau connu d'un voisin[6]. Ainsi, pour la sous-image Chaque niveau inconnu sera remplacé par celui connu de droite. Pour les sous-images et , les niveaux inconnus sont remplacés par celui connu de droite, de haut ou de diagonale haut droite selon les cas.

Dématriçage par Interpolation bilinéaire[modifier | modifier le code]

Le dématriçage par Interpolation bilinéaire consiste à estimer les niveaux manquants en effectuant la moyenne des plus proches voisins. Pour cela il suffit d'appliquer un filtre de Convolution à chaque sous-image , et . Pour la composante verte, le filtre de convolution est défini par[7] : . Pour les composantes rouges et bleues, il est défini par[7] : .

Dématriçage par Interpolation directionnelle[modifier | modifier le code]

L'idée de cette méthode de dématriçage est d'utiliser le Gradient afin de réaliser une interpolation le long des contours et d'éviter une interpolation à travers eux [4]. Pour l'exemple d'un pixel Vert estimé à la position :

  • le gradient vertical est défini par la différence absolue entre le pixel du dessus et celui du dessous[4] : .
  • Le gradient horizontal est défini par la différence absolue entre le pixel de gauche et celui de droite[4] : .

Le niveau estimé est alors estimé en effectuant la moyenne des niveaux proches dans la direction du gradient le plus faible, tel que[4] :

Algorithmes de dématriçage intercanaux[modifier | modifier le code]

La méthode Hamilton-Adams, que Kodak a brevetée sous le nom de ses auteurs en 1997, prend en compte les variations des trois canaux dans une seule direction, horizontale ou verticale. Elle donne des résultats de bonne qualité pour un coût en calcul modeste[8].

La méthode un nombre variable de gradients recherche les zones uniformes autour du pixel à calculer, puis on y détermine les écarts entre canaux[9].

La recherche de motifs examine des domaines plus grands, pour profiter des propriétés d'homogénéïté d'un voisinage et déterminer la position d'une ligne ou d'un coin[10].

Ces méthodes peuvent s'appliquer dans l'appareil de prise de vue. Les méthodes de dématriçage hors ligne peuvent utiliser les mêmes principes avec beaucoup plus de calculs. Certains logiciels donnent le choix à l'utilisateur de la méthode, chacune ayant des avantages pour un type donné de sujets.

Quelques logiciels de dématriçage multi-formats[modifier | modifier le code]

Annexes[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • Henri Maître, Du photon au pixel : L'appareil photographique numérique, ISTE, coll. « Traitement du signal et de l'image », , 2e éd.
  • Harold Phelippeau, Méthodes et algorithmes de dématriçage et de filtrage du bruit pour la photographie numérique : thèse doctorale, Université Paris-Est, (lire en ligne) [PDF]

Liens externes[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. Maître 2016, p. 195-196.
  2. Maître 2016, p. 198.
  3. Maître 2016, p. 199-203.
  4. a b c d et e David Alleysson, « 30 ans de démosaïçage », traitement du signal,‎ , p. 8 (lire en ligne)
  5. a b et c Olivier Losson, Eric Dinet, Du capteur à l'image couleur, , 33 p. (lire en ligne), p. 4-6
  6. Quebaud Jérémy, Mahdjoub-araibi Samy, Techniques de dématriçage d'images couleur (Caméra couleur-Filtre CFA-ALGORITHMES°, LILLE, , 24 p. (lire en ligne), p. 13
  7. a et b Harold Phelippeau, Méthodes et algorithmes de dématriçage et de filtrage du bruit pour la photographie numérique, Paris, , 232 p. (lire en ligne), p. 42
  8. Maître 2016, p. 199-200.
  9. Maître 2016, p. 200-201.
  10. Maître 2016, p. 201-202.