Dématriçage

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Le dématriçage (aussi connu sous le néologisme débayerisation) est une des phases du traitement du signal brut issu du capteur d'un appareil photographique numérique. Il consiste, à partir des données de chacun des photosites monochromes composant le capteur numérique, à obtenir des valeurs colorées rouge, vert et bleu (RVB) afin de restituer un très grand nombre de couleurs par le principe de la trichromie. Ceci est effectué grâce à la mosaïque de Bayer, un filtre coloré composé de bleu, de vert et de rouge qui est placée au-dessus du capteur. Les photosites du capteur permettent ainsi de générer les pixels de l'image.

Dans le langage commun, le terme de dématriçage inclut toutes les opérations effectuées lors du traitement des fichiers RAW. Celles-ci sont effectuées grâce à un « dématriceur » ou logiciel de « dématriçage ».

Chaque marque de boîtier fournit un programme fonctionnant avec son propre matériel, et ne traitant que son format propriétaire.

Explications[modifier | modifier le code]

Certains boîtiers reflex ou bridges haut et moyenne gamme proposent l'enregistrement des clichés au format RAW (de l'anglais raw, qui signifie « brut » dans ce contexte). Souvent boudé par bien des amateurs il est pourtant digne d'intérêt car il permet de tirer le maximum d'une prise de vue. Les données contenues dans un fichier RAW sont en effet très proches des données « brutes » issues du capteur.

Le capteur[modifier | modifier le code]

Le capteur
La matrice de Bayer

Le capteur photographique dans une grande majorité des cas, qu'il s'agisse de CCD ou de CMOS, est formé d'alignements d'éléments appelés « photosites ». Les colonnes et rangées de ces photosites composent la « matrice » du capteur, ils réagissent à la lumière qu'ils reçoivent et la transforment en charge électrique, sur le principe d'une cellule photo-électrique.

Ces photosites sont sensibles à l'éclairement reçu et ont la particularité d'être monochromes ; à ce stade, l'image est en noir et blanc. En effet, ils ne lisent pas les couleurs et ne savent donc pas les différencier. Aussi le capteur photosensible est-il recouvert d'une mosaïque ou matrice de Bayer, affectant chaque photosite à une couleur précise parmi les trois primaires utilisées. À savoir Rouge, Vert et Bleu, désignées ici (comme partout ailleurs) sous les initiales RVB ou RGB (Red Green Blue, en anglais). Ceci à raison de deux V pour un B ou un R. En résumé, 50 % des photosites reconnaissent le vert, les deux autres couleurs se partagent 25 % respectivement. Ce choix de surévaluer le vert par rapport au bleu et au rouge est dû au fait que la vision humaine est pratiquement deux fois plus sensible au vert, et pour tenter de reproduire ce phénomène en photographie numérique et sur l'image résultante, on augmente la proportion de vert grâce à la répartition supplémentaire de filtres verts dans la mosaïque de Bayer, en vue d'obtenir des images qui paraissent naturelles à l'œil humain, en termes de couleurs… Donc pas de « vrais pixels » à ce stade du processus.

Il est possible de laisser le boîtier fabriquer des images en TIFF ou en JPEG et ainsi obtenir des fichiers directement lisibles avec une visionneuse d'images ou un logiciel de retouche d'image, mais en quelques sorte « aplatis », c’est-à-dire composées de « vrais » pixels qui seront « fabriqués » par le firmware, codés en 8 bits, en trois couches et parfois compressés (JPEG), c’est-à-dire déjà dégradés. Tout traitement ultérieur, réglages de luminosité, de contraste ou de couleurs, ne fera qu'accentuer le problème.

Le traitement automatique par le boîtier[modifier | modifier le code]

Le capteur n'est pas l'œil humain, lequel sait interpréter et s'adapter rapidement à des niveaux d'éclairement importants et/ou à leur contraire. On dit que le « gamma » de l'œil est non-linéaire. Celui du capteur est en revanche linéaire (gamma égal à 1). De plus, il est capable d'enregistrer des valeurs de rayonnement que notre œil ne perçoit pas, dans l'infrarouge et l'ultraviolet. Il faut donc faire le tri et ne conserver que les informations que nous pouvons percevoir.

Ensuite ce sont les valeurs concernant le contraste, la saturation et l'accentuation de la netteté, choisies par le constructeur qui entrent en action, pondérées par les choix « éventuellement » proposés au photographe par les commandes du boîtier. Comme déjà dit, en enregistrant en JPEG, la qualité est diminuée en passant de 12/14 à 8 bits, de plus compressé avec pertes.

Le processeur travaille, selon les choix du constructeur, à proposer des images les plus standardisées possibles, destinées à plaire au plus grand nombre, selon des modes de calculs résultant de compromis louables mais pas toujours conformes aux souhaits du photographe. D'où l'idée de court-circuiter le traitement en question pour ne conserver que les données « brutes » du capteur. C’est-à-dire un fichier en niveaux de gris, accompagné d'informations concernant la couleur et la luminosité de chaque photosite.

Lors de la conversion, le logiciel de « dématriçage » va extraire ces données jusque-là invisibles au commun des mortels, les interpréter – en fait interpoler – et créer les pixels manquants par « voisinage » avec ceux existant réellement.

La production d'images standard
La production d'images standard
  • A. Du capteur, sont extraites des informations analogiques qui vont être plus ou moins amplifiées, pour faire cadrer sa sensibilité native de 30-40 ISO avec celles – plus cohérentes – exigées par l'utilisateur : 100, 200, 400, etc. ISO. Au passage, ces signaux analogiques sont numérisés.
  • B. C'est le dématriçage. Il convient à partir des photosites : V, V, B et V, V, R de produire d'authentiques pixels composés chacun des trois couleurs : RVB afin d'en faire des images tricouches reconnues par les afficheurs, les imprimantes et les logiciels de traitement.
  • C. On applique une sorte de calibrage à l'image ainsi formée, en partant de profils génériques liés aux facultés visuelles humaines. On va donc par exemple maîtriser les seuils maximums des hautes et basses lumières, le contraste donc, et les profils choisis par l'utilisateur ou les automatismes. À savoir la température (K) des couleurs (balance des blancs), la saturation des couleurs, le contrôle de netteté, etc. À ce stade l'image dispose toujours de la profondeur de couleurs « native » du capteur : 12 à 14 bits en général.
  • D. À partir de là, deux choix éventuels possibles :
    • D1. Passage en 8 bits, production d'un fichier JPEG avec choix de la compression si le firmware le permet.
    • D2. Production d'un fichier TIFF en 8 ou 16 bits si le firmware propose ce format en option.

Le traitement a posteriori d'après un fichier RAW[modifier | modifier le code]

Traitement du fichier RAW a posteriori
Traitement du fichier RAW a posteriori.

C'est simple ! Tout s'arrête après l'étape A. et le produit de cette première phase passe directement dans un fichier RAW, NEF, DNG, CRF ou autre, et c'est le logiciel de dématriçage (Lightroom, Capture One, Camera Raw, DXOpro, Rawtherapy, Canon DPP, UFRaw, etc, etc.) qui va reproduire à sa façon les phases B, C et D du traitement (à sa façon, car l'on peut constater de légères différences de résultats entre les différents logiciels). Leur raison d'être consiste à proposer au photographe de « reprendre la main » sur tout ce que le boîtier lui impose ordinairement.

Principales reprises possibles[modifier | modifier le code]

  • La balance des blancs, avec plusieurs profils prédéfinis ;
  • La teinte globale (dominante) ;
  • L'exposition (modifie le point blanc) ;
  • Réglage des tons foncés (modifie le point noir) ;
  • La luminosité (modifie les valeurs intermédiaires) ;
  • Le contraste ;
  • La saturation des couleurs ;
  • La netteté ;
  • La réduction du bruit des couleurs (3) ;
  • Le vignettage et les aberrations chromatiques (3) ;
  • Des actions séparées (sélective) sur les couleurs;
  • Correction des distorsions de l'objectif.

Autre choix avant passage en bitmap[modifier | modifier le code]

Toutes ces commandes sont tirées de Camera raw (Adobe Photoshop), souvent reprises ailleurs, avec des bonus (Noise correction, Hot Pixels), mais leur efficacité est à vérifier et à comparer avec les logiciels plus spécialisés.

Ce qui apparaît dans la fenêtre du logiciel n'est qu'une « proposition » et non une image achevée, laquelle n'existera qu'après validation. Par conséquent, ces actions n'entament en rien sa future qualité, contrairement à ce qui se produit lorsque l'on travaille sur un fichier « aplati » en bitmap.

Les avantages et les contraintes du RAW[modifier | modifier le code]

  • Il contient toutes les données brutes issues du capteur du boîtier et les préserve,
  • Il permet une bien plus grande souplesse des réglages,
  • Ces réglages appliqués à l'image sont non destructifs,
  • Il s'affranchit des profils colorimétriques du boîtier,
  • Si standardisé, pourrait être un format d'archivage pérenne

Nous avons là l'image la plus pure qui puisse sortir du boîtier : elle reste ouverte à tous les réglages de balance, contraste, luminosité et même au-delà. Le tout sans altération. Et pour ceux qui ont connu - ou veulent découvrir - les joies du « labo », c'est peut-être là que les choses commencent à être intéressantes.

Il faut quand même dire que, si les contrôles possibles lors de la conversion de l'image présentent un intérêt appréciable, la taille qu'occupent ces fichiers et la nécessité de traiter chacun d'entre eux peut rebuter ceux portés à se satisfaire de photos de famille. Après tout, les tirages argentiques, même parfois un peu bâclés faisaient le bonheur de bien des utilisateurs.

Quelques formats RAW[modifier | modifier le code]

Adobe a développé un nouveau format (DNG) dont les spécifications ont été rendues publiques et publiées[1]. L'objectif de ce format ouvert est de garantir l'accès durable aux photographies archivées en fichiers RAW.
Certains fabricants ont joué le jeu comme Leica, Pentax, Hasselblad, Ricoh, Samsung et Casio, proposant même leur format propriétaire "historique" et le format DNG simultanément, le choix étant laissé à l'utilisateur.
Pour les autres cas, Adobe met à disposition un outil de conversion au format DNG des formats propriétaires[2].
Toutefois les développeurs de logiciels, commerciaux ou libres, s'efforcent de traiter une majorité de formats ainsi que le DNG.

Algorithmes de dématriçage[modifier | modifier le code]

Le dématriçage (étape B) consiste à estimer les niveaux manquants dans une image RAW afin de fournir une image couleur. Depuis plus de 40 ans, de nombreuses méthodes de dématriçage ont vu le jour dans la littérature[3]. Nous nous contentons de présenter le formalisme du dématriçage et proposons trois méthodes simples de dématriçage.

Formalisme du dématriçage[modifier | modifier le code]

Décomposition d'une image RAW en sous images, puis dématriçage pour obtenir une image couleur

Une Image numérique Couleur (notée ) comporte en chaque pixel l'information de trois composantes couleur (, , ). La couleur du pixel est alors déduite par Synthèse additive des trois composantes couleur. La Matrice de Bayer permet d'obtenir une image dite RAW (notée ) dans laquelle chaque pixel porte l'information d'une unique composante en accord avec la Matrice de Bayer[4]. Ainsi la moitié des pixels portent l'information de la composante verte ( et sont manquants), un quart portent l'information de la composante rouge ( et sont manquants) et un quart portent l'information de la composante bleue ( et sont manquants).

Le dématriçage consiste à estimer les niveaux manquants en chaque pixels de l'image RAW pour obtenir une image couleur[4].

Décomposition en sous-images[modifier | modifier le code]

La première étape du dématriçage consiste à décomposer l'image RAW en trois sous-ensembles, dans lesquelles l'information d'une unique composante est disponible. Pour cela on effectue un Masquage en utilisant les masques binaires de la taille de l'image possédant pour valeur 1 aux pixels ou la composante est disponible et 0 partout ailleurs. Les masques sont définis pour tout pixel par[4] :

en masquant l'image successivement avec les trois masques (,,) nous obtenons trois sous-images , et dans les quelles uniquement l'information correspondant à la composante respective R , V ou B est disponible et valant 0 partout ailleurs.

Dématriçage par copie de pixels[modifier | modifier le code]

L'interpolation par copie de pixels est la méthode de dématriçage la plus simple, elle consiste à remplacer un niveau manquant par le niveau connu d'un voisin[5]. Ainsi, pour la sous-image Chaque niveau inconnu sera remplacé par celui connu de droite. Pour les sous-images et , les niveaux inconnus sont remplacés par celui connu de droite, de haut ou de diagonale haut droite selon les cas.

Dématriçage par Interpolation bilinéaire[modifier | modifier le code]

Le dématriçage par Interpolation bilinéaire consiste à estimer les niveaux manquants en effectuant la moyenne des plus proches voisins. Pour cela il suffit d'appliquer un filtre de Convolution à chaque sous-image , et . Pour la composante verte, le filtre de convolution est définit par[6] : . Pour les composantes rouges et bleues, il est définit par[6] : .

Dématriçage par Interpolation directionnelle[modifier | modifier le code]

L'idée de cette méthode de dématriçage est d'utiliser le Gradient afin de réaliser une interpolation le long des contours et d'éviter une interpolation à travers eux [3]. Pour l'exemple d'un pixel Vert estimé à la position :

  • le gradient vertical est défini par la différence absolue entre le pixel du dessus et celui du dessous[3] : .
  • Le gradient horizontal est défini par la différence absolue entre le pixel de gauche et celui de droite[3] : .

Le niveau estimé est alors estimé en effectuant la moyenne des niveaux proches dans la direction du gradient le plus faible, tel que[3] :

Quelques logiciels de dématriçage multi-formats[modifier | modifier le code]

À noter qu'Adobe propose gratuitement DNG Converter[2], pour convertir les formats propriétaires au format DNG, en encapsulant ou pas le format d'origine.

Liens externes[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. (en)« Spécifications Adobe DNG », sur www.adobe.com
  2. a et b Convertisseur DNG « pour Windows », « pour Mac », sur www.adobe.com
  3. a, b, c, d et e David Alleysson, « 30 ans de démosaïçage », traitement du signal,‎ , p. 8 (lire en ligne)
  4. a, b et c Olivier Losson, Eric Dinet, Du capteur à l'image couleur, , 33 p. (lire en ligne), p. 4-6
  5. Quebaud Jérémy, Mahdjoub-araibi Samy, Techniques de dématriçage d'images couleur (Caméra couleur-Filtre CFA-ALGORITHMES°, LILLE, , 24 p. (lire en ligne), p. 13
  6. a et b Harold Phelippeau, Méthodes et algorithmes de dématriçage et de filtrage du bruit pour la photographie numérique, Paris, , 232 p. (lire en ligne), p. 42