Discussion:Gamma (photographie)

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

Des discussions relatives à un état antérieur de l'article se trouvent ici.

Suppression du guide pratique[modifier le code]

Je supprime la section intitulée Un simple test de votre moniteur, existant dès la première version de l'article par Verdy p (d · c · b) et qui portait depuis juillet 2015 un bandeau {{Guide pratique}}.

Cette procédure ne concerne pas nécessairement le gamma et ne donne aucune indication sur le rapport entre les réglages de luminosité et de contraste des écrans et le gamma. PolBr (discuter) 26 octobre 2019 à 09:01 (CEST)[répondre]

Numérique[modifier le code]

La notion de gamma a disparu dans le domaine de la photo numérique. Cette constatation facile à expliquer, puisque le réglage de gamma dépendait de circuits électroniques analogiques, alors que le numérique permet tout transfert entre les valeurs (linéaires) du capteur et l'affichage par des tables de correspondance, est difficile à soutenir par une source, c'est pourquoi je ne l'écris pas dans l'article. PolBr (discuter) 26 octobre 2019 à 09:19 (CEST)[répondre]

N'importe quoi ! La thoérie du capteur (linéaire) est fausse. Tous les capteurs ont une courbe de sensibilité et les données brutes ne sont pas linéaires. Il y a toujours une partie analogique, liée à la nature des éléments chromatiques, la température, la tension appliquée, la concentration des pigments, la résistance, la courbe de réponse en fréquence, divers effets électromagnétiques à l'échelle moléculaire ou même atomique, les effets des impuretés, etc. Sans compter aussi l'optique située au dessu du capteur qui produit ses propres dérives chromatiques et une absorbtion ou des déphasages, pouvant introduire aussi des franges parasites.
Ensuite le signal capté subit une amplification, il y a aussi les effets de la décharge du capteur (qui n'est pas instantanée) entre deux captures.
L'électronique corrige une partie de ces aberrations mais introduit ses erreurs. Finalement le capteur est échantillonné et le circuit d'échantillonnage fournit ses propres erreurs (et il n'est pas non plus complètement linéaire). Le nombre brut obtenu en bout de chaine n'est pas "linéaire" (ou il ne l'est que sur un référentiel chromatique qui n'est pas le même que celui du profil colorimétrique idéalisé du modèle sRGB.
Nombre d'appareils dans leur format "brut" justement permettent de revenir au signal brut de base pour enlever les erreurs produites par les transformations numériques vers le modèle sRGB.
Enfin tous les appareils numériques ne convertissent pas nativement en profil sRGB, ils utilisent et enregistrent dans leur fichiers photo le profil colorimétrique ICC réellement le plus précis tel qu'il a été mesuré par le fabricant.
Ne pas oublier non plsu que les APN ne sont pas tous seulement trichromatiques, il y a maintenant de nombreuses techniques d'amélioration d'image qui consistent en divers traitement à partir de plusierus captures sur des profils différents, ou à l'aide de plusieurs capteurs utilisés simultanément. L'appareil peut aussi modifier ces paramètres lors de la prise de vue (corrections des conditions d'éclairage, corrections des mouvements et stabilisation de l'image, filtrage selon la température (très important surtout pour les photos de scènes peu éclairées ou à très fort contraste où le capteur CCS n'est pas forcément alimenté de façon uniforme sur toute sa surface).
Au final, même si on retient jsute une seule courbe de luminance par composante chromatique, ou pour la luminance globale, elle n'est strictemetn jamais linéaire et ne correspond jamais au modèle "standard" (qui n'est qu'une approximation moyenne de ce que font les appareils les plus courants du marché pour *tenter* de s'approcher au mieux de la vision humaine *moyenne* (bien que des recherches sur cette vision humaine soient encore largement défective, si on devait avoir une vision normale cadrant directement à ce modèle, personne alors ne suit ce modèle, chaque oeil est différent, chaque cerveau est différent et il est fortement influiencé par l'apprentissage et cette vision évolue aussi au cours du temps (de la même façon que notre audition dont le spectre de sensibilité ne cesse de se réduire vers les fréquences plus basses). Concernant les bases chromatiques des profils sRGB standards ou des capteurs couleur CCD, aucun ne correspond exactement à nos pigments humains, leur nature chimique et leur réponse à différentes longueurs d'onde est très différente. aucun modèle trichromatique n'arrive à reproduire fidèlement ce que perçoit reéllement un oeil humain: les aberrations chromatiques sont nombreuses, et c'est un traitement numérique qui permet de réajuster un peu les paramètres (tout en introduisant des erreurs inévitables d'arrondis numériques). Cela ne s'est amélioré cependant que très récemment avec une quantification des composantes chromatiques sur plus de 8 bits, et plus seulement des entiers mais en virgule flottante (pour justement considérablement améliorer la réponse dans les zones de faible éclairement! La réponse de ces capteurs n'est clairement pas linéaire mais exponentielle (la linéarité n'est qu'une approximation dans une partie de la courbe) !
Pour ces nouveaux capteurs, il y a bel et bien un facteur gamma et il n'est pas égal à 1 comme s'il était linéaire, il est plus proche de 1,2 (et pour certaines caméras utilisées en photographie sous-marine, ou les caméras scientifiques, le gamma peut aller jusqu'à 1,5, ce qui est rendu possible par une précision d'échantillonnage largement supérieure à 8 bits. Pour le rendu "HDR" on est passé à 12 bits minimum de précision par composante, plus au moins 4 bits d'échelle logarithmique. Cela permet de restituer une gamme "linéaire" de couleurs réelles dans différentes conditions d'éclairage (sachant qu'on ne peut pas réellement obtenir ces conditions d'éclairage idéales, quel que soit le flash utilisé qui aussi induit une aberration chromatique, mais en plus ne peut pas être utilisé partout ou est limité en puissance, ou saturerait le capteur.
Ajoutons à tout ça le "bruit quantique" de l'électronique, on ne peut pas travailler à des niveaux de signaux très faible, et on doit les amplifier le plus près possible du capteur (mais on arrive aussi à amplifier un partie de ce bruit quantique, dont celui produit par la température. Les meilleurs appareils disposent d'une circuit de refroidissement, mais c'est rare sur les APN. qui se contentent d'une simple dissipation passive avec une petite plaque et un radiateur, mais aucune ventilation; encore moins de watercooling, qu'on trouve pourtant dans les caméras scientifiques (et qui peuvent utiliser de l'aztote liquide, voire un froid extrème dans une chambre de conditionnement, qui va aussi conditionner non seulement le capteur mais aussi les optiques montés dessus qu'il ne faut pas déformer ni faire craquer par dilatation/contraction différentielle.
Certes pour une image JPEG standard, on est supposé avoir utilisé le modèle sRGB mais il ne reste pas grande trace des transformations colorimétriques subies, et le modèle colorimétrique est ultra simplifié (8 bits linéaires c'est très faible). Le JPEG ne convient pas du tout au rendu HDR. Si on veut être fidèle à la précision des capteurs il faut au moins 32 bits de couleur par pixel et non 24, et pour le HDR on passe à 48 bits par pixels (sur 3 composantes) voire 4 bits par pxiel (modèles à 4 composantes dont une "grise" codée sur au moins 16 bits et 3 composantes différentielles en codage adaptatif, chaque composante ayant son propre gamma différent (1,2 pour la luminance grise, et autour de 1,5 pour les 3 composantes chromatiques différentielles). Un traitement numérique permet ensuite de réduire à 32 bits en compressant les données mais il restera un facteur gamma voisin de 1,2, et les 3 composantes sans luminance seront en virgule flottante sur 10 ou 11 bits. Déjà apparaissent des appareils professionnels à 64 bits de colorimétrie par pixel : plus question là de compression ni de gamma=1. Leur usage est scientifique ou médical. Les capteurs puenet avoir aussi bien plus de composantes (dans l'infrarouge, l'ultraviolet, des bandes de rayon X; cela sert aussi à l'expertise industrielle, artistique, en géologie, archéologie; dans l'espace on en trouve sur les satellites d'observation de la Terre pour différentes bandes précises de fréquence: agriculture, climatologie, mesure des pollutions...).
Ces avancées apparaissent dans le grand public même jusque sur nos écrans TV et nos smartphones. Verdy p (discuter) 29 octobre 2019 à 17:22 (CET)[répondre]
Notification Verdy p : toute votre diatribe et les faits exacts ou non que vous évoquez sont hors du sujet. Je ne veux pas chipoter et discuter le détail de vos affirmations, ni leurs contradictions. Bien entendu, rien n'est parfaitement linéaire dans l'électronique, mais pour moi la notion de gamma a disparu, à moins que vous ayez l'obligeance de me citer une source qui l'utilise. Je formule l'hypothèse que, comme vous me l'expliquez abondamment, c'est parce qu'on peut faire une bien plus grande variété d'ajustements en numérique. De même, quand vous écrivez « La réponse de ces capteurs n'est clairement pas linéaire mais exponentielle », je vous serais bien obligé de donner une source (une feuille de spec de capteur, par exemple). L'espace sRGB a un gamma de 2.4, mais les écrans ne permettent de régler que luminosité (niveau de noir) et contraste (gain). Il n'y a pas trace de gamma. Pas plus dans les logiciels de traitement du RAW, dans lesquels vous faites ce que vous voulez avec les courbes de transfert de 12 à 16 bits linéaires à 8 bits sRGB (ou Adobe RGB).
Une source, pas un discours : c'est tout ce que je demande pour rédiger s'il y a lieu une section le gamma en numérique. PolBr (discuter) 29 octobre 2019 à 22:13 (CET)[répondre]
je ne sais pas si tu le sais mais le gamma n'est qu'une des mesures possibles des courbes de transfert. Ce n'est pas suffisant pour représenter la courbe de transfert toute entière mais juste deux points de cette courbe dans des conditions très particulières qu'on ne trouve en fait nulle par dans la réalité. Si on veut reproduire correctement le réel, non seulement cette mesure gamma n'est pas suffisante (pas plus non plus avec le seuil de noir, la température de blanc, le facteur de contraste, la luminosité, la luminance. Si on veut avoir un meilleur ajustement des courbes de transfert, le modèle linéaire entre ldes deux points ne marche pas du tout: les aberrations chromatiques seront partout, comme les erreurs grossières d'approximation: certes on produit une image, mais ce qu'on obtient c'est une création, une invention, un art et pas la reproduction fidèle de la réalité qui elle doit permettre de détailler des images plus complexes qu'une simple feuille monochrome avec une éclairage uniforme: c'est pourtant ce modèle qui sert à établie une mesure simple, que ce soit un gamma, une luminance, un niveau de contraste basé sur un modèle prédéfini et tout le reste en approximation linéaire.
S'il s'agit d'juster par exemple une image rendue en sRGB pour differentes conditions de visualisation (écran, projection, environnement lumineux ambiant, rétroéclairage, facultés occulaires de celui qui regarde...) le modèle linéaire ne tient pas du tout (surtout en 8 bits), on a trop de bruit généré. Je maintiens aussi qu'aucun capteur CCD n'a de comportement linéaire (il ne peut être linéraire que dans des conditions très restreintes qui ne soint jamais satisfaites en réalité et pas du tout "naturelles", les phénomènes physiques de ces capteurs n'ayant rien de linéaire: la linéarité n'est que reconstruite artificiellement par un traitement numérique selon le modèle d'ajustement prédéfini et pas adapté à toutes les images et encore moins à la visions humaine qui ne colle pas du tout au modèle sRGB: déjà la vision humaine n'est PAS trichromatique comme on le croit elle est bien plus complexe avec au moins 4 pigments majeurs et des tas de pigments mineurs qui servent aussi à l'interprétation par le cerveau et le guide à converger vers une solution acquise par l'expérience, et évolutive également; il n'y a çà l'heure actuelle aucun système capable de reproduire et même "corriger" les "défauts" de la vision humaine par rapport au modèle standard, on fait toujours des approximations, et aucun écran n'arrive au même niveau de fidélité que le reproduction argentique ou l'imprimerie; et toute reproduction la plus fidèle possible d'une photo numérique sur un support peut être détectée avec une caméra même CCD pour peu qu'on en modifie les paramètres (pour s'écarter de l'ajustement étavbli pour coller au plus près du modèle sRGB), et ces autres caméras existent déjà : elles détectent facilement la supercherie. Mais même sans caméra un simple spectrogramme révèle la différence: l'image numérique est une approximation très grossière et beaucoup moins fidèle que la reproduction argentique et les "anciens" procédés analogiques. Les imprimeurs n'aiment pas du tout l'image RGB et depuis longtemps ont la quadrichromie et même plus de pigments (le moindre journal quotidien imprime en au moins 6 encres et un magazine en utilise souvent 6 à 8, les livres d'art utilisent une douzaine de pigments, pour préparer les images il faut des caméras spéciales, ou des séries de clichés sous plusieurs expositions; les nouveaux smarthones combinent plusierus capteurs et des prises de vue multiple à différentes sensibilités et peuvent sortie des images brutes pmolychromatiques, à partir de laquelle une image brute en RGB est contruite avec des courbes de réponse non linéaires; le sRGB final d'un JPG est un traitement numérique, et pour en corriger certaines aberrations, ils ajoute un sous-échantillonnage spacial qu'on pourrait prendre comme du "bruit" de suantification mais qui n'en est pas. Si on veut la fidélité, l'image brute n'est pas du tout sur le même modèle et les courbes de transfert sont nettement mieux préservées dans une échelle logarithmique pour conserver la précision relative des zones sombres; sur une image linéaire, le bruit de quantification des zones sombres est TRES visible, sachant qu'on essaye dans toute prise de vue d'éviter la saturation des zones claires). Verdy p (discuter) 30 octobre 2019 à 03:23 (CET)[répondre]
des sources s'il vous plaît. Cordialement, PolBr (discuter) 30 octobre 2019 à 07:55 (CET)[répondre]