Discussion:YUV

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

Coeffs et variables[modifier le code]

Les coefficients sont empiriques, mais qui les a fixé exactement ? 193.51.24.15 9 mars 2006 à 13:39

De ce que je crois savoir, les coefficients de la luminance, c'est plus ou moins le « rendement » des cônes aux trois longueurs d'onde utilisées (on remarque d'ailleurs que 0,299 + 0,587 + 0,114 = 1). Ainsi, l'image noir-et-blanc obtenue en n'utilisant que la luminance rend mieux les contrastes perçus en vision colorée.
Les coefficients de la chrominance sont obtenus par différence.
cdang | m'écrire 22 mars 2007 à 11:05 (CET)[répondre]
Remplacer le V de vert par G (green), pour éviter toutes confusion d'avec le V de YUV.

-0,000 04 et -0,000 5 ? Erreurs d'approximation.[modifier le code]

Les valeurs dans les matrices de l'article me posaient problème. J'ai donc re-fais le calcul en formel pour ne subire les approximations qu'à la toute fin du calcul :

— Je me demande d'où sortent les valeurs de β et de ρ… Mais ce n'est pas le sujet. —

Inversion :

Je me permets donc de remplacer par des zéros les -0,000 04 et -0,000 5 qui sont visiblement des erreurs cumulées. De plus, tous les autres nombres ont été arrondis à 3 chiffres derrière la virgule, pourquoi ces deux là ne l'etaient-ils pas ? ;^)

Lacrymocéphale 12 mai 2008 à 13:39 (CEST)[répondre]

Cœfficients empiriques[modifier le code]

(N.B. : en reprenant mes propres notations ci-dessus)

Les cœfficients ne sont pas que empiriques. r+g+b=1 permet d'en supprimer déjà un. Mais β et ρ, je n'ai pas les compétences pour les calculer formellement mais j'aimerais bien voir ce calcul. Poursuivre le calcul en formel me permettrait d'exploiter d'autres systèmes analogues comme
ITU-R Recommendation BT. 709 : Y' = 0.2126 R' + 0.7152 G' + 0.0722 B'
ou
SMPTE 240M coefficients : Y' = 0.212 R' + 0.701 G' + 0.087 B'
(cf. l'article anglais Luma)

Le but n'étant pas que personnel mais aussi de compléter cet article, est-ce que quelqu'un peut aider ? Lacrymocéphale 12 mai 2008 à 17:59 (CEST)[répondre]

« Le modèle YUV se rapproche beaucoup plus de la perception humaine des couleurs que le standard RVB utilisé dans l'imagerie informatique, mais pas autant que l'espace colorimétrique HSV. » J'aurais tendance à concidérer ceci comme un point-de-vue. En même temps, HSL est véritablement intuitif à l'usage, je suis pleinement d'accord avec ça même si je lui préfère un système perso Teinte Saturation Luminance, sorte de correction de l'HSL. Mais ce n'est pas parce que tout le monde semble d'accord avec ce point-de-vue que ce n'est pas un point-de-vue. Le système historique "rouge jaune bleu" (ancètre du CMJK) me paraissant encore plus intuitif que les autres modèles additifs et soustractifs confondus.

« Le modèle YUV se rapproche beaucoup[] de la perception humaine des couleurs » Là par contre je ne suis pas d'accord. Que vient faire la perception là dedans ? Cela n'a pas de sens. YUV décrit le même ensemble de couleurs perceptibles que RGB. Je pense qu'il s'agit d'une mauvaise tournure, qu'il s'agit d'une perception intellectuelle et non sensorielle. À débattre et reformuler.

Lacrymocéphale 4 juin 2008 à 10:48 (CEST)[répondre]

Je ne prend pas cette phrase comme un point de vue, je pense que ça a été montré, il suffit de trouver la référence adéquate. Il ne s'agit pas de voir si un espace est plus « intuitif » qu'un autre, mais s'il est correspond mieux au système de vision humain.
Pour ta deuxième remarque, je ne suis pas sûr de comprendre ce que tu veux dire, et notamment la distinction entre perception intellectuelle et sensorielle. Je suis d'accord que YUV décrit le même ensemble de couleurs perceptibles que RGB, mais ce que veut dire la phrase, c'est que la décomposition que réalise YUV est plus proche de la vision humaine que le RGB. C'est d'ailleurs justement sur cette remarque que sont basés les systèmes de compression et de représentation des images: l'oeil est très sensible aux variations de Luma (Y) alors qu'on peut sabrer les 3/4 de l'information dans les chrominances sans que ce soit perceptible. Sylenius (d) 4 juin 2008 à 21:36 (CEST)[répondre]
On va voir si j'ai compris. L'information primodiale pour l'oeil c'est la luminance. U densité de bleu et V densité de rouge restent intuitif, dans le sens où si on nous donne des valeurs pour Y, U et V, on peut relativement bien s'imaginer la couleur dont-il s'agit. Des variations de U et V sont moins perceptibles par l'oeil que des variations de Y.
La tournure de la phrase de l'article continue de me perturber. Je ne vois toujours pas comment un modèle peut-être une perception. Ma distinction entre perception intellectuelle et perception sensorielle est la suivante :
La perception intellectuelle, c'est la manière d'appréhender le modèle, la capacité à visualiser la couleur en en voyant que sa représentation de le modèle, et inversement, à donner des valeurs approximatives de coordonnées dans le modèle d'une couleur que l'on aurait sous les yeux. Par exemple, si on me donne le H d'une couleur dans le modèle HSL, je peux facilement visualiser mentalemnt de quelle teinte il s'agit. Des coordonnées HSL peuvent être assez essaiement interprétées. Inversement, avec l'habitude, quand on a une couleur en tête, on peut en donner des coordonnées RGB relativment bien approximées. En HTML, des webdesigners peuvent taper un code hexadecimal RGB à l'oeil. YUV est pour un moi un modèle relativement simple à percevoir intellectuellement. On visualise rapidement en voyant une couleur dans quel cadran du plan UV elle est et quel Y elle pourrait avoir.
La perception sensorielle, il s'agit simplement de la vue en tant que sens. Là, je ne comprend pas comment un modèle peut se rapprocher d'un sens. Que la vision robotique se rapproche de la vision humaine, oui, mais que l'espace YUV s'en rapproche me parait absurde. C'est là que pour moi la tournure pêche. On compare des choses qui ne sont pas comparables.
Je trouve également dommage qu'il y ait (maintenant) plus d'informations précises, interressantes et justifiantes dans ta réponse que dans cette fameuse phrase de l'article ;)
Je ne me sens pas vraiment être plus clair que la première fois, j'y reviendrais.
Lacrymocéphale 5 juin 2008 à 01:50 (CEST)[répondre]
Je proposerais simplement une reformulation. Quelque chose comme ça :
« En s'axant sur la luminosité Y puis la chrominance UV, le modèle YUV suit les priorités de la vision humaine qui est plus sensible à l'intensité lumineuse et ne perçoit qu'en second l'information de couleur. En comparaison, pour décrire une couleur, le modèle RGB utilise des informations bien moins significatives pour l'oeil. HSL, par contre, utilise une luminosité L qui se rapproche grossièrement de la luminance Y et une teinte H qui est une information de chrominance très immédiate, proche du traitement de l'information par l'homme. »
Vous me dites avant que je passe ma modif.
Lacrymocéphale 6 juin 2008 à 22:29 (CEST)[répondre]
La première phrase me va, je remplacerais simplement « ne perçoit en second » par « perçoit moins bien ». la seconde phrase ne me parait pas très claire ni porteuse d'information. Pour HSL je n'en sais rien.
Personnellement, je ne m'attaquerais pas à un tel article sans avoir 2 ou 3 bouquins de référence sur les genous (et pas des que sais-je ou la vidéo numérique pour les nuls, des trucs sérieux). Je pense que c'est un sujet ou on peut facilement dire des betises, parce que ce n'est pas toujours bien formalisé, qu'il y a bcp de définitions très proches, que tout le monde ne fait pas exactement la même chose et ou même les professionnels s'y mélangent les pinceaux. Prudence donc. Sylenius (d) 11 juin 2008 à 21:04 (CEST)[répondre]
Je suis d'accord. Beaucoup de bêtise on été faite dont la notable confusion HSL/HSB jusque dans l'interface de Photoshop à une époque.
Par exemple, la remarque sur le RGB est délicate car l'oeil a dans ses senseur des "cônes" sensibles à des longueurs d'onde, celle du rouge, du vert et du bleu (mais pas tout à fait celle des écrans). Ils sont précédés par des batonnets qui captent la luminance, batonnets qui couvrent un angle de vision plus large que les cônes.
Les professionnels se mélangent... Oui, c'est vrai mais quels professionnels ? Le problème c'est que sont sont des utilisateurs professionnels qui ont fait les choses et non des opti-physiciens. Et c'est comme ça pour beaucoup de choses. Ajouter une couche de traduction et c'est le massacre. Pour l'exemple, j'en reviens à Photoshop qui encore aujourd'hui présente des terminologies comme "symétrie horizontale" qui fout tout le monde dans la cufusion puisque ce n'est pas un symétrie d'axe horizontale (vocabulaire mathématique) mais une symétrie suivant l'axe horizontal (vocabulaire amateur).
Je suis d'accord avec ta critique mais du coup je me demande pourquoi survit la phrase que j'ai voulu enlever : elle est encore moins claire et limite au niveau sens et expression. J'essaye justement d'améliorer la qualité de l'article qui pour l'instant n'est pas terrible et dont j'ai déjà corrigé des bêtises mais dans la partie mathématique ne maitrisant pas la partie physiologique. Et je rajoute mon problème de séparation entre la perception sensoriel et la perception intellectuelle. Un modèle qui utilise des informations utilisées par le système optique ne seraient pas forcement pertinante pour l'intellecte. Quand je réflechi c'est des mots qui me traversent l'esprit et je ne ressens pas le travail de mes synapses. L'oeil travaille dans un espèce d'espace "YRGB" alors que le cerveau préfère le HSL, d'où des colorpickers présentés suivant HSL même pour définir un couleur au format RGB.
Ta réflexion me fait bisarre. J'ai comme l'impression que tu me repproches un manque de sérieux alors qu'à moi il me parait évident que l'article avait été écrit avec un manque de sérieux que j'essaye de rattrapper. Par contre, effectivement, je manque de références.
Lacrymocéphale 12 juin 2008 à 14:20 (CEST)[répondre]
Je ne critique pas ton sérieux, le fait que tu discutes ici prouve ta bonne volonté, pas de problème Émoticône sourire. J'ai par contre l'impression que vu que tu te bases sur ton expérience personnelle, on peut s'approcher du TI ou du POV, c'est pour cela que je recommande de travailler à partir de références. La rédaction actuelle est certes approximative et pas très claire, mais je trouve que ta proposition a aussi les mêmes défauts (désolé). J'ai peu de connaissances sur le sujet, donc je m'abstiendrais d'écrire qqchose, mais par contre je pense que tu peux t'inspirer de l'article anglais. Pour ce que j'en connais, ça m'a lair mieux exprimé et plus complet que ce qu'il y a ici. Cordialement, Sylenius (d) 13 juin 2008 à 22:09 (CEST)[répondre]
Bon j'ajoute mon grain de sel comme je peux, je suis pas un pro de l'informatique ni des codes de wikipédia, donc vous mettez en forme mon ajout comme vous le voulez si vous repassez par là, par contre je suis un professionnel de l'audiovisuel donc j'ajoute le POV du gars qu'a fait des études là dedans... Avant de dire que l' YUV est plus adapté que le RVB à l'oeil, revenons un peu sur l'histoire. Avant que la télé couleur apparaisse, on était en noir et blanc, donc on filmait et diffusait en noir et blanc, ce qui faisait un seul signal (signal de luminance). Ensuite quand on a commencé à chercher comment faire de la télé en couleur on s'est simplement orienté sur la solution de capter les trois couleurs primaires en synthèse additive soit rouge/vert/bleu. Premier constat : toutes les caméras, celles d'aujourd'hui encore fonctionne sur ce principe, vous soutenez donc que dès la prise de vue on est éloigné de l'oeil humain ? Je continue. Tout le monde était équipé en télé noir et blanc et on s'apprêtait à lancer la couleur, alors qu'allait on faire ? Diffuser brut de décoffrage les trois signaux RVB a des gens qui ne pouvaient recevoir qu'un seul signal sur leur poste et qui plus est complètement différent ? Il fallait donc trouver un moyen de rendre les anciens postes compatibles à cette révolution tout en permettant aux nouveaux postes de profiter de la couleur. On a donc cherché à retrouver le signal de luminance dans RVB. Alors avec des équations savantes et là, oui, effectivement, en fonction de l'oeil qui réagit surtout à la couleur verte, on a créé cette équation de calcul Y = 0.299R + 0.587 G + 0.114 B et pour retrouver les couleurs : U = -0.147R - 0.289 G + 0.436B = 0.492(B - Y) et V = 0.615R -0.515G -0.100B = 0.877(R-Y). Le signal de luminance Y pouvait donc permettre aux gens équipés de postes N&B de continuer à suivre leurs programmes. Mission suivante intégrer U et V dans le signal pour éviter de les diffuser à part et c'est là qu'on a créé le NTSC puis le Pal, mais on sort de l'histoire du composantes. Une fois le signal arrivé sur la télé couleur, cette dernière démultiplexe le composite pal/NTSC pour en refaire un signal composantes YUV, qu'elle transforme à nouveau en RVB toujours selon l'équation citée plus haut, puisque, deuxième constat : elle affiche une image composée des trois couleurs primaires pour restituer précisément ce que filmait la caméra...(je simplifie, hein) Vous voyez où je veux en venir ? J'espère. YUV n'est qu'un moyen de transmission de RVB comme Pal n'est qu'un moyen de multiplexer YUV, alors j'aimerais savoir en quoi on peut comparer un mode de transport à l'objet transporté... On peut comparer le YUV au Y Dr Db, mais au final pour les deux il ne s'agira que d'une différence sur la luminance puisque dans les deux cas le calcul final restitue (dans l'absolu, si on ne compte pas les pertes, un transport éventuel par multiplexage composite, un enregistrement) le même signal RVB. Donc oui, cette phrase disant que le RVB est moins adapté à l'oeil que le YUV est un point de vue arbitraire et non éclairé, j'espère que mon petit speech permettra donc de faire effacer cette phrase qui n'a rien à faire là. — Le message qui précède, non signé, a été déposé par l'IP 82.226.182.104 (discuter), le 3 février 2010 à 10:35
Nous sommes bien d'accord. YUV est pratique est traitement de signaux car il contient en clair l'information utile pour les écrans noir et blanc. Pour l'œil, vaut mieux ne pas s'avancer. Et pour l'infographiste, question de PdV. J'efface. Je note dans la todo-list de parler de l'origine historique des modèles en luminance. Lacrymocéphale 4 février 2010 à 14:49 (CET)[répondre]


Calcul de Y[modifier le code]

Bonjour, je fais actuellement des recherches personnel sur la relation entre la luminance d'un objet et sa température, j'aimerais trouver les formules de base de Y, U et V pour les effectuer moi même dans le cadre de mes recherches. Je trouve partout Y = 0,299 R + 0,587 G + 0,114 B, mais pourquoi toujours ces trois constantes? La formule cité ci haut est la première que je vois écrite sous cette forme:

Mais Maintenant j'aimerais savoir comment calculer r, g et b ainsi que savoir ou je peux trouver/calculer et . :)
Merci d'avance
--Sebastien.ageorges (d) 3 janvier 2011 à 22:58 (CET)[répondre]


Intervalles U et V[modifier le code]

je me demande pourquoi on ne normalise pas les intervalles de U et V pour les mettre entre [0,1] et non [-0.436,0.436] ou [-0.6..,0.6..] ça me semble plus lisible . Et donc mettre U = (U + 0.436 ) / ( 2 * 0.436 ) et V = (V + 0.615 ) / ( 2 * 0.615 ) — Le message qui précède, non signé, a été déposé par 31.36.140.15 (discuter)

Je ne trouve aucune source fiable et accessible sur le net sur ce sujet. En revanche le point de vue de Charles Poyton est intéressant, je cite : « I urge video engineers and computer graphics specialists to avoid YUV and luminance, and to use the correct terms, Y’CBCR and luma. » [1]Alasjourn (Discussion) 30 octobre 2013 à 20:19 (CET)[répondre]


ben c'est à dire que je trouve ça plus lisible ça met les valeurs entre 0 et 1 vu que r g b et y sont entre 0 et 1 ...

Discussion transférée depuis Wikipédia:Pages à fusionner
Motif : les quatre articles sont courts, les quatre systèmes décrits sont sur le même principe, seuls changent les coefficients. La fusion permettrait de mutualiser les considérations générales. Je propose de le faire sous le titre Espace colorimétrique à luminance et chrominances.

J'ai exclu l'article YIQ qui ne suit pas exactement le même principe. Notez aussi que l'article YPbPr ne décrit pas une manière de coder mais un dispositif technique pour transmettre le signal, il n'est peut-être pas pertinent de le fusionner.

cdang | m'écrire 7 août 2018 à 14:27 (CEST)[répondre]

Notification Lacrymocéphale, Sylenius, Alasjourn, Maggyero, RichardHoule, Matt438, ChrisJ, Theon, Sanao, Liagushka et Speculos :

Notification Lacrymocéphale, Sylenius, Alasjourn, Maggyero, ChrisJ, Theon, Sanao et Speculos : 2e rappel, si vous voulez bien donner votre avis, je me sens un peu seul, là… ^_^
cdang | m'écrire 31 août 2018 à 11:00 (CEST)[répondre]
Notification cdang :
Désolé pour le silence précédent.
Dans l'absolue, la réflexion est intéressante. C'est tentant de rassembler les choses. J'essaye d'évaluer quels pourraient être les pièges.
Le « luminance » dans le titre proposé, je ne sais pas quoi en penser vis à vis de l'indication systématique sur la distinction entre Luminance#Signal de luminance ou Luma/Luminance#Luminance relative. Là, comme ça, je dirais que ça convient et qu'il n'y a pas à préciser plus dès le titre.
Une idée de ce que pourrait être le WP:RI de cette fusion ?
--Lacrymocéphale (discuter) 31 août 2018 à 13:26 (CEST)[répondre]
Notification Lacrymocéphale : Pour le titre, je pensais aussi tout bêtement à Espace colorimétrique pour l'audiovisuel.
Pour le résumé introductif, en fait pour le début de l'article, je verrai un truc comme le début de YUV (tout ce qui précède la section Équations).
cdang | m'écrire 31 août 2018 à 15:35 (CEST)[répondre]
Ces lettres ne correspondent pas à proprement parler à des espaces colorimétriques mais à des normes audiovisuelles qui leur attribuent des valeurs en volt pour les signaux analogiques ou selon des niveaux numériques. Le tire ne me convient donc pas franchement. Il s'agit plutôt de signaux composantes... et je ne voit pas pour l'instant de titre clair et simple qui leur serait commun. Je ne suis pas opposé à une fusion car il s'agit bien du même principe dans tous les cas. — Ellande (Disc.) 7 septembre 2018 à 19:40 (CEST)[répondre]
Pour
  1. Pour Pour les raisons indiquées ci-dessus. cdang | m'écrire 28 août 2018 à 09:00 (CEST)[répondre]
  2. Pour la fusion Contre le titre. — Ellande (Disc.) 7 septembre 2018 à 19:40 (CEST)[répondre]
Contre
  1. -? Plutôt contre Je ne vois pas de bonnes raisons de fusionner. Les espaces sont certes très proches, mais il est plus clair d'avoir une page séparée pour chaque. D'autre part, le titre proposé pour une page fusionnée me pose problème. Si historiquement ces formats sont liés à la diffusion audiovisuel, aujourd'hui, ils sont utilisés en tant qu'espace couleur en tant que tels. YUV en particulier est très utilisé en traitement d'image/vision. Sylenius (discuter) 31 août 2018 à 22:32 (CEST)[répondre]
  2. -? Plutôt contre Pour les mêmes raisons que Sylenius. Je note que les autres Wikipédias ont également des pages séparées. ChrisJ (discuter) 1 septembre 2018 à 20:28 (CEST)[répondre]