Utilisateur:Etudebibliographique/Brouillon

Une page de Wikipédia, l'encyclopédie libre.

Etat de l'art des approches multi espaces couleurs en analyse d'image

Définition[modifier | modifier le code]

C'est le fait de combiner plusieurs espaces couleurs afin d'améliorer les performances des algorithmes de traitement d'images.

Les différents types de traitement d'images :[modifier | modifier le code]

  • Amélioration : Modifier l'image dans le but de la rendre plus agréable à l’œil
  • Restauration : Corriger des défauts dus à une source de dégradation
  • Compression : Réduire le volume de l'image
  • Tatouage d'image : Permet d'ajouter des informations visibles ou non dans l'image
  • Synthèse d'image : Modéliser le contenu des images
  • Segmentation : Partition d'images
  • Analyse : Interpréter une information et décider d'une action à engager
  • Classification d'image : Affectation d'une image à une classe définie
  • Reconnaissance des formes : Identification du contenu de l'image
    http://sde.eduvax.net/artcs/chap02.html
  • Indexation et recherche d'images : Caractérisation du contenu de l'image
  • Analyse du mouvement : Estimation du mouvement dans les séquences d'images
  • Vision 3D : Localisation en 3 dimensions des objets dans l'image

Les objectifs d'analyse d'image couleur[modifier | modifier le code]

  • Remplacer le contrôle visuel humain des produits manufacturés
  • Développer des systèmes d'inspection automatique pour le contrôle de la qualité des produits manufacturés et le tri
  • Conception de postes automatiques de tri et/ou d'inspection visuelle d'objets
  • Détection en ligne des défauts d'aspect couleur en temps réel
  • Analyse automatique de l'aspect de surface couleur des objets inspectés

Les différents espaces couleurs[modifier | modifier le code]

L'analyse des couleurs des pixels[1][2] dans un espace couleur ne se limite pas à l'espace couleur RGB. En effet, il existe un grand nombre d'espaces couleurs qui peuvent être utilisés pour représenter les couleurs des pixels. Nous proposons de regrouper les espaces couleurs les plus largement utilisés en quatre familles principales. De plus, ces familles sont elles même divisées en sous-familles[3].

Les espaces de primaires[modifier | modifier le code]

Les espaces primaires sont basés sur la théorie en trichromie, en supposant qu'il est possible de faire correspondre toutes les couleurs en mélangeant des quantités appropriées des trois couleurs primaires. Ils peuvent être divisés en :

  • Espace de primaires réelles : pour lequel les couleurs primaires peuvent être physiquement reproduites.
  • Espace de primaire virtuelles ou imaginaires : dont les primaires n'existent pas physiquement. Tous les espaces de primaires réelles peuvent être convertis en l'espace de primaires imaginaires par des transformations linéaires.

Les espaces de primaires peuvent être normalisées de manière à obtenir des composantes de couleurs qui ne dépendent pas de la luminance. Un tel espace de coordonnées normalisé est déterminé en divisant la valeur de chaque composante de couleur d'un espace primaire par la somme des trois autres.

Les espaces luminances-chrominances[modifier | modifier le code]

Dans ce cas, une composante représente une information achromatique (appelée ici la luminance) et les deux autres représentent des informations chromatiques (appelé ici de chrominance). Ils peuvent être classés dans les espaces suivants:

  • Les espaces perceptuellement uniformes qui proposent d'établir une correspondance entre une différence de couleur perçue par un observateur humain et une distance mesurée dans l'espace de couleur.
  • Les espaces de télévision qui séparent le signal achromatique aux signaux chromatiques pour la transmission de signaux de télévision.
  • Les espaces antagonistes qui visent à reproduire le modèle de la théorie de la couleur de l'adversaire proposé par Hering.

Les espaces perceptuels[modifier | modifier le code]

Ils tentent de quantifier la perception humaine subjective des couleurs en utilisant l'intensité, la teinte, et les composantes de saturation. Deux types d'espaces perceptuels peuvent être distingués :

  • Espaces perceptuels évalués à partir d'espaces luminance-chrominance :
      -Les espaces de coordonnées polaires 
  • Espaces perceptuels évalués à partir d'espaces de primaire :
      -Modèle triangulaire
      -Modèle de cône hexagonal
      -Modèle de cône hexagonal double
      -Modèle de la CIE

Les espaces d'axes indépendants[modifier | modifier le code]

Ils sont issus de différentes méthodes statistiques [comme la formation de Karhunen-Loeve trans- (KLT) ou une analyse en composantes principales (PCA)], qui fournissent des composantes moins corrélées lorsque cela est possible.

Les espaces couleurs usuels[modifier | modifier le code]

Famille Sous-famille Indice i Espace couleur Nom et réferences
Les espaces de primaires 1 1 (R,G,B) Espace d'acquisition d'image
2 (r,g,b) Espace d'acquisition normalisée d'image[4]
2 3 (X,Y,Z) Espace CIE 1931 XYZ[5]
4 (x,y,z) Espace CIE 1931 xyz[6]
Les espaces luminances-chrominances 3 5 (A,C1,C2) Espace de GARBAY[7]
6 (bw,rg,by) Espace de BAILLARD[8]
4 7 (Y',I',Q') Espace de television NTSC[9]
8 (Y',U',V') Espace de television EBU[10]
5 9 (L*,a*,b*) Espace CIELAB[11]
10 (L*,u*,v*) Espace CIELUV[12]
6 11 (Y,Ch1,Ch2) Espace de Carron[13]
12 (Y,x,y) Espace CIE 1931 Yxy [14]
13 (I1,r,g) [15]
Les espaces d'axes indépendants 14 (I1,I2,I3) Espace Ohta[16]
Les espaces perceptuels 7 15 (I1,S1,H1) Modèle triangulaire HSI[17]
16 (I1,S2,H1) Modèle triangulaire modifié HSI[18]
17 (I4,S3,H2) Modèle hexagonal HSV[19]
18 (I5,S4,H2) Modèle double hexagonal HLS[20]
19 (I6,S5,H1) Modèle HSL amélioré[21]
20 (L*,Suv*,Huv*) Espace CIE[22]
8 21 (A, Cc1c2 hc1c2) Espace polaire de GARBAY[23]
22 (bw,Crgby,hrgby) Espace polaire de BAILLARD[24]
23 (Y',C'IQ,h'IQ) Espace polaire NTSC[25]
24 (Y',C'uv,h'uv) Espace polaire EBU[26]
25 (L*,C*ab,hab) Espace polaire CIELAB[27]
26 (L*,C*uv,huv) Espace polaire CIELUV[28]
27 (L,Cch1ch2,hch1ch2) Espace polaire de Carron[29]
28 (I1,Ci2i3,hi2i3) Espace polaire d'Ohta[30]

Le tableau présente un certain nombre d'espaces couleurs couramment utilisés lors des différents types de traitements d'images couleurs. Les deux premières colonnes donnent la famille et sous-famille de chaque espace couleur. La troisième colonne du tableau donne l'indice i pour chaque espace couleurs et la quatrième colonne correspond à la notation de chaque espace couleur que nous utilisons. Parce que certains espaces couleurs ont les mêmes noms et peuvent être source de confusion, nous proposons d'utiliser différentes notations pour les distinguer. La dernière colonne du tableau indique le nom de l'espace couleur correspondant. La plupart de ces espaces couleurs ne sont pas initialement développés pour les applications d'analyse d'images en couleur. Par conséquent, leur exploitation par un dispositif d'image couleur d'acquisition numérique exige que certaines conditions soient remplies:

  • Il est important de contrôler les conditions d'acquisition (de préciser la balance des blancs, le système d'éclairage, et des quelques paramètres de la caméra utilisée tels que le gain, l'offset, et la correction) afin de préciser correctement les paramètres de certains espaces couleurs .
  • Une calibration de couleur lors de l'acquisition d'image en couleur est recommandée.
  • Un système de codage spécifique des couleurs des pixels doit être appliqué à ces espaces couleurs de sorte que leurs propriétés intrinsèques ne soient pas modifiées.

Le choix d'un espace couleur[modifier | modifier le code]

Introduction[modifier | modifier le code]

Ce tableau résume certaines études de segmentation d'image dans lequel les auteurs comparent plusieurs espaces couleurs standards. Ceci dans le but de déterminer ceux qui conviennent le mieux à la segmentation. La première colonne du tableau indique la référence de l'étude, la deuxième colonne fait apparaître les différents espaces comparés. Enfin, la dernière colonne donne l'espace couleur choisi par les auteurs.

Références Espaces couleurs étudiés Espace couleur sélectionné
[31] (R,G,B), (X,Y,Z), (Y',I',Q'), (U,V,W),(I1, I2, I3) (I1, I2, I3),(R,G,B)
[32] (R,G,B), (X,Y,Z), (Y',I',Q'), (U',V',W'),(L*',a*',b*'), (I1,r,g), (I1,I2,I3), (I1,S1,H1) (L*',a*',b*'), (R,G,B)
[33] (R,G,B),(X,Y,Z),(Y',I',Q'),(U*,V*,W*),(I1,I2,I3) Aucun
[34] (R,G,B),(Y,u,v),(Y,Qrg,Qrb) (R,G,B)
[35] (R,G,B),(X,Y,Z),(Y',U',V'),(I4,S3,H2),(C,M,Y) (R,G,B)
[36] (R,G,B),(X,Y,Z),(Y',U',V'),(L*,a*,b*),(I1,I2,I3),(I4,S3,H2) (I1,I2,I3)
[37] (R,G,B),(X,Y,Z),(Y',I',Q'),(L*,a*,b*),(I1,I2,I3),(I1,S1,H1),(U*,V*,W*),(I1,r,g) (I1,I2,I3)
[38] (R,G,B),(Y',I',Q'),(L*,a*,b*),(I1,I2,I3),(U*,V*,W*) (I1,I2,I3)
[39] (R,G,B),(X,Y,Z),(Y',U',V'),(L*,a*,b*),(I1,I2,I3),(Y',I',Q'),(Y',C'b,C'r),(Y,Ch1,Ch2),(I1,S1,h1),(L*,u*,v*) (I1,I2,I3)
[40] (R,G,B),(Y',U',V'),(L*,a*,b*),(Y',C'b,C'r),(L*,u*,v*) (L*,a*,b*)
[41] (R,G,B),(L*,a*,b*),(L*,u*,v*) (L*,u*,v*)
[42] (R,G,B),(Y',C'b,C'r),(I1,r,g),(L*,a*,b*),(I4,S3,H2) (Y',C'b,C'r)

Le tableau ci-dessous présente d'autres études qui comparent différents espaces couleurs, D'ailleurs, ces différents espaces couleurs ne sont pas spécifiquement dans le cadre de la segmentation d'images. Ces évaluations complémentaires confirment qu'il n'y a pas d'espace couleur recommandé par toutes les études. En effet, lorsque l'on considère le nombre élevé d'espaces couleurs existants, il est difficile de présélectionner un espace spécifique adapté à toutes les applications d'analyse d'image.

Références Espaces couleurs étudiés Espace couleur sélectionné
[43] (R,G,B), (Y',I',Q'), (L*,a*,b*),(L*,u*,v*),(I4,S3,H2),(I1, I2, I3) (R,G,B)
[44] (R,G,B), (L*,a*,b*),(Y,Ch1,Ch2) (L*,a*,b*)
[45] (R,G,B), (L*,a*,b*),(I6,S5,H1) (L*,a*,b*)
[46] (R,G,B), (X,X,Z),(Y',I',Q'),(L*,a*,b*),(L*,u*,v*),(I1,S1,H1), (L*,C*ab,hab) (L*,a*,b*),(L*,u*,v*)
[47] (R,G,B), (X,X,Z),(Y',I',Q'),(L*,a*,b*),,(I1,S1,H1) (Y',I',Q')
[48] (R,G,B), (r,g,b), (X,X,Z), (Y',I',Q'), (Y',U',V'), (Y',C'b,C'r), (U*,V*,W*), (L*,a*,b*),(L*,u*,v*), (I1, I2, I3), (I1,S1,H1),(I4,S3,H2) (Y',I',Q'),(Y',U',V')
[49] (R,G,B), (L*,a*,b*),(L*,u*,v*), (I1, I2, I3), (I1,S1,H1) (I1, I2, I3)
[50] (R,G,B), (L*,a*,b*), (I1, I2, I3),(I1, I2, I3)new, (I1,S1,H1),(I4,S3,H2) (I1, I2, I3),(I1, I2, I3)new
[51] (R,G,B), (Y',I',Q'), (U,V,W), (I1, I2, I3) (I1, I2, I3)

D'autre part, l'exécution et la performance d'un algorithme dépend du choix de l'espace couleur. Comme on le voit dans les deux précédents tableaux, de nombreux auteurs ont tenté de déterminer les espaces couleurs adaptés pour la segmentation d'image et tous fournissent des conclusions contradictoires quant à la pertinence des espaces couleurs disponibles dans le cadre de l'analyse d'image couleur.

Il est donc évident de conclure qu'il n'existe pas d'espace couleur classique qui fournit des résultats satisfaisants pour l'analyse de tous les types d'images couleurs. Il est alors indispensable de mettre en évidence la nécessité d'un système de sélection de l'espace couleur dans le cadre du traitement des images couleurs.

Sélection des composantes couleurs[modifier | modifier le code]

La sélection se fait selon la classification de pixels et grâce à l'analyse des histogrammes 1-D de neuf composantes de couleur. Le principal problème de ce système de classification est que les classes ne sont pas définis dans un espace couleur 3-D. Plus récemment, certains travaux de recherche travaillent sur le fait de sélectionner des composantes couleurs pertinentes provenant de différents espaces couleurs (Ohlander et al.[52] ). Ils proposent la segmentation des images de manière récursive. En sélectionnant des espaces couleurs qui sont bien adaptés pour les tâches de segmentation d'images couleurs,Vandenbroucke et al. proposent une approche originale qui consiste à construire un espace couleur hybride qui est bien adapté à l'application considérée[53]. Ce nouveau type d'espaces couleurs est le résultat d'un programme d'apprentissage supervisé qui sélectionne un jeu de couleur com- 69 qui peuvent appartenir à l'un des différents espaces couleurs classiques vu dans les tableaux précédents. Ces espaces couleurs hybrides, qui n'ont ni psychovisuelle, ni signification physique de la couleur ont été appliqués à la segmentation d'image par classification de pixels[54], récupération d'images[55][56], inspection de comprimés à usage pharmaceutique[57][58][59], vieillissement d'emballage ,segmentation de vidéo[60] ou à la reconnaissance de visage[61]. Le concept des espaces couleurs hybrides a été ensuite étendu et généralisé en considérant les caractéristiques de texture plutôt que les composantes de couleur afin de prendre également en compte les relations spatiales entre les pixels dans le problème de la classification de texture.

Extraction des composantes couleurs[modifier | modifier le code]

Au lieu de sélectionner des composantes couleurs, Kouassi et al. et Foucherot et al. ont calculé de nouvelles composantes couleurs qui partagent différentes informations non corrélées et non redondantes, et ceci se fait grâce à KLT[62][63]. Et c'est parce que l'application de l'APC aux pixels des couleurs de chaque image analysée prend du temps, que plusieurs auteurs ont déterminé des espaces d'axes indépendants qui se rapprochent de la KLT en appliquant l'APC à plusieurs ensembles de différentes images, tels que (I1; I2; I3) ou (i1;i2;i3)new[64][65]. La méthode d'analyse en composantes indépendantes fournit également des espaces couleurs dont les composantes sont statistiquement indépendantes . L'information est répartie sur toutes les composantes , alors que la première composante déduite par PCA contient le plus d'informations[66][67][68][69]. Stokman et Gevers proposent d'effectuer une fusion des composantes couleurs au moyen d'un système de pondération pour la détection du point d'intérêt de l'image[70]. L'idée est d'exploiter la corrélation entre les 12 différentes composantes couleurs afin de déterminer un poids pour chacun d'eux au cours d'une étape d'apprentissage .

Fusion des espaces couleurs[modifier | modifier le code]

D'autres stratégies consistent à projeter les points de couleur dans plusieurs espaces couleurs et effectuer indépendamment un système de classification dans ces différents espaces couleurs. Ainsi, pour chaque pixel, plusieurs décisions venant de différents classificateurs ( k-moyens[71], k plus proches voisins[72][73] ) sont disponibles. L'étiquetage final est obtenu grâce à une règle de fusion de ces décisions. Même si ces approches donnent de bons résultats, ils consomment beaucoup de temps.

Sélection d'espace couleur[modifier | modifier le code]

Plutôt que de sélectionner des composantes couleurs, Busin et al . proposent une approche itérative qui sélectionne automatiquement parmi les 11 espaces couleurs ceux qui sont bien adaptés à la segmentation d'image par classification[74]. Une stratégie de commutation de l'espace couleur adaptative a également été mis au point par Stern et Efros afin d'effectuer le suivi de la peau du visage d'une vidéo sous illumination[75]. Une approche de sélection de l'espace couleur automatique similaire et de commutation a également été proposé par Gouiffès et al . afin d' améliorer les performances de suivi visuel[76]. La sélection continue et automatique de l'espace couleur est basée sur la bonne séparation entre la cible et son proche arrière-plan. Vandenbroucke et al. proposent une approche sans surveillance sur la base de la sélection itérative de plusieurs espaces couleurs pour la segmentation d'image. Chacun d'entre eux est bien adapté pour construire chaque classe de pixel à récupérer dans l'image. Plus précisément, une seule classe de pixels est identifiée à chaque étape d'itération de l'algorithme, en ​​opérant dans l'espace couleur choisi . L'espace couleur proposé prend en compte à la fois la distribution de la couleur des pixels dans différents espaces couleurs mais aussi la disposition spatiale de ces pixels dans le plan de l'image.

Bibliographie[modifier | modifier le code]

  • Alice POREBSKI, Initiation à la recherche, vision et traitement d'images
  • Nicolas Vandenbroucke, Laurent Busin, Ludovic Macaire, Unsupervised color-image segmentation by multicolor space iterative pixel classification, Journal of electronic Imaging

Références[modifier | modifier le code]

  1. S. J. Sangwine and R. E. N. Horne, The Colour Image Processing Handbook, Chapman & Hall, London (1998).
  2. G. Sharma and H. J. Trussell, “Digital color imaging,” IEEE Trans. Image Process. 6(7), 901–932 (1997).
  3. L.Busin,N.Vandenbroucke,andL.Macaire,“Colorspacesandimage segmentation,” Adv. Imaging Electron Phys. 151, 65–168 (2008).
  4. D. T. Berry, “Colour recognition using spectral signatures,” Pattern Recognit. Lett. 6(1), 69–75 (1987).
  5. Commission Internationale de l’Eclairage, “Colorimetry,” Technical Report 15.2, Bureau central de la CIE, Vienna (1986).
  6. Commission Internationale de l’Eclairage, “Colorimetry,” Technical Report 15.2, Bureau central de la CIE, Vienna (1986).
  7. C. Garbay, G. Brugal, and C. Choquet, “Application of colored image analysis to bone marrow cell recognition,” Anal. Quant. Cytol. 3(4), 272–280 (1981).
  8. M. J. Swain and D. H. Ballard, “Color indexing,” Int. J. Comput. Vis. 7(1), 11–32 (1991).
  9. R. L. Swenson and K. R. Dimond, “A universal colour transformation architecture,” Pattern Recognit. Lett. 19(9), 805–813 (1998).
  10. D. T. Berry, “Colour recognition using spectral signatures,” Pattern Recognit. Lett. 6(1), 69–75 (1987).
  11. Commission Internationale de l’Eclairage, “Colorimetry,” Technical Report 15.2, Bureau central de la CIE, Vienna (1986).
  12. Commission Internationale de l’Eclairage, “Colorimetry,” Technical Report 15.2, Bureau central de la CIE, Vienna (1986).
  13. P.LambertandT.Carron,“Symbolicfusionofluminance-hue-chroma features for region segmentation,” Pattern Recognit. 32(11), 1857– 1872 (1999).
  14. Commission Internationale de l’Eclairage, “Colorimetry,” Technical Report 15.2, Bureau central de la CIE, Vienna (1986).
  15. Y.I.Ohta,T.Kanade,andT.Sakai,“Colorinformationforregionseg- mentation,” Comput. Graph. Image Process. 13, 222–241 (1980).
  16. Y.I.Ohta,T.Kanade,andT.Sakai,“Colorinformationforregionseg- mentation,” Comput. Graph. Image Process. 13, 222–241 (1980).
  17. T.-Y. Shih, “The reversibility of six geometric color spaces,” Photogramm. Eng. Remote Sens. 61(10), 1223–1232 (1995).
  18. T.-Y. Shih, “The reversibility of six geometric color spaces,” Photogramm. Eng. Remote Sens. 61(10), 1223–1232 (1995).
  19. T.-Y. Shih, “The reversibility of six geometric color spaces,” Photogramm. Eng. Remote Sens. 61(10), 1223–1232 (1995).
  20. T.-Y. Shih, “The reversibility of six geometric color spaces,” Photogramm. Eng. Remote Sens. 61(10), 1223–1232 (1995).
  21. A. Hanbury and J. Serra, “A 3D-polar coordinate colour representation well adapted to image analysis,” Lec. Notes Comput. Sci. 2749, 111– 125 (2003).
  22. Commission Internationale de l’Eclairage, “Colorimetry,” Technical Report 15.2, Bureau central de la CIE, Vienna (1986).
  23. C. Garbay, G. Brugal, and C. Choquet, “Application of colored image analysis to bone marrow cell recognition,” Anal. Quant. Cytol. 3(4), 272–280 (1981).
  24. L.Busin,N.Vandenbroucke,andL.Macaire,“Colorspacesandimage segmentation,” Adv. Imaging Electron Phys. 151, 65–168 (2008).
  25. R. L. Swenson and K. R. Dimond, “A universal colour transformation architecture,” Pattern Recognit. Lett. 19(9), 805–813 (1998).
  26. D. T. Berry, “Colour recognition using spectral signatures,” Pattern Recognit. Lett. 6(1), 69–75 (1987).
  27. Commission Internationale de l’Eclairage, “Colorimetry,” Technical Report 15.2, Bureau central de la CIE, Vienna (1986).
  28. Commission Internationale de l’Eclairage, “Colorimetry,” Technical Report 15.2, Bureau central de la CIE, Vienna (1986).
  29. P.LambertandT.Carron,“Symbolicfusionofluminance-hue-chroma features for region segmentation,” Pattern Recognit. 32(11), 1857– 1872 (1999).
  30. D. T. Berry, “Colour recognition using spectral signatures,” Pattern Recognit. Lett. 6(1), 69–75 (1987).
  31. Y.W.LimandS.U.Lee,“Onthecolorimagesegmentationalgorithm based on the thresholding and the fuzzy c-means techniques,” Pattern Recognit. 23(9), 935–952 (1990).
  32. Y.I.Ohta,T.Kanade,andT.Sakai,“Colorinformationforregionseg- mentation,” Comput. Graph. Image Process. 13, 222–241 (1980).
  33. S.H.Park,I.D.Yun,andS.U.Lee,“Colorimagesegmentationbased on 3-D clustering: morphological approach,” Pattern Recognit. 31(8), 1061–1076 (1998).
  34. E. Littmann and H. Ritter, “Adaptive color segmentation. A comparison of neural and statistical methods,” IEEE Trans. Neural Netw. 8(1), 175– 185 (1997).
  35. D. Khattab et al., “Color image segmentation based on different color space models using automatic GrabCut,” Sci. World J. 2014, 126025 (2014).
  36. J. Liu and Y.-H. Yang, “Multiresolution color image segmentation,” IEEE Trans. Pattern Anal. Mach. Intell. 16(7), 689–700 (1994).
  37. J. H. Lee, B. H. Chang, and S. D. Kim, “Comparison of colour trans- formations for image segmentation,” Electron. Lett. 30(20), 1660–1661 (1994).
  38. J. Mukherjee, “MRF clustering for segmentation of color images,” Pattern Recognit. Lett. 23(8), 917–929 (2002).
  39. O. Lezoray, “Supervised automatic histogram clustering and watershed segmentation. Application to microscopic medical images,” Image Anal. Stereol. 22(2), 113–120 (2003).
  40. S. Makrogiannis, G. Economou, and S. Fotopoulos, “A region dissimi- larity relation that combines feature-space and spatial information for color image segmentation,” IEEE Trans. Syst. Man Cybern. B 35(1), 44–53 (2005).
  41. R. A. Lizarraga-Morales et al., “Improving a rough set theory-based segmentation approach using adaptable threshold selection and percep- tual color spaces,” J. Electron. Imaging 23(1), 013024 (2014).
  42. S. L. Phung, A. Bouzerdoum, and D. Chai, “Skin segmentation using color pixel classification: analysis and comparison,” IEEE Trans. Pattern Anal. Mach. Intell. 27(1), 148–154 (2005).
  43. C.C.Brunneretal.,“Anevaluationofcolorspacesfordetectingdefects in Douglas-fir veneer,” Ind. Metrol. 2(3–4), 169–184 (1992).
  44. O. Alata and L. Quintard, “Is there a best color space for color image characterization or representation based on multivariate Gaussian mix- ture model?,” Comput. Vis. Image Underst. 113(8), 867–877 (2009).
  45. I.-U.-H.Qazietal.,“Choiceofapertinentcolorspaceforcolortexture characterization using parametric spectral analysis,” Pattern Recognit. 44(1), 16–31 (2011).
  46. N. M. Moroney and M. D. Fairchild, “Color space selection for JPEG image compression,” J. Electron. Imaging 4(4), 373–381 (1995).
  47. A.DrimbareanandP.F.Whelan,“Experimentsincolourtextureanaly- sis,” Pattern Recognit. Lett. 22(10), 1161–1167 (2001).
  48. P. Shih and C. Liu, “Comparative assessment of content-based face image retrieval in different color spaces,” Int. J. Pattern Recognit. Artif. Intell. 19(7), 873–893 (2005).
  49. M.Adeletal.,“Evaluationofcolourspacesincomputervision:appli- cation of wood defects detection,” in IEEE Int. Conf. on Systems, Man, and Cybernetics, Vol. 2, pp. 499–504, IEEE, Le Touquet (1993).
  50. I. Philipp and T. Rath, “Improving plant discrimination in image processing by use of different colour space transformations,” Comput. Electron. Agric. 35(1), 1–15 (2002).
  51. G. Van de Wouwer et al., “Wavelet correlation signatures for color texture characterization,” Pattern Recognit. 32(3), 443–451 (1999).
  52. R. Ohlander, K. Price, and D. R. Reddy, “Picture segmentation using a recursive region splitting method,” Comput. Graph. Image Process. 8, 313–333 (1978).
  53. N. Vandenbroucke, L. Macaire, and J.-G. Postaire, “Color pixels clas- sification in an hybrid color space,” in IEEE Int. Conf. on Image Processing, Vol. 1, pp. 176–180, IEEE, Chicago, IL (1998).
  54. N. Vandenbroucke, L. Macaire, and J.-G. Postaire, “Color image seg- mentation by pixel classification in an adapted hybrid color space. Application to soccer image analysis,” Comput. Vis. Image Underst. 90(2), 190–216 (2003).
  55. R. Raveaux, J.-C. Burie, and J.-M. Ogier, “A colour space selection scheme dedicated to information retrieval tasks,” in 8th Int. Workshop on Pattern Recognition in Information Systems, pp. 123–134 (2008).
  56. J. Da Rugna, P. Colantoni, and N. Boukala, “Hybrid color spaces applied to image database,” Proc. SPIE 5304, 254–263 (2004).
  57. P. Zhao et al., “Automatic cell analysis for p53 immunohistochemistry in bladder inverted papilloma,” in IEEE EMBS Asian-Pacific Conf. on Biomedical Engineering, pp. 168–169, IEEE, Japan (2003).
  58. G. Lebrun et al., “Fast pixel classification by SVM using vector quan- tization, tabu search and hybrid color space,” Lec. Notes Comput. Sci. 3691, 685–692 (2005).
  59. G. Lebrun et al., “A fast and efficient segmentation scheme for cell microscopic image,” Cell. Mol. Biol. 53(2), 51–61 (2007).
  60. C. Yejing and L. Yonghong, “A new method of hybrid color space and its application,” in Int. Conf. on Measuring Technology and Mechatronics Automation, pp. 407–409, IEEE, Zhangjiajie, Hunan (2009).
  61. Z. Liu and C. Liu, “A hybrid color and frequency features method for face recognition,” IEEE Trans. Image Process. 17(10), 1975–1980 (2008).
  62. I. Foucherot et al., “New methods for analyzing colour texture based on the Karhunen-Loeve transform and quantification,” Pattern Recognit. 37(8), 1661–1674 (2004).
  63. R. Kouassi, P. Gouton, and M. Paindavoine, “Approximation of the Karhunen-Loève transformation and its application to colour images,” Signal Process. Image Commun. 16(6), 541–551 (2001).
  64. I. Philipp and T. Rath, “Improving plant discrimination in image processing by use of different colour space transformations,” Comput. Electron. Agric. 35(1), 1–15 (2002).
  65. Y.I.Ohta,T.Kanade,andT.Sakai,“Colorinformationforregionseg- mentation,” Comput. Graph. Image Process. 13, 222–241 (1980).
  66. T. Lee and M. S. Lewicki, “Unsupervised image classification, segmen- tation, and enhancement using ICA mixture models,” IEEE Trans. Image Process. 11(3), 271–279 (2002).
  67. H. L. Borgne, A. Guérin-Dugué, and A. Antoniadis, “Representation of images for classification with independent features,” Pattern Recognit. Lett. 25(2), 141–154 (2004).
  68. S. Chindaro, K. Sirlantzis, and M. C. Fairhurst, “ICA-based multi- colour space texture classification system,” Electron. Lett. 42(21), 1208–1210 (2006).
  69. C. Liu and J. Yang, “ICA color space for pattern recognition,” IEEE Trans. Neural Netw. 20(2), 248–257 (2009).
  70. H. Stokman and T. Gevers, “Selection and fusion of color models for image feature detection,” IEEE Trans. Pattern Anal. Mach. Intell. 29(3), 371–381 (2007).
  71. M. Mignotte, “Segmentation by fusion of histogram-based k-means clusters in different color spaces,” IEEE Trans. Image Process. 17(5), 780–787 (2008).
  72. S. Chindaro, K. Sirlantzis, and M. C. Fairhurst, “ICA-based multi- colour space texture classification system,” Electron. Lett. 42(21), 1208–1210 (2006).
  73. S.Chindaro,K.Sirlantzis,andF.Deravi,“Textureclassificationsystem using colour space fusion,” Electron. Lett. 41(10), 589–590 (2005).
  74. L.Busin,N.Vandenbroucke,andL.Macaire,“Contributionofacolor space selection to a flaw detection vision system,” J. Electron. Imaging 22(3), 033016 (2013).
  75. H. Stern and B. Efros, “Adaptive color space switching for tracking under varying illumination,” Image Vis. Comput. 23(3), 353–364 (2005).
  76. F. Laguzet, M. Gouiffès, and L. Lacassagne, “Automatic color space switching for robust tracking,” in IEEE Int. Conf. on Signal and Image Processing Applications, pp. 295–300, IEEE, Kuala Lumpur (2011).