Détection automatique des publicités télévisées

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

La détection automatique des publicités télévisées est un ensemble de techniques informatiques qui permettent de détecter automatiquement les publicités dans un flux vidéo de télévision.

C'est un problème qui est encore largement du domaine de la recherche, avec toutefois une forte implication d'industriels, notamment Philips[1] ou Google[2], et de nombreux brevets déposés. Les applications sont nombreuses et vont du magnétoscope numérique intelligent, à la gestion d'archives de télévision, en passant par la vérification de la diffusion des publicités.

Historique[modifier | modifier le code]

Les premières mentions de la possibilité d'une détection automatique des publicités sont apparues dans des brevets américains : celui de Novak[3] en 1988, celui de Blum[4] en 1992 et celui de Nafeh[5] en 1994.

Les brevets de Novak et Blum sont encore marqués par l'analogique. Ils utilisent le fait que quelques images de séparations sont présentes entre deux publicités, que ces images sont généralement noires, et donc faciles à détecter. La détection est faite dans le domaine pixellique. Nafeh utilise, quant à lui, un réseau de neurones pour apprendre et classer des clips vidéos en fonctions de leurs caractéristiques sonores et visuelles. C'est la première contribution qui fait un usage explicite de méthodes d'apprentissage artificiel.

Depuis ces travaux, le nombre de brevets sur cette problématique est devenu tout à fait conséquent[6] alors que le nombre de publications scientifiques est assez modeste. Toutefois, ces brevets ne donnent pas de résultats quant à l'efficacité de leurs techniques de détection, il est donc difficile de savoir si les techniques proposées sont réellement efficaces.

Le nombre de travaux universitaires sur le sujet a véritablement commencé à devenir important à partir de 1997 et les travaux fondateurs de Lienhart[7].

Technique[modifier | modifier le code]

Caractéristiques[modifier | modifier le code]

Les techniques de détection font usage de plusieurs caractéristiques, supposées être caractéristiques des publicités, qui doivent en principe permettre la discrimination entre les programmes et les espaces de publicité diffusés. Ces caractéristiques sont ensuite combinées et utilisées de différentes manières afin de prendre une décision.

Images monochromes[modifier | modifier le code]

Un exemple d'écran monochrome diffusé entre les publicités. Couleur bleue utilisée sur la chaîne TF1 jusqu'en 2006.
Entropie de l'histogramme de luminance sur 1 heure de télévision (France 2).

La caractéristique la plus populaire est la présence de séparations, encore appelées cartons monochromes, ou simplement images monochromes. Ce sont des images monochromes qui sont diffusées par la chaîne entre deux publicités, essentiellement pour permettre au téléspectateur de mieux comprendre leur enchaînement. C'est une technique utilisée dans de nombreux pays : en Allemagne[7], aux États-Unis[8], en Irlande[9], aux Pays-Bas[1]. Dans tous ces pays les images de séparation sont noires.

En France ces images existent aussi mais sont soit noires (Canal+,TF1,NT1) blanches (France 2, France 3, France 5) ou même avec le logo de la chaîne (NRJ 12, M6, W9). En Asie, ou sur certaines chaînes irlandaises, ces images de séparations n'existent pas[10],[9].

La détection d'images monochromes est un problème de traitement du signal simple. Toutefois le bruit de transmission et les scènes se déroulant de nuit compliquent la tâche. Plusieurs techniques ont été proposées : le seuillage de la moyenne et de la variance des pixels de luminance[7], l'entropie de l'histogramme de luminance[11].

Certains auteurs proposent de travailler dans le domaine compressé, en supposant que le flux vidéo est du MPEG-1 ou MPEG-2. Sadlier et al.[9] proposent d'utiliser le coefficient DC de la matrice DCT de luminance d'un bloc 8×8, qui est la valeur moyenne des pixels de ce bloc. La détection des images noires est alors réalisée par un seuillage des valeurs de ce coefficient DC à partir d'une valeur moyenne de ce coefficient. Le même genre de méthode est utilisé par McGee et al.[1], qui soulignent qu'une valeur de seuil fixe semble impraticable et réajustent cette valeur de seuil à chaque occurrence d'une image qui dépasse ledit seuil.

Ces techniques entraînent un grand nombre de faux positifs, parce qu'il existe énormément d'images « quasi-monochromes » qui ne sont pas des séparations de publicités, par exemple lors d'un fondu, ou dans les scènes de nuit.

Silence[modifier | modifier le code]

Énergie du signal audio sur quelques minutes de télévision (France 2).

Les images monochromes de séparation sont généralement accompagnées d'instants de silence. Certains auteurs[9],[11] utilisent la détection de silence comme une source d'information supplémentaire pour rendre plus robuste la détection des séparations.

La détection de silence s'effectue en général à partir de l'énergie du signal audio. D'autres caractéristiques, tels le Zero Crossing Rate peuvent aussi être utilisées[12]. Sur les chaînes françaises, le silence se révèle être une bonne observation, grâce à sa facilité de détection. L'énergie du signal audio tombe en effet à zéro lors des séparations entre publicités.

[modifier | modifier le code]

Certains auteurs ont remarqué que le logo de la chaîne n'était pas présent durant les publicités. La détection du logo peut donc être un indicateur intéressant. La détection de logo est toutefois une tâche difficile : logos semi-transparents, couleurs dynamiques, mouvement… De plus, la présence du logo n'est pas toujours systématique dans les programmes, d'où des faux positifs.

Taux d'activité[modifier | modifier le code]

Une indication souvent utilisée est une mesure du taux d'activité : nombre de plans par minute, indication de mouvement… Les publicités possèdent en effet généralement un rythme de montage élevé, afin de capter l'attention des téléspectateurs.

Une des premières propositions est celle de Lienhart et al., qui calculent le nombre de coupures « brutales » entre deux plans, qu'ils estiment à 20,9 par minute pour les publicités et à 3,7 pour le reste. À cela s'ajoute une mesure de l'activité, à partir des changements dans les contours, détectés par une méthode de détection de contour, ainsi qu'à partir de la longueur des vecteurs de mouvement.

Cette observation est aussi sujette à de nombreuses fausses alarmes : films d'action, clips, bandes annonces

Divers[modifier | modifier le code]

D'autres caractéristiques peuvent aussi être utilisées : la présence de texte[13] par une méthode de détection de texte. Cette dernière est un processus coûteux, faisant en général appel à des techniques de morphologie mathématique, complexes, et donc contraignantes lorsque des volumes importants de vidéo sont à traiter. De nombreuses fausses alarmes existent aussi (génériques, bandes-annonces, journal télévisé…).

D'autres caractéristiques sont parfois évoquées : les sous-titres télétexte, la présence simultanée de musique et de parole…

Parfois mentionné, le volume sonore ne semble pas être une observation fiable. Une étude faite par l'ENST[14] sur des chaînes françaises a montré que l'augmentation du volume existait sur seulement 50 % des séquences publicitaires, ce qui ne permet pas d'utiliser le volume comme une observation discriminante. De plus, la loi française régulant le volume sonore des publicités télévisées, par l'article 14 du décret n°92-280 du , les chaînes seraient donc en infraction si c'était effectivement le cas.

Méthodes de détection[modifier | modifier le code]

Satterwite et Marques[15] identifient deux types de méthode de détection : les méthodes à base de caractéristiques et les méthodes de type reconnaissance.

Méthodes à base de caractéristiques[modifier | modifier le code]

Dans ce type de méthode, les auteurs choisissent un ensemble de caractéristiques discriminantes et élaborent des algorithmes à base de règle ou des algorithmes d'apprentissage.

De simples règles sont parfois utilisées, par exemple en imposant des conditions sur la durée et la position des images monochromes[9],[1]. Ces méthodes font appel à beaucoup d'a priori, sont donc difficilement généralisables, et ne sont pas robustes à un changement de la structure de diffusion.

Une catégorie relativement importante de travaux consiste à réaliser un apprentissage sur les caractéristiques, en se basant en général sur une segmentation en plans effectuée au préalable. Il a ainsi été proposé d'utiliser un modèle de Markov caché à deux états, publicité et non-publicité, avec deux caractéristiques : la présence du logo et la durée des plans[16]. Les modèles de séparateurs à vaste marge sont utilisés par Hua et al.[17] pour classer chaque plan, à partir de nombreuses caractéristiques vidéos bas niveau mais aussi de caractéristiques audio un peu plus sophistiquées : la présence de transitions audio et une classification en parole, musique et bruit.

Une technique de boosting contraint temporellement a aussi été proposée par Liu et al.[10], en utilisant diverses caractéristiques audio et vidéo de bas niveau (ECR, énergie audio…) calculées sur chaque plan.

Ces techniques d'apprentissage statistique font moins d'a priori sur la structure des publicités, mais produisent de moins bons résultats que les techniques à base de règle ou de reconnaissance, principalement à cause du fait qu'il est difficile d'identifier un plan comme étant une publicité par ses seules caractéristiques sonores ou visuelles.

Méthodes de type reconnaissance[modifier | modifier le code]

Ce type de méthode consiste à reconnaître les publicités lors de leur diffusion. Ceci nécessite la présence d'une base de publicités connues à l'avance. La détection est alors ramenée à une comparaison avec les éléments de la base.

L'intérêt d'une telle méthode est justifié par le fait que les publicités sont diffusées un grand nombre de fois, les annonceurs achetant un certain nombre de diffusions de leur publicité. Une fois qu'une publicité est dans la base, il est alors possible de détecter toutes ses rediffusions. L'autre intérêt est que la reconnaissance est une méthode assez fiable, et qui donne des résultats complémentaires par rapport aux méthodes à base de caractéristiques.

La reconnaissance a été proposée dès les travaux de Lienhart et al.[7] en 1997. Le principe général est de calculer une signature, ou fingerprint, sur l'image ou l'audio, et de définir ensuite une distance entre signatures pour pouvoir les comparer. C'est un principe aussi utilisé en recherche d'image par le contenu. La spécificité provient du fait que la notion de « similarité » est ici bien mieux définie : il s'agit d'une copie quasi à l'identique, abstraction faite du bruit de transmission.

Les signatures doivent donc être robustes aux bruits apparaissant dans la chaîne de transmission : variations de luminosité, de couleur, artefacts de compression… et doivent répondre à des exigences de complexité. En conséquence, les signatures proposées sont compactes et intègrent des informations considérées comme caractéristiques de l'image elle-même, et non caractéristiques d'une certaine classe d'image, comme en recherche d'image par le contenu. Les signatures ont donc un grand pouvoir discriminant.

Plusieurs définitions de signatures à partir de l'image ont été proposées : le color coherence vector[18],[7], sélection et quantification des coefficients ondelettes[19], DCT[11], les moments d'ordre 1, 2 et 3 des trois canaux RVB[20], ou encore à partir de l'analyse en composantes principales sur les histogrammes couleurs[21].

Quelques travaux mentionnent aussi la possibilité d'utiliser des signatures audios, par exemple en calculant un spectrogramme sur plusieurs bandes de fréquences[2], ou une technique plus générique proposée par Herley[22].

Une des difficultés est liée à la complexité de ces méthodes lorsqu'aucune technique d'indexation de la base n'est utilisée : il faut en effet parcourir l'ensemble de la base à chaque instant pour pouvoir reconnaître un segment. La distance utilisée pour mesurer la similarité entre signatures pouvant nécessiter beaucoup de calculs, il existe un vrai problème de complexité.

Afin de remédier à ce problème, certains auteurs[2],[20],[11] proposent d'utiliser des techniques de hachage perceptuel. Ceci consiste à utiliser la signature comme un index, ce qui permet alors un accès direct à la base grâce par exemple à une structure de données telle qu'une table de hachage. On s'affranchit alors de la complexité liée à une recherche séquentielle de la base.

Autres méthodes[modifier | modifier le code]

D'autres types de méthode existent, comme l'utilisation du tatouage, qui consiste à insérer au préalable une marque dans le flux vidéo à détecter. C'est une technique robuste mais contraignante, puisqu'elle nécessite que les publicités soient tatouées avant d'être diffusées. L'utilisation du tatouage est donc en pratique restreinte à une seule classe d'application : le suivi de la diffusion des publicités.

Une technique originale proposée par Poli et al.[23] consiste à prédire les horaires de début et de fin d'émissions et leurs types, grâce à un modèle de Markov caché contextuel. Les instants de publicités peuvent alors se déduire de la structuration ainsi produite.

Difficultés[modifier | modifier le code]

La principale difficulté vient du fait que les modes de diffusion des publicités sont différents d'un pays, voire d'une chaîne à l'autre. En conséquence, les techniques proposées sont généralement adaptées à un pays, et il semble difficile de développer une méthode générique.

De plus, il existe de réelles difficultés pour les scientifiques à disposer d'un corpus suffisamment volumineux et provenant de pays différents, ainsi que le problème récurrent de la vérité terrain. Les méthodes sont ainsi généralement validées sur des corpus relativement réduits de quelques heures. Certains travaux commencent toutefois à valider leurs résultats sur des corpus plus importants (4 jours pour Covell et al.[2]).

Résultats[modifier | modifier le code]

Les performances des algorithmes sont généralement évaluées par des mesures issues de la recherche d'information : le rappel r et la précision p. Si le nombre d'unités correctement classées est N_b, le nombre d'unités manquées est N_m, et le nombre d'unités fausses est N_f alors la précision et le rappel sont donnés par :

r = \frac{N_b}{N_b+N_f}
p = \frac{N_b}{N_b+N_m}

Il n'existe pas de consensus sur le type d'unité à choisir. La plupart des auteurs choisissent comme unité la publicité elle-même. Les mesures de précision et de rappel ont alors une interprétation intuitive[24], mais peu précise : on ne sait pas si la publicité est détectée dans sa totalité ou non.

La petite taille des corpus fait que les résultats sont parfois à relativiser. Shivadas et al. annoncent 96 % de rappel et 100 % de précision sur un corpus de seulement 2 heures, comportant 63 publicités. Covell et al.[2] obtiennent, quant à eux, 95 % de rappel et 99 % de précision sur 96 heures de télévision. Ces bons résultats sont dus à des méthodes de type reconnaissance. Les méthodes basées sur des caractéristiques sont généralement moins performantes. À titre d'exemple, McGee et coll[13]. rapportent une précision de 94 % et un rappel de 87 % sur 13 heures.

D'autres auteurs utilisent le plan comme unité[17],[10]. C'est une mesure qui permet une meilleure précision temporelle, mais d'interprétation délicate. Les plans pouvant être de nombre et de longueur variable. Hua et al. obtiennent 92 % en rappel et précision sur un corpus de 10 heures.

Enfin, certains auteurs utilisent l'image comme unité[25]. L'interprétation est alors simple puisque cela devient une unité de mesure temporelle. Par exemple, Chen et al. obtiennent 94 % de rappel et 92,5 % de précision sur 7 heures.

Applications[modifier | modifier le code]

Il existe plusieurs applications à la détection automatique des publicités. Satterwite et Marques[15] en distinguent deux types :

  • le suivi (commercial tracker), pour les professionnels ;
  • la suppression (commercial killer), pour les particuliers, les archives.

Seule l'application de suivi fait aujourd'hui l'objet de services commerciaux, les autres applications présentées ici, bien que reconnues, ne sont que prospectives.

Le suivi[modifier | modifier le code]

Le suivi de publicités consiste à détecter toutes les occurrences d'une publicité particulière à la télévision. Ceci est fait à la demande d'un annonceur, qui souhaite vérifier si le contrat qu'il a passé avec le diffuseur est bien respecté. Les sommes extrêmement importantes payées par l'annonceur au diffuseur, en fonction de l'horaire de diffusion de la publicité sont notamment à l'origine de cette pratique. Celle-ci s'est répandue après qu'un scandale ait éclaté au Japon, lorsque certains annonceurs se sont aperçus que les chaînes ne diffusaient pas correctement leurs publicités[réf. nécessaire].

Un autre intérêt du suivi est de pouvoir détecter le nombre et les horaires de diffusion des publicités d'un concurrent, afin d'estimer son budget dépensé en publicité télévisée.

De nombreuses entreprises proposent des solutions commerciales de suivi de publicités[26],[27], généralement par des méthodes de signatures visuelles ou de tatouage. Les solutions basées sur le tatouage ne permettent cependant pas l'application de suivi des publicités des concurrents.

La suppression[modifier | modifier le code]

Un boîtier TiVo, première génération d'appareils équipés d'une fonctionnalité de suppression des publicités.

La deuxième grande application est de détecter les publicités pour pouvoir les supprimer, ou tout du moins avoir le choix de les regarder ou pas. C'est évidemment une thématique orientée vers les téléspectateurs, destinée à être implémentée dans un PVR.

Cette possibilité a déclenché l'inquiétude des diffuseurs, notamment aux États-Unis avec la sortie de TiVo, malgré son simple système manuel (un bouton permet d'avancer de 30 secondes, ce qui est la durée moyenne d'une publicité). Certaines estimations chiffrent les pertes pour les annonceurs à 8 milliards de dollars pour l'année 2006[28]. Des diffuseurs ont même menacé d'augmenter le coût de l'abonnement au câble et au satellite pour compenser la perte de revenu[15].

Des inquiétudes se sont aussi manifestées au Japon, le président du National Association of Commercial Broadcasters, Hisashi Hieda, ayant même qualifié cette possibilité d'illégale[29].

En raison de l'opposition des diffuseurs et des problèmes légaux, il est probable que l'application commerciale soit difficile à mettre en œuvre, voire totalement compromise. À l'opposé, des solutions non-commerciales issues du monde des logiciels Open Source ont implémenté la suppression de publicité. Le logiciel de type « Media center » MythTV est ainsi capable de détecter avec un bon pourcentage de réussite les publicités, de les sauter lors de la visualisation, voire de les supprimer définitivement d'un enregistrement.

Les organismes chargés de la gestion d'archives de télévision, tels l'Institut national de l'audiovisuel en France, ont aussi un intérêt à la suppression de publicités, qui permettrait une réduction des coûts de stockage, ainsi qu'une facilitation de la recherche et de la navigation au sein des collections. Cette réduction est loin d'être négligeable puisqu'une étude a montré qu'à la télévision française, sur 20 jours de diffusion continue, 11,5 % du temps n'est pas consacré à des programmes[11]. Une autre étude[20] a montré que le gain en termes de compression pouvait atteindre 30 %, si l'on considère l'ensemble des diffusions répétées (ceci ne concerne donc pas uniquement les publicités).

Autres[modifier | modifier le code]

Une autre application est mentionnée par Covell et al.[2], parfois appelée repurposing. Il s'agit d'une ré-utilisation de contenu déjà diffusé, qui contient des publicités. Le problème est ici de détecter les publicités afin de les remplacer par des plus récentes ou mieux adaptées à l'audience.

Enfin une application pourrait être d'automatiser la surveillance du respect de la réglementation dans le domaine de l'audiovisuel. En France par exemple, le Conseil supérieur de l'audiovisuel est chargé de la vérification des lois sur la diffusion des publicités à la télévision, qui est soumise à un certain nombre de contraintes, notamment en termes de durée des écrans publicitaires[30].

Notes et références[modifier | modifier le code]

  1. a, b, c et d (en)N. Dimitrova, S. Jeannin, J. Nesvadba, T. McGee, L. Agnihotri, G. Mekenkam, Real time commercial detection using MPEG features, Proc. 9th Int. Conf. On Information Processing and Management of Uncertainty in knowledge-based systems (IPMU 2002), pp. 481-486, Annecy, France.
  2. a, b, c, d, e et f (en) Michele Covell, Shumeet Baluja and Mark Fink, Google Research, Advertisement Detection and Replacement using Acoustic and Visual Repetition, IEEE 8th Workshop on Multimedia Signal Processing, octobre 2006, p. 461-466.
  3. (en) Albert P. Novak, « Method and system for editing unwanted program material from broadcast signals », Brevet américain n°4750213, 1988
  4. (en) Dieter W. Blum, « Method and Apparatus for Identifying and Eliminating Specific Material from Video Signals », Brevet américain n°5151788, septembre 1992.
  5. (en)J. Nafeh, « Method and apparatus for classifying patterns of television programs and commercials based on discerning of broadcast audio and video signals », brevet américain n°5343251
  6. (en)http://www.freepatentsonline.com/CCL-358-908.html
  7. a, b, c, d et e (en)R. Lienhart, C. Kuhmunch and W. Effelsberg, « On the Detection and Recognition of Television Commercials », in Proceedings Of IEEE International Conference on Multimedia Computing and Systems, pp. 509-516, 1997.
  8. (en) Hauptmann, A.G. Witbrock, M.J., « Story segmentation and detection of commercials in broadcast news video », IEEE International Forum on Research and Technology Advances in Digital Libraries, 1998. ADL 98. 1998, pp. 168-179.
  9. a, b, c, d et e (en) Sean Marlow, David A. Sadlier, Karen McGeough, Noel O'Connor, Noel Murph, « Audio and Video Processing for Automatic TV Advertisement Detection », Proceedings ISSC, 2001 [1].
  10. a, b et c (en) Tie-Yan Liu, Tao Qin Hong-Jiang Zhang, « Time-constraint boost for TV commercials detection » Microsoft Research Asia, ICIP'04. International Conference on Image Processing 2004, Volume: 3, pp. 1617-1620
  11. a, b, c, d et e (fr) Xavier Naturel, Structuration automatique des flux de télévision, thèse de l'université de Rennes 1, avril 2007
  12. (en) Hadi Harb and Liming Chen and Jean-Yves Auloge, « Speech/Music/Silence and Gender Detection Algorithm », Proceedings of the 7th International Conference on Distributed Multimedia Systems (DMS 01), 2001
  13. a et b (en) McGee, Thomas; Dimitrova, Nevenka, Parsing TV programs for identification and removal of nonstory segments, Proc. SPIE Vol. 3656, p. 243-251, Storage and Retrieval for Image and Video Databases, 1998
  14. Étude de l'ENST commandée par le CSA sur le volume sonore des publicités télévisées.
  15. a, b et c (en) Brandon Satterwhite and Oge Marques, "Automatic Detection of Television Commercials", IEEE Potentials, April/May 2004. [2] [PDF]
  16. (en) Albiol, A. Ch, M.J. Albiol, F.A. Torres, L., « Detection of TV commercials », IEEE International Conference on Acoustics, Speech, and Signal Processing, 2004. Proceedings. (ICASSP '04). Volume 3, pp.541-4
  17. a et b Xian-Sheng Hua, Lie Lu, Hong-Jiang Zhang, « Robust Learning-Based TV Commercial Detection », ICME, 2005
  18. Le color coherence vector est proche d'un histogramme de couleur, mais il intègre une information spatiale.
  19. (en) Xiaodong Wen and Theodore D. Huffmire and Helen H. Hu and Adam Finkelstein, « Wavelet-based video indexing and querying », Multimedia Systems, Volume 7, September 1999, pp. 350-358
  20. a, b et c (en) Kok Meng Pua, John M. Gauch, Susan Gauch, Jedrzej Z. Miadowicz, « Real time repeated video sequence identification », Computer Vision and Image Understanding 93(3) : 310-327 (2004)
  21. (en)J.M. Sanchez, X. Binefa, « Automatic digital TV commercials recognition », in : VIII National Symposium on Pattern Recognition and Image Analysis, Bilbao, Spain, 1999, pp. 223-242
  22. (en)C. Herley, « ARGOS: Automatically extracting Repeating Objects from multimedia Streams », IEEE Trans, Multimedia, Feb. 2006
  23. Jean-Philippe Poli, Jean Carrive, « TV Stream Structuring with Program Guides », in: Proceedings of 8th IEEE Symposium on Multimedia, pp. 329-334, San-Diego, États-Unis, décembre 2006
  24. La précision mesure alors la proportion de publicités correctes par rapport à l'ensemble des publicités détectées (indication de la proportion de fausses alarmes) ; le rappel mesure, quant à lui, la proportion de publicités détectées par rapport à l'ensemble des publicités réelles (indication de la proportion de ratés).
  25. (en) Jun-Cheng Chen, Jen-Hao Yeh, Wei-Ta Chu, Jin-Hau Kuo, Ja-Ling Wu, Improvement of Commercial Boundary Detection Using Audiovisual Features, dans Advances in Mulitmedia Information Processing - PCM 2005 (6th Pacific-Rim Conference on Multimedia, Jeju Island, Korea, November 13-16, 2005, Proceedings, Part I), série Lecture Notes in Computer Science, vol. 3767 (2005), p. 776-786 (ISBN 3-540-30027-9) [présentation en ligne]
  26. Advestigo
  27. Eloda
  28. (en) Commercial skipping to cost $8 billion in TV ads this year?
  29. (en) Skipping TV ads illegal in Japan?
  30. (fr) Publicité, parrainage et téléachat à la télévision et à la radio, les brochures du CSA, 113 pages, juillet 2006 [lire en ligne]
Cet article est reconnu comme « bon article » depuis sa version du 10 juin 2007 (comparer avec la version actuelle).
Pour toute information complémentaire, consulter sa page de discussion et le vote l'ayant promu.