Estimation par noyau

Un article de Wikipédia, l'encyclopédie libre.
(Redirigé depuis Estimateur par noyau)
Aller à : navigation, rechercher
Estimation par la méthode du noyau d'un échantillon de 100 nombres aléatoires distribués selon la loi normale pour différentes valeurs de la fenêtre.

En statistique, l’estimation par noyau (ou encore méthode de Parzen-Rozenblatt) est une méthode non-paramétrique d’estimation de la densité de probabilité d’une variable aléatoire. Elle se base sur un échantillon d’une population statistique et permet d’estimer la densité en tout point du support. En ce sens, cette méthode généralise astucieusement la méthode d’estimation par un histogramme.

Définition[modifier | modifier le code]

Si x1, x2, ..., xN ~ f est un échantillon i.i.d. d'une variable aléatoire, alors l'estimateur non-paramétrique par la méthode du noyau de la densité est : \widehat{f}_h(x)=\frac{1}{Nh}\sum_{i=1}^N K\left(\frac{x-x_i}{h}\right)

K est un noyau (kernel en anglais) et h un paramètre nommé fenêtre, qui régit le degré de lissage de l'estimation. Bien souvent, K est choisi comme la densité d'une Fonction gaussienne standard (espérance nulle et variance unitaire) : K(x) = {1 \over \sqrt{2\pi} }\,e^{-\frac{1}{2}x^2}

Intuition[modifier | modifier le code]

La méthode de Parzen est une généralisation de la méthode d'estimation par histogramme. Dans un histogramme, la densité en un point x est estimée par la proportion d'observations x1, x2, ..., xN qui se trouvent à proximité de x. Pour cela, on trace une boîte en x et dont la largeur est gouvernée par un paramètre de lissage h ; on compte ensuite le nombre d'observations qui appartiennent à cette boîte. Cette estimation, qui dépend du paramètre de lissage h, présente de bonnes propriétés statistiques mais est par construction non-continue.

La méthode du noyau consiste à retrouver la continuité: pour cela, on remplace la boîte centrée en x et de largeur h par une gaussienne centrée en x. Plus une observation est proche du point de support x plus la courbe en cloche lui donnera une valeur numérique importante. À l'inverse, les observations trop éloignées de x se voient affecter une valeur numérique négligeable. L'estimateur est formé par la somme (ou plutôt la moyenne) des courbes en cloche. Comme indiqué sur l'image suivante, il est clairement continu.

Six courbes en cloche gaussiennes (rouge) et leur somme (bleu). L'estimateur à noyau de la densité f(x) est en fait la moyenne (on divise par le nombre de courbes en cloche, 6). La variance des normales est posée à 0,5. Notons enfin que plus il y a d'observations dans le voisinage d'un point, plus sa densité est élevée.

Propriétés[modifier | modifier le code]

On peut montrer que, sous des hypothèses faibles, il n'existe pas d'estimateur non-paramétrique qui converge plus vite que l'estimateur à noyau. Notons que la vitesse de convergence n−1/5 est plus faible que la vitesse typique des méthodes paramétriques, généralement n−1.

L'utilisation pratique de cette méthode requiert deux choses:

  • le noyau K (généralement la densité d'une loi statistique);
  • le paramètre de lissage h.

Si le choix du noyau est réputé comme peu influent sur l'estimateur, il n'en est pas de même pour le paramètre de lissage. Un paramètre trop faible provoque l'apparition de détails artificiels apparaissant sur le graphe de l'estimateur. Pour une valeur de h trop grande, la majorité des caractéristiques est au contraire effacée. Le choix de h est donc une question centrale dans l'estimation de la densité.

Une façon répandue d'obtenir une valeur de h est de supposer que l'échantillon est distribué selon une loi paramétrique donné, par exemple selon la loi normale N(μ ; σ2). Alors, on peut prendre: h = 1,06 \widehat{\sigma} n^{-1/5} Malheureusement, l'estimation gaussienne n'est pas toujours efficace, par exemple lorsque n est petit.

Une autre façon d'opérer est de chercher à fixer h de manière optimale. Soit R(f,(x)) la fonction de risque de l'espace L2 pour f. Sous des hypothèses faibles sur f et K,

R(f,\hat f(x)) \approx \frac{1}{4}\sigma_k^4h^4\int(f''(x))^2\,\mathrm{d}x + \frac{\int K^2(x)\,\mathrm{d}x}{nh}\sigma_K^2 = \int x^2K(x)\,\mathrm{d}x

La fenêtre optimale est obtenue en minimisant la fonction de risque et vaut: h^* = \frac{c_1^{-2/5}c_2^{1/5}c_3^{-1/5}}{n^{1/5}}

c_1 = \int x^2K(x)\,\mathrm{d}x c_2 = \int K(x)^2\,\mathrm{d}x c_3 = \int (f''(x))^2\,\mathrm{d}x

Le paramètre h est toujours proportionnel à n−1/5 : c'est la constante que l'on doit rechercher. La méthode précédente n'est pas opérante dans le sens où c3 dépend de la densité f elle-même, qui est justement inconnue.

Il existe dans la littérature différentes méthodes plus sophistiquées[réf. souhaitée].

Implémentations en informatique[modifier | modifier le code]

  • MATLAB: la méthode est codée par la fonction ksdensity;
  • R (logiciel): la méthode est codée par les scripts density et kde2d;
  • SAS: il faut utiliser proc kde pour les densités univariée ou bivariée.
  • Python: la fonction gaussian_kde du package scipy (module stats ) permet le calcul de densités multi-dimensionnelles.

Bibliographie[modifier | modifier le code]

  • Parzen E. (1962). On estimation of a probability density function and mode, Ann. Math. Stat. 33, pp. 1065-1076.
  • (en) Richard O. Duda, Peter E. Hart, David G. Stork, Pattern classification, Wiley-interscience,‎ 2001 (ISBN 0-471-05669-3) [détail des éditions]
  • Wasserman, L. (2005). All of Statistics: A Concise Course in Statistical Inference, Springer Texts in Statistics.
  • B.W. Silverman. Density Estimation. London: Chapman and Hall, 1986.

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]