Stationnarité d'une série temporelle

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Une des grandes questions dans l'étude de séries temporelles (ou chronologiques) est de savoir si celles-ci suivent un processus stationnaire. On entend par là le fait que la structure du processus sous-jacent supposé évolue ou non avec le temps. Si la structure reste la même, le processus est dit alors stationnaire.

Définition forte de la stationnarité[modifier | modifier le code]

Définition — Soit un processus temporel à valeurs réelles et en temps discret . Il est dit stationnaire au sens fort si pour toute fonction f mesurable :

ont même loi.

Interprétation

On s'intéresse ici à la distribution conjointe de probabilité du processus. La fonction de densité jointe est-elle la même que l'on prenne les t premières variables ou que l'on prenne les t+k suivantes? Si oui, le processus est alors stationnaire au sens strict. Autrement dit, si le processus est stationnaire, ses propriétés ne sont pas affectées par un changement de notre « repère temporel » : que l'on regarde au point t ou au point t+k la série aura toujours le même comportement.

Comme la loi de probabilité d'une distribution d'une série de données est très difficile à estimer, une définition moins stricte de la stationnarité a été introduite.

Définition faible de la stationnarité[modifier | modifier le code]

Définition — Soit un processus temporel à valeurs réelles et en temps discret . Il est dit stationnaire au sens faible (ou « de second ordre », ou « en covariance ») si

Interprétation

  • La première condition stipule que l'espérance est constante au cours du temps, il n'y a donc pas de tendance.
  • La seconde condition stipule que la variance est constante au cours du temps et non infinie.
  • Troisième condition : L'auto-corrélation (ou auto-covariance, la distinction étant peu importante ici) entre la variable et la variable dépend-elle seulement de l'ampleur d'un décalage de k (on a : ), ou alors la position dans le temps t joue-t-elle aussi un rôle (alors ) ? Si la position dans le temps ne joue pas de rôle alors la troisième condition est remplie. On remarquera que celle-ci inclut la deuxième si l'on prend k=0 car alors l'auto-covariance correspond à la variance.

La stationnarité faible est dit stationnarité du second ordre, car sa définition se base exclusivement sur les deux premiers moments de la variable aléatoire de .

Importance de la notion[modifier | modifier le code]

La notion de stationnarité est importante dans la modélisation de séries temporelles, le problème de régression fallacieuse montrant qu'une régression linéaire avec des variables non-stationnaires n'est pas valide. Plus précisément, la distribution des paramètres de la régression ne suit plus une loi de Student mais un mouvement brownien. Dans le cas où les variables ne sont pas stationnaires, un concept très proche, celui de coïntégration (en), permet de déterminer le type de modèle à utiliser.

La stationnarité joue également un rôle important dans la prédiction de séries temporelles, l'intervalle de prédiction étant différent selon que la série est stationnaire ou non.

Types de non-stationnarité[modifier | modifier le code]

Lorsqu'une ou plus des conditions de stationnarité n'est pas remplie, la série est dite non-stationnaire. Ce terme recouvre cependant de nombreux types de non-stationnarité, dont deux sont ici exposés.

Stationnarité en tendance[modifier | modifier le code]

Définition — Une série est stationnaire en tendance si la série obtenue en « enlevant » la tendance temporelle de la série originale est stationnaire.

La tendance temporelle (ou trend en anglais) d'une série chronologique est sa composante liée au temps.

Exemple :Soit le processus suivant : avec un bruit blanc.

Ce processus est non-stationnaire car son espérance augmente avec le temps (condition 1 violée). Mais la série obtenue en soustrayant l'effet de la tendance temporelle, est stationnaire :

qui est équivalent à un bruit blanc, stationnaire par définition.

Stationnarité en différence[modifier | modifier le code]

Définition — Une série est stationnaire en différence si la série obtenue en différenciant les valeurs de la série originale est stationnaire.

L'opérateur de différence est noté :

Ordre d'intégration d'une série temporelle[modifier | modifier le code]

Définition — Une série temporelle est dite intégrée d'ordre d, que l'on note I(d), si la série obtenue après d différenciations est stationnaire.

Exemple : Soit la marche aléatoire pure : avec un bruit blanc.

On peut montrer qu'une marche aléatoire n'est pas stationnaire. On voit ici qu'elle est intégrée d'ordre 1, la série des différences est en effet stationnaire :

équivalent à un bruit blanc, stationnaire par définition.

Tests de stationnarité[modifier | modifier le code]

Si la fonction de densité n'est pas connue, ce qui est souvent le cas, il est utile de pouvoir déterminer par un test si la série est stationnaire ou non. Il en existe deux types, avec la stationnarité comme hypothèse nulle ou hypothèse alternative :

Tests de stationnarité[modifier | modifier le code]

L'hypothèse nulle est la stationnarité.

  • Test de Leybourne et McCabe[2]

Tests de racine unitaire[modifier | modifier le code]

L'hypothèse nulle est la non-stationnarité.

  • Test de Phillips-Perron[5](PP)
  • Test DF-GLS (ou ERS) [6]

Références[modifier | modifier le code]

  • Hamilton (1994), Time Series Analysis, Princeton University Press
  • Lardic, Mignon (2002), Économétrie des séries temporelles macroéconomiques et financières, Economica, Paris
  • Maddala, Kim (1998), Unit roots, Cointegration and Structural Change, Cambridge University Press
  1. Kwiatkowski, D., P.C.B. Phillips, P. Schmidt and Y. Shin (1992), ”Testing the Null Hypothesis of Stationarity against the Alternative of a Unit Root”, Journal of Econometrics, 54, 159-178.
  2. Leybourne, S.J. and B.P.M. McCabe (1994), ”A Consistent Test for a Unit Root”, Journal of Business and Economic Statistics, 12, 157-166
  3. Dickey, D.A. and W.A. Fuller (1979), “Distribution of the Estimators for Autoregressive Time Series with a Unit Root,” Journal of the American Statistical Association, 74, p. 427–431
  4. Said E. and David A. Dickey (1984), 'Testing for Unit Roots in Autoregressive Moving Average Models of Unknown Order', Biometrika, 71, p 599–607
  5. Phillips, Perron (1988) Testing for a Unit Root in a Time Series Regression, Biometrika, 75, p. 335-346
  6. Elliott, G., Rothenberg, T., and Stock, J. (1996). Efficient tests for an autoregressive unit root. Econometrica, 64, 813-836

Lien externe[modifier | modifier le code]

Voir aussi[modifier | modifier le code]