Économétrie

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 22 mars 2020 à 19:05 et modifiée en dernier par Lomita (discuter | contributions). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.
Économétrie
Partie de
Méthodologie des sciences sociales (d)Voir et modifier les données sur Wikidata
Personnes clés

L'économétrie est une branche de la science économique qui a pour objectif d'estimer et de tester les modèles économiques[1].

L'économétrie en tant que discipline naît dans les années 1930 avec la création de la société d'économétrie par Irving Fisher et Ragnar Frisch (1930) et la création de la revue Econometrica (1933). Depuis lors, l'économétrie n'a cessé de se développer et de prendre une importance croissante au sein de la science économique.

L'économétrie théorique se focalise essentiellement sur deux questions, l'identification et l'estimation statistique.

L'économétrie appliquée utilise les méthodes économétriques pour comprendre des domaines de l'économie comme l'analyse du marché du travail, l'économie de l'éducation ou encore tester la pertinence empirique des modèles de croissance.

L'économétrie appliquée utilise aussi bien des données issues d'un protocole expérimental, que ce soit une expérience de laboratoire ou une expérience de terrain, que des données issues directement de l'observation du réel sans manipulation du chercheur. Lorsque l'économètre utilise des données issues directement de l'observation du réel, il est fréquent d'identifier des expériences naturelles pour retrouver une situation quasi-expérimentale. On parle parfois de révolution de crédibilité, terme controversé, pour désigner l'essor fulgurant de ces méthodes de recherche dans la discipline, et en économie en général.

Histoire

On considère généralement que l'économétrie naît dans les années 1930 avec la création de la société d'économétrie et de la Cowles commission aux États-Unis d'une part et au département d'économie appliquée de l'université de Cambridge au Royaume-Uni d'autre part[2]. Néanmoins, certains auteurs comme Mary Morgan[3] ou Philippe Le Gall[4] se sont attachés à montrer qu'il a existé avant les années 1930 des programmes scientifiques qui se rapprochent de l'économétrie, notamment par la volonté de rapprocher l'économie et les statistiques.

Préhistoire de l'économétrie

En Angleterre, William Stanley Jevons avait tenté de combiner ainsi l'économie et les statistiques[4]. Aux États-Unis, Henry Ludwell Moore avait effectué un effort similaire en 1908[4].

En France, Le Gall voit dans les travaux d'Augustin Cournot, de Jean-Edmond Briaune et de Jules Regnault des précurseurs de l'économétrie au XIXe siècle[5]. Ensuite, il considère une seconde génération au début du XXe siècle avec Lucien March, Henry Bunle et Marcel Lenoir[6].

Société d'économétrie et Cowles Commission

C'est avec la création de la société d'économétrie et de la Cowles Commission que l'économétrie se dote d'un cadre institutionnel[7].

La société d'économétrie est fondée le 29 décembre 1930 à Cleveland[8].

En 1930, Ragnar Frisch et Irving Fisher fondent la Société d'économétrie (Econometric society) dont l'objet essentiel est de « favoriser les études à caractère quantitatif qui tendent à rapprocher le point de vue théorique du point de vue empirique dans l’exploration des problèmes économiques », puis en 1933, Frisch crée la revue Econometrica qui devient le principal véhicule de la pensée économétrique.

Les travaux de la Cowles Commission for Research in Economics (groupe de recherche créé en 1932 à l'université du Colorado, qui s'installe à l'université de Chicago puis à l'université Yale.

On attribue l'origine du terme économétrie à Ragnar Frisch. Dans son éditorial du premier numéro de la revue Econometrica, il définit les objectifs de l'économétrie : « Son principal objectif devrait être de promouvoir les études qui visent à l'unification des approches quantitatives théoriques et empiriques des problèmes économiques et qui sont mues par une pensée constructive et rigoureuse similaire à celle qui domine dans les sciences naturelles (Frisch 1933)[notes 1]. »

Jan Tinbergen propose en 1939 le premier modèle économétrique.

En 1935, Jan Tinbergen présente au meeting de la société d'économétrie de Namur un premier modèle économétrique. Il est ensuite embauché par la société des Nations pour tester la pertinence de la théorie du cycle des affaires et publie ses résultats en 1939[9],[8]. John Maynard Keynes s'oppose vivement à la méthode de Tinbergen[10].

La première avancée importante de l'économétrie provient d'une solution formelle au problème d'identification. On dit qu'un modèle est identifiable si tous ses paramètres peuvent être obtenus à partir de la distribution jointe des variables observables[2].

Les travaux de la Cowles commission portent essentiellement sur l'identification et l'estimation du modèle à équations simultanées[2].

Trygve Haavelmo a reçu le prix Nobel d'économie en 1989 pour sa contribution à l'économétrie, notamment avec l'article « The Probability Approach in Econometrics » (L'approche probabiliste en économétrie) publié en 1944 dans la revue Econometrica.

En 1944, Trygve Haavelmo publie un article fondamental dans Econometrica intitulé The Probability Approach in Econometrics dans lequel il défend l'idée que les modèles économiques doivent être probabilistes de manière à pouvoir être cohérents avec les données[11].

Dans les années 1960 et années 1970, l'avancée des technologies de l'information entraîne l'apparition de modèles macroéconomiques conçus à des fins de prévision. Par exemple, le modèle de Brookings comprend 400 équations. Après 1970 furent utilisés des modèles standards comme celui de Wharton.

Diffusion des travaux de la société d'économétrie en France

Marianne Fischman et Emeric Lendjel ont analysé l'intérêt que portent les membres du groupe X-CRISE à l'économétrie dès les années 1930. Ils partagent en effet avec les membres de la société d'économétrie le souci de comprendre la crise économique. Robert Gibrat constitue avec Georges Guillaume au sein de X-crise un groupe de travail sur l'économétrie. Il propose régulièrement des « Notes sur l'économétrie » permettant aux membres d'X-crise de se tenir au courant. François Divisia participe à la société d'économétrie. Toutefois, les auteurs expliquent qu'X-crise a davantage été un lieu de diffusion des travaux économétriques qu'un lieu de recherche[12].

Débuts de l'économétrie des séries temporelles

Parallèlement aux travaux de la Cowles commission sur les modèles à équations simultanées, les économistes du département d'économie appliquée de l'université de Cambridge fondent l'économétrie des séries temporelles[2].

Critique de Lucas et développements de la macroéconométrie

Les années 1970 consacrent également la remise en cause des modèles macroéconométriques traditionnels. Notamment parce que, à la suite de leur inefficacité à expliquer et prévoir la stagflation consécutive aux chocs pétroliers, ils seront accusés de ne pas posséder suffisamment de fondations microéconomiques. Lucas montre par exemple dès 1972 le lien entre les anticipations des agents économiques et la variation des coefficients structurels des modèles macroéconométriques. Sa conclusion est alors que toute mesure de politique économique conduit à un changement dans le comportement des agents, et que par conséquent, ces agents sont à même de contrer les politiques gouvernementales en les anticipant. Ce qui réduit considérablement l'intérêt des politiques budgétaires et monétaires.

Clive Granger a reçu le prix Nobel d'économie 2003 avec Robert Engle pour leurs analyses économiques des séries temporelles. Engle est un pionnier des modèles ARCH (AutoRegressive Conditional Heteroskedasticity) et Granger a développé la méthode de cointégration.

Développement de la microéconométrie

James Heckman a joué un rôle important dans le développement de la microéconométrie et a obtenu le prix Nobel d'économie en 2000 avec Daniel McFadden.

Le développement de la puissance de calcul des ordinateurs et de bases de données microéconomiques ont permis le développement de la microéconométrie avec les travaux de James Tobin sur le modèle tobit, de Mundlak sur les modèles à effets fixes (1961), les travaux de James Heckman sur les modèles de sélection[13], les travaux de Daniel McFadden sur les modèles de choix discret et les travaux de James Heckman et Burton Singer sur les modèles de durée (1984)[14],[2].

Fichier:McFadden.jpg
Daniel McFadden a reçu le prix Nobel d'économie en 2000 avec James Heckman pour ses travaux sur les modèles de choix discrets.

À partir des années 1960, on assiste à la naissance de l'économétrie des données de panel. On appelle panel des données dans lesquelles on observe une unité statistique (individu, entreprise, ménage, État) à différents moments dans le temps. Ces données permettent de contrôler l'hétérogénéité individuelle qui ne peut être mesurée par les variables observées[15].

Importance croissante de l'économétrie dans le champ de la science économique

Dans une étude publiée en 2006, les économistes Kim, Morse et Zingales ont classifié les articles publiés dans les principales revues d'économie et ayant reçu un grand nombre de citations selon que leur contribution principale était théorique, empirique ou méthodologique. Au début des années 1970, seulement 11 % des articles les plus cités étaient empiriques alors qu'à la fin des années 1990, 60 % des articles les plus cités sont des études empiriques[16] et quantitatives. Cette évolution témoigne d'une transformation profonde de la science économique qui a été critiquée notamment en n'étant pas aussi descriptive qu'elle pourrait le laisser croire[17].

Christopher A. Sims a reçu le prix en 2011 pour ses travaux sur la causalité en macroéconométrie et le développement des méthodes VAR.

Économétrie théorique

L'objectif de l'économétrie théorique est de déterminer quelles conclusions peuvent être tirées à partir des données et d'un ensemble d'hypothèses. Les problèmes peuvent être séparés en deux grandes classes : les problèmes d'identification et les problèmes d'inférence statistique. Les problèmes d'identification visent à déterminer quelles conclusions pourraient être obtenues si on observait une quantité infinie de données. A l'inverse, les problèmes d'inférence statistique (ou d'estimation) cherchent à déterminer quelles conclusions peuvent être tirées à partir d'un nombre fini d'observations[18].

Identification

Dans un article de 1949 intitulé « Identification problems in economic model construction », Tjalling Koopmans définit la notion d'identification comme l'étude des conclusions que l'on pourrait tirer si l'on connaissait la distribution de probabilités des observations[19].

Historiquement, la notion d'identification s'est construite autour du problème de simultanéité. Le problème de simultanéité vient notamment lorsque l'on veut identifier la courbe d'offre et la courbe de demande à partir de l'observation des quantités échangées sur un marché et des prix[20].

Estimation

Méthodologie

Approche structurelle et approche en forme réduite

On oppose souvent l'approche structurelle à l'approche en forme réduite. Dans l'approche structurelle, l'économètre part d'un modèle économique formel et cherche à identifier et estimer les paramètres du modèle à partir d'observations de certaines quantités prédites par le modèle. Par exemple, dans un modèle de demande, les paramètres de la fonction d'utilité des consommateurs déterminent la courbe de demande sur un marché ; en observant la quantité de demande à différents niveaux de prix, il s'agit alors d'estimer les paramètres de la fonction d'utilité qui pourraient donner lieu à ces niveaux de demande. De même dans un modèle d'offre, dans lequel la quantité d'offre sur un marché dépend notamment de paramètres de la fonction de production des entreprises sur ce marché, l'observation des quantités d'offre permet sous certaines conditions d'identifier les paramètres de la fonction de production sur ce marché.

Dans l'approche structurelle, le modèle économique prédit une relation précise entre les données observées par l'économètre (par exemple les quantités de demande à certains niveaux de prix) et les paramètres que l'on cherche à estimer (par ex. les paramètres de la fonction d'utilité des consommateurs). En observant l'un, on peut donc estimer l'autre relativement précisément. Mais le risque de l'approche structurelle réside dans le fait qu'avec un modèle économique différent, les mêmes données donneraient lieu à des paramètres estimés différents. La qualité de l'estimation des paramètres dépend donc de l'utilisation du modèle économique approprié et donc à des hypothèses fortes qu'il n'est pas toujours possible de défendre autrement que par des arguments de plausibilité.

Dans l'approche en forme réduite, au lieu d'estimer toutes les équations ou paramètres d'un modèle, l'économètre estime une version simplifiée du modèle[17],[21]. Il s'agit moins d'obtenir une quantification précise et davantage de déterminer si deux quantités ou objets d'études dépendent positivement ou négativement l'un de l'autre, souvent de manière causale (par ex. savoir si une année supplémentaire à l'école entraîne une diminution du risque de grossesse pendant l'adolescence). L'avantage de cette approche est d'être plus agnostique et donc plus robuste à l'utilisation d'un modèle économique erroné; en contre-partie, la quantification est moins précise, et l'on ne peut pas nécessairement utiliser les données pour distinguer les mécanismes économiques en jeu.

Modèle causal de Neyman et Rubin et méthodes quasi-expérimentales

Parmi les approches non-structurelles, un programme de recherche s'est développé autour de l'évaluation des politiques publiques et du modèle causal de Neyman-Rubin. Dans ce programme de recherche, on considère un modèle économique très simple dans lequel on définit pour chaque individu deux variables d'intérêt, l'une qui correspond au cas où l'individu ne reçoit pas le traitement (ie la politique que l'on souhaite évaluer) et l'autre qui correspond au cas où l'individu reçoit ce traitement. Pour chaque individu, l'une des deux variables est observée et l'autre est contrefactuelle. On attribue généralement ce modèle à Donald Rubin et Jerzy Neyman. Dans ce programme de recherche, on cherche soit à organiser des expériences aléatoires à grande échelle pour évaluer l'effet du traitement, soit à trouver des situations quasi-expérimentales permettant d'évaluer l'effet du traitement de manière convaincante[22],[23].

Dans la littérature sur l'évaluation des politiques publiques, les expériences de terrain sont considérées comme la méthode la plus pertinente pour évaluer l'effet d'une politique publique[24]. Ces méthodes sont de plus en plus populaires, et, corrélativement, considérés comme les plus fiables à tel point qu'on parle parfois de révolution de crédibilité, terme controversé.

Économétrie appliquée

Croissance économique

En économie de la croissance, Gregory Mankiw, David Romer et David Weil utilisent un modèle de régression linéaire pour tester empiriquement la pertinence du modèle de Solow. Ils montrent que le modèle de Solow augmenté du capital humain est cohérent avec les données observées[25].

Développement

Daron Acemoglu, Simon Johnson et James Robinson utilisent une régression linéaire pour estimer l'effet des institutions sur le développement actuel des pays[26].

Criminalité

Dès 1975, Isaac Ehrlich a utilisé des méthodes économétriques pour mesurer l'effet dissuasif de la peine de mort[27].

Steven Levitt utilise un modèle linéaire à variables instrumentales pour estimer l'effet causal du nombre de policiers sur la criminalité[28].

Éducation

Il existe une importante littérature sur les choix éducatifs et l'estimation des rendements privés de l'éducation. Michael Keane et Kenneth Wolpin estiment un modèle de choix d'éducation et d'occupation pour une cohorte d'hommes américains nés en 1979. Ils montrent que leur modèle permet d'obtenir des prédictions cohérentes avec les données[29].

Il existe aussi de nombreux travaux cherchant à trouver les déterminants de la réussite scolaire. Parmi ces travaux, certains portent sur la taille des classes. Joshua Angrist et Victor Lavy (en) ont utilisé une méthode de régression sur discontinuité pour évaluer l'effet causal de la taille des classes sur la réussite scolaire des enfants à partir des données israéliennes. Les auteurs utilisent la règle de Maïmonide qui veut qu'il n'y ait pas plus de 40 élèves par classe comme une expérience naturelle pour trouver des variations de la taille des classes indépendantes du niveau des élèves[30].

Entreprises et productivité

Une frange significative de l'économétrie s'attache à l'estimation des fonctions de productions. On peut prendre l'exemple de l'article de Steven Olley et Ariél Pakes[31].

La fonction de production d'une entreprise détermine comment l'entreprise transforme des ressources, appelées facteurs de production (par exemple, de capital et de travail), en produits finis. L'estimation de la fonction de production de chaque entreprise permet de mesurer sa productivité, c'est-à-dire le rapport entre la quantité de ressources utilisées et la quantité de biens ou services produits. Avec cette estimation, il devient alors possible de mesurer non seulement la productivité moyenne des entreprises d'un secteur et son évolution dans le temps, mais aussi de mesurer les écarts de productivité, par exemple entre les entreprises d'un même secteur, ou d'étudier la contribution de chaque entreprise à la productivité de son secteur ou de l'économie en général.

L'estimation économétrique des fonctions de production n'est pas forcément simple. Le choix des facteurs de production par une entreprise n'est pas indépendant de son niveau de productivité, cela implique qu'une application directe de la méthode des moindres carrés donnerait des résultats statistiquement biaisés. Pour remédier à cela, Olley et Pakes furent les pionniers d'une sous-branche qui suggère d'autres techniques d'estimation, reposant notamment sur une approche avec variable instrumentale.

Histoire économique

La cliométrie est une école d'histoire économique quantitative utilisant les méthodes de l'économétrie pour comprendre l'histoire.

Controverses

Controverse entre les défenseurs du modèle causal de Neyman et Rubin et les défenseurs de l'économétrie structurelle

Il existe une controverse entre les tenants d'un programme d'économétrie structurelle au sens fort et les défenseurs des méthodes quasi-expérimentales et du modèle causal de Neyman et Rubin. Par exemple en 2010 dans le Journal of Economic Perspectives, les économètres Joshua Angrist et Jörn-Stephen Pischke défendent l'idée que l'économétrie est devenue crédible grâce au développement des méthodes quasi-expérimentales et de l'approche de Neyman et Rubin[22]. À l'inverse, Michael Keane défend l'ambition du programme structurel et l'idée qu'il est nécessaire d'avoir un modèle économique pour interpréter les paramètres estimés et faire des analyses ex ante des politiques publiques[32].

Critiques

Revues spécialisées

Bibliographie

Articles fondamentaux

Ouvrages

Manuels et introductions

Sources

Notes et références

Notes

  1. « Its main object shall be to promote studies that aim at a unification of the theoritical quantitative and the empirical quantitative approach to economic problem and that are penetrated by constructive and rigourous thinking similar to that which has come to dominate in the natural science. » (Frisch 1933)

Références

  1. (en) Daniel Hausman, « Philosophy of Economics », dans The Stanford Encyclopedia of Philosophy, Edward N. Zalta, (lire en ligne), section 1.2
  2. a b c d et e (en) John Geweke, Joel Horowitz et Hashem Pasaran, « Econometrics: A Bird’s Eye View », CESifo Working Paper Series, no 1870,‎ (DOI 10.1.1.153.3519consulté le=09 juin 2011)
  3. Morgan 1990
  4. a b et c Le Gall 2006, p. 2
  5. Le Gall 2006, p. 8
  6. Le Gall 2006, p. 17
  7. Philippe Le Gall, « Les représentations du monde et les pensées analogiques des économètres : un siècle de modélisation en perspective », Revue d'histoire des sciences humaines, no 6,‎ , p. 39-64 (lire en ligne, consulté le )
  8. a et b Michel Armatte, « Le statut changeant de la corrélation en économétrie (1910-1944) », Revue économique, vol. 52, no 3,‎ , p. 617-631 (lire en ligne, consulté le )
  9. Jan Tinbergen, Vérification statistique des théories des cycles économiques ; vol. I : Une méthode et son application au mouvement des investissements, 178 p.; vol. II : Les cycles économiques aux États-Unis d’Amérique de 1919 à 1932, Genève, Société des Nations, , 1939 267 p.
  10. John Maynard Keynes, « Professor Tinbergen’s Method », Economic Journal, 1939, 49, p. 558-568.
  11. Haavelmo 1944
  12. Marianne Fischman et Emeric Lendjel, « La contribution d’X-Crise à l’émergence de l’économétrie en France dans les années trente », Revue européenne des sciences sociales, XXXVIII-118 | 2000, mis en ligne le 17 décembre 2009, consulté le 28 juin 2011, lire en ligne.
  13. (en) James Heckman, « Sample Selection Bias as a Specification Error », Econometrica,‎ , p. 153-161
  14. (en) James Heckman et Burton Singer, « A Method for Minimizing the Impact of Distributional Assumptions in Econometric Models for Duration Data », Econometrica,‎ , p. 271-320
  15. Alain Trognon, « L'économétrie des panels en perspective », Revue d'économie politique, vol. 113, no 6,‎ , p. 727-748 (lire en ligne, consulté le )
  16. (en) E. Han Kim, Adair Morse et Luigi Zingales, « What Has Mattered to Economics since 1970 », The Journal of Economic Perspectives, vol. 20, no 4,‎ , p. 189-202 (lire en ligne, consulté le )
  17. a et b Julien Gargani, « Production des idées scientifiques et diffusion des croyances : analyse d’un discours sur la répartition des richesses », Esprit Critique : revue internationale de sociologie et de sciences sociales, vol. 8, no 1,‎ (lire en ligne)
  18. Manski 1995, p. 3-4
  19. Manski 1995, p. 6
  20. Manski 1995, p. 110
  21. Cameron et Trivedi 2005, p. 7
  22. a et b (en) Joshua Angrist et Jörn-Stephen Pischke, « The Credibility Revolution in Empirical Economics: How Better Research Design Is Taking the Con out of Econometrics », The Journal of Economic Perspectives, vol. 24, no 2,‎ , p. 3-30
  23. Cameron et Trivedi 2005, p. 32
  24. (en) Susan Athey et Guido W. Imbens, « The State of Applied Econometrics : Causality and Policy Evaluation », Journal of Economic Perspectives, vol. 31, no 2,‎ , p. 3-32 (DOI 10.1257/jep.31.2.3)
  25. (en) Gregory Mankiw, David Romer et David Weil, « A Contribution to the Empirics of Economic Growth », Quarterly Journal of Economics, vol. 107, no 2,‎ , p. 407-437
  26. (en) Daron Acemoglu, Simon Johnson et James Robinson, « Reversal of Fortune: Geography and Institutions in the Making of the Modern World Income Distribution », Quarterly Journal of Economics, vol. 117, no 4,‎ , p. 1231-1294
  27. (en) Isaac Ehrlich, « The Deterrent Effect of Capital Punishment: A Question of Life and Death », The American Economic Review, vol. 65, no 3,‎ , p. 397-417 (JSTOR 1804842)
  28. (en) Steven Levitt, « Using electoral cycles in police hiring to estimate the effect of police on crime », American Economic Review, vol. 87, no 3,‎ , p. 270-290 (JSTOR 2951346)
  29. (en) Michael Keane et Kenneth Wolpin, « The Career Decisions of Young Men », Journal of Political Economy, vol. 105, no 3,‎ , p. 473-522 (lire en ligne, consulté le )
  30. (en) Joshua Angrist et Victor Lavy, « Using Maimonides'rule to estimate the effect of class size on scholastic achievement », The Quarterly Journal of Economics, vol. 114, no 2,‎ (DOI 10.1162/003355399556061)
  31. (en) Steven Olley et Ariel Pakes, « The Dynamics of Productivity in the Telecommunications Equipment Industry », Econometrica, vol. 64, no 6,‎ , p. 1263-1297 (lire en ligne, consulté le )
  32. (en) Michael Keane, « A Structural Perspective on the Experimentalist School », The Journal of Economic Perspectives, vol. 24, no 2,‎ , p. 47-58 (lire en ligne, consulté le )

Voir aussi

Articles connexes

Liens externes