Article body

Introduction

L’Académie royale des sciences de Suède a attribué le prix de la Banque de Suède en sciences économiques institué en mémoire d’Alfred Nobel à Thomas Sargent et Christopher Sims « pour leurs recherches empiriques sur la cause et l’effet en macroéconomie ». Selon les termes employés par l’Académie royale suédoise, « une des tâches principales du macroéconomiste est d’expliquer comment les agrégats macroéconomiques […] se comportent au fil du temps », c’est-à-dire comment ces variables sont affectées par « la politique économique et les modifications de l’environnement économique ». Le jury a décidé de récompenser Thomas J. Sargent et Christopher A. Sims dont « les recherches ont été indispensables à ce travail ».

Comment le PIB et l’inflation sont affectés par une augmentation temporaire des taux d’intérêt ou une baisse d’impôts? Que se passe-t-il si une banque centrale modifie de façon permanente son objectif d’inflation ou si un gouvernement modifie son objectif d’équilibre budgétaire? Tel est le type de questions auxquelles les lauréats ont apporté une réponse.

Les recherches de Christopher Sims ont porté plus particulièrement sur la façon dont les chocs économiques – tels que la flambée des prix du pétrole ou la forte baisse de la consommation des ménages – agissent sur l’économie. Sims est donc à la fois un macroéconomiste et un économètre car il travaille aussi bien sur les modèles théoriques que sur leurs applications empiriques.

Les travaux pour lesquels Christopher Sims a été primé remontent au tout début des années quatre-vingt, lorsqu’il introduit la représentation VAR (Vector AutoRegressive, processus vectoriel autorégressif) qui a donné lieu par la suite à de nombreuses applications et à de nombreux prolongements de la part d’économistes parmi les plus influents, notamment Olivier Blanchard et Ben Bernanke qui occupent, à l’heure où nous écrivons, respectivement, les fonctions de chef économiste au Fonds monétaire international et de président de la Réserve fédérale des États-Unis[1]. Ces modèles constituent par ailleurs une référence pour évaluer les performances de prévision des nouveaux modèles macroéconométriques et un outil très utile pour analyser les canaux de transmission des politiques économiques et des chocs macroéconomiques.

Cet article revient sur les principales contributions de Christopher Sims qui lui ont valu l’attribution de ce prix. Pour commencer, nous présentons les travaux pour lesquels Christopher Sims a été récompensé et montrons en quoi ils ont constitué une avancée importante pour la science économique (section 1). Puis, nous proposons un aperçu des prolongements suscités par les travaux de Sims et mettons en évidence leur grande actualité à travers leurs contributions récentes au débat économique (section 2). Enfin, nous concluons.

1. Les apports de la modélisation VAR

« Méfiez-vous des a priori théoriques. Laissez parler les données » (Sims, 1996). Cette phrase pourrait, à elle seule, résumer les travaux pour lesquels Sims a été récompensé. Nous sommes au milieu des années soixante-dix et le premier choc pétrolier marque définitivement la fin des Trente glorieuses. Dans le même temps, on observe un certain essoufflement des politiques basées sur un arbitrage inflation-chômage (politiques dites de Stop and Go) héritées des travaux pionniers de Phillips (1958). Le débat académique, initié par Friedman (1968) lors de son discours en tant que nouveau président de l’American Economic Association, fait rage. Les monétaristes, dont Friedman est le chef de file – et, par la suite, les auteurs de la Nouvelle Economie Classique, dont Lucas, Kydland, Prescott, Barro ou Sargent[2] – rejettent en masse les modèles keynésiens et remettent en cause leur capacité à corriger les déséquilibres macroéconomiques.

1.1 Une réponse aux grands modèles

La modélisation économétrique des années soixante-dix repose sur une multitude d’équations structurelles reliées entre elles par des variables figurant dans plusieurs équations (c’est-à-dire les modèles à équations simultanées)[3]. Au regard de la période, ces modèles ont donné des résultats très médiocres, notamment en termes de prévisions et ont suscité un grand nombre de critiques au sujet de la simultanéité des relations et de l’exogénéité des variables[4].

Sims (1980) propose alors une modélisation multivariée dont les seules restrictions sont le choix des variables sélectionnées et le nombre de retards intégrés. Cet article est le point de départ de sa critique des modèles macroéconométriques (la critique de Sims), notamment ceux d’inspiration keynésienne. Pour Sims (1980), les modèles macroéconométriques keynésiens souffrent de nombreuses insuffisances parmi lesquelles :

  • une restriction a priori sur les paramètres trop forte, sans aucune justification statistique, par rapport à ce que la théorie prédit, autrement dit l’exogénéité de certaines variables, comme par exemple celles liées à la politique monétaire, est postulée sans être formellement testée;

  • une absence de tests sur la structure causale, c’est-à-dire que le choix des formes fonctionnelles (restrictions, exclusion de variables, structure de retards) relève de décisions arbitraires;

  • un traitement inadéquat des anticipations des agents.

Sims (1980) propose d’utiliser un modèle statistique non contraint et dynamique, c’est-à-dire le modèle vectoriel autorégressif (VAR) comme alternative aux grands modèles macroéconométriques de l’époque. Par exemple, supposons qu’un économiste soit intéressé par le comportement de N variables macroéconomiques. À la date t, l’ensemble de ces N variables peut être représenté par le vecteur equation: 1927133n.jpg. Dès lors, ces variables admettrons la représentation VAR(p) suivante, avec p le nombre de retards :

equation: 1927135n.jpg

Ainsi, l’équation (1) peut se réécrire :

que l’on peut, à son tour, réécrire de la façon suivante :

avec I la matrice identité, L l’opérateur retard, equation: 1927138n.jpg et où ut satisfait les propriétés d’un bruit blanc. Une telle représentation mérite quelques précisions. Tout d’abord, il s’agit d’une représentation d’un modèle linéaire dans les variables. Ce modèle est dynamique puisque chaque variable est influencée par son propre passé mais aussi par les valeurs passées des autres variables. Il s’agit d’un modèle non contraint, il n’existe aucune contrainte a priori d’exclusion d’une variable dans les différentes équations du système. De même, il n’existe pas de contraintes inter-équations portant sur les paramètres du modèle. Les deux seules contraintes a priori sont les variables retenues et le nombre de retard p. Le choix des variables n’est pas problématique car il répond à la question économique posée. Celui du nombre de retards ne l’est également pas car celui-ci peut uniquement s’effectuer sur la base de critères statistiques[5].

À partir de cette représentation il est potentiellement possible d’estimer des modèles comportant un grand nombre d’équations. La taille du modèle est en fait conditionnée par le nombre d’observations disponibles et le nombre de retards intégrés dans l’estimation. Il appartient au modélisateur d’effectuer un arbitrage afin de préserver un nombre suffisant de degrés de liberté et de réaliser une estimation de bonne qualité.

1.2 La question du choix des retards

Le choix du nombre p optimal de retards est une étape déterminante dans le processus d’estimation. En effet, un nombre insuffisant de retards fait perdre de l’information au processus étudié (sa mémoire n’est alors pas assez longue) et produira des estimations biaisées des paramètres autant en petit échantillon que de façon asymptotique, tandis qu’un nombre trop important de retards augmente le nombre de paramètres à estimer et réduit donc d’autant le degré de liberté du processus.

Les méthodes utilisées pour les processus AR (test du Cusum…[6]) peuvent être appliquées à condition d’être correctement adaptées à la forme vectorielle. Cependant, la littérature économique a tendance à privilégier des critères d’information. Une procédure couramment utilisée consiste à estimer le processus VAR(p) pour des retards allant de 0 à hmax, où hmax est le nombre maximum de retards inclus en se fondant sur une théorie économique, un article académique de référence ou même parfois une simple intuition économique. On retient alors le nombre p de retards qui minimise les critères AIC et SC[7] définis comme suit :

et

T est le nombre d’observation, N le nombre de variables du système et forme: 1927160n.jpg un estimateur de la matrice de variance-covariance des résidus du modèle.

L’approche bayésienne, à laquelle Sims a largement contribué (Doan etalii, 1984; Sims, 1989), a permis d’apporter une réponse différente au problème du choix du nombre optimal de retards. Habituellement, pour améliorer le nombre de degrés de liberté d’une régression, on réduit le nombre de paramètres. Dans un processus VAR, cela revient, bien souvent, à réduire le nombre de retards. L’approche bayésienne apporte une réponse différente au problème du choix du nombre optimal de retards en spécifiant des restrictions « floues » sur les coefficients plutôt qu’une spécification « rigide » (Doan, 2010). Ainsi, dans le cadre des processus BVAR (Bayesian VAR), les paramètres du modèle sont considérés comme des variables aléatoires auxquelles l’analyste affecte des distributions a priori afin de pouvoir procéder aux estimations. Bien entendu, les résultats ne sont pas insensibles au choix de la distribution. Dans nombre d’études, les auteurs utilisent le « Minnesota prior » (Doan et alii, 1984; Litterman, 1986) qui permet de poser que les coefficients sur les retards plus éloignés sont davantage susceptibles d’être proches de zéro que ceux sur les retards plus courts.

1.3 Analyse de la politique économique

Si la critique de Sims (1980) a permis d’améliorer la modélisation macroéconométrique, la méthode d’incorporation de contraintes de simultanéité sous forme triangulaires utilisée dans les premiers modèles VAR ne nécessite pas de recourir explicitement à un modèle macroéconomique pour identifier les restrictions du modèle. Toutefois, cette méthode n’est pas a-théorique car elle implique une classification des variables selon le degré d’endogénéité (Cooley et LeRoy, 1985; Leamer, 1985). La théorie économique permet rarement de fixer les restrictions de manière à obtenir une matrice triangulaire ou récursive (Deserres et Lalonde, 1995). Lorsque les auteurs décident de fixer les restrictions à l’aide d’un modèle théorique particulier, la décomposition de Cholesky se révèle être un outil limité et souvent inadapté[8].

Bernanke (1986), Blanchard et Watson (1986) et Sims (1986) ont développé une technique d’identification d’une forme structurelle plus générale qui ne nécessitait pas l’incorporation de contraintes de simultanéité triangulaires. Sims (1986) fait la distinction entre la forme réduite et la forme structurelle d’un modèle. La forme réduite est celle qui décrit la dynamique d’un phénomène à partir des valeurs courantes et passées. Il s’agit ici de la représentation de l’équation (1). La forme structurelle décrit la dynamique d’un phénomène à partir des chocs passés qui ont affecté le phénomène en s’appuyant sur une représentation en moyenne mobile infinie. Elle est utilisée pour calculer, par exemple, des multiplicateurs. Le passage d’une forme à l’autre s’effectue à l’aide de l’identification qui repose, le plus souvent, sur la théorie économique.

Pour parvenir à la représentation structurelle, il suffit de repartir de la forme réduite du modèle VAR issue de (3). Le terme constant Φ0 est volontairement omis afin d’alléger la présentation :

L représente l’opérateur retard et ut est un bruit blanc de matrice variance-covariance Σu. Sous les hypothèses techniques habituelles, la forme moyenne mobile infinie (VMA) du processus (6) s’écrit :

avec B(L) = Φ(L)–1.

Le problème est que les résidus ut ne sont pas, en règle générale, orthogonaux ce qui rend difficile, voire dénué de tout sens, de les interpréter comme des chocs structurels. Le modèle VAR structurel permet une telle interprétation grâce à la méthode de décomposition des chocs. Les erreurs de la forme réduite sont réécrites comme une combinaison linéaire des chocs structurels, telle que : ut = Sεt avec εt les chocs structurels et S une matrice de dimension (n, n) non singulière liant les résidus aux chocs structurels. S est une matrice de transformation, ou de passage, qui permet d’obtenir des chocs structurels interprétables εt satisfaisant les propriétés suivantes : ut = Sεt et E(εε') = I. On a donc SS' = Σ et la connaissance d’une matrice d’orthogonalisation S permet d’écrire la représentation VMA en termes de chocs orthogonaux, dits structurels :

avec

À travers la matrice C(L), (8) décrit la réaction dynamique des variables observées contenues dans Yt aux chocs structurels.

Le passage du vecteur ut, que nous estimons comme les résidus de l’estimation de (6), au vecteur εt nécessite l’identification de la matrice S1 (ou, de manière équivalente, de la matrice inversible S), la matrice B(L) étant quant à elle déduite de l’inversion de la matrice des coefficients estimés de Φ(L), issus de l’estimation du modèle (6). La forme structurelle nécessite l’imposition de n(n – 1)/2 contraintes supplémentaires. Les contraintes sont alors imposées dans la matrice C(L) soit à court terme, soit à long terme. Le modèle SVAR a ainsi permis à de nombreux auteurs[9] de quantifier les effets multiplicateurs, instantanés et dynamiques, des politiques économiques (monétaire, budgétaire et fiscale) sur l’activité économique.

1.4 La prévision à l’aide des modèles VAR

Un des apports essentiels des processus VAR est de permettre une meilleure prévision en comparaison des modèles macroéconométriques. Conformément aux travaux initiaux de Sims (1980), les prévisions réalisées à partir de processus VAR apparaissent comme une alternative sérieuse aux modèles de prévisions jusqu’alors utilisés. Doan etalii (1984) développent une procédure de prévision en fondant l’estimation du modèle VAR sur une méthode bayésienne. Cette méthode améliore la qualité des prévisions par rapport au cas univarié et il apparaît que le modèle VAR pourrait constituer un outil précieux pour réaliser des projections des variables économiques. Litterman (1986) poursuit ce travail. Il compare la qualité des prévisions du modèle VAR avec plusieurs modèles de références en utilisant l’erreur quadratique moyenne (Root Mean Square Error). La modélisation VAR, bien qu’elle soit peu coûteuse et facilement reproductible, permet de produire une qualité de prévision équivalente aux modèles existants à court terme et améliore généralement la prévision à un horizon plus long. Ainsi, comme le notent Stock et Watson (2001), les processus VAR sont devenus aujourd’hui « une référence pour juger les nouveaux systèmes de prévision », en particulier pour évaluer la qualité prédictive des modèles d’équilibre général intertemporels stochastiques (Collard et Fève, 2008).

2. Les prolongements

2.1 Perfectionnement de la méthode de décomposition

La méthode de décomposition des chocs initialement préconisée par Sims (1980) reposait sur la décomposition de Cholesky suivant un schéma récursif. Comme nous l’avons vu précédemment (1.3), les processus VAR structurel ont ensuite permis d’introduire une méthode d’identification reposant sur des restrictions issues de la théorie économique et non nécessairement récursives. Dans un premier temps, les travaux initiaux de Sims (1986) et Bernanke (1986) ont été poursuivis par l’article séminal de Blanchard et Quah (1989) dans lequel les auteurs fixent des restrictions sur les éléments de la matrice des variances de long terme[10]. Le modélisateur fixe alors les contraintes sur l’effet multiplicateur cumulé total de long terme d’un choc sur une variable. Par exemple, il peut poser comme contrainte qu’un choc monétaire n’a pas d’effet de long terme sur le taux de change réel, c’est-à-dire qu’à la suite de ce choc, le taux de change réel peut varier à court et moyen terme mais qu’à long terme il tend asymptotiquement vers sa valeur initiale. Cette nouvelle forme de restriction permet à Blanchard et Quah (1989) de supposer que les chocs de demande n’affectent pas le niveau de long terme de la production – plutôt que de considérer que l’effet immédiat est nul comme c’était jusqu’alors le cas. Dans un deuxième temps, Galí (1992) propose un schéma d’identification combinant contraintes de court et long termes afin de différencier les chocs de demande suivant qu’ils aient ou non un effet à long terme sur le PIB. Plus récemment, une série d’articles (Faust, 1998; Canova et De Nicolò, 2002; Uhlig, 2005) a introduit une nouvelle méthode d’identification ayant recours à des restrictions sur les signes des réponses. Dans ce cas, le modélisateur suppose, théorie économique à l’appui, que certaines réponses aux chocs doivent avoir un signe spécifique. Pour finir, on peut citer le modèle VAR avec hypothèse d’exogénéité (NEAR-VAR) dans lequel il est supposé qu’un (ou plusieurs) choc(s) n’affecte(nt) pas certaines variables à la date t, pour tout t (Paul, 1996). Ce type de modèle présente deux avantages : il réduit le nombre de coefficients à estimer et améliore le degré de liberté. Toutefois, cette hypothèse d’exogénéité doit en principe être validée par un test – un test d’exogénéité (faible ou forte) proposé par Engle etalii (1983) ou un test de non-causalité, proposé par Granger (1969). Le modèle VAR avec hypothèse d’exogénéité se révèle très utile pour étudier l’impact des chocs externes sur une économie de petite ou moyenne taille, car dans ce cas les variables externes sont généralement peu sensibles aux chocs domestiques (Hoffmaister et Roldos, 2001; Maćkowiak, 2007; Sato et alii, 2011).

2.2 Contributions à l’analyse empirique

Les modèles vectoriels autorégressifs ont donné lieu à de nombreuses améliorations par la suite qui ont permis à la fois d’améliorer leur performances et d’étendre leur usage à de nouveaux domaines. Dès la fin des années quatre-vingt, le modèle à correction d’erreur décrit par Engle et Granger (1987) est généralisé au cadre d’analyse multivarié avec le développement des modèles à correction d’erreur vectoriels – VECM (Johansen, 1988). Au début des années quatre-vingt-dix, le modèle PVAR (panel VAR) commence à être utilisé pour étudier l’impact de chocs macroéconomiques sur un ensemble de pays (Canova, 1993) ce qui, dans le même temps, permet d’augmenter le nombre de degrés de liberté et la puissance des tests statistiques. Le modèle GVAR (Global VAR) combine les modèles VAR d’un ensemble de pays en reliant les variables domestiques à des variables externes qui prennent en considération les flux financiers et commerciaux internationaux (Pesaran etalii, 2004). Ce modèle est un outil particulièrement utile pour étudier l’impact et la transmission des chocs de politique économique. Au-delà de l’amélioration de la qualité de l’estimation des modèles VAR, la question concernant l’omission de variables explicatives a également été étudiée. Ainsi, Bernanke et alii (2005) proposent le tout premier modèle FAVAR (Factor Augmented VAR) qui permet de modéliser un grand nombre de variables, sans perdre en nombre de degrés de liberté, grâce à une décomposition du modèle VAR en une composante commune et une composante idiosyncratique. Une telle approche permet alors « d’augmenter » le nombre de variables étudiées sans perdre en qualité d’estimation. Un autre pan de la littérature sur les modèles VAR concerne l’évolution dans le temps des paramètres estimés. Cogley et Sargent (2005) et Sims et Zha (2006) ont développé une approche TVP-VAR (Time Varying Parameters VAR) permettant de tenir compte de l’évolution de la variance des paramètres estimés et, ainsi, une meilleure analyse de la taille, des sources et de la transmission des chocs étudiés. Enfin, le modèle de mélange vectoriel autorégressif (Mixture VAR – MVAR) a été récemment développé pour mieux capturer l’effet des événements hautement improbables à l’aide d’un mélange de distributions (Fong etalii, 2007). Ces modèles se révèlent particulièrement utiles pour étudier le risque de contrepartie lors des Stress-tests car ils mesurent le risque de manière plus précise en intégrant mieux les événements extrêmes (Guarda et alii, 2012).

2.3 Applications et apports à la science économique

Les modèles VAR ont connu de nombreuses applications dans le domaine de la macroéconomie. En premier lieu, les travaux de Leeper etalii (1996), Bernanke et alii (1997) et, surtout, de Christiano etalii (1996) ont permis d’apporter un éclairage nouveau sur la politique monétaire et ses canaux de transmission aux États-Unis. Bernanke etalii (1997), par exemple, mettent en avant les canaux bancaires (par le biais du crédit) de transmission de la politique monétaire, alors que Leeper etalii (1996) s’intéressent davantage aux canaux financiers. Christiano et alii (1996), en voulant tester la pertinence empirique du modèle IS-LM à partir d’un modèle VAR, montrent qu’à court terme une augmentation du taux des Fed Funds conduit à une diminution du PIB et à une augmentation du chômage tandis que les effets sur le niveau des prix sont faibles.

Avec la création de l’euro, les modèles VAR ont été mobilisés pour tester l’hypothèse d’homogénéité de la politique monétaire au sein de la future zone euro, la politique budgétaire restant décentralisée au niveau européen[11]. Les contributions de Mélitz et Weber (1996), Barran etalii (1996), Bruneau et de Bandt (1999) ou d’Angeloni etalii (2003) constituent une référence pour évaluer les effets de la politique monétaire en Europe. La question fondamentale de ces études est de savoir s’il s’agit d’une zone homogène pour la politique monétaire. Ces contributions permettent également de diagnostiquer les coûts et les bénéfices d’une politique monétaire unique dans une zone hétérogène et de tester l’importance des différents canaux de transmission de la politique monétaire.

Les modèles VAR ont également connu un grand succès dans le domaine de la prévision économique. Ils constituent toujours la référence pour évaluer la qualité prédictive des nouveaux modèles développés. Cependant, ils sont concurrencés par les modèles DSGE (Dynamic Stochastic General Equilibrium). Dans le cas des modèles de grande taille, suite aux développements récents[12], les modèles DSGE semblent dominer les modèles VAR car ils permettent d’introduire un grand nombre de chocs exogènes et un grand nombre de variables explicatives sans nuire au degré de liberté du processus. Toutefois, pour des modèles de petite taille comportant un nombre restreint de contraintes, les modèles VAR sont privilégiés (Doz et Malgrange, 1992; Clément et Germain, 1993; Rünstler et Sédillot, 2003; Sédillot et Pain, 2005; Collard et Fève, 2008). Comme le montrent, par exemple, Zha (1998) et Robertson et Tallman (1999), l’utilisation des modèles VAR pour la prévision permet de prendre en considération les effets de feedback. Ainsi, la corrélation dynamique entre les séries étudiées est prise en compte et elle permet, à l’aide de l’estimation du modèle, de prévoir les valeurs futures pour chacune des séries.

Si, bien souvent, les modèles DSGE sont utilisés pour déterminer les a priori bayésiens des approches empiriques (Del Negro et Schorfheide, 2004), Colander et alii (2008) considèrent qu’il est préférable d’appréhender la politique économique sans se préoccuper des fondements comportementaux des relations. Ils prônent une approche dans laquelle on utilise comme point de départ un modèle VAR avec relations linéaires dans lequel les restrictions causales du type DSGE sont évitées. Ainsi, les chercheurs ont aujourd’hui de plus en plus tendance à préférer recourir aux modèles VAR pour l’analyse et la prévision plutôt qu’aux modèles théoriques[13] (Colander et alii, 2008). L’article de Hoover etalii (2008) propose une telle approche, fondée sur un modèle VAR coïntégré, dans laquelle les choix théoriques sont guidés par les données et non l’inverse.

Conclusion

Les apports de Christopher Sims à la littérature économique sont à la fois abondants et fondamentaux. Les outils qu’il a développés ont permis d’améliorer les performances en matière de prévision et de mieux saisir les canaux de transmission des politiques et des chocs économiques. Dans un premier temps, Sims a élaboré les premiers modèles VAR, VAR structurel et VAR bayésien qui constituent le fondement de cette approche. Dans un deuxième temps, ces travaux séminaux ont suscité de nombreux prolongements. La méthode d’identification a été sensiblement améliorée avec l’introduction de contraintes de court terme, de long terme, sur les signes et l’introduction de l’hypothèse d’exogénéité. Les modèles vectoriels autoregressifs ont également donné lieu à de nombreux perfectionnements qui ont permis d’améliorer leur performances et d’étendre leur usage à de nouveaux domaines avec le développement d’une série de nouveaux modèles VECM, PVAR, GVAR, FAVAR, TVP-VAR et MVAR. Enfin, la représentation VAR développé par Sims a procuré un nouvel ancrage empirique à la macroéconomie qui se révèle particulièrement précieux alors que les insuffisances des modèles théoriques dominants ont été révélées par la crise économique de 2008. Ainsi, comme le suggèrent de nombreux auteurs (Colander etalii, 2008; Hoover et alii, 2008), cette approche pourrait constituer la base d’un mouvement de renouveau profond de la macroéconomie.