You are on Érudit's new platform. Enjoy! Switch to classic view

Articles

L’économétrie et l’évidence fallacieuse : erreurs et avancées

  • Lynda Khalaf

…more information

Cover of Volume 90, Number 1, March 2014, pp. 5-75, L'Actualité économique

Article body

Introduction

« QUE FERIONS NOUS SANS L’ÉCONOMÉTRIE? » Cette question qui sert de titre à la première section de Malinvaud (1997) se pose constamment en science économique. Par exemple, Dufour (1997, 2001, 2003) porte un regard critique sur plusieurs modèles et méthodes. Des questions fondamentales sont aussi abordées par Stock (2010) qui confronte l’économétrie à l’expérimentation. Sur base de plusieurs études de cas en macroéconomie et en finance[1], cet article se repenche sur la question. Tout d’abord nous considérons des situations où plusieurs méthodes économétriques populaires pourraient impliquer des conclusions économiques fallacieuses. Par la suite, nous nous demandons de quelle manière la discipline a et pourrait évoluer pour éviter ces difficultés.

Une question naturelle permettra de situer les cas que nous aborderons. Comme économistes, qu’attendons-nous donc de l’économétrie, ou plus globalement, de la statistique? Les méthodes d’inférence statistique sont sensées : (i) produire des régions de confiance précises pour les paramètres d’intérêt et respecter le niveau de confiance; (ii) rejeter les modèles non compatibles avec les données et respecter le seuil de significativité; (iii) faciliter l’estimation et l’inférence dans les modèles d’équilibre; (iv) diagnostiquer les erreurs d’ajustement, et (v) tenir compte du fondamental et, idéalement, demeurer robustes aux hypothèses non essentielles.

En économie il y a presque toujours des fondements théoriques, ou plus précisément un ou plusieurs modèles, qui demandent à être testés par le biais des analyses empiriques. Pour ne pas s’en tenir à une vision purement dogmatique, nombre d’économistes ont conçu leurs modèles comme des outils quantitatifs visant à évaluer des questions substantives. Loin d’être définitivement conciliés, certains modèles théoriques font quand même consensus pour cet objectif. On s’entend moins bien quand il s’agit de formuler des versions économétriques pour les confronter aux données. Idéalement, la discipline préfère se concentrer sur des implications fondamentales, mais en permettant aux données de se prononcer sur les difficultés d’ajustement. Pour distinguer la spécification du fondamental versus l’ajustement, nous procèderons par cas concrets. Quelques exemples de base peuvent situer le lecteur : les élasticités et les effets marginaux prédits par la théorie constituent des paramètres d’intérêt qui capturent les effets fondamentaux. L’hétérogénéité non observée, la distribution des résidus et les erreurs de mesure constituent des paramètres de nuisance sur lesquels la théorie sous-jacente renseigne peu; cependant, la fiabilité statistique en dépend et souvent énormément.

Étant donné une telle définition d’un modèle, cet article se penche sur plusieurs cas en macroéconomie et en finance pour lesquelles les réponses aux questions (i)-(v) ci-dessus peuvent être fallacieuses. Nous rappellerons d’abord que l’inférence fallacieuse ainsi que ses causes et conséquences sont souvent difficiles à détecter. C’est cette évaluation des effets fallacieux qui nous intéressera en premier lieu. Des solutions tractables seront ensuite discutées. Notre présentation évite les détails techniques et met plutôt l’emphase sur la substance. La discussion se base principalement sur les modèles structurels ou en d’autres termes les modèles d’équilibre.

1. Les attentes et les tendances en macroéconomie

Les élaborations théoriques les plus complètes ne suffisent typiquement pas à elles seules pour la construction d’une structure économétrique. Il est donc rare que l’estimation d’un modèle macroéconomique n’exige pas quelque hypothèse supplémentaire. Mais ces hypothèses ne sont souvent pas anodines quant à l’analyse statistique. Par exemple, l’existence d’une solution rationnelle unique et stable pose des contraintes complexes et concrètes sur l’espace des paramètres (Fernandez-Villaverde, Rubio-Ramirez, Sargent et Watson, 2007; Iskrev, 2010; Komunjer et Ng, 2011). La spécification des processus qui génèrent les chocs, les mesures des grandeurs quant aux observables ainsi que le traitement des tendances nécessitent des modalités de convenance dont certaines sont souvent plus restrictives que ce que dicte la théorie (Del Negro, Schorfheide, Smets et Wouters, 2007; Canova et Sala, 2009; Consolo, Favero et Paccagnini, 2009; Cochrane, 2011). Nous en considérons deux, pour illustrer leurs effets particulièrement destructeurs.

(1) La démarche sur base de modèles « fermés ». Même si l’approche dogmatique favorise l’information complète, les modèles fermés sont plus faciles à rejeter statistiquement ce qui va à l’encontre de leurs objectifs. On peut quand même apprendre comment les améliorer, à travers de tels rejets. Une méthode à information complète devrait donc imbriquer une évaluation de la structure sous-jacente.

(2) Les tendances et les « filtres ». En macroéconomie, les implications testables sont souvent formulées en déviation par rapport à un état stationnaire, ce qui requiert une définition de ce dernier et des outils pour l’en purger des données. Les pratiques habituelles pour ce faire ont soulevé plusieurs critiques. Nous en soulignons une en particulier dont l’importance n’a été relevée que récemment. Pour produire une variable filtrée pour la période t, plusieurs de ces filtres utilisent l’ensemble des données ou plus précisément, l’information au-delà du temps t. Les retards des variables filtrées sont quand même utilisés comme instruments, ce qui présume qu’ils appartiennent à l’ensemble d’information dont dispose l’économètre jusqu’au temps t. Cette contradiction pourrait contribuer aux problèmes d’ajustement des modèles et causer leur rejet fallacieux.

Dans ce qui suit, un modèle économétrique est considéré « fermé » si l’ensemble d’information se limite aux variables exogènes ou prédéterminées complètement spécifiées par le biais du modèle théorique qui le sous-tend. Ces variables sont considérées comme « instruments internes » ou « spécifiques au modèle »; typiquement, ces instruments sont souvent les retards de toutes les variables endogènes observables du modèle. Conformément, l’estimation avec « information complète » signifie qu’un modèle complet est estimé. L’approche « information limitée » permet de conditionner sur un ensemble d’instruments qui n’est pas nécessairement spécifié dans le modèle théorique sous-jacent[2]. Par exemple, le tableau 2 se rapporte à un modèle à trois équations et trois observables : l’inflation, l’écart à la production et le taux d’intérêt nominal. Les instruments internes sont les retards de ces trois variables. Les instruments externes sont les retards de l’inflation salaire et prix des commodités.

Étant donné ces faits, nous examinerons deux types d’outils : les méthodes robustes aux problèmes d’identification qui produisent des intervalles de confiance vides lorsque la structure est contrefactuelle et les filtres en temps réels dont les retards demeurent des instruments valides. Pour concrétiser notre analyse, nous nous basons sur deux applications étudiées par Dufour, Khalaf et Kichian (2006, 2010, 2013); voir aussi Mavroeidis (2004, 2005, 2010), Kleibergen et Mavroeidis (2009) ou Guerron-Quintana, Inoue et Kilian (2013).

Considérons d’abord le modèle suivant proposé par Eichenbaum et Fisher (2007) pour expliquer l’inflation :

forme: forme pleine grandeurt est l’inflation en déviation par rapport à l’état stationnaire, ŝt est le coût marginal réel en déviation par rapport à l’état stationnaire, A(ϖ) et D(β,θ,ϖ) sont des fonctions connues d’un paramètre calibré ϖ. Pour simplifier la présentation et nous concentrer sur les questions qui nous préoccupent directement, nous ne définissons pas ce paramètre ni les fonctions en question. Le lecteur peut considérer l’article de référence pour une présentation complète du modèle. β est le paramètre usuel associé aux choix intertemporels. Le terme d’erreur e1,t+1 qui imbrique les erreurs sur les anticipations suit une moyenne mobile d’ordre 1 [MA(1)] avec paramètre τ, et ce dernier vise à mesurer les délais d’exécution. Dans une période donnée, chaque firme réajuste son prix avec probabilité (1 – θ). En pratique, 1 / (1 – θ) mesure la durée moyenne des prix sur base trimestrielle. Une proportion ν de firmes indexe son prix à l’inflation retardée; ν = 1 implique un indexation complète.

Dufour, Khalaf et Kichian (2010) proposent une estimation ensembliste robuste aux instruments faibles pour les paramètres ν et θ en calibrant β. Le principe se résume comme suit. L’ensemble de confiance au seuil α concide avec les valeurs ν0 et θ0 qui ne sont pas rejetées par le test Anderson-Rubin[3] généralisé suivant : on régresse

sur les instruments, et on applique le test Wald corrigé pour la dépendance sérielle pour tester la nullité des instruments. Cette région de confiance ainsi obtenue est robuste à la qualité des instruments, ce qui ne serait pas le cas pour les intervalles de confiance qu’on obtiendrait sur base de la méthode des moments généralisés usuelle.

Pour garder cette discussion succincte, nous n’élaborerons pas plus sur la méthode d’estimation ni sur la littérature importante en économétrie qui la sous-tend. Le lecteur peut consulter Dufour, Khalaf et Kichian (2006, 2010, 2013) pour plus de détails. Deux ensembles d’instruments sont utilisés pour les résultats du tableau 1 : l’ensemble dénoté ZEF qui inclut les instruments spécifiques au modèle retenu (Eichenbaum et Fisher, 2007), et l’ensemble dénoté Z* qui inclut les retards des variables endogènes de trois modèles alternatifs (Eichenbaum et Fisher, 2007; Blanchard et Gali, 2007, 2010). Les effets liés à l’élargissement de l’ensemble d’information sur l’estimation de 1 / (1 – θ), qui est le paramètre principal du modèle, est spectaculaire. L’ajout d’instruments externes au modèle, qui demeurent pertinents puisqu’ils s’inspirent des modèles alternatifs portant sur l’inflation, améliore la précision de l’intervalle dramatiquement. Le modèle fermé est quasi non informatif sur 1 / (1 – θ), alors que l’estimation qui permet un ensemble d’information défini avec une perspective plus large mais bien fondée produit des valeurs compatibles avec la théorie.

Tableau 1

Inflation – Une équation structurelle, indexation

Inflation – Une équation structurelle, indexation

Note : ZEF inclut le 4e et 5e retard de l’inflation et du coût marginal. Z* inclut le 4e et 5e retard de l’inflation et du coût marginal, du taux de chômage, et les variations du prix du bien non produit. Données trimestrielles, États-Unis, 1982Q3 to 2006Q4. A(ϖ) = D(β, θ, ϖ) = 1 le capital est homogène et l’élasticité de la demande constante. L’estimation avec retards plus courts conduit au rejet du modèle.

Source : Dufour, Khalaf et Kichian (2010). Intervalles de confiance sur base de projections, qui inversent le test Anderson-Rubin généralisé

-> See the list of tables

Considérons maintenant un modèle avec trois équations structurelles (Clarida, Gali et Gertler, 1999; Linde, 2005)

pour expliquer l’inflation, πt, l’écart à la production, yt, et le taux d’intérêt nominal, Rt. Les erreurs sont i.i.d. normales (dans le temps) mais une corrélation contemporaine est permise.

Dufour, Khalaf et Kichian (2013) proposent une estimation ensembliste multivariée robuste aux instruments faibles pour les paramètres ωf, γ, βf, βr, γπ, γy et ρj, j =1, ..., 3. Le principe généralise le concept univarié ci-dessus. L’ensemble de confiance coïncide avec les valeurs ωf0, γ0, βf0, βr0, γπ0, γy0 et ρj0, j =1, ..., 3, qui ne sont pas rejetées par le test Anderson-Rubin multivarié suivant : on régresse

et

conjointement sur πt-1, yt-j, j = 1, ..., 4 et Rt-j, j = 1, ..., 3 et on applique un test de type F multivarié pour tester la nullité de tous les retards dans les équations 1 et 3, ainsi que la nullité des retards de l’inflation et du taux d’intérêt uniquement dans l’équation 2. Cette région de confiance ainsi obtenue est robuste à la qualité de l’identification, ce qui ne serait pas le cas pour les intervalles de confiance qu’on obtiendrait sur la base du maximum de vraisemblance usuel. Le lecteur peut consulter Dufour, Khalaf et Kichian (2013) pour plus de détails sur ce test ainsi que d’autres tests qui imposent l’information complète ainsi qu’une solution rationnelle unique et stable. Deux mesures pour l’écart à la production sont considérées : la mesure standard et une mesure en temps réel. Deux ensembles d’instruments sont utilisés pour les résultats du tableau 2 : l’ensemble dénoté « Instruments internes » qui inclut les instruments spécifiques au modèle et l’ensemble dénoté « Instruments » qui inclut les retards de plusieurs variables externes au modèle mais qu’on retrouve habituellement dans les estimations empiriques de l’inflation.

On rejette le modèle avec : (i) la méthode information complète et les deux mesures de l’écart à la production; (ii) la méthode information limitée Anderson-Rubin généralisée corrigée pour la dépendance sérielle, avec ou sans instruments « externes », et (iii) la méthode information limitée Anderson-Rubin généralisée i.i.d. multivariée et la mesure standard de l’écart à la production. Les résulats avec la méthode information limitée Anderson-Rubin généralisée i.i.d. multivariée et la mesure en temps réel de l’écart à la production sont résumés dans le tableau 2. Ces résultats renforcent notre message sur les avantages d’une modélisation qui évite de fermer les modèles.

Tableau 2

Inflation – Trois équations structurelles

Inflation – Trois équations structurelles

Note : Ensemble d’information étendu : instruments internes plus les retards 2 et 3 de l’inflation salaire et prix des commodités.

Source : Données trimestrielles, États-Unis, 1962Q1 to 2005Q3

-> See the list of tables

Malgré les préférences et les débats de la discipline, rappelons qu’il n’est pas nécessaire de choisir entre l’estimation d’une seule équation et celle d’un système complet et fermé. Une méthode à information limitée ne se base nécessairement pas sur « une seule » équation! Une approche information limitée sur base de plusieurs équations peut exploiter l’information sur les variables communes aux équations considérées avec un minimum de contraintes, ce qui pourrait nous renseigner quand même empiriquement lorsque les hypothèses dont le seul but est de fermer le modèle doivent être relâchées. En effet, la parcimonie des modèles fermés usuels implique un ensemble d’information restreint qui manquerait de crédibilité. Par exemple, les variables qui interviennent dans plusieurs modèles d’équilibre bien connus sur l’inflation sont : l’écart de production, le coût marginal ou le taux de chômage, et un taux d’intérêt de court terme, ce qui implique que ces variables et leurs retards suffisent pour prescrire les politiques monétaires. Est-ce raisonnable? Une structure plus flexible devrait permettre de l’information additionnelle qui reflète l’environnement réaliste des décideurs.

2. Les modèles empiriques d’évaluation d’actifs

Les échantillons disponibles en finance empirique sont typiquement plus grands que ceux dont on dispose par exemple en macroéconomie, ce qui promet une analyse plus précise des données. Mais il arrive souvent que les approximations asymptotiques ne soient pas adéquates par rapport aux paramètres posés en hypothèse. De telles irrégularités peuvent engendrer des interprétations invalides et des conclusions fautives qui toucheraient un large éventail de modèles financiers courants ainsi que plusieurs sujets fondamentaux en finance. Nous proposons d’illustrer ces questions à l’aide de modèles financiers fondés sur des régressions multivariées, en dépit de la simplicité de leur structure statistique.

De fait, plusieurs questions importantes en finance conduisent à tester la significativité du vecteur des constantes dans une régression multivariée de rendements sur des facteurs de risque : l’efficience de portefeuilles, le CAPM, les modèles Fama-French-Carhart, entre autres (voir, par exemple, Gibbons, Ross et Shanken, 1989; Fama et French, 1992, 1993, 1995, 1996, 2004; Shanken, 1996; Carhart, 1997; Sentana, 2009). Plusieurs modèles non linéaires sont aussi définis par le biais des restrictions sur ces constantes (Shanken, 1985, 1992; Barone-Adesi, Gagliardini et Urga, 2004; Shanken et Zhou, 2007).

Pour clarification, considérons un modèle prototype:

rit, i = 1, ..., n, sont les rendements, possiblement excédentaires, sur n portefeuilles et jt, j = 1, ..., s, sont des rendements, possiblement excédentaires, sur s facteurs de risque. Certaines extensions conditionnelles du modèle (voir Beaulieu, Dufour et Khalaf, 2007) incluent aussi des instruments et des termes d’interaction. Pour faciliter la discussion, résumons le modèle sous forme matricielle comme suit :

L’hypothèse suivante sur les termes d’erreurs

permet de concrétiser la spécification. La distribution du vecteur des Wt est par exemple normale ou suit la loi de Student multivariée ou une autre loi elliptique telle un mélange de loi normales multivariées (voir Beaulieu, Dufour et Khalaf, 2005, 2007, 2009, 2010, 2013) pour tenir compte de l’asymétrie et des queues épaisses des données financières. Cette famille de lois est conforme aux théories financières d’équilibre.

Dans ce contexte, plusieurs implications testables peuvent être formulées par des contraintes de la forme

Les exemples les plus connus incluent :

  1. Les tests d’efficience de portefeuille. Dans ce cas, C = (1, 0, ..., 0)′ pour les modèles non conditionnels. Pour les modèles conditionnels dans lesquels Xt inclut des instruments et leur interactions avec les facteurs, C est une matrice de sélection [des 0 et des 1] qui vérifie la nullité de ces variables ainsi que les constantes.

  2. Les tests du « spanning ». Dans ce cas, on ajoute des lignes à C pour vérifier si la somme des bêtas est égale à 1.

  3. Les analyses de performance. Pour tester la « performance anormale », C correspond aussi à une matrice de sélection.

  4. Les modèles d’arbitrage, à facteurs, ou à la « Black » (Black, 1972). Dans ce cas, la contrainte prend la forme

ce qui implique un rang réduit pour B. Le vecteur Θ se rapporte au taux zéro-bêta et/ou au prix du risque.

Ces modèles sont de loin les plus communément utilisés en évaluation d’actifs. C’est pourquoi il est important de disposer de méthodes d’inférences précises, parce que l’utilisation de méthodes qui ne sont qu’approximatives ou qui ne tiennent pas compte de la non-normalité peut conduire à des interprétations empiriques invalides des paramètres sous-jacents, et en particulier ceux qui se rapportent au prix du risque. C’est l’évaluation des ce dernier qui nous intéressera en particulier, en raison de son évidente importance. Cet exposé mettra l’accent sur quatre catégories de problèmes qui perdurent dans ce contexte.

Le premier relève de la dimensionnalité. Lorsque n augmente, la dimension de J augmente rapidement et les degrés de liberté diminuent conformément. Même dans les cas standards où les lois asymptotiques ne dépendent pas de J, les lois exactes en dépendent fortement. L’estimation de J requiert un grand T par rapport à n. Ces modèles sont donc typiquement estimés sur base de rendement de portefeuilles, plutôt que d’actifs.

Mais cette approche ne s’avère pas sans coûts ni sans contraintes. Même si une interprétation rigide de (1)-(2) comme un modèle d’équilibre est moins polémique en finance qu’en macroéconomie contemporaine, il ne faut pas perdre de vue les principes fondamentaux que ces systèmes devraient incorporer. D’une part, la distribution des Wt devrait demeurer elliptique ou au moins fermée quant aux combinaisons linéaires puisqu’un portefeuille est une combinaison linéaire d’actifs. Nous devons aussi nous interroger sur la repondération éventuelle des portefeuilles (Kandel et Stambaugh, 1989). Plus précisément, les transformations du vecteur des rendements Rt à

A une matrice n × n inversible telle que Aln = ln et ln = (1, ..., 1)′ un vecteur de dimension n, ne devraient pas affecter la qualité de l’inférence. Les tests non invariants peuvent être fallacieux (Beaulieu, Dufour et Khalaf, 2010, 2013).

De plus, les questions principales auxquelles ces modèles tentent de répondre, par exemple les cas (i)-(iv) répertoriés ci-dessus, constituent des hypothèses conjointes sur les paramètres des n équations du système (1). Même dans le cas linéaire, la précision atteinte avec l’analyse simultanée d’un grand nombre que ce soit de portefeuilles ou d’actifs constitue des défis majeurs pour l’économétrie usuelle. Beaulieu, Dufour et Khalaf (2005, 2007, 2009, 2010, 2013) démontrent que l’économétrie sur base de simulation permet en principe d’en contourner quelques-uns.

En particulier, la méthode des tests de Monte Carlo (MC) (Dufour, 2006) permet d’obtenir, par des simulations, la distribution sous l’hypothèse nulle des statistiques à l’étude tout en tenant compte des relations conjointes sous-jacentes sans se contraindre aux lois normales. Sur base de cette méthode, plusieurs résultats publiés par Beaulieu, Dufour et Khalaf (2005, 2007, 2009, 2010, 2013) sont négatifs vis-à-vis les conceptions classiques et les idées reçues. Ces résultats montrent que l’intuition concernant la fiabilité de plusieurs facteurs n’est validée que pour des cas particuliers, et que leur contribution positive établie sur base de méthodes usuelles ne résiste pas à l’introduction des lois non normales et des tests simultanés. Par exemple, Beaulieu, Dufour et Khalaf (2007, 2010) documentent des constantes non nulles ou en d’autres termes des rendements anormaux inexpliqués dans les modèles à la Fama-French-Carhart. Au lieu de valider les conditions d’équilibre en annulant les constantes, les facteurs ne semblent servir qu’à normaliser les résidus. Il s’agit de résultats révélant des déviations importantes par rapport aux acquis usuels dans cette littérature.

On s’aperçoit aussi empiriquement que les bêtas associés au facteur du marché sont proches de un pour des régressions sur base de portefeuilles. Ce manque de dispersion cause des problèmes d’identification importants dans la définition du prix du risque et pour les méthodes en deux étapes (voir Kleibergen, 2009; Khalaf et Schaller, 2013). Ces méthodes attribuées à Fama et Macbeth (1973) commencent par une régressions de type (1); les estimés des coefficients de régression sont sauvegardés et constituent ce qu’on appelle communément les bêtasde lapremière passe. Les moyennes des rendements dans le temps sont par la suite régressées sur une constante et ces bêtas préalablement estimés; les coefficients de cette régression de seconde étape constituent le prix associé aux facteurs de risque que capture chaque bêta. Il est clair qu’un manque de variabilité du coté de ces bêtas cause de la colinéarité dans la régression de seconde étape, ce qui compromet la précision de son estimation. Les méthodes usuelles incluant les corrections pour les erreurs de mesure (Shanken, 1992) dissimulent les effets pervers de ce problème. En dépit des travaux précurseurs de Kan et Zhang (1999a, b), l’importance de ce problème n’a donc été perçue que récemment.

Une optique multivariée en séries chronologiques n’échappe pas à ce problème, qui se manifeste toutefois de manière plus subtile. Dans ce cas, les contraintes structurelles sont exprimées directement en fonction du prix du risque et du taux sans risque. Ces quantités ne sont pas observables mais sont incorporées dans les modèles à travers des restrictions de rang réduit par exemple sous la forme (3), ce qui complique leur identifiabilité. Supposons par exemple que les bêtas associés à un facteur sont conjointement non significatifs ce qui impliquerait que la colonne pertinente de la matrice B est un vecteur de zéros. Il est évident que la composante de Θ qui multiplie les éléments de cette colonne nulle sera évacuée de la contrainte, donc du modèle, et devient ainsi non identifiable.

Est-ce que le problème demeure une présomption théorique certes intéressante mais pratiquement non pertinente? Malgré une littérature bien établie (voir, par exemple, Lewellen, Nagel et Shanken, 2010; Harvey, Liu et Zhu, 2013), les mesures courantes des facteurs de risque se sont avérées empiriquement redondantes (Kleibergen, 2009; Kleibergen et Zhan, 2013; Khalaf et Schaller, 2013; Gospodinov, Kan et Robotti, 2013; Beaulieu, Dufour et Khalaf, 2013, 2014). Les bêtas proches de zéros surviennent donc assez fréquemment à cause (et en dépit) de la surabondance de facteurs.

Les problèmes d’identification ont des effets pervers sur les méthodes d’estimation traditionnelles. Dans ce contexte, les conditions de régularité requises pour valider les méthodes asymptotiques incluant les preuves de convergence et les approximations des lois limites des estimateurs ne tiennent pas, ou tiennent faiblement et/ou non uniformément. Par conséquent, la théorie asymptotique usuelle ne fournit que des approximations très imprécises. Les conclusions des études empiriques qui appliquent ces approximations peuvent être fortement affectées, même si les échantillons utilisés dans les analyses des rendements (par exemple, sur base d’actifs ou de données à haute fréquence) peuvent être de grande taille.

À cet effet, il faut reconnaître que la finance empirique se révèle lente à adopter les résultats récents en théorie économétrique. Il est possible que les praticiens se sentent immunisés à ces problèmes vu les grandes tailles d’échantillon typiquement disponibles en finance. La littérature économétrique (Dufour, 1997, 2003; Stock, Wright et Yogo, 2002) a par contre démontré que l’identification n’est pas un problème de petit échantillon, mais plutôt un problème de fondements exacts ou asymptotiques qu’il importe de revoir. Pour illustrer ces faits, nous examinerons deux types d’outils, ceux robustes aux problèmes d’identification dont on a discuté ci-dessus ainsi que ceux qui permettent de capturer l’asymétrie.

Pour concrétiser notre analyse, nous nous basons sur les procédés introduits par Beaulieu, Dufour et Khalaf (2009, 2013, 2014) et Beaulieu, Gagnon et Khalaf (2014). Pour simplifier la présentation et nous concentrer sur les questions qui nous préoccupent directement, nous nous contentons d’une description succincte des données et des méthodes en question. Le lecteur peut considérer les articles de référence pour une présentation complète des portefeuilles, des facteurs, des lois stables, du calcul des statistiques, de leur seuil de signification marginal F ou simulé, ainsi que leur inversion. Les principes se résument à ce qui suit.

Une statistique de type Hotelling permet d’évaluer (2) lorsque C est un vecteur connu. En fixant C comme un vecteur qui sélectionne un régresseur à la fois, on peut tester la significativité conjointe (interportefeuilles) de chaque facteur. La statistique se calcule de manière très simple connaissant C, sur base des estimés des moindres carrés ordinaires de B. Un point critique F s’ajuste assez bien aux modèles avec plusieurs facteurs. On peut aussi inverser le test associé à un cas particulier de (3) pour lequel Θ est fixé à une valeur donnée Θ0, pour obtenir une région de confiance pour Θ : cette région correspond aux valeurs de Θ0 qui ne sont pas rejetées par le test du Hotelling en question. L’intervalle robuste peut être borné, vide ou non borné. Un intervalle vide rejette la spécification alors qu’un intervalle non borné signale des problèmes d’identification causés par un facteur redondant.

Beaulieu, Dufour et Khalaf (2009) maintiennent un modèle linéaire de la forme (1) avec un facteur de marché, mais élargissent la famille de lois sur Wt en dehors de la classe usuelle des lois de Student symétriques. Le tableau 3 rapporte les résultats du test de Hotelling portant sur les constantes de régression pour 12 portefeuilles triés par industrie. Le test permet de conclure en faveur du CAPM lorsque son seuil de signification marginal est simulé avec des lois stables asymétriques. Ces résultats constituent des déviations notables par rapport aux conclusions usuelles sur le CAPM retenues par la finance empirique. Notez que la famille des lois stables asymétriques est compatible avec les fondements théoriques du CAPM (Samuelson, 1967) mais pas nécessairement avec la théorie des tests usuels.

Tableau 3

Tests du CAPM, erreurs stables

Tests du CAPM, erreurs stables

Note : QLR : statistique de test sur les constantes de regressions; QU : seuil de signification marginal, méthode Monte Carlo maximisé, octobre 1987 et janvier exclus. Rendements mensuels, 12 portefeuilles.

Source : Beaulieu, Dufour et Khalaf (2005)

-> See the list of tables

La théorie financière permet de capturer l’asymétrie sous une forme alternative, à travers des facteurs observables. Plus précisément, il s’agit d’une asymétrie dans la dépendance entre les rendements et le marché, plutôt qu’une non normalité des résidus. Le CAPM quadratique (Kraus et Litzenberger, 1976; Barone-Adesi, Gagliardini et Urga, 2004) postule qu’un modèle qui inclut deux facteurs, un portefeuille de marché et son carré, capture ce type d’asymétrie avec ou sans une contrainte de type (3). Les tableaux 4 et 5 se rapportent à un tel modèle, analysé avec 25 portefeuilles de type Fama-French.

Le tableau 4 rapporte des intervalles de confiance sur les composantes de Θ par rapport à chaque facteur. Les intervalles robustes rejettent la spécification pour une sous-période et ne sont bornés qu’en une seule autre, ce qui signale des problèmes de facteur redondant. Ces intervalles ne sont pas nécessairement non informatifs: il s’avère que pour certaines sous-périodes après 1980, le terme quadratique est significatif malgré les difficultés d’identification. Il est utile de contraster les intervalles de type Wald qui ne sont pas fiables en présence de facteurs redondants, ce que nous avons prouvé analytiquement, aux résultats robustes. En effet, l’information que révèlent ces intervalles ne concorde que très peu.

Le tableau 5 rapporte les tests de significativité conjointe pour chaque facteur, ainsi qu’un test de la contrainte d’équilibre (3): ce dernier rejette le modèle s’il n’existe aucune valeur de Θ qui ne satisfasse les données. Ce test correspond à un intervalle de confiance vide (voir Beaulieu, Dufour et Khalaf, 2013, 2014). Les résultats du tableau 5 illustrent l’utilité d’une approche globale qui consiste à amalgamer l’évaluation de la spécification et l’inférence ensembliste sur les paramètres du modèle. Si on se contente de tester le modèle, on peut facilement accepter un modèle mal identifié. Les intervalles de confiance contiennent beaucoup plus d’information qu’un test, surtout si leur méthode de construction permet des ensembles vides. Ces derniers nous empêchent d’interpréter des modèles non compatibles avec les données. En contraste, les intervalles non bornés nous permettent de discerner un non-rejet, possiblement inutile.

Tableau 4

Régions de confiance, prix du risque

Régions de confiance, prix du risque

Note : Régions de confiance à 5 % pour les composantes de Θ; les régions « robustes » inversent un test Hotelling associé à la contrepartie linéaire de la contrainte (3) qui définit Θ, 25 portefeuilles, Fama-French.

Source : Beaulieu, Dufour et Khalaf (2013, 2014)

-> See the list of tables

Tableau 5

Tests du modèle et tests de redondance des facteurs

Tests du modèle et tests de redondance des facteurs

Note : « Spécification » : statistique LR pour tester (3), robuste à l’identification, « Hotelling » teste la significativité conjointe du facteur entre équations, « Seuil » : seuil de signification marginal.

Source : Voir Beaulieu, Dufour et Khalaf (2013, 2014)

-> See the list of tables

Conclusion

Les systèmes d’équations structurelles découlant des principes d’optimisation sont les modèles le plus communément utilisés pour étudier les problématiques macroéconomiques courantes ainsi qu’en finance empirique. L’inférence statistique dans ce type de modèles pose des défis considérables, pour plusieurs raisons. Les équations structurelles en macroéconomie sont « prospectives » et sont exprimées en fonction des valeurs attendues de variables fondamentales. Ces dernières ne sont pas observables, cependant l’hypothèse des attentes rationnelles est couramment imposée. Au niveau multivarié et non linéaire, les solutions rationnelles impliquent des contraintes non standard et difficiles à caractériser sur l’espace des paramètres. En finance, la dimensionalité ajoute des complexités sérieuses au niveau des systèmes multivariés. Ces difficultés sont souvent exacerbées par une identification statistique difficile.

L’économétrie robuste à l’identification a fait de grand progrès au cours des deux dernières décennies, en particulier dans le cas des méthodes avec variables instrumentales ou moments généralisés. Les travaux théoriques sont de plus en plus convainquants. Cependant, il faut admettre que la majorité des méthodes récemment proposées, et en particulier l’inférence par inversion de test, nécessitent un calcul informatique élaboré et surtout non standard que l’on peut résumer comme suit.

L’inférence par inversion de test portant sur un vecteur de paramètres requiert la solution d’un système d’inéquations conjointes non linéaires. Ces solutions constituent des surfaces multidimensionnelles qu’il faut projeter sur chacun des axes afin d’isoler l’information pertinente à chaque composante du vecteur d’intérêt. Pour projeter une région sur un des axes, il faut identifier, dans cette région, la plus petite et la plus grande valeur de la composante pertinente du vecteur. Les régions dont il est question en économétrie sont non standards, possiblement discontinues et non convexes, pour lesquelles des solutions explicites analytiques existent exceptionnellement. L’optimisation numérique est donc souvent inévitable. Les progrès importants en économétrie vont donc nécessiter des avancées et des vulgarisations relatives au calcul numérique et informatique.

Dans le contexte macroéconomique, les méthodes valides en échantillons finis font défaut. On observe un effort récent soutenu dans la discipline pour proposer des méthodes asymptotiques robustes à l’identification. Ces méthodes, même si elles constituent une amélioration notable par rapport aux outils traditionnels, demeurent approximatives. Les séries chronologiques macroéconomiques sont assez courtes. Par conséquent, la théorie asymptotique même robuste à l’identification, offre une solution non concluante.

Les méthodes disponibles en économétrie financière buttent encore sur l’obstacle engendré par un grand nombre d’actifs ou de portefeuilles (n), d’une part, et un grand nombre de facteurs de risque (k), d’autre part. En effet, passant en revue un grand nombre d’études, Harvey, Liu et Zhu (2013) répertorient 314 facteurs différents que la discipline considère plus ou moins pertinents. La performance empirique des modèles plus parcimonieux, par exemple ceux basés sur la consommation ou, sur le plan statistique, sur les moments généralisés, n’est guère satisfaisante (voir Stock et Wright, 2000; Stock, Wright et Yogo, 2002; Kleibergen, 2009; Lettau et Ludvigson, 2009). C’est pourquoi la mise au point et l’application de méthodes exactes quel que soit n et/ou k constituent des objectifs de recherche valables et intéressants.

Appendices