Érudit - Promouvoir et diffuser la recherche
FrançaisEnglishEspañol
 

Recherche détaillée

.

Année Volume Numéro Page 
>
2011-2012 2001-2010 1991-2000 1981-1990 1971-1980 1969-1970

Institution :

Usager en libre accès

Vous êtes abonné(e)s

Accès sous abonnement

Non accessible en raison du droit d'auteur


L'Actualité économique

Direction : Claude-Denys Fluet (directeur)

Éditeur : HEC Montréal

ISSN : 0001-771X (imprimé) 1710-3991 (numérique)

ae

Volume 80, numéro 2-3, juin-septembre 2004, p. 173-546Hommage à Marcel Dagenais

Sous la direction de Bryan Campbell

Tout sélectionner  Tout désélectionner  Enregistrer votre sélection  Voir votre liste de notices
Masquer les résumés
   

Bryan Campbell

Marcel Dagenais, 1935-2001

Page 173

[HTML]  [PDF 40 ko]  [Notice

 

Articles  

   

Marcel Dagenais, Pierre Mohnen et Pierre Therrien

Les firmes canadiennes répondent-elles aux incitations fiscales à la recherche-développement?

Pages 175–205

[HTML]  [PDF 367 ko]  [Notice]  [Plan

   

John W. Galbraith et Victoria Zinde-Walsh

Évaluation de critères d’information pour les modèles de séries chronologiques

Pages 207–227

[HTML]  [PDF 381 ko]  [Résumé]  [Plan

Résumé

Il existe plusieurs critères d’information dont le but est de faciliter la sélection du modèle statistique représentant le mieux possible la réalité. Ces critères s’appliquent notamment au cas des modèles de séries chronologiques à une seule variable. La théorie asymptotique peut être utilisée pour faire un choix entre ces critères. Par exemple, si le modèle possède un ordre authentique, il peut être démontré que certains critères sont fortement convergents pour cet ordre. Historiquement, l’estimation en échantillon fini se base sur la sélection d’un ordre unique, même si plusieurs auteurs reconnaissent l’importance du cas où il n’existe pas de vrai ordre fini. Nous proposons ici un survol de la littérature sur les critères d’information et sur leur comparaison asymptotique et en échantillons finis. Nous présentons également quelques comparaisons de critères en échantillons finis en ne prenant pas pour acquis un ordre authentique au modèle. Nous utilisons alors une mesure de distance dans le but d’évaluer les performances de divers critères dans la sélection de modèles simulés. Cette mesure nous permet de juger l’exactitude de la sélection de l’ordre des modèles résultant de l’utilisation des critères (la sélection non optimale) par rapport à la sélection de l’ordre des modèles simulés (la sélection optimale). Ceci n’est pas possible dans le cas où l’on assume une forme vraie par rapport à laquelle on compare notre modèle.

   

Benoit Perron

Détection non paramétrique de sauts dans la volatilité des marchés financiers

Pages 229–251

[HTML]  [PDF 1 Mo]  [Résumé]  [Plan

Résumé

Des études récentes suggèrent que la variance conditionnelle des rendements financiers est sujette à des sauts. Ce papier étend une procédure non paramétrique de détection de sauts développée par Delgado et Hidalgo (2000) à la détection de sauts dans la variance conditionnelle. Les résultats de simulation démontrent que cette procédure estime de façon raisonnable le nombre de sauts ainsi que leurs emplacements. L’application de cette procédure aux rendements journaliers sur l’indice S&P 500 révèle la présence de plusieurs sauts dans la variance conditionnelle.

   

Jean-François Angers, Denise Desjardins et Georges Dionne

Modèle Bayésien de tarification de l’assurance des flottes de véhicules

Pages 253–303

[PDF 1,3 Mo]  [Résumé

Résumé

Nous proposons un modèle paramétrique de tarification de l’assurance de véhicules routiers appartenant à une flotte. Les tables de primes qui y sont présentées tiennent compte des accidents passés des véhicules, des caractéristiques observables des véhicules et des flottes et des infractions au Code de la sécurité routière des conducteurs et des transporteurs. De plus, les primes sont ajustées en fonction des accidents accumulés par les flottes dans le temps. Il s’agit d’un modèle qui prend directement en compte des changements explicites des différentes composantes des probabilités d’accidents. Il représente une extension aux modèles d’assurance automobile de type bonus-malus pour les primes individuelles (Lemaire, 1985 ; Dionne et Vanasse, 1989 et 1992 ; Pinquet, 1997 et 1998 ; Frangos et Vrontos, 2001 ; Purcaru et Denuit, 2003). L’extension ajoute un effet flotte à l’effet véhicule pour tenir compte des caractéristiques ou des actions non observables des transporteurs sur les taux d’accidents des camions. Cette forme de tarification comporte plusieurs avantages. Elle permet de visualiser l’impact des comportements des propriétaires des flottes et des conducteurs des véhicules sur les taux d’accidents prédits et, par conséquent, sur les primes. Elle mesure l’influence des infractions et des accidents accumulés sur les primes d’assurance mais d’une façon différente. En effet, les effets des infractions sont obtenus via la composante de régression, alors que les effets des accidents proviennent des résidus non expliqués de la régression sur les accidents des camions via un modèle bayésien de tarification.

   

Marie Connolly, Claude Montmarquette et Ali Béjaoui

Modèles économétriques de remboursement de prêts étudiants au Canada

Pages 305–339

[HTML]  [PDF 2 Mo]  [Résumé]  [Plan

Résumé

Six mois après avoir mis fin à leurs études, complétées avec succès ou non, les ex-étudiants sont tenus de rembourser leurs prêts d’études. Une majorité d’entre eux rembourseront la totalité de leurs prêts sur une période de 10 ans. D’autres connaîtront des difficultés à respecter leur engagement. Dans cette étude nous profitons d’une base exceptionnelle de données individuelles sur les prêts d’études au Canada pour étudier les déterminants des remboursements ou non des prêts et la durée avant le remboursement complet. Les résultats économétriques montrent l’importance de terminer ses études dans les temps requis à la fois pour éviter de faire défaut et aussi pour accélérer la période de remboursement. Une politique à envisager serait de gommer une partie des prêts lorsque l’étudiant complète ses études dans les temps requis. L’autre résultat est que le programme du report des intérêts n’a pas semblé très efficace pour faciliter le remboursement des prêts d’études pour la cohorte 1990-1991 étudiée. Finalement, un programme trop généreux de prêts d’études sans mise en garde sur les risques encourus par les étudiants d’investir dans certains programmes, notamment ceux opérés par le secteur privé, a des effets importants non seulement sur la pérennité du programme des prêts, mais aussi sur les mauvaises décisions de la part des étudiants dans leur choix d’études.

   

Marie-France Paquet et Denis Bolduc

Le problème des données longitudinales incomplètes : une nouvelle approche

Pages 341–361

[HTML]  [PDF 789 ko]  [Résumé]  [Plan

Résumé

Dans ce travail, nous suggérons l’utilisation de l’échantillonnage de Gibbs combiné à l’augmentation des données pour estimer des modèles à données longitudinales incomplètes, qui dans le cas extrême où l’échantillon est composé de coupes transversales indépendantes, correspond au cas de modèle de type pseudo-panel. Cette idée peut être appliquée dans plusieurs contextes : modèles statiques ou dynamiques de type linéaires, non linéaires, de choix discrets, avec régresseurs endogènes, etc. Pour présenter la méthode proposée, nous l’appliquons dans le cas d’un modèle linéaire à variable dépendante continue. Comme point de comparaison, nous utilisons les estimations par l’approche conventionnelle dite de pseudo-panel basée sur des moyennes calculées sur des cohortes. La technique proposée dans ce travail donne des résultats supérieurs, en terme d’efficacité, à la technique conventionnelle. Cette conclusion demeure valide quelle que soit la proportion des observations manquantes.

   

Christian Belzil

Un modèle économétrique dynamique de l’abandon scolaire au Québec et en Ontario

Pages 363–381

[HTML]  [PDF 582 ko]  [Résumé]  [Plan

Résumé

Dans cette étude, j’analyse les raisons qui expliquent pourquoi le taux d’abandon scolaire québécois est plus élevé que la moyenne nationale et, en particulier, beaucoup plus élevé qu’en Ontario (la province auquelle le Québec se compare tout naturellement). Le modèle économétrique est construit autour de groupes de trois facteurs fondamentaux ; le niveau d’éducation des parents et / ou d’autres caractéristiques familiales, le sexe ainsi que l’hétérogénéité non observée et permet de déterminer jusqu’à quel point le différentiel positif entre le Québec et l’Ontario est d’un niveau normalement attendu, étant donné d’une part les différences de richesse entre les deux provinces et d’autre part la forte corrélation entre l’éducation des parents et des enfants (mesurée dans beaucoup de pays). Les résultats indiquent qu’au Québec, tout comme en Ontario, l’incidence de l’abandon scolaire décroît avec le niveau d’éducation des parents et est moins élevé chez ceux qui ont été élevés dans une famille unie. Au Québec, et contrairement à l’Ontario, l’incidence de l’abandon scolaire est beaucoup plus élevée chez les garçons. Le plus haut taux d’abandon scolaire chez les garçons semble indépendant de la composition familiale. Une analyse des salaires et revenus des jeunes décrocheurs semblent indiquer qu’ils ne sont pas pénalisés lorsqu’on les compare avec ceux qui sont entrés sur le marché du travail après avoir complété leur secondaire. Il semble donc que le faible taux de rendement associé à la diplômation, combiné au niveau relativement élevé du salaire minimum québécois, contribuent à maintenir le taux de décrochage québécois à un niveau particulièrement élevé.

   

Robert Gagné, Jean-François Nadeau et François Vaillancourt

Réactions des contribuables aux variations des taux marginaux d’impôt : une étude portant sur des données de panel au Canada

Pages 383–404

[HTML]  [PDF 253 ko]  [Résumé]  [Plan

Résumé

Cette étude porte sur l’évaluation de l’élasticité des revenus déclarés relativement au taux marginaux d’impôt sur le revenu au Canada. L’étude s’appuie sur des données provinciales agrégées de 1972 à 1996. Le modèle économétrique permet d’expliquer conjointement les parts de trois classes de revenus : 50 000 $ - 100 000 $, 100 000 $ - 150 000 $ et 150 000 $ et plus. Ce modèle tient compte à la fois des effets spécifiques aux provinces et au temps. De plus, la spécification utilisée prend en considération les conditions macroéconomiques générales (PIB et taux de chômage) ainsi que la distribution sous-jacente des revenus (coefficient de Gini). Par ailleurs, les résultats d’un modèle expliquant la part du nombre de contribuables dans chaque classe de revenus sont également examinés. Les résultats montrent qu’au cours de la dernière partie de la période étudiée (soit de 1988 à 1996), les contribuables appartenant aux classes de revenus les plus élevés (100 000 $ et plus) étaient sensibles aux variations des taux marginaux d’impôt à un point tel que toute augmentation de ces taux entraînait une baisse plus que proportionnelle des revenus déclarés et, par conséquent, une diminution des revenus de l’État. Les résultats complémentaires provenant du modèle portant sur le nombre de contribuables (par classe de revenus) démontrent que ces baisses de revenus s’expliquent par la migration des contribuables vers des niveaux de revenus (et de taxation) plus faibles.

   

Gordon Fisher

Une condition d’invariance du modèle de régression à coefficients aléatoires

Pages 405–419

[PDF 279 ko]  [Résumé

Résumé

Cet article développe une condition d’invariance du modèle de régression à coefficients aléatoires (RCA) et de cette façon permet : (i) d’étendre les résultats de Rao (1963, 1967)”; (ii) de fournir une nouvelle démonstration de l’égalité des estimateurs des moindres carrés généralisés directs et ceux en deux étapes du modèle RCA”; et (iii) de rectifier une proposition de McAleer (1992) pour les modèles mixtes.

   

Malika Hamdad et Tarek M. Harchaoui

La persistance des chocs au Canada, 1870-1996

Pages 421–437

[HTML]  [PDF 250 ko]  [Résumé]  [Plan

Résumé

Ce travail examine la persistance des chocs de la production agrégée dans une perspective multisectorielle. Cette approche permet de décomposer la persistance des chocs de la production en deux composantes : la première due à des chocs d’origine macroéconomique explicitement identifiés et la seconde à des chocs « autres », probablement d’origine sectorielle. Ce cadre d’analyse a été appliqué à des séries historiques sur la production sectorielle de l’économie canadienne pour les périodes d’avant-guerre et d’après-guerre, pour lesquelles les chocs macroéconomiques explicitement identifiés ont été, respectivement, le choc du blé de 1890 et le choc pétrolier de 1973. Les résultats présentés dans ce papier ont a) confirmé dans le contexte canadien que l’approche désagrégée fournit des estimations plus faibles et résolument plus fiables de la mesure de la persistance que ceux obtenus au moyen d’une approche agrégée univariée ; b) permis de montrer que les effets des chocs ont eu tendance à devenir légèrement plus persistants à travers le temps ; et c) mesuré le degré auquel le choc du blé a contribué à provoquer une déviation permanente sur la production de l’économie canadienne et ainsi corroborer la thèse traditionaliste de l’histoire économique du Canada.

   

Sandra Cavaco, Jean-Yves Lesueur et Mareva Sabatier

Stratégies de recherche, contraintes spatiales et hétérogénéité des transitions vers l’emploi : estimation économétrique d’un modèle structurel de recherche

Pages 439–464

[HTML]  [PDF 804 ko]  [Résumé]  [Plan

Résumé

Dans cet article, deux stratégies de recherche d’emploi concurrentes sont introduites comme facteurs explicatifs du taux de sortie du chômage. Le modèle de prospection en équilibre partiel construit oppose une première stratégie consistant à limiter la zone de recherche à la zone de compétence de l’agence publique pour l’emploi à une stratégie alternative, plus coûteuse, qui permet, à travers la mobilisation des procédures marchandes et du réseau social, d’élargir l’horizon spatial de la recherche. L’introduction de cette dualité des stratégies de recherche dans le cadre d’un modèle de recherche à environnement stationnaire fait apparaître à l’équilibre des effets théoriques ambigus sur la durée d’accès à l’emploi. L’estimation économétrique de la fonction de vraisemblance associée à l’expression du taux de sortie du chômage vise à lever cette ambiguité. Réalisée en deux étapes afin de contrôler la sélectivité du choix des stratégies de prospection, notamment l’effet des contraintes spatiales, l’estimation économétrique des taux de sortie du chômage contrôle également l’hétérogénéité des transitions individuelles vers l’emploi et la présence potentielle d’hétérogénéité inobservable. Les résultats économétriques concluent alors à l’endogénéité des stratégies de prospection et à leur influence discriminante sur les durées d’accès aux différents types emplois.

   

Michel Lubrano

Modélisation bayésienne non linéaire du taux d’intérêt de court terme américain : l’aide des outils non paramétriques

Pages 465–499

[PDF 1 Mo]  [Résumé

Résumé

Cet article a pour objet l’investigation des modèles empiriques de taux d’intérêt de court terme sur données américaines. Il utilise une combinaison de méthodes classiques non paramétriques et de méthodes bayésiennes paramétriques. La forme des fonctions de dérive et de volatilité du modèle discrétisé est tout d’abord examinée au moyen d’une analyse non paramétrique préliminaire. Le texte développe ensuite une méthode bayésienne de choix de modèles qui est basée sur la capacité d’un modèle à minimiser la distance de Hellinger entre la densité prédictive a posteriori du modèle discrétisé et la densité de l’échantillon observé. Une discrétisation du modèle en temps continu est estimée en utilisant différentes variantes paramétriques allant du modèle à variance constante jusqu’à différents types de modèles de switching suggérés par l’analyse non paramétrique préliminaire.

   

Jean-Marie Dufour, Abdeljelil Farhat et Lynda Khalaf

Tests multiples simulés et tests de normalité basés sur plusieurs moments dans les modèles de régression

Pages 501–522

[HTML]  [PDF 310 ko]  [Résumé]  [Plan

Résumé

Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte-Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte-Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.

   

Simon Van Norden

Filtres pour l’analyse courante

Pages 523–546

[PDF 626 ko]  [Résumé

Résumé

L’auteur montre comment les techniques actuelles de filtrage passe-bande et leurs prolongements peuvent servir à estimer des tendances et des cycles courants. Ces techniques donnent des estimations jugées « optimales » compte tenu des données disponibles. Les erreurs types s’y rattachant représentent donc la borne inférieure de la marge d’erreur qui serait associée aux résultats produits par d’autres techniques univariées. Dans cette étude, l’auteur examine les applications de ce filtre aux problèmes que pose l’estimation de la croissance de la productivité, de l’inflation de base et de l’écart de production observés.

URI : http://www.erudit.org/revue/ae/2004/v80/n2-3/

Tous droits réservés © HEC Montréal, 2004

À propos d'Érudit | Abonnements | RSS | Conditions d’utilisation | Pour nous joindre | Aide

Consortium Érudit ©  2014