Corps de l’article

1. Introduction

Les améliorations récentes des méthodes numériques, des approches de paramétrisation des processus physiques, des techniques de programmation et de la puissance des ordinateurs ont permis une évolution significative dans les Modèles de Circulation Générale, MCG (General Circulation Models). En effet, ces modèles ont évolué de modèles purement atmosphériques à des Modèles du Climat Global Atmosphère-Océan, MCGAO (Atmosphere-Ocean General Circulation Models), qui incluent les océans, les processus de surface terrestre et d’interface océan-glace, ainsi que des paramétrisations physiques de « phénomènes de la sous‑échelle ». Les processus de sous‑échelle sont une conséquence de la résolution des équations hydrostatiques / non hydrostatiques de la mécanique de fluides dans un nombre discret d’instants dans le temps et de points dans l’espace, en substituant le continuum par une grille spatiale de points. Les dimensions de la grille de base déterminent l’échelle minimum des phénomènes qui peuvent être résolus par les équations. Les échelles plus petites que la grille de base sont connues comme les échelles de sous‑grille (Herrera, 2002). Par exemple, les nuages, les fronts, les ondes de gravité et la turbulence ne sont habituellement pas résolus explicitement et, par conséquent, représentent des phénomènes de la sous‑grille. Cependant, ils sont très importants dans plusieurs bilans et dans les transports verticaux de la quantité de mouvement, de la chaleur et de la vapeur d’eau.

Les modèles climatiques constituent des outils importants dans les travaux de recherche sur l’évolution du climat actuel. Les simulations des MCGAO sont la source principale d’information pour l’estimation des impacts futurs des changements climatiques dus au forçage anthropogénique. Les MCGAO ont été utilisés pour produire les simulations du XXe siècle en commençant avec des niveaux atmosphériques de CO2 correspondant aux conditions préindutrielles, et en imposant une perturbation qui reflète les changements dans le forçage radiatif associé à l’augmentation des gaz à effets de serre durant le XXe siècle. Pour évaluer les problèmes que pourraient poser les changements climatiques à l’échelle du globe, le Groupe d’Experts Intergouvernemental sur l’Évolution du Climat (GIEC) (Intergovernmental Panel on Climate Change; IPCC, 2001) a été créé en 1988. Le GIEC est un organe de l’Organisation météorologique mondiale (OMM) et le Programme des Nations‑Unies pour l’Environnement (PNUE). La mission du GIEC est de fournir des recommandations d’ordres scientifique, technique et socio-économique concernant les risques liés aux changements climatiques d’origine humaine, ainsi que de cerner les conséquences possibles de ces changements et d’envisager les stratégies d’adaptation et d’atténuation. Le GIEC est composé de trois groupes de travail et d’une équipe spéciale pour les inventaires nationaux de gaz à effet de serre. Le groupe de travail N1 évalue les aspects scientifiques du système climatique et de l’évolution du climat. Le groupe de travail N2 s’occupe des questions concernant la vulnérabilité des systèmes socio‑économiques et naturels aux changements climatiques, les conséquences de ces changements et les possibilités de s’y adapter. Le groupe de travail N3 évalue les solutions envisageables pour limiter les émissions de gaz à effet de serre ou atténuer, de toute autre manière, l’effet des changements climatiques.

Malgré tous les progrès scientifiques et technologiques enregistrés, les ressources, tant sur le plan informatique que sur le plan humain, restent encore limitées. La résolution spatiale des MCGAO peut être fixe et varier de 2,5° x 2,5° jusqu’à 8° x 10° lat-long (e.g. Snellet al., 2000), ou variable de 0,5° dans la région d’intérêt et 7° dans l’antipode (e.g. Déquéet al., 1998; Gibelin et Déqué, 2003), cependant la région à haute résolution est restreinte à une échelle régionale (~107 km2). Le pas de temps de calcul des MCGAO a une valeur typique de 20 min (e.g. Maloney et Hartmann, 2001). Cette résolution spatiale représente un découpage qui permet de représenter d’une façon relativement grossière les processus qui se déroulent en fait à des échelles spatiales plus fines. Pour certains types d’études d’estimation de l’impact des changements climatiques sur les ressources en eau (tels que le risque de sécheresse ou le risque d’inondation dans les très grands bassins hydrologiques), les valeurs moyennes estimées aux points de grille d’un MCGAO peuvent être suffisantes. Cependant, pour d’autres types d’études d’estimation de l’impact local des changements climatiques, l’information disponible aux points de grille du MCGAO est insuffisante (Robinson et Finkelstein, 1991; Murphy, 1999). Ceci est le cas par exemple pour les variables au sol à l’échelle locale qui sont essentielles pour estimer les impacts hydrologiques du climat (Huth, 2002). Les méthodologies mises en place pour relier avec succès les variables climatiques simulées par les MCGAO à grande échelle et les variables climatiques locales qui sont nécessaires dans les études de l’impact climatique sur les ressources en eau sont connues généralement sous le nom de méthodologies de « désagrégation » (downscaling). Le terme « downscaling » a été proprosé par le Groupe d’Experts Intergouvernemental sur l’Évolution du Climat (GIEC) (Intergovernmental Panel on Climate Change; IPCC, 2001). Le terme downscaling est généralement traduit en Europe par « désagrégation », terme que nous utiliserons dans le reste de ce texte. On peut cependant noter que, au Canada, le terme de « raffinement » est proposé par Environnement Canada (e.g. Hengeveld, 2000). L’IPCC a produit une série de rapports d’évaluation, rapports spéciaux, notes techniques, méthodologies et autres documents devenus des ouvrages de référence largement utilisés par les gouvernants, les scientifiques et d’autres experts (IPCC, 2001). La figure 1 illustre le concept de désagrégation et le concept inverse d’agrégation entre les modèles climatiques globaux et les modèles hydrologiques. Les modèles hydrologiques sont normalement utilisés pour les processus à petite échelle, tels que l’écoulement dans le bassin d’une rivière, pendant que les MCGAO sont utilisés pour la dynamique des fluides à l’échelle continentale.

Figure 1

Conceptualisation de la désagrégation et de l’agrégation entre les modèles globaux et les modèles hydrologiques. MCGAO : Modèles du Climat Global Atmosphère-Océan. MRC : Modèles Régionaux du Climat.

Illustration of the concepts of downscaling and upscaling between global and hydrological models. AOGCM: Atmosphere-Ocean Global Climate Model. RCM: Regional Climate Model.

Conceptualisation de la désagrégation et de l’agrégation entre les modèles globaux et les modèles hydrologiques. MCGAO : Modèles du Climat Global Atmosphère-Océan. MRC : Modèles Régionaux du Climat.

-> Voir la liste des figures

La technique de désagrégation est basée sur l’hypothèse que le climat régional est conditionné par l’interaction entre le flux atmosphérique de grande échelle avec les forçages régionaux tels que les caractéristiques géographiques (la topographie, la distribution terre-océan, l’usage du sol, etc.) (Murphy, 1999; von Storchet al., 2000). Cependant, la désagrégation n’implique pas que le climat régional est complètement déterminé par l’état de la grande échelle. En effet, pour des états de grande échelle semblables, les états régionaux associés peuvent varier substantiellement (Roebber et Bosart, 1998). Le climat régional est plutôt vu comme un processus conditionné entre autres par le régime du climat à grande échelle.

La désagrégation n’est cependant pas une nouvelle méthode, bien qu’elle soit utilisée dans un nouveau contexte : la désagrégation consiste à déterminer les variations et les changements attendus du climat régional et local et évaluer leurs impacts sur différentes variables et, en particulier, sur les ressources hydriques. Des techniques semblables ont déjà été utilisées dans le passé pour obtenir l’information temporelle météorologique au niveau local (weather, référé dans ce qui suit par temps) à partir des modèles numériques de prédiction du temps de grande échelle (e.g. Klein et Glahn, 1974).

La fiabilité qui peut être attribuée à l’information concernant le changement climatique obtenu par désagrégation dépend principalement de la validité des champs à grande échelle des MCGAO utilisés. Étant donné que les variables ont différentes échelles spatiales caractéristiques, certaines variables des MCGAO sont simulées avec plus de réalisme que d’autres (vonStorch, 1999). À titre d’exemple, les précipitations obtenues à partir de la physique des MCGAO ne sont pas considérées comme de l’information crédible à l’échelle régionale et à l’échelle de la grille (e.g. Osborn et Hulme, 1997). Cette situation est partiellement due à la représentation grossière orographique des MCGAO, car les phénomènes de la sous-échelle, comme la formation des nuages (convectifs ou non), ne peuvent pas être bien résolus. D’autre part, les quantités troposphériques comme le géopotentiel sont des paramètres intrinsèques des MCGAO et peuvent donc être représentées plus adéquatement (e.g. Landman et Goddard, 2002). Par conséquent, une grande diversité de méthodes de désagrégation a été développée. La classification proposée par l’IPCC (IPCC, 2001) est considérée comme la plus représentative. En effet, les techniques de désagrégation ont connu un plus grand succès depuis la production du deuxième rapport de l’IPCC (IPCC, 1996). Il est possible de les classer en deux grandes catégories :

  • les méthodes de désagrégation basées sur l’approximation purement empirique/statistique, qui visent à obtenir l’information à l’échelle locale à partir de celle à grande échelle à travers des relations inférentielles entre les échelles, en utilisant une fonction aléatoire ou déterministe, et

  • les méthodes de désagrégation basées sur l’approximation dynamique qui utilisent les premiers principes des processus qui gouvernent le système climatique. Ces méthodes nécessitent des ressources informatiques et humaines relativement importantes.

Le présent article n’aborde pas le problème important de la paramétrisation des processus physiques et de son adaptation à la résolution utilisée. Ce problème, qui ne peut pas être traité ici de manière adéquate en raison de la taille limitée de cet article, mériterait de faire l’objet d’une publication séparée.

2. Désagrégation empirique/statistique (Empirical/Statistical Downscaling)

Dans la désagrégation statistique, le conditionnement du climat régional par le climat à grande échelle est considéré comme une relation qui peut être déterministe ou stochastique entre l’ensemble des variables à grande échelle (le prédicteur) et l’ensemble des variables du climat régional (le prédictant). Dans certains cas, les prédicteurs et les prédictants sont les mêmes variables mais considérées à des échelles spatiales différentes (e.g. Widmann et Bretherton, 2000). Les techniques de désagrégation empirique/statistique permettent une certaine simplicité de calcul, et représentent donc une alternative appropriée lorsque les ressources ne sont pas disponibles ou sont insuffisantes pour utiliser des modèles dynamiques, ou lorsque les modèles dynamiques ne peuvent pas prédire explicitement les variables d’intérêt (les prédictants).

Lorsqu’on utilise la désagrégation pour évaluer le changement régional du climat, trois hypothèses sont implicitement faites :

  1. les prédicteurs représentent des variables modélisées réalistement par les MCGAO;

  2. la fonction de transfert reste valable dans les conditions climatiques futures. C’est une supposition qui ne peut pas être prouvée à l’avance; et

  3. les prédicteurs utilisés représentent totalement le signal de changement du climat.

La large gamme de techniques de désagrégation empirique/statistique peut être divisée en trois classes : les générateurs du temps, les fonctions de transfert et les schémas de classification basés sur les types de temps. Chacune de ces approximations a des avantages et des limitations pour représenter la variance temporelle du prédictant du climat local. Par conséquent, ces approximations sont souvent utilisées conjointement pour compenser les manques relatifs des différentes méthodes.

2.1 Générateurs du temps (weather generators)

Les générateurs du temps sont des modèles statistiques de séquences observées de variables météorologiques (IPCC, 2001; Wilks et Wilby, 1999). Ces modèles sont normalement utilisés quand les données météorologiques sont inadéquates quant à leur longueur, complétude ou extension spatiale. Les générateurs du temps permettent de produire les données manquantes ou de simuler les caractéristiques statistiques des longues séries de temps des registres météorologiques observés (e.g. moyennes journalières, variances et covariances, extrêmes, etc.). La plupart des simulations sont faites à l’échelle de temps journalière, à cause de la grande disponibilité de données à cette échelle temporelle et parce que les modèles d’impacts sont pilotés par des données journalières. Cependant, des modèles à une échelle temporelle plus fine, soit à l’échelle horaire, sont également disponibles (e.g. Katz et Parlange, 1995). Par ailleurs, les simulations sont généralement concentrées sur les processus de précipitation, d’une part parce que les précipitations sont la variable météorologique la plus critique et, d’autre part, parce que la présence ou l’absence des précipitations affecte les statistiques des autres variables simulées. L’approximation la plus utilisée est représentée par les chaînes de Markov (e.g. Richardson, 1981; Roldan et Woolhiser, 1982). Quelques modèles incluent également des variables supplémentaires telles que l’humidité relative et la vitesse du vent (e.g. Parlange et Katz, 2000).

Dans les études d’impactS climatiqueS, les chaînes de Markov sont fréquemment utilisées. Cette approximation a été originalement conçue en désagrégation pour simuler les séries journalières de précipitation, le maximum et le minimum de la température et la radiation solaire pour le climat actuel. De plus, toutes les variables du modèle sont conditionnées à l’occurrence des précipitations, plutôt que par les patrons de circulation atmosphérique. À titre d’exemple, Gabriel et Neumann (1962) proposent l’utilisation d’une chaîne de Markov d’ordre 1 pour modéliser l’occurrence des précipitations (Pr), en supposant que l’état d’un jour (sec ou humide) dépend de celui du jour précédent (modèle basé sur une « hypothèse markovienne d’ordre 1 »). Ainsi, pour un jour donné, il y a seulement deux états possibles, sec ou humide. Gabriel et Neumann (1962) donnent une description détaillée de cette méthode.

Avec ce modèle, Gabriel et Neumann (1962) ont été capables de décrire les patrons d’occurrence des précipitations journalières et d’obtenir certaines propriétés des séries d’occurrence à partir des probabilités de transition, telles que la fréquence relative des jours de précipitation, et l’autocorrélation d’ordre 1 des séries d’occurrence de précipitation.

Une alternative aux modèles de Markov pour simuler les occurrences de précipitation jour par jour est représentée par les modèles de longueur de la durée de périodes sèches et humides (e.g. Roldan et Woolhiser, 1982). Ces modèles traitent de la durée des périodes sèches et humides plutôt que de l’occurrence des précipitations jour par jour. Les distributions de probabilité sont alors ajustées aux fréquences relatives observées de durées des périodes sèche et de la période humide. Ce type de modèle est connu aussi comme un processus de changement alterné (alternating renewal process; Roldan et Woolhiser, 1982), dans le sens où les nombres aléatoires sont générés alternativement à partir des distributions de probabilité de la durée de la période sèche et de la période humide. Ceci veut dire qu’une nouvelle durée L n’est pas générée tant que la constitution d’une série de jours humides (secs) consécutifs n’est pas finie. À partir de ce moment, une durée sèche (humide) pourra être simulée. Cependant, cette méthode peut conduire à une mauvaise estimation des paramètres dans les régions arides ou lorsque l’on dispose de 25 ans d’observations ou moins (Roldan et Woolhiser, 1982).

La compréhension des processus globaux du climat suggère que le climat puisse fonctionner dans deux ou plus de deux états quasi stationnaires (Lockwood, 2001; Charney et DeVore, 1979; Lorenz, 1963). La transition entre les différents régimes du climat peut se produire brusquement plutôt que graduellement comme conséquence des propriétés dissipatives, non linéaires, et de non-équilibre du système climatique (Vannitsem et Nicolis, 1991). Ces transitions sont connues comme points de modification. Un point de modification est défini comme le moment où une discontinuité ou non-homogénéité se produit dans une série temporelle climatique (Biaoet al., 2001). En conséquence, les caractéristiques statistiques (paramètres de position, dispersion, forme et concentration) de cette série temporelle changent (Lund et Reeves, 2002). Dans le contexte de la variabilité et du changement du climat, l’analyse du point de bifurcation identifie quantitativement les variations temporelles dans la valeur moyenne des observations (Solow, 1987). D’ailleurs, il y a un grand intérêt à grouper les années en périodes actives et inactives en se basant sur les valeurs d’un certain indice climatique.

Dans l’analyse du point de modification, on peut utiliser l’approche de Monte-Carlo par chaîne de Markov (MCMC). Cette approche a un grand potentiel dans le domaine climatique. Le terme Monte-Carlo fait référence à des nombres aléatoires, et le terme chaîne de Markov fait référence à une série dans laquelle une valeur dépend de la précédente (chaîne de Markov d’ordre 1).

La méthodologie MCMC est très utilisée dans le contexte bayésien. L’analyse bayésienne peut utiliser des distributions de probabilité de dimension élevée pour faire inférence des paramètres du modèle ou pour faire des prévisions. Cependant, l’inférence bayésienne nécessite l’évaluation des densités a posteriori marginales par l’intégration numérique. Ce problème devient plus complexe quand les intégrales sont de dimension élevée. La méthode MCMC permet de traiter ce problème. L’intégration de Monte-Carlo tire des échantillons à l’aide d’une chaîne de Markov dont la convergence asymptotique dans le temps (état d’équilibre) est la distribution d’intérêt. Il y a plusieurs façons de construire ces chaînes, mais la plupart sont des cas spéciaux des algorithmes de Metropoliset al. (1953) et Hastings (1970).

Le problème principal dans l’application des générateurs de temps dans l’analyse des impacts des changements climatiques est relié à la méthode d’ajustement des paramètres qui doit être réaliste et consistante. Katz (1996) montre, en utilisant les séries de température journalière, que si les paramètres du modèle de génération de temps sont modifiés, certains effets peuvent être produits sur les différentes variables. Par exemple, si la probabilité d’occurrence des précipitations journalières est changée, la température moyenne journalière ainsi que sa variance et son autocorrélation pourront changer d’une façon irréaliste selon que les paramètres statistiques sont conditionnels ou inconditionnels (Wilby et Wigley, 1997).

Il faut noter que les modèles de génération du temps ne sont pas des algorithmes de prédiction du temps; ils sont par conséquent très différents des modèles déterministes du temps (qui font l’intégration numérique des équations différentielles partielles hydrostatiques ou non hydrostatiques). Ainsi, les sorties des modèles stochastiques ont seulement un comportement statistique similaire aux données météorologiques. Cependant, il n’est pas anticipé que les séquences de temps simulées reproduisent les observations soit du passé ou soit au futur, puisqu’elles ne représentent pas des modèles de prédiction du temps.

2.2 Fonctions de transfert (transfer functions)

Dans ce type d’approximation, l’objectif est de trouver une relation directe entre les paramètres de l’échelle spatiale du MCGAO et ceux de la sous-échelle. La méthode la plus simple généralement adoptée par les hydrologues est d’interpoler les sorties des MCGAO sur une grille spatiale plus fine, qui soit adaptée à l’étude en question (e.g. Smith et Pitts, 1997; Strzepek et Yates, 1997). Ainsi, la structure spatiale du MCGAO est conservée sans aucune correction du pronostic. On peut également utiliser un ensemble d’interpolations linéaires ou non linéaires. Les méthodes non linéaires sont particulièrement nécessaires quand la relation entre les paramètres climatiques à grande échelle et les paramètres locaux suivent différentes lois de probabilité. Les techniques d’interpolation géostatistique, telles que le krigeage (e.g. Wackernagel, 1995), ont été utilisées pour interpoler les champs climatiques observés (e.g., Rouhani et Wackernagel 1990; Holdaway 1996; Amani et Lebel 1997; Biauet al., 1999). Biauet al. (1999) présentent un exemple de la méthode pour relier les précipitations locales mensuelles de la période hivernale (décembre - février) avec la pression au niveau de la mer à grande échelle de la région méditerranéenne occidentale de l’Atlantique Nord.

Une technique d’analyse statistique multivariée largement utilisée dans les sciences atmosphériques (Wilks, 1995) est l’analyse de composantes principales (principal-component analysis, PCA). Cette technique a été appliquée à l’analyse de données atmosphériques par Lorenz (1956), et est connue comme analyse des fonctions orthogonales empiriques (empirical orthogonal function, FOE); cet auteur l’a utilisée pour représenter les champs de pression et de température sur les États-Unis en réduisant le nombre de prédicteurs nécessaires pour un schéma statistique de prévisions.

L’analyse des FOE réduit le nombre de variables nécessaires pour décrire la structure d’un ensemble de données, tout en perdant seulement une petite partie de l’information. On peut souvent identifier les liens physiques dans les données et distinguer statistiquement les patrons indépendants du flux qui peuvent être associés à différents processus physiques. Cette propriété permet de traiter séparément les variations temporelles et les autres variations. Une caractéristique très intéressante de cette technique est que les FOE peuvent être représentées graphiquement dans le même espace que les observations, de sorte que les patrons sont plus apparents. Cependant, la méthode est moins performante quand les processus physiques qui produisent les patrons du flux ne sont pas indépendants. Ceci est également le cas lorsque deux processus d’égale importance statistique sont superposés (Horel, 1981). Cependant, il arrive que les processus physiques puissent être séparés en combinant linéairement les FOE (Horel, 1981; Richman, 1981; vonStorch et Zwiers, 1999).

La plupart des applications des FOE en météorologie sont concentrées sur des caractéristiques scalaires ou le développement d’un ensemble de fonctions de base pour faire des calculs numériques semblables à ceux de la décomposition de Fourier (Ludwiget al., 2004). Cependant, il y a des applications vectorielles où la représentation des vecteurs de vent est utilisée pour classifier et pour analyser les données (Hardy, 1977; Ludwig et Byrd, 1980; Lumley, 1981).

Le krigeage est une technique d’interpolation en deux ou trois dimensions basée sur la structure spatiale de la covariance estimée des données observées. L’idée d’utiliser le krigeage pour établir un modèle statistique entre les variables climatiques à grande échelle et l’échelle locale est basée sur le fait que la dimensionnalité d’un champ climatique à grande échelle peut être réduite avec l’analyse des FOE à un nombre limité des caractéristiques de la variabilité (Huth, 2004). Ces FOE constituent la base dans laquelle les prédicteurs ou les prédictants sont représentés dans plusieurs modèles linéaires statistiques. Chaque configuration du champ à grande échelle correspond à un point dans l’espace de dimensions réduites généré par son propre FOE. La variable locale simultanément observée avec le champ à grande échelle est alors associée à ce point dans l’espace des FOE. Ainsi, les observations de la variable locale forment un ensemble discret d’une fonction définie dans l’espace des FOE du champ à grande échelle. Les nouvelles configurations du champ à grande échelle (ceux simulés par un MCGAO), peuvent être représentées par un point dans l’espace des FOE et la valeur associée de la variable locale peut être estimée dans cet espace.

Une autre technique consiste à utiliser les splines cubiques. Ainsi, Brandsma et Buishand (1997) ont relié les effets non linéaires de la circulation atmosphérique et de la température avec les précipitations.

Des approximations plus complexes peuvent être construites par les méthodes de régression telles qu’indiquées par Kimet al. (1984) et plus récemment par Bürger et Chen (2005). Ces approximations impliquent généralement la détermination d’une relation linéaire ou non linéaire entre les paramètres de la sous-échelle et les prédicteurs de la grande échelle au point de grille du MCGAO, comme la relation entre les pressions simulées au niveau de la mer et les précipitations observées (Prudhommeet al., 2002). La fiabilité des estimations dépend énormément de la qualité et de la longueur des séries de données observées. La fiabilité des estimations dépend également de la performance globale du modèle de régression adopté et de sa capacité à capturer la variabilité des données observées (Prudhommeet al., 2002). Parmi les différentes méthodes qu’il est possible d’adopter, les approximations par réseaux de neurones artificiels (artificial neural networks), RNA, incluent des coefficients de régression non linéaires (e.g., Cannon et Whitfield, 2002; Harpham et Wilby, 2005). Ces méthodes sont généralement plus puissantes que les autres techniques, bien que l’interprétation des relations dynamiques soit moins facile. Par exemple, Crane et Hewitson (1998) ont appliqué la désagrégation par RNA à des données du MCGAO dans un scénario de changement climatique sur la côte ouest des États‑Unis. Dans ce scénario, Crane et Hewitson (1998) ont utilisé la circulation atmosphérique et l’humidité comme prédicteurs pour représenter le signal du changement du climat. Ces auteurs ont de plus introduit un forçage dans l’équation de régression obtenue pour relier le climat régional et les observations locales, en utilisant les données du climat régional obtenues du MCGAO.

Une méthode plus sophistiquée que la méthode de régression linéaire mais peu utilisée en météorologie (Hotelling, 1936; Barnett et Preisendorfer, 1987) est représentée par l’analyse canonique des corrélations (canonical correlation analysis; Tanget al., 2000), ACC. L’analyse canonique des corrélations est une méthode d’analyse statistique multivariée qui permet de décrire la relation de dépendance existant entre deux ensembles de variables aléatoires. Cette approche consiste en la détermination de paires de combinaisons linéaires de chaque ensemble de variables. Ces combinaisons sont appelées variables canoniques et présentent la caractéristique que la corrélation entre chaque paire de variables canoniques est maximisée, tandis que la corrélation entre les variables canoniques provenant de paires différentes est nulle. Une description détaillée de cette méthode peut être trouvée dans Ouardaet al. (2001).

Cette procédure permet d’obtenir un ensemble de variables canoniques pour les deux ensembles de variables aléatoires, lesquelles sont associées à différents coefficients de corrélation canonique. Ainsi, on a une transformation de l’espace physique dans l’espace canonique des variables et cela permet d’inférer sur les variables canoniques d’un ensemble connaissant les variables canoniques de l’autre ensemble. De même, on peut calculer une distance entre deux variables canoniques pour déterminer les voisinages hydrologiques. Par exemple, avec la distance de Mahalanobis (1936), le voisinage d’un site est déterminé en identifiant les sites les plus rapprochés dans l’espace canonique des variables.

L’avantage de l’ACC est sa capacité d’intégrer tous les champs d’information et de définir objectivement les patrons que relient le mieux les prédicteurs (Y) et les prédictants (T). La limitation du nombre de prédicteurs est essentielle dans l’ACC. Avec une quantité suffisante de prédicteurs, l’ACC peut établir un modèle capable d’expliquer une grande partie de la variance de T. Cependant, cette limitation du nombre de prédicteurs/prédictants dans l’analyse peut exclure de l’information potentiellement utile.

Une variante de la méthode d’ACC est l’analyse de la redondance (vonStorch et Reichardt, 1997), qui maximise la variance des prédictants (e.g. WASA, 1998).

Les applications des fonctions de transfert ont été concentrées sur le traitement de certaines variables spécifiques telles que :

  • les précipitations, par exemple les précipitations mensuelles en Roumanie (Busuiocet al., 1999),

  • le climat océanique et les variables d’impact du climat, par exemple la salinité dans la baie allemande (Heyen et Dippner, 1998), et

  • le niveau de la mer (Cui et Zorita, 1998; Heyenet al., 1996).

En outre, des statistiques d’événements extrêmes (exprimées comme percentiles dans un mois ou une saison) peuvent également être simulées; comme par exemple les niveaux des houles pendant une tempête (vonStorch et Reichardt, 1997) et la hauteur des vagues de l’océan (WASA, 1998).

2.3 Types de temps (Weather typing)

Les méthodes de désagrégation basées sur la typologie des patrons climatiques (weather patterns) ont pour but d’identifier un nombre de patrons qui se produisent le plus fréquemment. Les méthodes de désagrégation impliquent donc une relation entre les données observées des stations ou la moyenne régionale des données météorologiques avec un schéma de classification du temps; ce schéma peut être dérivé objectivement ou subjectivement (Wilby, 1994). Dans les schémas objectifs ou automatisés, les variations de pression sont examinées et groupées dans un nombre fixe de points de grille (e.g. la procédure analogue de Martinet al., 1997). D’autre part, les schémas subjectifs font l’inspection d’une série de cartes opérationnelles pour identifier les caractéristiques récurrentes ou modes dominants de la circulation atmosphérique dans la région d’intérêt (e.g. les circulations journalières du temps pour le bassin de la rivière du Delaware; Hay et al., 1991).

La désagrégation statistique/dynamique (statistical/dynamical approach), RSD, est une méthode hybride d’approximation constituée par une procédure de désagrégation dynamique (voir section 3) et une procédure de désagrégation statistique. Dans cette approximation, les modèles de mésoéchelle sont utilisés pour simuler les patrons de flux de grande échelle quasi stationnaire (Fuentes et Heimann, 2000). Les épisodes semblables sont alors regroupés dans les différentes classes de types de temps (IPCC, 2001).

La méthode de l’analogue (analog method) a été introduite dans le contexte de la désagrégation par Zoritaet al. (1995). Elle a été appliquée pour la spécification des précipitations journalières (e.g. Martinet al., 1997). La méthode est basée sur l’hypothèse que la circulation générale de l’atmosphère est un mécanisme physique unique dont le développement est continu et dépend des conditions initiales données. Ainsi, si deux situations semblables de temps sont trouvées sur les cartes météorologiques historiques, l’évolution des situations météorologiques devrait être aussi semblable. Ceci signifie que si un bon analogue peut être trouvé pour la carte météorologique considérée, les prévisions météorologiques pour une période donnée peuvent être obtenues directement à partir de la lecture de cartes météorologiques observées dans le passé.

Les techniques de l’analogue ont été utilisées depuis les années cinquante pour obtenir des prévisions objectives des champs météorologiques (e.g., Baur, 1951; Namias, 1951). Cependant, pour faire la prévision de plusieurs jours, il a été nécessaire que les analogues soient basés sur l’information d’une grille très grande (e.g., hémisphérique). Avec la disponibilité des modèles numériques, il est possible de réduire la taille de la région dont l’analogue doit être considéré, puisque ces modèles sont reconnus maintenant pour faire la prévision des systèmes à grande échelle.

Dans les études de changements climatiques, l’approche de l’analogue est utilisée pour dériver les conditions météorologiques régionales à partir des champs atmosphériques à grande échelle des MCGAO (e.g., le champ de précipitation; Wetterhallet al., 2005). Chaque jour simulé par le MCGAO est associé à un jour analogue (observé) choisi dans un ensemble de situations de référence, et ce, selon un critère pour les champs atmosphériques. Le système météorologique calcule les données d’entrée en utilisant toutes les données observées du jour analogue. Puis, le modèle régional ou local est initialisé.

L’avantage principal de la méthode de l’analogue est l’utilisation de champs atmosphériques journaliers des sorties des MCGAO. La difficulté de l’approche se situe dans le choix de l’analogue et la validation. Cette procédure doit être validée afin de pouvoir être automatisée. La détermination des critères de sélection de l’analogue est cruciale. Gangopadhyayet al. (2005) couplent un nouveau modèle de l’analogue avec l’analyse des FOE pour raffiner les analyse de NCEP de 1998 (National Centre for Environmental Prediction medium-range). Ce nouveau modèle, K-nn, permet d’identifier un ensemble de K jours semblable à un certain vecteur de caractéristiques.

Une méthode similaire à la méthode de l’analogue est la classification et l’analyse des arbres de régression (classification and regresion trees), CART. Dans l’analyse CART, la classification objective de la circulation journalière se fait sur la base des valeurs des indices des simulations (comme la pression au niveau de la mer) de points de grille bien choisis. L’analyse CART utilise un dessin randomisé pour choisir des distributions régionales (Hughes et al., 1993; Zoritaet al., 1995).

2.4 Comparaison des méthodes statistiques de désagrégation

La comparaison des méthodes statistiques de désagrégation est souhaitable étant donné le nombre de techniques de désagrégation développées. Il y a cependant un manque d’études systématiques qui utilisent les mêmes bases de données et la même région géographique (IPCC, 2001).

Wilbyet al. (1998) et Wilby et Wigley (1997) ont comparé deux fonctions de transfert (basées sur les RNA), deux générateurs de temps, et deux techniques hybrides de types de temps basées sur une classification stochastique/circulation dont le tourbillon est utilisé comme indice. L’étude porte sur la même région géographique en utilisant des scénarios de changement du climat et des données observées. Dans l’étude, les auteurs ont considéré la désagrégation journalière des précipitations pour six sites en Amérique du Nord. De même, ils ont évalué l’aptitude des modèles à l’aide de 14 mesures. Ces mesures incluent la durée des périodes humides et sèches, les probabilités des journées humides-humides, et plusieurs mesures de l’écart‑type. Les résultats montrent les avantages et les inconvénients des différentes procédures. Les générateurs de temps donnent l’occurrence des journées humides. Cependant, ils sont moins performants pour reproduire la variabilité interannuelle. Les RNA, par contre, sont plus performants et reproduisent la variabilité interannuelle. Les méthodes de type de temps sont les plus adéquates, car ces schémas sont basés sur une combinaison des deux autres méthodes.

Un facteur peu évalué dans les études comparatives est l’évolution temporelle des événements quotidiens qui peuvent être critiques dans des applications comme les modèles hydrologiques. Zoritaet al. (1995) et Zorita et vonStorch (1999) ont comparé les techniques CART, d’ACC, de RNA et une méthode de l’analogue. Ils ont trouvé que la technique de l’analogue est aussi performante que les autres méthodes pourtant plus complexes à mettre en oeuvre. Cependant, ils trouvent que la performance des méthodes de désagrégation statistique est très dépendante de la longueur des séries temporelles de données observées (idéalement de l’ordre de plusieurs décennies). Cette contrainte est importante notamment pour l’application de la méthode des analogues dont la performance dépend directement de la longueur des séries historiques. Dibike et Coulibaly (2005) ont comparé les techniques de régression et un générateur du temps pour estimer l’impact sur le bassin versant de la rivière Saguenay au nord de Québec, Canada. Ils sont trouvé que, malgré que les deux techniques ne donnent pas les mêmes résultats, les séries temporelles de température générées présentent une tendance d’incrément dans la moyenne journalière.

Le tableau 1 présente un résumé des avantages et des limitations des méthodes statistiques de désagrégation (Zorita et vonStorch, 1999). La plupart des études comparatives mentionnées dans le tableau 1 concluent que la meilleure performance est obtenue avec les méthodes de fonctions de transfert basées sur les régressions linéaires. Wilby et al. (1998) montrent que les méthodes de générateur du temps et de type de temps ne reproduisent pas l’écart‑type observé des précipitations mensuelles. La performance des méthodes peut varier selon les études en raison des variations spatiales des paramètres (Wilbyet al., 1998).

Tableau 1

Avantages et limitations des méthodes statistiques de désagrégation.

Strengths and limitations of statistical downscaling methods.

 

Avantages

Limitations

Générateurs du temps

1. Capacité de reproduire les caractéristiques statistiques de séries de précipitation journalières observées (Ferrariset al., 2003)

2. Les liens entre les paramètres du modèle et les moyennes climatiques peuvent caractériser les statistiques journalières en climat futur (Wilks et Wilby, 1999)

3. L’inclusion de paramètres dépendant du temps peut améliorer la reproduction de la variabilité mensuelle et interannuelle des précipitations (Wilbyet al., 1998)

1. Les générateurs du temps ne peuvent pas reproduire la variabilité interannuelle et décennale observée (Charleset al., 1999)

2. L’ajustement des paramètres doit être physiquement réaliste et avec une consistance interne (Wilby et Wigley, 1997)

Fonctions de transfert

1. Simplicité de calcul, nécessite moins de ressources informatiques (Xu, 1999)

2. Capacité de reproduire la variabilité de basse fréquence des séries temporelles observées, comme le changement de la moyenne (Busuiocet al., 2001; Benestad, 2001)

3. Capacité d’expliquer les liens non linéaires du climat (Cannon et Whitfield, 2002)

1. L’application est limitée aux sites, variables et saisons quand le temps local est bien relié aux conditions de la troposphère libre (Xu, 1999)

2. La méthode présuppose la connaissance de liens entre le climat local et les processus atmosphériques à grande échelle afin de choisir les variables physiquement significatives (Diaz-Nieto et Wilby, 2005)

Type de temps

1. Possibilité de générer des séries de précipitation journalière pour un site basées sur une série historique de données (Xu, 1999)

2. La covariance spatiale est préservée et les champs raffinés sont cohérents (Gangopadhyayet al., 2005)

3. Les modèles sont pilotés par les données. Ainsi il n’est pas nécessaire de faire des hypothèses sur les distributions de probabilité des variables (Clarket al., 2004)

1. Les schémas de type de temps sont subjectifs (Wilby, 1994)

2. Sous-estimation des précipitations saisonnières. Les méthodes de l’analogue ont de la difficulté pour choisir des situations de temps météorologique extrêmes, associées aux systèmes que produisent les valeurs élevées de précipitation (Martinet al., 1997)

3. Les variables à la surface doivent être bien reliées aux variables de grande échelle (Schoof et Pryor, 2001)

-> Voir la liste des tableaux

2.5 Validation

La validation des techniques de désagrégation représente une partie essentielle et difficile du processus de développement de modèles de désagrégation. Elle consiste à :

  • démontrer la validité du modèle de désagrégation dans des conditions de climat futur, et

  • montrer que les prédicteurs utilisés représentent adéquatement le signal de changement climatique.

Néanmoins, il n’est pas possible de tester rigoureusement ces deux objectifs car aucune connaissance empirique n’est disponible pour les conditions climatiques futures lointaines. L’analyse des données climatiques historiques aussi bien que des résultats des simulations avec les MCGAO peut cependant fournir le support nécessaire pour tester ces objectifs.

La validation classique consiste à sélectionner une technique de désagrégation pour un ensemble de données observées disponibles et ensuite à évaluer la performance du modèle empirique en comparant ses prédictions avec un autre segment des valeurs observées indépendantes. Cette approche est particulièrement utile quand la période d’observations est suffisamment longue pour montrer les changements significatifs au cours du temps (IPCC, 2001).

Busuiocet al. (1999) ont proposé une approche pour vérifier la validité des procédures de désagrégation empirique dans les applications de changement climatique. Cette approche consiste à inclure les liens empiriques entre la variabilité saisonnière des précipitations et la pression au niveau de la mer dans le MCGAO. Ensuite, le changement climatique associé à un scénario 2 x CO2 est calculé à travers le lien empirique et comparé avec les résultats du MCGAO. La réponse dynamique est trouvée cohérente avec le lien empirique, ce qui confirme la validité de la méthode empirique pour la désagrégation du changement climatique global.

3. Désagrégation dynamique

Étant donné les limites des prédictions aux points de grille des MCGAO pour les études de l’impact du changement climatique régional (Wilby et Wigley, 1997), une autre alternative pour utiliser les sorties des MCGAO est le « désagrégation dynamique ». Dans cette technique, on utilise des modèles qui reposent, d’une part, sur les équations hydrostatiques ou non hydrostatiques des processus de la mécanique des fluides reliés à la circulation de l’atmosphère et explicitement résolubles (la « dynamique »), et, d’autre part, sur les paramétrisations d’ensemble des phénomènes physiques de sous-maille (la « physique »). L’extraction de l’information à l’échelle locale à partir de la grande échelle des MCGAO peut être effectuée par l’une des trois façons suivantes :

  • Piloter un modèle d’aire limitée d’échelle régionale qui est forcé aux limites du domaine (au niveau des frontières) par les données du MCGAO (Herrera et Laprise, 2002). Ce type de modèle est également connu sous le nom de cascade ou pilotage non interactif (Herrera, 2002). Ainsi, la rétroaction de l’échelle régionale vers l’échelle globale n’est pas considérée;

  • Faire des expériences à l’échelle globale en utilisant les MCGAO en haute résolution, avec des données des MCGAO à résolution grossière comme conditions initiales et partiellement aux limites; et

  • Utiliser une MCGAO à résolution variable avec une plus grande résolution dans la région d’intérêt.

L’utilisation des modèles globaux de haute résolution et de résolution variable nécessite des ordinateurs très puissants. Les limites de calcul des ordinateurs disponibles imposent des contraintes de résolution à la méthode de la désagrégation dynamique. Cependant, il a été suggéré que les MCGAO à haute résolution pourraient être utilisés pour obtenir les champs pour les modèles climatiques d’aire limitée ou pour la désagrégation statistique, et ainsi donc fournir efficacement un pas intermédiaire entre les MCGAO et les modèles régionaux et empiriques (IPCC, 2001).

La désagrégation dynamique peut alors être accomplie normalement en utilisant les modèles climatiques d’aire limitée à haute résolution (e.g., Druyanet al., 2002; Misraet al., 2003; Kunstmann et Stadler, 2005), appelés comme modèles d’aires limitées, MAL (local area models), et plus récemment comme modèles régionaux du climat, MRC (regional climate models). Les MRC sont issus du couplage d’un modèle atmosphérique avec d’autres modèles simulant les composantes du système du climat, telles que les lacs, la glace des océans et des mers, la chimie/aérosol, et la biosphère/hydrologie de la terre (Lynchet al., 1995; Kimet al., 1998; Bailey et Lynch, 2000a,b). Un MRC peut atteindre des résolutions horizontales de l’ordre d’une dizaine de kilomètres ou moins sur les régions sélectionnées (e.g., Giorgiet al., 1998) et de centaines de mètres de résolution verticale (Wilby et Wigley, 1997). Il reste cependant de nombreuses limitations à cette approche pour obtenir la variabilité climatique à une échelle temporelle plus fine (IPCC, 2001). De plus, les MRC exigent des ressources informatiques considérables et restent aussi coûteux que les MCGAO.

D’autres difficultés sont reliées à ces modèles, telles que les effets des erreurs systématiques dans les champs fournis par les modèles globaux, et le manque d’interactions entre le climat régional et global dû au pilotage non interactif. De plus, pour chaque simulation, il faut tenir compte de considérations reliées aux paramétrisations physiques, à la dimension et à la résolution du domaine, à la technique d’assimilation des conditions météorologiques à grande échelle, et à la variabilité interne due à la dynamique non linéaire (Giorgi et Mearns, 2002). Les champs des MCGAO ne sont pas sauvegardés avec une haute fréquence temporelle (toutes les 6 heures ou plus, IPCC, 2001; e.g., 6 heures selon Kiehlet al., 1996; 12 heures selon McFarlaneet al., 1992), comme cela est requis par les conditions aux limites du domaine des MRC. Les MRC ne peuvent fournir les données avec la distribution spatiale requise par les modèles des systèmes locaux; d’après IPCC (2001), il s’agit de tous les systèmes plus petits que 104 km2. Des exemples de tels systèmes locaux sont donnés par :

  • Oke (1997) : simulations en milieu urbain avec une longueur caractéristique de 102 m à 104 m;

  • Xu (1999) : modèles hydrologiques utilisés pour les petites rivières ou bassins versants avec une aire d’environ 2 km2.

Il reste donc toujours un besoin de raffiner les résultats de tels modèles pour pouvoir effectuer des études d’impacts des changements climatiques sur les ressources en eau.

4. Conclusions et perspectives

Des méthodologies développées dans la littérature pour la désagrégation climatique de l’échelle globale à l’échelle hydrologique ont été présentées. Ces approches de désagrégation sont utilisées pour tenter d’estimer les impacts du changement global sur la disponibilité et la distribution des ressources en eau en différentes régions du globe. Certains avantages et limites des différentes approches ont également été identifiés.

Les études d’impact du changement climatique basées sur les MCGAO ne fournissent pas de résultats assez fiables à l’échelle spatiale et temporelle nécessaire pour les simulations locales. Afin de résoudre ce problème, les techniques de désagrégation ont été développées et permettent d’exprimer les sorties des MCGAO à des échelles plus fines. Cependant, la plupart de ces méthodologies sont basées sur les sorties directes des MCGAO, qui restent peu fiables. Ainsi, il est nécessaire de se concentrer sur les changements modélisés par les MCGAO plutôt que sur les valeurs absolues. Ceci implique que la variabilité journalière de variables comme la précipitation dans un scénario de changement climatique ne se modifie pas, ce qui constitue une condition improbable. Il est donc très important d’être capable de développer des scénarios réalistes en incorporant les changements dans la variabilité journalière du régime des précipitations. La génération actuelle de MCGAO ne fournit pas encore d’estimations fiables de la variance des précipitations, et il est alors difficile de développer des méthodologies appropriées de désagrégation. On peut souhaiter que la prochaine génération des MCGAO permettra d’améliorer la modélisation du régime journalier des précipitations, ou du moins les changements dans la moyenne et la variance. De cette façon, l’utilisation d’un générateur du temps approprié avec les sorties des MCGAO devrait améliorer la modélisation locale dans le contexte de changement climatique en créant des scénarios de précipitation plus fiables et réalistes. Les scénarios doivent fournir la résolution spatiale et temporelle exigée par les modèles d’estimation et doivent incorporer les changements simulés dans la moyenne et la variabilité des différentes variables du climat.

Même si nous disposons de la méthode de désagrégation la plus sophistiquée, les simulations des changements climatiques à l’échelle régionale ou locale sont fortement dépendantes de la simulation des conditions présentes. Si les changements à grande échelle dans les MCGAO sont inexacts, alors les changements locaux dérivés ajoutent simplement une fausse « précision » aux sorties des MCGAO, et les techniques de désagrégation ne sont pas valides pour améliorer les prédictions. En effet, la désagrégation ne peut pas corriger les inexactitudes issues des MCGAO. Étant donné la gamme actuelle des techniques de désagrégation et le fait que chaque approche a ses propres limitations, il n’existe aucune méthode de désagrégation universelle utile dans toutes les situations. En fait, toutes les méthodes de désagrégation en sont encore à l’étape de développement et de test.

Une grande limitation face à l’utilisation des techniques de désagrégation est le manque de données aux échelles spatiales et temporelles pertinentes. L’existence de données à haute résolution spatiale et temporelle dans une variété de régions climatiques et physiographiques est critique pour améliorer notre compréhension et pour tester et valider les techniques de désagrégation qui sont développées. Les modèles développés et sélectionnés doivent être validés avant d’être utilisés pour simuler les impacts des changements climatiques. En particulier, la validité générale du modèle dans la prédiction des variables dans des conditions climatiques différentes doit être vérifiée.

Dans ce qui suit nous présentons quelques suggestions relatives à l’étude future des impacts des changements climatiques.

Un problème relié aux données d’initialisation des modèles est l’abandon de stations dans les réseaux d’observations ou l’impossibilité d’accroître leur densité. Malgré l’importance de disposer de données pour l’analyse des phénomènes extrêmes, cet état de fait rend impossible la détection des changements climatiques dans plusieurs parties du globe.

Les MCGAO nécessitent encore :

  • une amélioration dans le couplage entre les systèmes atmosphériques, océaniques et terrestres,

  • le développement des modèles diagnostiques,

  • l’augmentation de la résolution. Néanmoins, cela peut nous amener à nous demander si l’augmentation de la résolution des modèles de climat pourrait rendre obsolète l’emploi des méthodes de désagrégation,

  • l’amélioration de la paramétrisation, notamment pour la convection, et

  • l’assimilation et l’étude des observations afin d’évaluer la performance des simulations des phénomènes extrêmes.

L’estimation des émissions et des concentrations de gaz à effet de serre et d’aérosols, ainsi que la détermination de la distribution spatiale et temporelle des sources et des puits de CO2 est très importante pour améliorer la production des scénarios de changement climatique. La capacité de reproduire la variabilité à long terme du climat est également importante pour bien distinguer le signal et le bruit dans les simulations climatiques.

Le fait que le système climatique soit un système chaotique couplé non linéaire rend impossible la prévision du climat à long terme. Ainsi, il est souhaitable de trouver la distribution de probabilité des états futurs du système climatique en produisant des ensembles de solutions des modèles.

Les influences humaines ne sont généralement traitées qu’à travers des forçages externes du système climatique. Les activités humaines peuvent avoir des impacts sur la dynamique, la physique, la chimie et la biologie. Ainsi, il faudra disposer de modèles capables d’intégrer ces activités.