Méthodes variationnelles d'ensemble et optimisation variationnellepour les géosciences

par Anthony Fillion

Thèse de doctorat en Sciences et Techniques de l'Environnement

Sous la direction de Marc Bocquet et de Serge Gratton.

Soutenue le 28-03-2019

à Paris Est , dans le cadre de École doctorale Sciences, Ingénierie et Environnement (Champs-sur-Marne, Seine-et-Marne ; 2015-....) , en partenariat avec Centre d'Enseignement et de Recherche en Environnement Atmosphérique (Champs-sur-Marne, Seine-et-Marne) (laboratoire) et de Centre d'Enseignement et de Recherche en Environnement Atmosphérique / CEREA (laboratoire) .

Le président du jury était Annick Sartenaer.

Le jury était composé de Marc Bocquet, Serge Gratton, Maëlle Nodet, Selime Gürol.

Les rapporteurs étaient Étienne Mémin, Yann Michel.


  • Résumé

    L'assimilation de données consiste à calculer une estimation de l'état d'un système physique. Cette estimation doit alors combiner de façon optimale des observations entachées d'erreurs de mesure et des modèles numériques imparfaits permettant de simuler le système physique. En pratique, l'assimilation de données sert à estimer l’état initial d’un système dynamique. Cet état analysé peut ensuite être utilisé pour prévoir le comportement de ce système, notamment dans les systèmes géophysiques où les jeux de données sont conséquents.Une première approche repose sur une estimation de l’état initial basée sur le principe du maximum a posteriori. Il s’agit alors de résoudre un problème d’optimisation, souvent par des techniques utilisant le gradient des opérateurs. Cette approche, appelée 4DVar, nécessite le calcul de l’adjoint du modèle et de l'opérateur d'observation, ce qui est une tâche consommatrice en temps de développement des systèmes de prévision. Une seconde approche permettant de résoudre séquentiellement le problème d’assimilation est basée sur les techniques dites « d’ensemble ». Ici, des perturbations a priori de l'état du système permettent d’estimer des statistiques. Ces moments sont alors utilisés dans les formules de Kalman pour obtenir des approximations de l’état du système a posteriori.Ces deux approches ont été récemment combinées avec succès dans les méthodes de type EnVar aujourd'hui utilisées dans les systèmes opérationnels de prévision. Elles bénéficient donc d'une gestion efficace de la non linéarité au travers des méthodes d'optimisation variationnelle et permettent l'estimation de statistiques et de dérivées à l'aide des ensembles. L'IEnKS est un archétype de ces méthodes EnVar. Pour combiner les deux approches précédentes, il utilise une fenêtre d'assimilation qui est translatée entre chaque cycle. Différents paramétrages de la fenêtre d'assimilation conduisent à différentes stratégies d'assimilation non équivalentes lorsque la dynamique du système est non linéaire.En particulier, les longues fenêtres d'assimilation réduisent la fréquence de l'approximation Gaussienne des densités a priori. Il en résulte une amélioration des performances jusqu'à un certain point. Au delà, la complexité structurelle de la fonction de coût met l'analyse variationnelle en défaut. Une solution nommée “quasi statique variational assimilation” (QSVA) permet d'atténuer ces problèmes en ajoutant graduellement les observations à la fonction de coût du 4DVar. Le second chapitre de thèse généralise cette technique aux méthodes EnVar et s'intéresse plus précisément aux aspects théoriques et numériques du QSVA appliqués à l'IEnKS.Cependant, l’intérêt du QSVA repose sur la perfection du modèle pour simuler l'évolution de l'état. En effet, la pertinence d'une observation temporellement éloignée pour estimer l'état peut être remise en cause en présence d'erreur modèle. Le troisième chapitre est consacré à l'introduction d'erreur modèle au sein de l'IEnKS. Il y sera donc construit l'IEnKS-Q, une méthode 4D variationnelle d'ensemble résolvant séquentiellement le problème de lissage en présence d'erreur modèle. Malheureusement, en présence d'erreur modèle, une trajectoire n'est plus déterminée par son état initial. Le nombre de paramètres nécessaires à la caractérisation de ses statistiques augmente alors avec la longueur de la fenêtre d'assimilation. Lorsque ce nombre va de pair avec le nombre d'évaluations du modèle, les conséquences pour le temps de calcul sont catastrophiques. La solution proposée est alors de découpler ces quantités avec une décomposition des matrices d'anomalies. Dans ce cas, l'IEnKS-Q n'est pas plus coûteux que l'IEnKS en nombre d'évaluations du modèle

  • Titre traduit

    Ensemble variational methods and variational optimization for the geosciences


  • Résumé

    Data assimilation consists in the estimation of a physical system state. This estimation should optimally combine erroneous observations together with imperfect numerical simulations of this system. In practice, this estimation is the initial state of a dynamical system. It can be used to precisely predict the system evolution. Especially in geophysics where data sets are substantial.A first strategy is based on the maximum a posteriori estimation. Thus the estimation is solution of an optimization problem. This strategy called 4DVar often requires the computation of the model and observation operator adjoints. This operation is time consuming in the forecasting system development. A second strategy analyses the system state sequentially. It is based on “ensemble” techniques. Here, perturbations of the system state allow to estimate its statistics sequentially thanks to the Kalman equations.Both strategies was recently successfully combined in EnVar methods currently used in operating systems. They benefit from both: an efficient treatment of the operators nonlinearity through variational optimization techniques together with statistics and derivatives estimation through ensembles. The IEnKS is an archetype of such EnVar methods. It uses a data assimilation window (DAW) which is time shifted each cycle to combine both strategies. Various DAW parameterizations lead to non equivalent assimilations when the system dynamics are non linear.In particular, long DAWs reduce the frequency of the prior density Gaussian approximation. This results in a performance improvement but only to some extent. After, the cost function variational minimization fails because of its complex shape. A solution called “Quasi static variational assimilation” gradually adds observations to the cost function during multiple minimizations. The thesis second chapter generalizes the QSVA to EnVar methods. Theoretical and numerical aspects of the QSVA applied to the IEnKS are adressed.However, the QSVA relies on the absence of model error. Indeed, the information contained in a remote in time observation may be deteriorated by model error. The thesis third chapter is dedicated to model error introduction in the IEnKS. The IEnKS-Q, a 4D ensemble variational method solving sequentially the smoothing problem with model error, is built in this chapter. Unfortunately, with model error, a state trajectory is not anymore determined by its initial condition. The number of parameters required to describe its statistics increase with the DAW length. When this number is paired with the number of model evaluations, the consequences on the computing time are disastrous. A proposed solution is to dissociate those quantities with anomaly matrices decompositions. In this case, the IEnKS-Q is as expensive as an IEnKS in terms of model evaluations


Il est disponible au sein de la bibliothèque de l'établissement de soutenance.

Consulter en bibliothèque

La version de soutenance existe

Où se trouve cette thèse\u00a0?

  • Bibliothèque : Communautés d’Universités et d'Etablissements Université Paris-Est. Bibliothèque universitaire.
  • Bibliothèque : École des Ponts ParisTech (Marne-la-Vallée, Seine-et-Marne). Bibliothèque électronique.
Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.