Sur l'estimation de densités prédictives et l'estimation d'un coût

par Ali Righi

Thèse de doctorat en Mathématiques appliquées

Sous la direction de Dominique Fourdrinier.


  • Résumé

    Cette thèse est composée de deux parties. Dans la première partie, nous étudions l’estimation des densités prédictives, sous le coût de Kullback-Leibler, pour le modèle gaussien multidimensionnel de dimension p. Nous nous focalisons sur le lien qui existe entre ce problème d’estimation et l’estimation de la moyenne correspondante sous coût quadratique. Nous exhibons plusieurs résultats parallèles. Nous prouvons des résultats de minimaxité et d’amélioration des estimateurs sous contrainte pour la moyenne inconnue. Notamment, nous établissons, au travers deux méthodes, que la densité prédictive bayésienne associée à la loi a priori uniforme sur un convexe C domine la meilleure densité invariante sous la contrainte μ 2 C. Ceci constitue un résultat parallèle à celui de Hartigan en 2004 pour l’estimation de la moyenne sous coût quadratique. A la fin de cette partie, nous donnons des simulations numériques pour visualiser les gains réalisés par quelques nouveaux estimateurs proposés. Dans la seconde partie, pour le modèle gaussien de dimension p, nous traitons le problème de l’estimation du coût quadratique de l’estimateur standard de la moyenne (soit #0(X) = X). Nous proposons des estimateurs de coût bayésiens généralisés qui dominent l’estimateur standard du coût (soit #0(X) = p), en donnant des conditions suffisantes sur la loi a priori afin d’obtenir cette domination pour p # 5. Nous illustrons nos résultats par des exemples. Ensuite nous réalisons une étude technique et des simulations numériques du gain obtenu par un de nos estimateurs bayésiens généralisés proposés.


  • Pas de résumé disponible.


  • Résumé

    This thesis is divided in two parts. In the first part, we investigate predictive density estimation for a multivariate Gaussian model under the Kullback-Leibler loss. We focus on the link with the problem of estimation of the mean under quadratic loss. We obtain several parallel results. We prove minimaxity and improved estimation results under restriction for the unknown mean. In particular, we show, via two different paths, that the Bayesian predictive density associated to the uniform prior on a convex C dominates the best invariant predictive density when μ 2 C. This is a parallel result to Hartigan’s result in 2004, for the estimation of the mean under quadratic loss. At the end of this part, we give numerical simulations to visualize the gain obtained by some of our new proposed estimators. In the second part, for the Gaussian model of dimension p, we treat the problem of estimating the loss of the standard estimator of the mean (that is, #0(X) = X). We give generalized Bayes estimators which dominate the unbiased estimator of loss (that is, #0(X) = p), through sufficient conditions for p # 5. Examples illustrate the theory. Then we carry on a technical study and numerical simulations on the gain reached by one of our proposed minimax generalized Bayes estimators of loss.

Consulter en bibliothèque

La version de soutenance existe sous forme papier

Informations

  • Détails : 1 vol. (106 p. + annexes)
  • Notes : Publication autorisée par le jury
  • Annexes : Bibliographie

Où se trouve cette thèse ?

  • Bibliothèque : Université de Rouen. Service commun de la documentation. Section sciences site Madrillet.
  • Disponible pour le PEB
  • Cote : 11/ROUE/S002
Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.