Show simple document record

dc.contributor.advisorMarchand, Éric
dc.contributor.authorL'Moudden, Azizfr
dc.date.accessioned2018-10-29T13:59:25Z
dc.date.available2018-10-29T13:59:25Z
dc.date.created2018fr
dc.date.issued2018-10-29
dc.identifier.urihttp://hdl.handle.net/11143/14086
dc.description.abstractCette thèse porte principalement sur l'estimation de densités prédictives pour une inconnue Y à partir d'un observé X, dont les lois de probabilité dépendent d'un même paramètre θ. Elle est le fruit de trois projets sur lesquels j'ai travaillé durant les trois dernières années. Ces projets ont abouti à un article publié, un autre soumis et un Chapitre prometteur. Le premier article, présenté au Chapitre II, a été publié en 2017 dans la revue Journal of Statistical Planning and Inference. Il traite l'étude de densités prédictives pour des modèles Gamma avec restrictions sur le paramètre d'échelle sous la perte Kullback-Leibler. La performance fréquentiste de plusieurs estimateurs est analysée, dont des densités prédictives bayésiennes et des densités prédictives de type plug-in. Des résultats de dominance sont obtenus, ainsi que des densités prédictives minimax. Notamment, on a obtenu une méthode universelle pour améliorer une densité prédictive de type plug-in. Le deuxième article, soumis pour publication récemment, est présenté au Chapitre III. Nous considérons le problème d'estimation d'une densité prédictive pour des modèles de loi normale multivariée, sous une classe de perte de type α-divergence incluant les pertes Kullback-Leibler et Hellinger. Ce travail contient un résultat important sur une stratégie qui donne une classe de densités prédictives dominant une densité prédictive de type plug-in (universellement par rapport à la dimension, l'espace paramétrique, la densité prédictive de type plug-in et la perte choisie). De plus, nos résultats étendent une partie des travaux précédents sur la perte de Kullback-Leibler (Fourdrinier et coll., 2011, Electron. J. Stat), ainsi que ceux portant sur les pertes L1 et L2 intégrées, et sont appliqués aux estimateurs de rétrécissement ou de type Stein de θ. Le troisième projet de cette thèse est le Chapitre 4. Ce dernier traite l'analyse bayésienne pour deux cadres généraux de mélanges avec densités. On donne les structures générales pour les densités a posteriori et les densités prédictives et quelques résultats de dominances. Plusieurs représentations novatrices sont obtenues, notamment pour des mélanges de lois normales, les lois décentrées du chi-deux, Bêta, Fisher, la loi du coefficient de détermination R2 dans un contexte de régression multiple, la loi de Kibble, et les problèmes avec contraintes sur θ, parmi d'autres. Enfin, certaines généralisations et développements sont présentés au chapitre 1.fr
dc.description.abstractAbstract: This thesis deals mainly with the estimation of predictive densities for an unknown Y from an observed X whose probability laws depend on the same parameter . It is the result of three projects that I have worked on for the last three years. These projects resulted in a published article, another submitted and a promising Chapter. The first article, presented in Chapter II, was published in 2017 in the "Journal of Statistical Planning and Inference". It deals with the study of predictive densities for Gamma models with restrictions on the scale parameter under Kullback-Leibler loss. The frequentist performance of several estimators is analyzed, including Bayesian predictive densities and plug-in predictive densities. Dominance results as well as minimax predictive densities are obtained. In particular, we obtain a universal method to improve upon predictive density of plug-in type. The second article, submitted for publication recently, is presented in Chapter III.We consider the predictive density estimation problem for multivariate normal law models, under a loss class of -divergence including Kullback-Leibler and Hellinger losses. This work contains a significant result on a strategy that gives a class of predictive densities dominating a predictive density of plug-in type (universally compared to the dimension, the parametric space, the predictive density of plug-in type and the chosen loss). In addition, our results extend previous work on the Kullback-Leibler loss (Fourdrinier et al., 2011, J. Electr., J.), as well as those on L1 and L2 losses built-in, and are applied to shrink or Stein estimators of . The third project of the thesis is Chapter 4 which deals with Bayesian analysis for two general frameworks of mixtures with densities. The general structures for the a posteriori densities, the predictive densities and some dominance results are given. Several novel representations are obtained, notably for mixtures of normal laws, the decentered Chi-square laws, Beta, Fisher, the coefficient of determination R2 law in a multiple regression context, the Kibble law, and the problems with constraints on , among others. Finally, some generalizations and developments appear in Chapter 1.fr
dc.language.isofrefr
dc.language.isoengfr
dc.publisherUniversité de Sherbrookefr
dc.rights© Aziz L'Mouddenfr
dc.subjectEstimation de densités prédictivesfr
dc.subjectStatistique bayésiennefr
dc.subjectAnalyse multivariée statistiquefr
dc.subjectDensité mélangefr
dc.subjectEspaces paramétriques contraintsfr
dc.titleSur une approche décisionnelle pour l'analyse bayésienne et l'estimation de densités prédictivesfr
dc.typeThèsefr
tme.degree.disciplineStatistiquesfr
tme.degree.grantorFaculté des sciencesfr
tme.degree.levelDoctoratfr
tme.degree.namePh.D.fr


Files in this document

Thumbnail

This document appears in the following Collection(s)

Show simple document record