Prédiction, inférence sélective et quelques problèmes connexes

Nous étudions le problème de l'estimation de moyenne et de la densité prédictive d'une population sélectionnée, en obtenant de nouveaux développements qui incluent l'analyse de biais, la décomposition du risque et les problèmes avec restrictions sur les paramètres (chapitre 2). Nous p...

Full description

Bibliographic Details
Main Author: Yadegari, Iraj
Other Authors: Marchand, Éric
Language:English
Published: Université de Sherbrooke 2017
Subjects:
Online Access:http://hdl.handle.net/11143/10167
id ndltd-usherbrooke.ca-oai-savoirs.usherbrooke.ca-11143-10167
record_format oai_dc
spelling ndltd-usherbrooke.ca-oai-savoirs.usherbrooke.ca-11143-101672017-03-11T17:10:24Z Prédiction, inférence sélective et quelques problèmes connexes Yadegari, Iraj Marchand, Éric Perron, François Selective inference Predictive density estimation Estimation after selection Nous étudions le problème de l'estimation de moyenne et de la densité prédictive d'une population sélectionnée, en obtenant de nouveaux développements qui incluent l'analyse de biais, la décomposition du risque et les problèmes avec restrictions sur les paramètres (chapitre 2). Nous proposons des estimateurs de densité prédictive efficaces en termes de pertes Kullback-Leibler et Hellinger (chapitre 3) améliorant les procédures de plug-in via une perte duale et via une d'expansion de variance. Enfin, nous présentons les résultats de l'amélioration de l'estimateur du maximum de vraisemblance (EMV) d'une moyenne normale bornée pour une classe de fonctions de perte, y compris la perte normale réfléchie, avec des implications pour l'estimation de densité prédictive. A savoir, nous donnons des conditions sur la perte et la largeur de l'espace paramétrique pour lesquels l'estimateur de Bayes par rapport à la loi a priori uniforme sur la frontière domine la EMV. Abstract : We study the problem of point estimation and predictive density estimation of the mean of a selected population, obtaining novel developments which include bias analysis, decomposition of risk, and problems with restricted parameters (Chapter 2). We propose efficient predictive density estimators in terms of Kullback-Leibler and Hellinger losses (Chapter 3) improving on plug-in procedures via a dual loss and via a variance expansion scheme. Finally (Chapter 4), we present findings on improving on the maximum likelihood estimator (MLE) of a bounded normal mean under a class of loss functions, including reflected normal loss, with implications for predictive density estimation. Namely, we give conditions on the loss and the width of the parameter space for which the Bayes estimator with respect to the boundary uniform prior dominates the MLE.​ 2017 Thèse http://hdl.handle.net/11143/10167 eng © Iraj Yadegari Université de Sherbrooke
collection NDLTD
language English
sources NDLTD
topic Selective inference
Predictive density estimation
Estimation after selection
spellingShingle Selective inference
Predictive density estimation
Estimation after selection
Yadegari, Iraj
Prédiction, inférence sélective et quelques problèmes connexes
description Nous étudions le problème de l'estimation de moyenne et de la densité prédictive d'une population sélectionnée, en obtenant de nouveaux développements qui incluent l'analyse de biais, la décomposition du risque et les problèmes avec restrictions sur les paramètres (chapitre 2). Nous proposons des estimateurs de densité prédictive efficaces en termes de pertes Kullback-Leibler et Hellinger (chapitre 3) améliorant les procédures de plug-in via une perte duale et via une d'expansion de variance. Enfin, nous présentons les résultats de l'amélioration de l'estimateur du maximum de vraisemblance (EMV) d'une moyenne normale bornée pour une classe de fonctions de perte, y compris la perte normale réfléchie, avec des implications pour l'estimation de densité prédictive. A savoir, nous donnons des conditions sur la perte et la largeur de l'espace paramétrique pour lesquels l'estimateur de Bayes par rapport à la loi a priori uniforme sur la frontière domine la EMV. === Abstract : We study the problem of point estimation and predictive density estimation of the mean of a selected population, obtaining novel developments which include bias analysis, decomposition of risk, and problems with restricted parameters (Chapter 2). We propose efficient predictive density estimators in terms of Kullback-Leibler and Hellinger losses (Chapter 3) improving on plug-in procedures via a dual loss and via a variance expansion scheme. Finally (Chapter 4), we present findings on improving on the maximum likelihood estimator (MLE) of a bounded normal mean under a class of loss functions, including reflected normal loss, with implications for predictive density estimation. Namely, we give conditions on the loss and the width of the parameter space for which the Bayes estimator with respect to the boundary uniform prior dominates the MLE.​
author2 Marchand, Éric
author_facet Marchand, Éric
Yadegari, Iraj
author Yadegari, Iraj
author_sort Yadegari, Iraj
title Prédiction, inférence sélective et quelques problèmes connexes
title_short Prédiction, inférence sélective et quelques problèmes connexes
title_full Prédiction, inférence sélective et quelques problèmes connexes
title_fullStr Prédiction, inférence sélective et quelques problèmes connexes
title_full_unstemmed Prédiction, inférence sélective et quelques problèmes connexes
title_sort prédiction, inférence sélective et quelques problèmes connexes
publisher Université de Sherbrooke
publishDate 2017
url http://hdl.handle.net/11143/10167
work_keys_str_mv AT yadegariiraj predictioninferenceselectiveetquelquesproblemesconnexes
_version_ 1718421452151062528