Prédiction, inférence sélective et quelques problèmes connexes
Nous étudions le problème de l'estimation de moyenne et de la densité prédictive d'une population sélectionnée, en obtenant de nouveaux développements qui incluent l'analyse de biais, la décomposition du risque et les problèmes avec restrictions sur les paramètres (chapitre 2). Nous p...
Main Author: | |
---|---|
Other Authors: | |
Language: | English |
Published: |
Université de Sherbrooke
2017
|
Subjects: | |
Online Access: | http://hdl.handle.net/11143/10167 |
id |
ndltd-usherbrooke.ca-oai-savoirs.usherbrooke.ca-11143-10167 |
---|---|
record_format |
oai_dc |
spelling |
ndltd-usherbrooke.ca-oai-savoirs.usherbrooke.ca-11143-101672017-03-11T17:10:24Z Prédiction, inférence sélective et quelques problèmes connexes Yadegari, Iraj Marchand, Éric Perron, François Selective inference Predictive density estimation Estimation after selection Nous étudions le problème de l'estimation de moyenne et de la densité prédictive d'une population sélectionnée, en obtenant de nouveaux développements qui incluent l'analyse de biais, la décomposition du risque et les problèmes avec restrictions sur les paramètres (chapitre 2). Nous proposons des estimateurs de densité prédictive efficaces en termes de pertes Kullback-Leibler et Hellinger (chapitre 3) améliorant les procédures de plug-in via une perte duale et via une d'expansion de variance. Enfin, nous présentons les résultats de l'amélioration de l'estimateur du maximum de vraisemblance (EMV) d'une moyenne normale bornée pour une classe de fonctions de perte, y compris la perte normale réfléchie, avec des implications pour l'estimation de densité prédictive. A savoir, nous donnons des conditions sur la perte et la largeur de l'espace paramétrique pour lesquels l'estimateur de Bayes par rapport à la loi a priori uniforme sur la frontière domine la EMV. Abstract : We study the problem of point estimation and predictive density estimation of the mean of a selected population, obtaining novel developments which include bias analysis, decomposition of risk, and problems with restricted parameters (Chapter 2). We propose efficient predictive density estimators in terms of Kullback-Leibler and Hellinger losses (Chapter 3) improving on plug-in procedures via a dual loss and via a variance expansion scheme. Finally (Chapter 4), we present findings on improving on the maximum likelihood estimator (MLE) of a bounded normal mean under a class of loss functions, including reflected normal loss, with implications for predictive density estimation. Namely, we give conditions on the loss and the width of the parameter space for which the Bayes estimator with respect to the boundary uniform prior dominates the MLE. 2017 Thèse http://hdl.handle.net/11143/10167 eng © Iraj Yadegari Université de Sherbrooke |
collection |
NDLTD |
language |
English |
sources |
NDLTD |
topic |
Selective inference Predictive density estimation Estimation after selection |
spellingShingle |
Selective inference Predictive density estimation Estimation after selection Yadegari, Iraj Prédiction, inférence sélective et quelques problèmes connexes |
description |
Nous étudions le problème de l'estimation de moyenne et de la densité prédictive d'une population sélectionnée, en obtenant de nouveaux développements qui incluent l'analyse de biais, la décomposition du risque et les problèmes avec restrictions sur les paramètres (chapitre 2). Nous proposons des estimateurs de densité prédictive efficaces en termes de pertes Kullback-Leibler et Hellinger (chapitre 3) améliorant les procédures de plug-in via une perte duale et via une d'expansion de variance. Enfin, nous présentons les résultats de l'amélioration de l'estimateur du maximum de vraisemblance (EMV) d'une moyenne normale bornée pour une classe de fonctions de perte, y compris la perte normale réfléchie, avec des implications pour l'estimation de densité prédictive. A savoir, nous donnons des conditions sur la perte et la largeur de l'espace paramétrique pour lesquels l'estimateur de Bayes par rapport à la loi a priori uniforme sur la frontière domine la EMV. === Abstract : We study the problem of point estimation and predictive density estimation of the mean of a selected population, obtaining novel developments which include bias analysis, decomposition of risk, and problems with restricted parameters (Chapter 2). We propose efficient predictive density estimators in terms of Kullback-Leibler and Hellinger losses (Chapter 3) improving on plug-in procedures via a dual loss and via a variance expansion scheme. Finally (Chapter 4), we present findings on improving on the maximum likelihood estimator (MLE) of a bounded normal mean under a class of loss functions, including reflected normal loss, with implications for predictive density estimation. Namely, we give conditions on the loss and the width of the parameter space for which the Bayes estimator with respect to the boundary uniform prior dominates the MLE. |
author2 |
Marchand, Éric |
author_facet |
Marchand, Éric Yadegari, Iraj |
author |
Yadegari, Iraj |
author_sort |
Yadegari, Iraj |
title |
Prédiction, inférence sélective et quelques problèmes connexes |
title_short |
Prédiction, inférence sélective et quelques problèmes connexes |
title_full |
Prédiction, inférence sélective et quelques problèmes connexes |
title_fullStr |
Prédiction, inférence sélective et quelques problèmes connexes |
title_full_unstemmed |
Prédiction, inférence sélective et quelques problèmes connexes |
title_sort |
prédiction, inférence sélective et quelques problèmes connexes |
publisher |
Université de Sherbrooke |
publishDate |
2017 |
url |
http://hdl.handle.net/11143/10167 |
work_keys_str_mv |
AT yadegariiraj predictioninferenceselectiveetquelquesproblemesconnexes |
_version_ |
1718421452151062528 |