Regularisation and variable selection using penalized likelihood

Dans cette thèse nous nous intéressons aux problèmes de la sélection de variables en régression linéaire. Ces travaux sont en particulier motivés par les développements récents en génomique, protéomique, imagerie biomédicale, traitement de signal, traitement d’image, en marketing, etc… Nous regardon...

Full description

Bibliographic Details
Main Author: El anbari, Mohammed
Other Authors: Paris 11
Language:fr
en
Published: 2011
Subjects:
Online Access:http://www.theses.fr/2011PA112297/document
id ndltd-theses.fr-2011PA112297
record_format oai_dc
spelling ndltd-theses.fr-2011PA1122972019-05-18T03:41:57Z Regularisation and variable selection using penalized likelihood Régularisation et sélection de variables par le biais de la vraisemblance pénalisée Réduction de la dimension Grandes dimensions Lasso Scad Elastic-net Sélection de modèles Propriétés d’Oracle Zellner’s g- prior Calibration Dimensionality réduction High dimensionality LASSO Scad Elastic-net Model selection Oracle property Zellner’s g-prior Calibration Scad Dans cette thèse nous nous intéressons aux problèmes de la sélection de variables en régression linéaire. Ces travaux sont en particulier motivés par les développements récents en génomique, protéomique, imagerie biomédicale, traitement de signal, traitement d’image, en marketing, etc… Nous regardons ce problème selon les deux points de vue fréquentielle et bayésienne.Dans un cadre fréquentiel, nous proposons des méthodes pour faire face au problème de la sélection de variables, dans des situations pour lesquelles le nombre de variables peut être beaucoup plus grand que la taille de l’échantillon, avec présence possible d’une structure supplémentaire entre les variables, telle qu’une forte corrélation ou un certain ordre entre les variables successives. Les performances théoriques sont explorées ; nous montrons que sous certaines conditions de régularité, les méthodes proposées possèdent de bonnes propriétés statistiques, telles que des inégalités de parcimonie, la consistance au niveau de la sélection de variables et la normalité asymptotique.Dans un cadre bayésien, nous proposons une approche globale de la sélection de variables en régression construite sur les lois à priori g de Zellner dans une approche similaire mais non identique à celle de Liang et al. (2008) Notre choix ne nécessite aucune calibration. Nous comparons les approches de régularisation bayésienne et fréquentielle dans un contexte peu informatif où le nombre de variables est presque égal à la taille de l’échantillon. We are interested in variable sélection in linear régression models. This research is motivated by recent development in microarrays, proteomics, brain images, among others. We study this problem in both frequentist and bayesian viewpoints.In a frequentist framework, we propose methods to deal with the problem of variable sélection, when the number of variables is much larger than the sample size with a possibly présence of additional structure in the predictor variables, such as high corrélations or order between successive variables. The performance of the proposed methods is theoretically investigated ; we prove that, under regularity conditions, the proposed estimators possess statistical good properties, such as Sparsity Oracle Inequalities, variable sélection consistency and asymptotic normality.In a Bayesian Framework, we propose a global noninformative approach for Bayesian variable sélection. In this thesis, we pay spécial attention to two calibration-free hierarchical Zellner’s g-priors. The first one is the Jeffreys prior which is not location invariant. A second one avoids this problem by only considering models with at least one variable in the model. The practical performance of the proposed methods is illustrated through numerical experiments on simulated and real world datasets, with a comparison betwenn Bayesian and frequentist approaches under a low informative constraint when the number of variables is almost equal to the number of observations. Electronic Thesis or Dissertation Text Image fr en http://www.theses.fr/2011PA112297/document El anbari, Mohammed 2011-12-14 Paris 11 Université Cadi Ayyad (Marrakech, Maroc) Celeux, Gilles
collection NDLTD
language fr
en
sources NDLTD
topic Réduction de la dimension
Grandes dimensions
Lasso
Scad
Elastic-net
Sélection de modèles
Propriétés d’Oracle
Zellner’s g- prior
Calibration
Dimensionality réduction
High dimensionality
LASSO
Scad
Elastic-net
Model selection
Oracle property
Zellner’s g-prior
Calibration
Scad
spellingShingle Réduction de la dimension
Grandes dimensions
Lasso
Scad
Elastic-net
Sélection de modèles
Propriétés d’Oracle
Zellner’s g- prior
Calibration
Dimensionality réduction
High dimensionality
LASSO
Scad
Elastic-net
Model selection
Oracle property
Zellner’s g-prior
Calibration
Scad
El anbari, Mohammed
Regularisation and variable selection using penalized likelihood
description Dans cette thèse nous nous intéressons aux problèmes de la sélection de variables en régression linéaire. Ces travaux sont en particulier motivés par les développements récents en génomique, protéomique, imagerie biomédicale, traitement de signal, traitement d’image, en marketing, etc… Nous regardons ce problème selon les deux points de vue fréquentielle et bayésienne.Dans un cadre fréquentiel, nous proposons des méthodes pour faire face au problème de la sélection de variables, dans des situations pour lesquelles le nombre de variables peut être beaucoup plus grand que la taille de l’échantillon, avec présence possible d’une structure supplémentaire entre les variables, telle qu’une forte corrélation ou un certain ordre entre les variables successives. Les performances théoriques sont explorées ; nous montrons que sous certaines conditions de régularité, les méthodes proposées possèdent de bonnes propriétés statistiques, telles que des inégalités de parcimonie, la consistance au niveau de la sélection de variables et la normalité asymptotique.Dans un cadre bayésien, nous proposons une approche globale de la sélection de variables en régression construite sur les lois à priori g de Zellner dans une approche similaire mais non identique à celle de Liang et al. (2008) Notre choix ne nécessite aucune calibration. Nous comparons les approches de régularisation bayésienne et fréquentielle dans un contexte peu informatif où le nombre de variables est presque égal à la taille de l’échantillon. === We are interested in variable sélection in linear régression models. This research is motivated by recent development in microarrays, proteomics, brain images, among others. We study this problem in both frequentist and bayesian viewpoints.In a frequentist framework, we propose methods to deal with the problem of variable sélection, when the number of variables is much larger than the sample size with a possibly présence of additional structure in the predictor variables, such as high corrélations or order between successive variables. The performance of the proposed methods is theoretically investigated ; we prove that, under regularity conditions, the proposed estimators possess statistical good properties, such as Sparsity Oracle Inequalities, variable sélection consistency and asymptotic normality.In a Bayesian Framework, we propose a global noninformative approach for Bayesian variable sélection. In this thesis, we pay spécial attention to two calibration-free hierarchical Zellner’s g-priors. The first one is the Jeffreys prior which is not location invariant. A second one avoids this problem by only considering models with at least one variable in the model. The practical performance of the proposed methods is illustrated through numerical experiments on simulated and real world datasets, with a comparison betwenn Bayesian and frequentist approaches under a low informative constraint when the number of variables is almost equal to the number of observations.
author2 Paris 11
author_facet Paris 11
El anbari, Mohammed
author El anbari, Mohammed
author_sort El anbari, Mohammed
title Regularisation and variable selection using penalized likelihood
title_short Regularisation and variable selection using penalized likelihood
title_full Regularisation and variable selection using penalized likelihood
title_fullStr Regularisation and variable selection using penalized likelihood
title_full_unstemmed Regularisation and variable selection using penalized likelihood
title_sort regularisation and variable selection using penalized likelihood
publishDate 2011
url http://www.theses.fr/2011PA112297/document
work_keys_str_mv AT elanbarimohammed regularisationandvariableselectionusingpenalizedlikelihood
AT elanbarimohammed regularisationetselectiondevariablesparlebiaisdelavraisemblancepenalisee
_version_ 1719191304679718912