Pénalités minimales pour la sélection de modèle
Dans le cadre de la sélection de modèle par contraste pénalisé, L. Birgé and P. Massart ont prouvé que le phénomène de pénalité minimale se produit pour la sélection libre parmi des variables gaussiennes indépendantes. Nous étendons certains de leurs résultats à la partition d'un signal gaussie...
Main Author: | |
---|---|
Other Authors: | |
Language: | fr en |
Published: |
2017
|
Subjects: | |
Online Access: | http://www.theses.fr/2017SACLS043/document |
id |
ndltd-theses.fr-2017SACLS043 |
---|---|
record_format |
oai_dc |
spelling |
ndltd-theses.fr-2017SACLS0432020-02-03T15:28:01Z Pénalités minimales pour la sélection de modèle Minimal penalties for model selection Contraste pénalisé Segmentation de signal gaussien Détection de ruptures multiples CART Moindres carrés pénalisés Estimation de densité Arbres de régression Penalized contrast Gaussian signal segmentation Multiple changepoints detection CART Penalized least-squares Density estimation Regression trees Dans le cadre de la sélection de modèle par contraste pénalisé, L. Birgé and P. Massart ont prouvé que le phénomène de pénalité minimale se produit pour la sélection libre parmi des variables gaussiennes indépendantes. Nous étendons certains de leurs résultats à la partition d'un signal gaussien lorsque la famille de partitions envisagées est suffisamment riche, notamment dans le cas des arbres de régression. Nous montrons que le même phénomène se produit dans le cadre de l'estimation de densité. La richesse de la famille de modèle s'apparente à une forme d'isotropie. De ce point de vue le phénomène de pénalité minimale est intrinsèque. Pour corroborer et illustrer ce point de vue, nous montrons que le même phénomène se produit pour une famille de modèles d'orientation aléatoire uniforme. L. Birgé and P. Massart proved that the minimum penalty phenomenon occurs in Gaussian model selection when the model family arises from complete variable selection among independent variables. We extend some of their results to discrete Gaussian signal segmentation when the model family corresponds to a sufficiently rich family of partitions of the signal's support. This is the case of regression trees. We show that the same phenomenon occurs in the context of density estimation. The richness of the model family can be related to a certain form of isotropy. In this respect the minimum penalty phenomenon is intrinsic. To corroborate this point of view, we show that the minimum penalty phenomenon occurs when the models are chosen randomly under an isotropic law. Electronic Thesis or Dissertation Text Image StillImage fr en http://www.theses.fr/2017SACLS043/document Sorba, Olivier 2017-02-09 Université Paris-Saclay (ComUE) Massart, Pascal Celeux, Gilles |
collection |
NDLTD |
language |
fr en |
sources |
NDLTD |
topic |
Contraste pénalisé Segmentation de signal gaussien Détection de ruptures multiples CART Moindres carrés pénalisés Estimation de densité Arbres de régression Penalized contrast Gaussian signal segmentation Multiple changepoints detection CART Penalized least-squares Density estimation Regression trees |
spellingShingle |
Contraste pénalisé Segmentation de signal gaussien Détection de ruptures multiples CART Moindres carrés pénalisés Estimation de densité Arbres de régression Penalized contrast Gaussian signal segmentation Multiple changepoints detection CART Penalized least-squares Density estimation Regression trees Sorba, Olivier Pénalités minimales pour la sélection de modèle |
description |
Dans le cadre de la sélection de modèle par contraste pénalisé, L. Birgé and P. Massart ont prouvé que le phénomène de pénalité minimale se produit pour la sélection libre parmi des variables gaussiennes indépendantes. Nous étendons certains de leurs résultats à la partition d'un signal gaussien lorsque la famille de partitions envisagées est suffisamment riche, notamment dans le cas des arbres de régression. Nous montrons que le même phénomène se produit dans le cadre de l'estimation de densité. La richesse de la famille de modèle s'apparente à une forme d'isotropie. De ce point de vue le phénomène de pénalité minimale est intrinsèque. Pour corroborer et illustrer ce point de vue, nous montrons que le même phénomène se produit pour une famille de modèles d'orientation aléatoire uniforme. === L. Birgé and P. Massart proved that the minimum penalty phenomenon occurs in Gaussian model selection when the model family arises from complete variable selection among independent variables. We extend some of their results to discrete Gaussian signal segmentation when the model family corresponds to a sufficiently rich family of partitions of the signal's support. This is the case of regression trees. We show that the same phenomenon occurs in the context of density estimation. The richness of the model family can be related to a certain form of isotropy. In this respect the minimum penalty phenomenon is intrinsic. To corroborate this point of view, we show that the minimum penalty phenomenon occurs when the models are chosen randomly under an isotropic law. |
author2 |
Université Paris-Saclay (ComUE) |
author_facet |
Université Paris-Saclay (ComUE) Sorba, Olivier |
author |
Sorba, Olivier |
author_sort |
Sorba, Olivier |
title |
Pénalités minimales pour la sélection de modèle |
title_short |
Pénalités minimales pour la sélection de modèle |
title_full |
Pénalités minimales pour la sélection de modèle |
title_fullStr |
Pénalités minimales pour la sélection de modèle |
title_full_unstemmed |
Pénalités minimales pour la sélection de modèle |
title_sort |
pénalités minimales pour la sélection de modèle |
publishDate |
2017 |
url |
http://www.theses.fr/2017SACLS043/document |
work_keys_str_mv |
AT sorbaolivier penalitesminimalespourlaselectiondemodele AT sorbaolivier minimalpenaltiesformodelselection |
_version_ |
1719311838138597376 |