Pénalités minimales pour la sélection de modèle

Dans le cadre de la sélection de modèle par contraste pénalisé, L. Birgé and P. Massart ont prouvé que le phénomène de pénalité minimale se produit pour la sélection libre parmi des variables gaussiennes indépendantes. Nous étendons certains de leurs résultats à la partition d'un signal gaussie...

Full description

Bibliographic Details
Main Author: Sorba, Olivier
Other Authors: Université Paris-Saclay (ComUE)
Language:fr
en
Published: 2017
Subjects:
Online Access:http://www.theses.fr/2017SACLS043/document
id ndltd-theses.fr-2017SACLS043
record_format oai_dc
spelling ndltd-theses.fr-2017SACLS0432020-02-03T15:28:01Z Pénalités minimales pour la sélection de modèle Minimal penalties for model selection Contraste pénalisé Segmentation de signal gaussien Détection de ruptures multiples CART Moindres carrés pénalisés Estimation de densité Arbres de régression Penalized contrast Gaussian signal segmentation Multiple changepoints detection CART Penalized least-squares Density estimation Regression trees Dans le cadre de la sélection de modèle par contraste pénalisé, L. Birgé and P. Massart ont prouvé que le phénomène de pénalité minimale se produit pour la sélection libre parmi des variables gaussiennes indépendantes. Nous étendons certains de leurs résultats à la partition d'un signal gaussien lorsque la famille de partitions envisagées est suffisamment riche, notamment dans le cas des arbres de régression. Nous montrons que le même phénomène se produit dans le cadre de l'estimation de densité. La richesse de la famille de modèle s'apparente à une forme d'isotropie. De ce point de vue le phénomène de pénalité minimale est intrinsèque. Pour corroborer et illustrer ce point de vue, nous montrons que le même phénomène se produit pour une famille de modèles d'orientation aléatoire uniforme. L. Birgé and P. Massart proved that the minimum penalty phenomenon occurs in Gaussian model selection when the model family arises from complete variable selection among independent variables. We extend some of their results to discrete Gaussian signal segmentation when the model family corresponds to a sufficiently rich family of partitions of the signal's support. This is the case of regression trees. We show that the same phenomenon occurs in the context of density estimation. The richness of the model family can be related to a certain form of isotropy. In this respect the minimum penalty phenomenon is intrinsic. To corroborate this point of view, we show that the minimum penalty phenomenon occurs when the models are chosen randomly under an isotropic law. Electronic Thesis or Dissertation Text Image StillImage fr en http://www.theses.fr/2017SACLS043/document Sorba, Olivier 2017-02-09 Université Paris-Saclay (ComUE) Massart, Pascal Celeux, Gilles
collection NDLTD
language fr
en
sources NDLTD
topic Contraste pénalisé
Segmentation de signal gaussien
Détection de ruptures multiples
CART
Moindres carrés pénalisés
Estimation de densité
Arbres de régression
Penalized contrast
Gaussian signal segmentation
Multiple changepoints detection
CART
Penalized least-squares
Density estimation
Regression trees

spellingShingle Contraste pénalisé
Segmentation de signal gaussien
Détection de ruptures multiples
CART
Moindres carrés pénalisés
Estimation de densité
Arbres de régression
Penalized contrast
Gaussian signal segmentation
Multiple changepoints detection
CART
Penalized least-squares
Density estimation
Regression trees

Sorba, Olivier
Pénalités minimales pour la sélection de modèle
description Dans le cadre de la sélection de modèle par contraste pénalisé, L. Birgé and P. Massart ont prouvé que le phénomène de pénalité minimale se produit pour la sélection libre parmi des variables gaussiennes indépendantes. Nous étendons certains de leurs résultats à la partition d'un signal gaussien lorsque la famille de partitions envisagées est suffisamment riche, notamment dans le cas des arbres de régression. Nous montrons que le même phénomène se produit dans le cadre de l'estimation de densité. La richesse de la famille de modèle s'apparente à une forme d'isotropie. De ce point de vue le phénomène de pénalité minimale est intrinsèque. Pour corroborer et illustrer ce point de vue, nous montrons que le même phénomène se produit pour une famille de modèles d'orientation aléatoire uniforme. === L. Birgé and P. Massart proved that the minimum penalty phenomenon occurs in Gaussian model selection when the model family arises from complete variable selection among independent variables. We extend some of their results to discrete Gaussian signal segmentation when the model family corresponds to a sufficiently rich family of partitions of the signal's support. This is the case of regression trees. We show that the same phenomenon occurs in the context of density estimation. The richness of the model family can be related to a certain form of isotropy. In this respect the minimum penalty phenomenon is intrinsic. To corroborate this point of view, we show that the minimum penalty phenomenon occurs when the models are chosen randomly under an isotropic law.
author2 Université Paris-Saclay (ComUE)
author_facet Université Paris-Saclay (ComUE)
Sorba, Olivier
author Sorba, Olivier
author_sort Sorba, Olivier
title Pénalités minimales pour la sélection de modèle
title_short Pénalités minimales pour la sélection de modèle
title_full Pénalités minimales pour la sélection de modèle
title_fullStr Pénalités minimales pour la sélection de modèle
title_full_unstemmed Pénalités minimales pour la sélection de modèle
title_sort pénalités minimales pour la sélection de modèle
publishDate 2017
url http://www.theses.fr/2017SACLS043/document
work_keys_str_mv AT sorbaolivier penalitesminimalespourlaselectiondemodele
AT sorbaolivier minimalpenaltiesformodelselection
_version_ 1719311838138597376