Apprentissage actif pour l'approximation de variétés
L'apprentissage statistique cherche à modéliser un lien fonctionnel entre deux variables X et Y à partir d'un échantillon aléatoire de réalisations de (X,Y ). Lorsque la variable Y prend un nombre binaire de valeurs, l'apprentissage s'appelle la classification (ou discrimination...
Main Author: | |
---|---|
Language: | fra |
Published: |
Université Blaise Pascal - Clermont-Ferrand II
2012
|
Subjects: | |
Online Access: | http://tel.archives-ouvertes.fr/tel-00954409 http://tel.archives-ouvertes.fr/docs/00/95/44/09/PDF/GANDAR_2012CLF22293.pdf |
id |
ndltd-CCSD-oai-tel.archives-ouvertes.fr-tel-00954409 |
---|---|
record_format |
oai_dc |
spelling |
ndltd-CCSD-oai-tel.archives-ouvertes.fr-tel-009544092014-10-14T03:24:30Z http://tel.archives-ouvertes.fr/tel-00954409 2012CLF22293 http://tel.archives-ouvertes.fr/docs/00/95/44/09/PDF/GANDAR_2012CLF22293.pdf Apprentissage actif pour l'approximation de variétés Gandar, Benoît [INFO:INFO_OH] Computer Science/Other [INFO:INFO_OH] Informatique/Autre [SPI:OTHER] Engineering Sciences/Other [SPI:OTHER] Sciences de l'ingénieur/Autre Apprentissage statistique Apprentissage actif Échantillonnage aveugle ou échantillonnage adaptatif Échantillonnage sélectif Plans d'expériences Approximation de variétés Discrépance Dispersion Maximin Minimax L'apprentissage statistique cherche à modéliser un lien fonctionnel entre deux variables X et Y à partir d'un échantillon aléatoire de réalisations de (X,Y ). Lorsque la variable Y prend un nombre binaire de valeurs, l'apprentissage s'appelle la classification (ou discrimination en français) et apprendre le lien fonctionnel s'apparente à apprendre la frontière d'une variété dans l'espace de la variable X. Dans cette thèse, nous nous plaçons dans le contexte de l'apprentissage actif, i.e. nous supposons que l'échantillon d'apprentissage n'est plus aléatoire et que nous pouvons, par l'intermédiaire d'un oracle, générer les points sur lesquels l'apprentissage de la variété va s'effectuer. Dans le cas où la variable Y est continue (régression), des travaux précédents montrent que le critère de la faible discrépance pour générer les premiers points d'apprentissage est adéquat. Nous montrons, de manière surprenante, que ces résultats ne peuvent pas être transférés à la classification. Dans ce manuscrit, nous proposons alors le critère de la dispersion pour la classification. Ce critère étant difficile à mettre en pratique, nous proposons un nouvel algorithme pour générer un plan d'expérience à faible dispersion dans le carré unité. Après une première approximation de la variété, des approximations successives peuvent être réalisées afin d'affiner la connaissance de celle-ci. Deux méthodes d'échantillonnage sont alors envisageables : le " selective sampling " qui choisit les points à présenter à un oracle parmi un ensemble fini de candidats et l'" adaptative sampling " qui permet de choisir n'importe quels points de l'espace de la variable X. Le deuxième échantillonnage peut être vu comme un passage à la limite du premier. Néanmoins, en pratique, il n'est pas raisonnable d'utiliser cette méthode. Nous proposons alors un nouvel algorithme basé sur le critère de dispersion, menant de front exploitation et exploration, pour approximer une variété. 2012-11-27 fra PhD thesis Université Blaise Pascal - Clermont-Ferrand II |
collection |
NDLTD |
language |
fra |
sources |
NDLTD |
topic |
[INFO:INFO_OH] Computer Science/Other [INFO:INFO_OH] Informatique/Autre [SPI:OTHER] Engineering Sciences/Other [SPI:OTHER] Sciences de l'ingénieur/Autre Apprentissage statistique Apprentissage actif Échantillonnage aveugle ou échantillonnage adaptatif Échantillonnage sélectif Plans d'expériences Approximation de variétés Discrépance Dispersion Maximin Minimax |
spellingShingle |
[INFO:INFO_OH] Computer Science/Other [INFO:INFO_OH] Informatique/Autre [SPI:OTHER] Engineering Sciences/Other [SPI:OTHER] Sciences de l'ingénieur/Autre Apprentissage statistique Apprentissage actif Échantillonnage aveugle ou échantillonnage adaptatif Échantillonnage sélectif Plans d'expériences Approximation de variétés Discrépance Dispersion Maximin Minimax Gandar, Benoît Apprentissage actif pour l'approximation de variétés |
description |
L'apprentissage statistique cherche à modéliser un lien fonctionnel entre deux variables X et Y à partir d'un échantillon aléatoire de réalisations de (X,Y ). Lorsque la variable Y prend un nombre binaire de valeurs, l'apprentissage s'appelle la classification (ou discrimination en français) et apprendre le lien fonctionnel s'apparente à apprendre la frontière d'une variété dans l'espace de la variable X. Dans cette thèse, nous nous plaçons dans le contexte de l'apprentissage actif, i.e. nous supposons que l'échantillon d'apprentissage n'est plus aléatoire et que nous pouvons, par l'intermédiaire d'un oracle, générer les points sur lesquels l'apprentissage de la variété va s'effectuer. Dans le cas où la variable Y est continue (régression), des travaux précédents montrent que le critère de la faible discrépance pour générer les premiers points d'apprentissage est adéquat. Nous montrons, de manière surprenante, que ces résultats ne peuvent pas être transférés à la classification. Dans ce manuscrit, nous proposons alors le critère de la dispersion pour la classification. Ce critère étant difficile à mettre en pratique, nous proposons un nouvel algorithme pour générer un plan d'expérience à faible dispersion dans le carré unité. Après une première approximation de la variété, des approximations successives peuvent être réalisées afin d'affiner la connaissance de celle-ci. Deux méthodes d'échantillonnage sont alors envisageables : le " selective sampling " qui choisit les points à présenter à un oracle parmi un ensemble fini de candidats et l'" adaptative sampling " qui permet de choisir n'importe quels points de l'espace de la variable X. Le deuxième échantillonnage peut être vu comme un passage à la limite du premier. Néanmoins, en pratique, il n'est pas raisonnable d'utiliser cette méthode. Nous proposons alors un nouvel algorithme basé sur le critère de dispersion, menant de front exploitation et exploration, pour approximer une variété. |
author |
Gandar, Benoît |
author_facet |
Gandar, Benoît |
author_sort |
Gandar, Benoît |
title |
Apprentissage actif pour l'approximation de variétés |
title_short |
Apprentissage actif pour l'approximation de variétés |
title_full |
Apprentissage actif pour l'approximation de variétés |
title_fullStr |
Apprentissage actif pour l'approximation de variétés |
title_full_unstemmed |
Apprentissage actif pour l'approximation de variétés |
title_sort |
apprentissage actif pour l'approximation de variétés |
publisher |
Université Blaise Pascal - Clermont-Ferrand II |
publishDate |
2012 |
url |
http://tel.archives-ouvertes.fr/tel-00954409 http://tel.archives-ouvertes.fr/docs/00/95/44/09/PDF/GANDAR_2012CLF22293.pdf |
work_keys_str_mv |
AT gandarbenoit apprentissageactifpourlapproximationdevarietes |
_version_ |
1716716750213480448 |