Méthodes optimistes d’apprentissage actif pour la classification

La classification se base sur un jeu de données étiquetées par un expert. Plus le jeu de données est grand, meilleure est la performance de classification. Pourtant, la requête à un expert peut parfois être coûteuse. Le but de l'apprentissage actif est alors de minimiser le nombre de requêtes à...

Full description

Bibliographic Details
Main Author: Collet, Timothé
Other Authors: Université de Lorraine
Language:fr
Published: 2016
Subjects:
Online Access:http://www.theses.fr/2016LORR0084/document
id ndltd-theses.fr-2016LORR0084
record_format oai_dc
spelling ndltd-theses.fr-2016LORR00842019-05-24T03:32:59Z Méthodes optimistes d’apprentissage actif pour la classification Optimistic Methods in Active Learning for Classification Optimisme face à l'incertitude Classification Apprentissage actif Bandits à bras multiples Optimism in the Face of Uncertainty Classification Active Learning Multi-armed Bandit 006.33 La classification se base sur un jeu de données étiquetées par un expert. Plus le jeu de données est grand, meilleure est la performance de classification. Pourtant, la requête à un expert peut parfois être coûteuse. Le but de l'apprentissage actif est alors de minimiser le nombre de requêtes à l'expert. La collection des données non-étiquetées reste aisée cependant et illimitée, il est donc nécessaire de faire un choix sur les données à annoter, l'idée est alors de profiter de ce choix pour maximiser les performances en ne lui fournissant que les données les plus informatives à étiqueter. Pourtant, le niveau d'informativité de chaque donnée ne peut pas être calculé exactement et ne peut être estimé qu'à une incertitude près. Améliorer la précision de l'estimation nécessite d'annoter de nouvelles données. Il y a donc un dilemme entre utiliser le budget d'annotations disponible pour améliorer la performance du classifieur selon l'estimation actuelle du critère ou pour améliorer la précision sur le critère. Ce dilemme est bien connu dans le cadre de l'optimisation en budget fini sous le nom de dilemme entre exploration et exploitation. Les solutions usuelles pour résoudre ce dilemme dans ce contexte font usage du principe d'Optimisme Face à l'Incertitude. Dans cette thèse, nous montrons donc qu'il est possible d'adapter ce principe au problème d'apprentissage actif pour la classification. Pour cela, plusieurs algorithmes ont été être développés pour des classifieurs de complexité croissante, chacun utilisant le principe de l'Optimisme Face à l'Incertitude, et leurs résultats ont été évalués empiriquement A Classification problem makes use of a training set consisting of data labeled by an oracle. The larger the training set, the best the performance. However, requesting the oracle may be costly. The goal of Active Learning is thus to minimize the number of requests to the oracle while achieving the best performance. To do so, the data that are presented to the oracle must be carefully selected among a large number of unlabeled instances acquired at no cost. However, the true profitability of labeling a particular instance may not be known perfectly. It can therefore be estimated along with a measure of uncertainty. To Increase the precision on the estimate, we need to label more data. Thus, there is a dilemma between labeling data in order to increase the performance of the classifier or to better know how to select data. This dilemma is well studied in the context of finite budget optimization under the name of exploration versus exploitation dilemma. The most famous solutions make use of the principle of Optimism in the Face of Uncertainty. In this thesis, we show that it is possible to adapt this principle to the active learning problem for classification. Several algorithms have been developed for classifiers of increasing complexity, each one of them using the principle of Optimism in the Face of Uncertainty, and their performances have been empirically evaluated Electronic Thesis or Dissertation Text fr http://www.theses.fr/2016LORR0084/document Collet, Timothé 2016-07-11 Université de Lorraine Pietquin, Olivier
collection NDLTD
language fr
sources NDLTD
topic Optimisme face à l'incertitude
Classification
Apprentissage actif
Bandits à bras multiples
Optimism in the Face of Uncertainty
Classification
Active Learning
Multi-armed Bandit
006.33
spellingShingle Optimisme face à l'incertitude
Classification
Apprentissage actif
Bandits à bras multiples
Optimism in the Face of Uncertainty
Classification
Active Learning
Multi-armed Bandit
006.33
Collet, Timothé
Méthodes optimistes d’apprentissage actif pour la classification
description La classification se base sur un jeu de données étiquetées par un expert. Plus le jeu de données est grand, meilleure est la performance de classification. Pourtant, la requête à un expert peut parfois être coûteuse. Le but de l'apprentissage actif est alors de minimiser le nombre de requêtes à l'expert. La collection des données non-étiquetées reste aisée cependant et illimitée, il est donc nécessaire de faire un choix sur les données à annoter, l'idée est alors de profiter de ce choix pour maximiser les performances en ne lui fournissant que les données les plus informatives à étiqueter. Pourtant, le niveau d'informativité de chaque donnée ne peut pas être calculé exactement et ne peut être estimé qu'à une incertitude près. Améliorer la précision de l'estimation nécessite d'annoter de nouvelles données. Il y a donc un dilemme entre utiliser le budget d'annotations disponible pour améliorer la performance du classifieur selon l'estimation actuelle du critère ou pour améliorer la précision sur le critère. Ce dilemme est bien connu dans le cadre de l'optimisation en budget fini sous le nom de dilemme entre exploration et exploitation. Les solutions usuelles pour résoudre ce dilemme dans ce contexte font usage du principe d'Optimisme Face à l'Incertitude. Dans cette thèse, nous montrons donc qu'il est possible d'adapter ce principe au problème d'apprentissage actif pour la classification. Pour cela, plusieurs algorithmes ont été être développés pour des classifieurs de complexité croissante, chacun utilisant le principe de l'Optimisme Face à l'Incertitude, et leurs résultats ont été évalués empiriquement === A Classification problem makes use of a training set consisting of data labeled by an oracle. The larger the training set, the best the performance. However, requesting the oracle may be costly. The goal of Active Learning is thus to minimize the number of requests to the oracle while achieving the best performance. To do so, the data that are presented to the oracle must be carefully selected among a large number of unlabeled instances acquired at no cost. However, the true profitability of labeling a particular instance may not be known perfectly. It can therefore be estimated along with a measure of uncertainty. To Increase the precision on the estimate, we need to label more data. Thus, there is a dilemma between labeling data in order to increase the performance of the classifier or to better know how to select data. This dilemma is well studied in the context of finite budget optimization under the name of exploration versus exploitation dilemma. The most famous solutions make use of the principle of Optimism in the Face of Uncertainty. In this thesis, we show that it is possible to adapt this principle to the active learning problem for classification. Several algorithms have been developed for classifiers of increasing complexity, each one of them using the principle of Optimism in the Face of Uncertainty, and their performances have been empirically evaluated
author2 Université de Lorraine
author_facet Université de Lorraine
Collet, Timothé
author Collet, Timothé
author_sort Collet, Timothé
title Méthodes optimistes d’apprentissage actif pour la classification
title_short Méthodes optimistes d’apprentissage actif pour la classification
title_full Méthodes optimistes d’apprentissage actif pour la classification
title_fullStr Méthodes optimistes d’apprentissage actif pour la classification
title_full_unstemmed Méthodes optimistes d’apprentissage actif pour la classification
title_sort méthodes optimistes d’apprentissage actif pour la classification
publishDate 2016
url http://www.theses.fr/2016LORR0084/document
work_keys_str_mv AT collettimothe methodesoptimistesdapprentissageactifpourlaclassification
AT collettimothe optimisticmethodsinactivelearningforclassification
_version_ 1719192366613528576