Méthodes optimistes d’apprentissage actif pour la classification
La classification se base sur un jeu de données étiquetées par un expert. Plus le jeu de données est grand, meilleure est la performance de classification. Pourtant, la requête à un expert peut parfois être coûteuse. Le but de l'apprentissage actif est alors de minimiser le nombre de requêtes à...
Main Author: | |
---|---|
Other Authors: | |
Language: | fr |
Published: |
2016
|
Subjects: | |
Online Access: | http://www.theses.fr/2016LORR0084/document |
id |
ndltd-theses.fr-2016LORR0084 |
---|---|
record_format |
oai_dc |
spelling |
ndltd-theses.fr-2016LORR00842019-05-24T03:32:59Z Méthodes optimistes d’apprentissage actif pour la classification Optimistic Methods in Active Learning for Classification Optimisme face à l'incertitude Classification Apprentissage actif Bandits à bras multiples Optimism in the Face of Uncertainty Classification Active Learning Multi-armed Bandit 006.33 La classification se base sur un jeu de données étiquetées par un expert. Plus le jeu de données est grand, meilleure est la performance de classification. Pourtant, la requête à un expert peut parfois être coûteuse. Le but de l'apprentissage actif est alors de minimiser le nombre de requêtes à l'expert. La collection des données non-étiquetées reste aisée cependant et illimitée, il est donc nécessaire de faire un choix sur les données à annoter, l'idée est alors de profiter de ce choix pour maximiser les performances en ne lui fournissant que les données les plus informatives à étiqueter. Pourtant, le niveau d'informativité de chaque donnée ne peut pas être calculé exactement et ne peut être estimé qu'à une incertitude près. Améliorer la précision de l'estimation nécessite d'annoter de nouvelles données. Il y a donc un dilemme entre utiliser le budget d'annotations disponible pour améliorer la performance du classifieur selon l'estimation actuelle du critère ou pour améliorer la précision sur le critère. Ce dilemme est bien connu dans le cadre de l'optimisation en budget fini sous le nom de dilemme entre exploration et exploitation. Les solutions usuelles pour résoudre ce dilemme dans ce contexte font usage du principe d'Optimisme Face à l'Incertitude. Dans cette thèse, nous montrons donc qu'il est possible d'adapter ce principe au problème d'apprentissage actif pour la classification. Pour cela, plusieurs algorithmes ont été être développés pour des classifieurs de complexité croissante, chacun utilisant le principe de l'Optimisme Face à l'Incertitude, et leurs résultats ont été évalués empiriquement A Classification problem makes use of a training set consisting of data labeled by an oracle. The larger the training set, the best the performance. However, requesting the oracle may be costly. The goal of Active Learning is thus to minimize the number of requests to the oracle while achieving the best performance. To do so, the data that are presented to the oracle must be carefully selected among a large number of unlabeled instances acquired at no cost. However, the true profitability of labeling a particular instance may not be known perfectly. It can therefore be estimated along with a measure of uncertainty. To Increase the precision on the estimate, we need to label more data. Thus, there is a dilemma between labeling data in order to increase the performance of the classifier or to better know how to select data. This dilemma is well studied in the context of finite budget optimization under the name of exploration versus exploitation dilemma. The most famous solutions make use of the principle of Optimism in the Face of Uncertainty. In this thesis, we show that it is possible to adapt this principle to the active learning problem for classification. Several algorithms have been developed for classifiers of increasing complexity, each one of them using the principle of Optimism in the Face of Uncertainty, and their performances have been empirically evaluated Electronic Thesis or Dissertation Text fr http://www.theses.fr/2016LORR0084/document Collet, Timothé 2016-07-11 Université de Lorraine Pietquin, Olivier |
collection |
NDLTD |
language |
fr |
sources |
NDLTD |
topic |
Optimisme face à l'incertitude Classification Apprentissage actif Bandits à bras multiples Optimism in the Face of Uncertainty Classification Active Learning Multi-armed Bandit 006.33 |
spellingShingle |
Optimisme face à l'incertitude Classification Apprentissage actif Bandits à bras multiples Optimism in the Face of Uncertainty Classification Active Learning Multi-armed Bandit 006.33 Collet, Timothé Méthodes optimistes d’apprentissage actif pour la classification |
description |
La classification se base sur un jeu de données étiquetées par un expert. Plus le jeu de données est grand, meilleure est la performance de classification. Pourtant, la requête à un expert peut parfois être coûteuse. Le but de l'apprentissage actif est alors de minimiser le nombre de requêtes à l'expert. La collection des données non-étiquetées reste aisée cependant et illimitée, il est donc nécessaire de faire un choix sur les données à annoter, l'idée est alors de profiter de ce choix pour maximiser les performances en ne lui fournissant que les données les plus informatives à étiqueter. Pourtant, le niveau d'informativité de chaque donnée ne peut pas être calculé exactement et ne peut être estimé qu'à une incertitude près. Améliorer la précision de l'estimation nécessite d'annoter de nouvelles données. Il y a donc un dilemme entre utiliser le budget d'annotations disponible pour améliorer la performance du classifieur selon l'estimation actuelle du critère ou pour améliorer la précision sur le critère. Ce dilemme est bien connu dans le cadre de l'optimisation en budget fini sous le nom de dilemme entre exploration et exploitation. Les solutions usuelles pour résoudre ce dilemme dans ce contexte font usage du principe d'Optimisme Face à l'Incertitude. Dans cette thèse, nous montrons donc qu'il est possible d'adapter ce principe au problème d'apprentissage actif pour la classification. Pour cela, plusieurs algorithmes ont été être développés pour des classifieurs de complexité croissante, chacun utilisant le principe de l'Optimisme Face à l'Incertitude, et leurs résultats ont été évalués empiriquement === A Classification problem makes use of a training set consisting of data labeled by an oracle. The larger the training set, the best the performance. However, requesting the oracle may be costly. The goal of Active Learning is thus to minimize the number of requests to the oracle while achieving the best performance. To do so, the data that are presented to the oracle must be carefully selected among a large number of unlabeled instances acquired at no cost. However, the true profitability of labeling a particular instance may not be known perfectly. It can therefore be estimated along with a measure of uncertainty. To Increase the precision on the estimate, we need to label more data. Thus, there is a dilemma between labeling data in order to increase the performance of the classifier or to better know how to select data. This dilemma is well studied in the context of finite budget optimization under the name of exploration versus exploitation dilemma. The most famous solutions make use of the principle of Optimism in the Face of Uncertainty. In this thesis, we show that it is possible to adapt this principle to the active learning problem for classification. Several algorithms have been developed for classifiers of increasing complexity, each one of them using the principle of Optimism in the Face of Uncertainty, and their performances have been empirically evaluated |
author2 |
Université de Lorraine |
author_facet |
Université de Lorraine Collet, Timothé |
author |
Collet, Timothé |
author_sort |
Collet, Timothé |
title |
Méthodes optimistes d’apprentissage actif pour la classification |
title_short |
Méthodes optimistes d’apprentissage actif pour la classification |
title_full |
Méthodes optimistes d’apprentissage actif pour la classification |
title_fullStr |
Méthodes optimistes d’apprentissage actif pour la classification |
title_full_unstemmed |
Méthodes optimistes d’apprentissage actif pour la classification |
title_sort |
méthodes optimistes d’apprentissage actif pour la classification |
publishDate |
2016 |
url |
http://www.theses.fr/2016LORR0084/document |
work_keys_str_mv |
AT collettimothe methodesoptimistesdapprentissageactifpourlaclassification AT collettimothe optimisticmethodsinactivelearningforclassification |
_version_ |
1719192366613528576 |