Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive
Cette thèse présente un cadre formel pour l'interaction Homme-robot (HRI), qui reconnaître un important lexique de gestes statiques et dynamiques mesurés par des capteurs portatifs. Gestes statiques et dynamiques sont classés séparément grâce à un processus de segmentation. Les tests expériment...
Main Author: | |
---|---|
Other Authors: | |
Language: | fr |
Published: |
2018
|
Subjects: | |
Online Access: | http://www.theses.fr/2018ENAM0048/document |
id |
ndltd-theses.fr-2018ENAM0048 |
---|---|
record_format |
oai_dc |
spelling |
ndltd-theses.fr-2018ENAM00482019-04-26T03:53:46Z Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive Gesture Segmentation and Recognition for Cognitive Human-Robot Interaction Interaction homme-Robot Robotique collaborative Segmentation non supervisée Reconaissance de formes en ligne Aprentissage supervisée Aprentissage en profondeur Human-Robot interaction Collaborative robotics Unsupervised segmentation Online pattern recognition Supervised learning Deep learning Cette thèse présente un cadre formel pour l'interaction Homme-robot (HRI), qui reconnaître un important lexique de gestes statiques et dynamiques mesurés par des capteurs portatifs. Gestes statiques et dynamiques sont classés séparément grâce à un processus de segmentation. Les tests expérimentaux sur la base de données de gestes UC2017 ont montré une haute précision de classification. La classification pas à pas en ligne utilisant des données brutes est fait avec des réseaux de neurones profonds « Long-Short Term Memory » (LSTM) et à convolution (CNN), et sont plus performants que les modèles statiques entraînés avec des caractéristiques spécialement conçues, au détriment du temps d'entraînement et d'inférence. La classification en ligne des gestes permet une classification prédictive avec réussit. Le rejet des gestes hors vocabulaire est proposé par apprentissage semi-supervisé par un réseau de neurones du type « Auxiliary Conditional Generative Adversarial Networks ». Le réseau propose a atteint une haute précision de rejet de les gestes non entraînés de la base de données UC2018 DualMyo. This thesis presents a human-robot interaction (HRI) framework to classify large vocabularies of static and dynamic hand gestures, captured with wearable sensors. Static and dynamic gestures are classified separately thanks to the segmentation process. Experimental tests on the UC2017 hand gesture dataset showed high accuracy. In online frame-by-frame classification using raw incomplete data, Long Short-Term Memory (LSTM) deep networks and Convolutional Neural Networks (CNN) performed better than static models with specially crafted features at the cost of training and inference time. Online classification of dynamic gestures allows successful predictive classification. The rejection of out-of-vocabulary gestures is proposed to be done through semi-supervised learning of a network in the Auxiliary Conditional Generative Adversarial Networks framework. The proposed network achieved a high accuracy on the rejection of untrained patterns of the UC2018 DualMyo dataset. Electronic Thesis or Dissertation Text fr http://www.theses.fr/2018ENAM0048/document Simao, Miguel 2018-12-17 Paris, ENSAM Universidade de Coimbra Gibaru, Olivier Neto, Pedro |
collection |
NDLTD |
language |
fr |
sources |
NDLTD |
topic |
Interaction homme-Robot Robotique collaborative Segmentation non supervisée Reconaissance de formes en ligne Aprentissage supervisée Aprentissage en profondeur Human-Robot interaction Collaborative robotics Unsupervised segmentation Online pattern recognition Supervised learning Deep learning |
spellingShingle |
Interaction homme-Robot Robotique collaborative Segmentation non supervisée Reconaissance de formes en ligne Aprentissage supervisée Aprentissage en profondeur Human-Robot interaction Collaborative robotics Unsupervised segmentation Online pattern recognition Supervised learning Deep learning Simao, Miguel Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive |
description |
Cette thèse présente un cadre formel pour l'interaction Homme-robot (HRI), qui reconnaître un important lexique de gestes statiques et dynamiques mesurés par des capteurs portatifs. Gestes statiques et dynamiques sont classés séparément grâce à un processus de segmentation. Les tests expérimentaux sur la base de données de gestes UC2017 ont montré une haute précision de classification. La classification pas à pas en ligne utilisant des données brutes est fait avec des réseaux de neurones profonds « Long-Short Term Memory » (LSTM) et à convolution (CNN), et sont plus performants que les modèles statiques entraînés avec des caractéristiques spécialement conçues, au détriment du temps d'entraînement et d'inférence. La classification en ligne des gestes permet une classification prédictive avec réussit. Le rejet des gestes hors vocabulaire est proposé par apprentissage semi-supervisé par un réseau de neurones du type « Auxiliary Conditional Generative Adversarial Networks ». Le réseau propose a atteint une haute précision de rejet de les gestes non entraînés de la base de données UC2018 DualMyo. === This thesis presents a human-robot interaction (HRI) framework to classify large vocabularies of static and dynamic hand gestures, captured with wearable sensors. Static and dynamic gestures are classified separately thanks to the segmentation process. Experimental tests on the UC2017 hand gesture dataset showed high accuracy. In online frame-by-frame classification using raw incomplete data, Long Short-Term Memory (LSTM) deep networks and Convolutional Neural Networks (CNN) performed better than static models with specially crafted features at the cost of training and inference time. Online classification of dynamic gestures allows successful predictive classification. The rejection of out-of-vocabulary gestures is proposed to be done through semi-supervised learning of a network in the Auxiliary Conditional Generative Adversarial Networks framework. The proposed network achieved a high accuracy on the rejection of untrained patterns of the UC2018 DualMyo dataset. |
author2 |
Paris, ENSAM |
author_facet |
Paris, ENSAM Simao, Miguel |
author |
Simao, Miguel |
author_sort |
Simao, Miguel |
title |
Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive |
title_short |
Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive |
title_full |
Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive |
title_fullStr |
Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive |
title_full_unstemmed |
Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive |
title_sort |
segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive |
publishDate |
2018 |
url |
http://www.theses.fr/2018ENAM0048/document |
work_keys_str_mv |
AT simaomiguel segmentationetreconaissancedesgestespourlinteractionhommerobotcognitive AT simaomiguel gesturesegmentationandrecognitionforcognitivehumanrobotinteraction |
_version_ |
1719020763622670336 |