Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive

Cette thèse présente un cadre formel pour l'interaction Homme-robot (HRI), qui reconnaître un important lexique de gestes statiques et dynamiques mesurés par des capteurs portatifs. Gestes statiques et dynamiques sont classés séparément grâce à un processus de segmentation. Les tests expériment...

Full description

Bibliographic Details
Main Author: Simao, Miguel
Other Authors: Paris, ENSAM
Language:fr
Published: 2018
Subjects:
Online Access:http://www.theses.fr/2018ENAM0048/document
id ndltd-theses.fr-2018ENAM0048
record_format oai_dc
spelling ndltd-theses.fr-2018ENAM00482019-04-26T03:53:46Z Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive Gesture Segmentation and Recognition for Cognitive Human-Robot Interaction Interaction homme-Robot Robotique collaborative Segmentation non supervisée Reconaissance de formes en ligne Aprentissage supervisée Aprentissage en profondeur Human-Robot interaction Collaborative robotics Unsupervised segmentation Online pattern recognition Supervised learning Deep learning Cette thèse présente un cadre formel pour l'interaction Homme-robot (HRI), qui reconnaître un important lexique de gestes statiques et dynamiques mesurés par des capteurs portatifs. Gestes statiques et dynamiques sont classés séparément grâce à un processus de segmentation. Les tests expérimentaux sur la base de données de gestes UC2017 ont montré une haute précision de classification. La classification pas à pas en ligne utilisant des données brutes est fait avec des réseaux de neurones profonds « Long-Short Term Memory » (LSTM) et à convolution (CNN), et sont plus performants que les modèles statiques entraînés avec des caractéristiques spécialement conçues, au détriment du temps d'entraînement et d'inférence. La classification en ligne des gestes permet une classification prédictive avec réussit. Le rejet des gestes hors vocabulaire est proposé par apprentissage semi-supervisé par un réseau de neurones du type « Auxiliary Conditional Generative Adversarial Networks ». Le réseau propose a atteint une haute précision de rejet de les gestes non entraînés de la base de données UC2018 DualMyo. This thesis presents a human-robot interaction (HRI) framework to classify large vocabularies of static and dynamic hand gestures, captured with wearable sensors. Static and dynamic gestures are classified separately thanks to the segmentation process. Experimental tests on the UC2017 hand gesture dataset showed high accuracy. In online frame-by-frame classification using raw incomplete data, Long Short-Term Memory (LSTM) deep networks and Convolutional Neural Networks (CNN) performed better than static models with specially crafted features at the cost of training and inference time. Online classification of dynamic gestures allows successful predictive classification. The rejection of out-of-vocabulary gestures is proposed to be done through semi-supervised learning of a network in the Auxiliary Conditional Generative Adversarial Networks framework. The proposed network achieved a high accuracy on the rejection of untrained patterns of the UC2018 DualMyo dataset. Electronic Thesis or Dissertation Text fr http://www.theses.fr/2018ENAM0048/document Simao, Miguel 2018-12-17 Paris, ENSAM Universidade de Coimbra Gibaru, Olivier Neto, Pedro
collection NDLTD
language fr
sources NDLTD
topic Interaction homme-Robot
Robotique collaborative
Segmentation non supervisée
Reconaissance de formes en ligne
Aprentissage supervisée
Aprentissage en profondeur
Human-Robot interaction
Collaborative robotics
Unsupervised segmentation
Online pattern recognition
Supervised learning
Deep learning

spellingShingle Interaction homme-Robot
Robotique collaborative
Segmentation non supervisée
Reconaissance de formes en ligne
Aprentissage supervisée
Aprentissage en profondeur
Human-Robot interaction
Collaborative robotics
Unsupervised segmentation
Online pattern recognition
Supervised learning
Deep learning

Simao, Miguel
Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive
description Cette thèse présente un cadre formel pour l'interaction Homme-robot (HRI), qui reconnaître un important lexique de gestes statiques et dynamiques mesurés par des capteurs portatifs. Gestes statiques et dynamiques sont classés séparément grâce à un processus de segmentation. Les tests expérimentaux sur la base de données de gestes UC2017 ont montré une haute précision de classification. La classification pas à pas en ligne utilisant des données brutes est fait avec des réseaux de neurones profonds « Long-Short Term Memory » (LSTM) et à convolution (CNN), et sont plus performants que les modèles statiques entraînés avec des caractéristiques spécialement conçues, au détriment du temps d'entraînement et d'inférence. La classification en ligne des gestes permet une classification prédictive avec réussit. Le rejet des gestes hors vocabulaire est proposé par apprentissage semi-supervisé par un réseau de neurones du type « Auxiliary Conditional Generative Adversarial Networks ». Le réseau propose a atteint une haute précision de rejet de les gestes non entraînés de la base de données UC2018 DualMyo. === This thesis presents a human-robot interaction (HRI) framework to classify large vocabularies of static and dynamic hand gestures, captured with wearable sensors. Static and dynamic gestures are classified separately thanks to the segmentation process. Experimental tests on the UC2017 hand gesture dataset showed high accuracy. In online frame-by-frame classification using raw incomplete data, Long Short-Term Memory (LSTM) deep networks and Convolutional Neural Networks (CNN) performed better than static models with specially crafted features at the cost of training and inference time. Online classification of dynamic gestures allows successful predictive classification. The rejection of out-of-vocabulary gestures is proposed to be done through semi-supervised learning of a network in the Auxiliary Conditional Generative Adversarial Networks framework. The proposed network achieved a high accuracy on the rejection of untrained patterns of the UC2018 DualMyo dataset.
author2 Paris, ENSAM
author_facet Paris, ENSAM
Simao, Miguel
author Simao, Miguel
author_sort Simao, Miguel
title Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive
title_short Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive
title_full Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive
title_fullStr Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive
title_full_unstemmed Segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive
title_sort segmentation et reconaissance des gestes pour l'interaction homme-robot cognitive
publishDate 2018
url http://www.theses.fr/2018ENAM0048/document
work_keys_str_mv AT simaomiguel segmentationetreconaissancedesgestespourlinteractionhommerobotcognitive
AT simaomiguel gesturesegmentationandrecognitionforcognitivehumanrobotinteraction
_version_ 1719020763622670336