Fusion de données audio-visuelles pour l'interaction Homme-Robot

Dans le cadre de la robotique d'assistance, cette thèse a pour but de fusionner deux canaux d'informations (visuelles et auditives) dont peut disposer un robot afin de compléter et/ou confirmer les données qu'un seul canal aurait pu fournir, et ce, en vue d'une interaction avancé...

Full description

Bibliographic Details
Main Author: Burger, Brice
Language:FRE
Published: Université Paul Sabatier - Toulouse III 2010
Subjects:
Online Access:http://tel.archives-ouvertes.fr/tel-00494382
http://tel.archives-ouvertes.fr/docs/00/49/43/82/PDF/manuscrit_Burger_Brice_final.pdf
id ndltd-CCSD-oai-tel.archives-ouvertes.fr-tel-00494382
record_format oai_dc
spelling ndltd-CCSD-oai-tel.archives-ouvertes.fr-tel-004943822013-01-07T17:59:55Z http://tel.archives-ouvertes.fr/tel-00494382 http://tel.archives-ouvertes.fr/docs/00/49/43/82/PDF/manuscrit_Burger_Brice_final.pdf Fusion de données audio-visuelles pour l'interaction Homme-Robot Burger, Brice [SPI:AUTO] Engineering Sciences/Automatic Classification de gestes compréhension de la parole fusion multimodale vision interaction homme-robot Dans le cadre de la robotique d'assistance, cette thèse a pour but de fusionner deux canaux d'informations (visuelles et auditives) dont peut disposer un robot afin de compléter et/ou confirmer les données qu'un seul canal aurait pu fournir, et ce, en vue d'une interaction avancée entre homme et robot. Pour ce faire, nos travaux proposent une interface perceptuelle pour l'interaction multimodale ayant vocation à interpréter conjointement parole et geste, notamment pour le traitement des références spatiales. Nous décrivons dans un premier temps la composante parole de nos travaux qui consiste en un système embarqué de reconnaissance et d'interprétation de la parole continue. Nous détaillons ensuite la partie vision composée d'un traqueur visuel multi-cibles chargé du suivi en 3D de la tête et des deux mains, ainsi que d'un second traqueur chargé du suivi de l'orientation du visage. Ces derniers alimentent un système de reconnaissance de gestes par DBNs décrit par la suite. Nous poursuivons par la description d'un module chargé de la fusion des données issues de ces sources d'informations dans un cadre probabiliste. Enfin, nous démontrons l'intérêt et la faisabilité d'une telle interface multimodale à travers un certains nombre de démonstrations sur les robots du LAAS-CNRS. L'ensemble de ces travaux est fonctionnel en quasi-temps réel sur ces plateformes robotiques réelles. 2010-01-29 FRE PhD thesis Université Paul Sabatier - Toulouse III
collection NDLTD
language FRE
sources NDLTD
topic [SPI:AUTO] Engineering Sciences/Automatic
Classification de gestes
compréhension de la parole
fusion multimodale
vision
interaction homme-robot
spellingShingle [SPI:AUTO] Engineering Sciences/Automatic
Classification de gestes
compréhension de la parole
fusion multimodale
vision
interaction homme-robot
Burger, Brice
Fusion de données audio-visuelles pour l'interaction Homme-Robot
description Dans le cadre de la robotique d'assistance, cette thèse a pour but de fusionner deux canaux d'informations (visuelles et auditives) dont peut disposer un robot afin de compléter et/ou confirmer les données qu'un seul canal aurait pu fournir, et ce, en vue d'une interaction avancée entre homme et robot. Pour ce faire, nos travaux proposent une interface perceptuelle pour l'interaction multimodale ayant vocation à interpréter conjointement parole et geste, notamment pour le traitement des références spatiales. Nous décrivons dans un premier temps la composante parole de nos travaux qui consiste en un système embarqué de reconnaissance et d'interprétation de la parole continue. Nous détaillons ensuite la partie vision composée d'un traqueur visuel multi-cibles chargé du suivi en 3D de la tête et des deux mains, ainsi que d'un second traqueur chargé du suivi de l'orientation du visage. Ces derniers alimentent un système de reconnaissance de gestes par DBNs décrit par la suite. Nous poursuivons par la description d'un module chargé de la fusion des données issues de ces sources d'informations dans un cadre probabiliste. Enfin, nous démontrons l'intérêt et la faisabilité d'une telle interface multimodale à travers un certains nombre de démonstrations sur les robots du LAAS-CNRS. L'ensemble de ces travaux est fonctionnel en quasi-temps réel sur ces plateformes robotiques réelles.
author Burger, Brice
author_facet Burger, Brice
author_sort Burger, Brice
title Fusion de données audio-visuelles pour l'interaction Homme-Robot
title_short Fusion de données audio-visuelles pour l'interaction Homme-Robot
title_full Fusion de données audio-visuelles pour l'interaction Homme-Robot
title_fullStr Fusion de données audio-visuelles pour l'interaction Homme-Robot
title_full_unstemmed Fusion de données audio-visuelles pour l'interaction Homme-Robot
title_sort fusion de données audio-visuelles pour l'interaction homme-robot
publisher Université Paul Sabatier - Toulouse III
publishDate 2010
url http://tel.archives-ouvertes.fr/tel-00494382
http://tel.archives-ouvertes.fr/docs/00/49/43/82/PDF/manuscrit_Burger_Brice_final.pdf
work_keys_str_mv AT burgerbrice fusiondedonneesaudiovisuellespourlinteractionhommerobot
_version_ 1716397784456757248