Localisation collaborative visuelle-inertielle de robots hétérogènes communicants
La capacité à se localiser est d’une importance cruciale pour la navigation des robots. Cette importance a permis le développement de plusieurs techniques de localisation de grande précision. Notre contribution consiste à proposer un passage de la technique de localisation visuelle inertielle du cas...
Main Author: | |
---|---|
Other Authors: | |
Language: | fr |
Published: |
2019
|
Subjects: | |
Online Access: | http://www.theses.fr/2019LIMO0018/document |
id |
ndltd-theses.fr-2019LIMO0018 |
---|---|
record_format |
oai_dc |
spelling |
ndltd-theses.fr-2019LIMO00182019-11-20T04:39:11Z Localisation collaborative visuelle-inertielle de robots hétérogènes communicants Visual-inertial collaborative location of communicating heterogeneous robots Localisation VINS MSCKF ULB Collaboration Localization VINS MSCKF ULB Collaboration 629.892 433 La capacité à se localiser est d’une importance cruciale pour la navigation des robots. Cette importance a permis le développement de plusieurs techniques de localisation de grande précision. Notre contribution consiste à proposer un passage de la technique de localisation visuelle inertielle du cas individuel, au cas multi collaboratif. Ce travail a pour objectif d’aboutir à une localisation collaborative aussi rapide, robuste et précise que la technique individuelle de départ. Notre approche se base sur le filtrage en couplage serré Multi State Constraint Kalman Filter (MSCKF) pour la fusion de données. Les caractéristiques de ce filtrage sont d’abord étudiées dans le cas individuel pour tester la robustesse et la précision dans différentes conditions et avec différents modèles d’observation. Les résultats de cette étude nous ont orienté vers la structure la mieux adaptée à une augmentation au cas de localisation collaborative. L’algorithme collaboratif proposé, est basé sur un processus hiérarchique en trois étapes. Une localisation collaborative est initialisée sur la base des mesures relatives de distances Ultra Large Bande (ULB). Une localisation collaborative améliorée se base ensuite sur le chevauchement des images en utilisant un modèle de mesure adapté, et une structure de fusion de données qui absorbe l’excédent en temps de calcul provoqué par le traitement collaboratif. Enfin, pour augmenter la précision, une extraction des contraintes de structure environnement, suivie d’une intégration à l’aide d’une troncature dans le filtre sont proposées. Localization is of crucial importance for robots navigation. This importance has allowed the emergence of several precise localization techniques. Our contribution consists of proposing a transition from an individual inertial visual localization technique to the multi-robots collaborative localization case. This work aims to achieve a collaborative localization as fast, robust and accurate as the individual starting technique. We adopt a tightly coupled MSCKF (Multi State Constraint Kalman Filter) approach to achieve the data fusion. The characteristics of this data fusion are first studied in the individual case to test the robustness and the precision under different conditions and with different observation models. The results of this study directed us towards the best structure adapted to an augmentation to the collaborative localization case. The proposed collaborative algorithm is a hierarchical process of three stages. A collaborative localization is initialized based on the relative distance measurements using Ultra-Wide Band (ULB) sensors. Then, a collaborative localization based on images overlapping using a suitable measurement model, and a data fusion structure that absorbs the computation time excess caused by the collaboration is achieved. Finally, to increase precision, an extraction of the environment constraints, followed by an integration using a truncation in the filter are proposed. Electronic Thesis or Dissertation Text fr http://www.theses.fr/2019LIMO0018/document Chenchana, Bilel 2019-03-22 Limoges Labbani-Igbida, Ouiddad Renault, Stéphane Boria, Sébastien |
collection |
NDLTD |
language |
fr |
sources |
NDLTD |
topic |
Localisation VINS MSCKF ULB Collaboration Localization VINS MSCKF ULB Collaboration 629.892 433 |
spellingShingle |
Localisation VINS MSCKF ULB Collaboration Localization VINS MSCKF ULB Collaboration 629.892 433 Chenchana, Bilel Localisation collaborative visuelle-inertielle de robots hétérogènes communicants |
description |
La capacité à se localiser est d’une importance cruciale pour la navigation des robots. Cette importance a permis le développement de plusieurs techniques de localisation de grande précision. Notre contribution consiste à proposer un passage de la technique de localisation visuelle inertielle du cas individuel, au cas multi collaboratif. Ce travail a pour objectif d’aboutir à une localisation collaborative aussi rapide, robuste et précise que la technique individuelle de départ. Notre approche se base sur le filtrage en couplage serré Multi State Constraint Kalman Filter (MSCKF) pour la fusion de données. Les caractéristiques de ce filtrage sont d’abord étudiées dans le cas individuel pour tester la robustesse et la précision dans différentes conditions et avec différents modèles d’observation. Les résultats de cette étude nous ont orienté vers la structure la mieux adaptée à une augmentation au cas de localisation collaborative. L’algorithme collaboratif proposé, est basé sur un processus hiérarchique en trois étapes. Une localisation collaborative est initialisée sur la base des mesures relatives de distances Ultra Large Bande (ULB). Une localisation collaborative améliorée se base ensuite sur le chevauchement des images en utilisant un modèle de mesure adapté, et une structure de fusion de données qui absorbe l’excédent en temps de calcul provoqué par le traitement collaboratif. Enfin, pour augmenter la précision, une extraction des contraintes de structure environnement, suivie d’une intégration à l’aide d’une troncature dans le filtre sont proposées. === Localization is of crucial importance for robots navigation. This importance has allowed the emergence of several precise localization techniques. Our contribution consists of proposing a transition from an individual inertial visual localization technique to the multi-robots collaborative localization case. This work aims to achieve a collaborative localization as fast, robust and accurate as the individual starting technique. We adopt a tightly coupled MSCKF (Multi State Constraint Kalman Filter) approach to achieve the data fusion. The characteristics of this data fusion are first studied in the individual case to test the robustness and the precision under different conditions and with different observation models. The results of this study directed us towards the best structure adapted to an augmentation to the collaborative localization case. The proposed collaborative algorithm is a hierarchical process of three stages. A collaborative localization is initialized based on the relative distance measurements using Ultra-Wide Band (ULB) sensors. Then, a collaborative localization based on images overlapping using a suitable measurement model, and a data fusion structure that absorbs the computation time excess caused by the collaboration is achieved. Finally, to increase precision, an extraction of the environment constraints, followed by an integration using a truncation in the filter are proposed. |
author2 |
Limoges |
author_facet |
Limoges Chenchana, Bilel |
author |
Chenchana, Bilel |
author_sort |
Chenchana, Bilel |
title |
Localisation collaborative visuelle-inertielle de robots hétérogènes communicants |
title_short |
Localisation collaborative visuelle-inertielle de robots hétérogènes communicants |
title_full |
Localisation collaborative visuelle-inertielle de robots hétérogènes communicants |
title_fullStr |
Localisation collaborative visuelle-inertielle de robots hétérogènes communicants |
title_full_unstemmed |
Localisation collaborative visuelle-inertielle de robots hétérogènes communicants |
title_sort |
localisation collaborative visuelle-inertielle de robots hétérogènes communicants |
publishDate |
2019 |
url |
http://www.theses.fr/2019LIMO0018/document |
work_keys_str_mv |
AT chenchanabilel localisationcollaborativevisuelleinertiellederobotsheterogenescommunicants AT chenchanabilel visualinertialcollaborativelocationofcommunicatingheterogeneousrobots |
_version_ |
1719293550649147392 |