Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar).

Résumé : La texture dispose d’un bon potentiel discriminant qui complète celui des paramètres radiométriques dans le processus de classification d’image. L’indice Compact Texture Unit (CTU) multibande, récemment mis au point par Safia et He (2014), permet d’extraire la texture sur plusieurs bandes à...

Full description

Bibliographic Details
Main Author: Mondésir, Jacques Philémon
Other Authors: He, Dong-Chen
Language:French
English
Published: Université de Sherbrooke 2016
Subjects:
Online Access:http://hdl.handle.net/11143/9706
id ndltd-usherbrooke.ca-oai-savoirs.usherbrooke.ca-11143-9706
record_format oai_dc
collection NDLTD
language French
English
sources NDLTD
topic Traitement d'images
Texture
CTU-multibande
Fusion
Données multisources
Classification orientée-objet
Occupation du sol
Image processing
CTU-multiband
Data merging
Objected-oriented classification
Land cover mapping
spellingShingle Traitement d'images
Texture
CTU-multibande
Fusion
Données multisources
Classification orientée-objet
Occupation du sol
Image processing
CTU-multiband
Data merging
Objected-oriented classification
Land cover mapping
Mondésir, Jacques Philémon
Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar).
description Résumé : La texture dispose d’un bon potentiel discriminant qui complète celui des paramètres radiométriques dans le processus de classification d’image. L’indice Compact Texture Unit (CTU) multibande, récemment mis au point par Safia et He (2014), permet d’extraire la texture sur plusieurs bandes à la fois, donc de tirer parti d’un surcroît d’informations ignorées jusqu’ici dans les analyses texturales traditionnelles : l’interdépendance entre les bandes. Toutefois, ce nouvel outil n’a pas encore été testé sur des images multisources, usage qui peut se révéler d’un grand intérêt quand on considère par exemple toute la richesse texturale que le radar peut apporter en supplément à l’optique, par combinaison de données. Cette étude permet donc de compléter la validation initiée par Safia (2014) en appliquant le CTU sur un couple d’images optique-radar. L’analyse texturale de ce jeu de données a permis de générer une image en « texture couleur ». Ces bandes texturales créées sont à nouveau combinées avec les bandes initiales de l’optique, avant d’être intégrées dans un processus de classification de l’occupation du sol sous eCognition. Le même procédé de classification (mais sans CTU) est appliqué respectivement sur : la donnée Optique, puis le Radar, et enfin la combinaison Optique-Radar. Par ailleurs le CTU généré sur l’Optique uniquement (monosource) est comparé à celui dérivant du couple Optique-Radar (multisources). L’analyse du pouvoir séparateur de ces différentes bandes à partir d’histogrammes, ainsi que l’outil matrice de confusion, permet de confronter la performance de ces différents cas de figure et paramètres utilisés. Ces éléments de comparaison présentent le CTU, et notamment le CTU multisources, comme le critère le plus discriminant ; sa présence rajoute de la variabilité dans l’image permettant ainsi une segmentation plus nette, une classification à la fois plus détaillée et plus performante. En effet, la précision passe de 0.5 avec l’image Optique à 0.74 pour l’image CTU, alors que la confusion diminue en passant de 0.30 (dans l’Optique) à 0.02 (dans le CTU). === Abstract : Texture has a good discriminating power which complements the radiometric parameters in the image classification process. The index Compact Texture Unit multiband, recently developed by Safia and He (2014), allows to extract texture from several bands at a time, so taking advantage of extra information not previously considered in the traditional textural analysis: the interdependence between bands. However, this new tool has not yet been tested on multi-source images, use that could be an interesting added-value considering, for example, all the textural richness the radar can provide in addition to optics, by combining data. This study allows to complete validation initiated by Safia (2014), by applying the CTU on an optics-radar dataset. The textural analysis of this multisource data allowed to produce a "color texture" image. These newly created textural bands are again combined with the initial optical bands before their use in a classification process of land cover in eCognition. The same classification process (but without CTU) was applied respectively to: Optics data, then Radar, finally on the Optics-Radar combination. Otherwise, the CTU generated on the optics separately (monosource) was compared to CTU arising from Optical-Radar couple (multisource). The analysis of the separating power of these different bands (radiometric and textural) with histograms, and the confusion matrix tool allows to compare the performance of these different scenarios and classification parameters. These comparators show the CTU, including the CTU multisource, as the most discriminating criterion; his presence adds variability in the image thus allowing a clearer segmentation (homogeneous and non-redundant), a classification both more detailed and more efficient. Indeed, the accuracy changes from 0.5 with the Optics image to 0.74 for the CTU image while confusion decreases from 0.30 (in Optics) to 0.02 (in the CTU).
author2 He, Dong-Chen
author_facet He, Dong-Chen
Mondésir, Jacques Philémon
author Mondésir, Jacques Philémon
author_sort Mondésir, Jacques Philémon
title Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar).
title_short Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar).
title_full Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar).
title_fullStr Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar).
title_full_unstemmed Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar).
title_sort apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar).
publisher Université de Sherbrooke
publishDate 2016
url http://hdl.handle.net/11143/9706
work_keys_str_mv AT mondesirjacquesphilemon apportsdelatexturemultibandedanslaclassificationorienteeobjetsdimagesmultisourcesoptiqueetradar
AT mondesirjacquesphilemon contributionsoftexturemultibandinobjectorientedclassificationofmultisourceimageryopticsandradar
_version_ 1718393382542245888
spelling ndltd-usherbrooke.ca-oai-savoirs.usherbrooke.ca-11143-97062016-11-17T17:13:01Z Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar). Contributions of texture "multiband" in object-oriented classification of multisource imagery (optics and radar). Mondésir, Jacques Philémon He, Dong-Chen Traitement d'images Texture CTU-multibande Fusion Données multisources Classification orientée-objet Occupation du sol Image processing CTU-multiband Data merging Objected-oriented classification Land cover mapping Résumé : La texture dispose d’un bon potentiel discriminant qui complète celui des paramètres radiométriques dans le processus de classification d’image. L’indice Compact Texture Unit (CTU) multibande, récemment mis au point par Safia et He (2014), permet d’extraire la texture sur plusieurs bandes à la fois, donc de tirer parti d’un surcroît d’informations ignorées jusqu’ici dans les analyses texturales traditionnelles : l’interdépendance entre les bandes. Toutefois, ce nouvel outil n’a pas encore été testé sur des images multisources, usage qui peut se révéler d’un grand intérêt quand on considère par exemple toute la richesse texturale que le radar peut apporter en supplément à l’optique, par combinaison de données. Cette étude permet donc de compléter la validation initiée par Safia (2014) en appliquant le CTU sur un couple d’images optique-radar. L’analyse texturale de ce jeu de données a permis de générer une image en « texture couleur ». Ces bandes texturales créées sont à nouveau combinées avec les bandes initiales de l’optique, avant d’être intégrées dans un processus de classification de l’occupation du sol sous eCognition. Le même procédé de classification (mais sans CTU) est appliqué respectivement sur : la donnée Optique, puis le Radar, et enfin la combinaison Optique-Radar. Par ailleurs le CTU généré sur l’Optique uniquement (monosource) est comparé à celui dérivant du couple Optique-Radar (multisources). L’analyse du pouvoir séparateur de ces différentes bandes à partir d’histogrammes, ainsi que l’outil matrice de confusion, permet de confronter la performance de ces différents cas de figure et paramètres utilisés. Ces éléments de comparaison présentent le CTU, et notamment le CTU multisources, comme le critère le plus discriminant ; sa présence rajoute de la variabilité dans l’image permettant ainsi une segmentation plus nette, une classification à la fois plus détaillée et plus performante. En effet, la précision passe de 0.5 avec l’image Optique à 0.74 pour l’image CTU, alors que la confusion diminue en passant de 0.30 (dans l’Optique) à 0.02 (dans le CTU). Abstract : Texture has a good discriminating power which complements the radiometric parameters in the image classification process. The index Compact Texture Unit multiband, recently developed by Safia and He (2014), allows to extract texture from several bands at a time, so taking advantage of extra information not previously considered in the traditional textural analysis: the interdependence between bands. However, this new tool has not yet been tested on multi-source images, use that could be an interesting added-value considering, for example, all the textural richness the radar can provide in addition to optics, by combining data. This study allows to complete validation initiated by Safia (2014), by applying the CTU on an optics-radar dataset. The textural analysis of this multisource data allowed to produce a "color texture" image. These newly created textural bands are again combined with the initial optical bands before their use in a classification process of land cover in eCognition. The same classification process (but without CTU) was applied respectively to: Optics data, then Radar, finally on the Optics-Radar combination. Otherwise, the CTU generated on the optics separately (monosource) was compared to CTU arising from Optical-Radar couple (multisource). The analysis of the separating power of these different bands (radiometric and textural) with histograms, and the confusion matrix tool allows to compare the performance of these different scenarios and classification parameters. These comparators show the CTU, including the CTU multisource, as the most discriminating criterion; his presence adds variability in the image thus allowing a clearer segmentation (homogeneous and non-redundant), a classification both more detailed and more efficient. Indeed, the accuracy changes from 0.5 with the Optics image to 0.74 for the CTU image while confusion decreases from 0.30 (in Optics) to 0.02 (in the CTU). 2016 Mémoire http://hdl.handle.net/11143/9706 fre eng © Jacques Philemon Mondesir Attribution 2.5 Canada http://creativecommons.org/licenses/by/2.5/ca/ Université de Sherbrooke