Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar).
Résumé : La texture dispose d’un bon potentiel discriminant qui complète celui des paramètres radiométriques dans le processus de classification d’image. L’indice Compact Texture Unit (CTU) multibande, récemment mis au point par Safia et He (2014), permet d’extraire la texture sur plusieurs bandes à...
Main Author: | |
---|---|
Other Authors: | |
Language: | French English |
Published: |
Université de Sherbrooke
2016
|
Subjects: | |
Online Access: | http://hdl.handle.net/11143/9706 |
id |
ndltd-usherbrooke.ca-oai-savoirs.usherbrooke.ca-11143-9706 |
---|---|
record_format |
oai_dc |
collection |
NDLTD |
language |
French English |
sources |
NDLTD |
topic |
Traitement d'images Texture CTU-multibande Fusion Données multisources Classification orientée-objet Occupation du sol Image processing CTU-multiband Data merging Objected-oriented classification Land cover mapping |
spellingShingle |
Traitement d'images Texture CTU-multibande Fusion Données multisources Classification orientée-objet Occupation du sol Image processing CTU-multiband Data merging Objected-oriented classification Land cover mapping Mondésir, Jacques Philémon Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar). |
description |
Résumé : La texture dispose d’un bon potentiel discriminant qui complète celui des paramètres radiométriques dans le processus de classification d’image. L’indice Compact Texture Unit (CTU) multibande, récemment mis au point par Safia et He (2014), permet d’extraire la texture sur plusieurs bandes à la fois, donc de tirer parti d’un surcroît d’informations ignorées jusqu’ici dans les analyses texturales traditionnelles : l’interdépendance entre les bandes. Toutefois, ce nouvel outil n’a pas encore été testé sur des images multisources, usage qui peut se révéler d’un grand intérêt quand on considère par exemple toute la richesse texturale que le radar peut apporter en supplément à l’optique, par combinaison de données.
Cette étude permet donc de compléter la validation initiée par Safia (2014) en appliquant le CTU sur un couple d’images optique-radar. L’analyse texturale de ce jeu de données a permis de générer une image en « texture couleur ». Ces bandes texturales créées sont à nouveau combinées avec les bandes initiales de l’optique, avant d’être intégrées dans un processus de classification de l’occupation du sol sous eCognition. Le même procédé de classification (mais sans CTU) est appliqué respectivement sur : la donnée Optique, puis le Radar, et enfin la combinaison Optique-Radar. Par ailleurs le CTU généré sur l’Optique uniquement (monosource) est comparé à celui dérivant du couple Optique-Radar (multisources).
L’analyse du pouvoir séparateur de ces différentes bandes à partir d’histogrammes, ainsi que l’outil matrice de confusion, permet de confronter la performance de ces différents cas de figure et paramètres utilisés. Ces éléments de comparaison présentent le CTU, et notamment le CTU multisources, comme le critère le plus discriminant ; sa présence rajoute de la variabilité dans l’image permettant ainsi une segmentation plus nette, une classification à la fois plus détaillée et plus performante. En effet, la précision passe de 0.5 avec l’image Optique à 0.74 pour l’image CTU, alors que la confusion diminue en passant de 0.30 (dans l’Optique) à 0.02 (dans le CTU). === Abstract : Texture has a good discriminating power which complements the radiometric parameters in the image classification process. The index Compact Texture Unit multiband, recently developed by Safia and He (2014), allows to extract texture from several bands at a time, so taking advantage of extra information not previously considered in the traditional textural analysis: the interdependence between bands. However, this new tool has not yet been tested on multi-source images, use that could be an interesting added-value considering, for example, all the textural richness the radar can provide in addition to optics, by combining data.
This study allows to complete validation initiated by Safia (2014), by applying the CTU on an optics-radar dataset. The textural analysis of this multisource data allowed to produce a "color texture" image. These newly created textural bands are again combined with the initial optical bands before their use in a classification process of land cover in eCognition. The same classification process (but without CTU) was applied respectively to: Optics data, then Radar, finally on the Optics-Radar combination. Otherwise, the CTU generated on the optics separately (monosource) was compared to CTU arising from Optical-Radar couple (multisource).
The analysis of the separating power of these different bands (radiometric and textural) with histograms, and the confusion matrix tool allows to compare the performance of these different scenarios and classification parameters. These comparators show the CTU, including the CTU multisource, as the most discriminating criterion; his presence adds variability in the image thus allowing a clearer segmentation (homogeneous and non-redundant), a classification both more detailed and more efficient. Indeed, the accuracy changes from 0.5 with the Optics image to 0.74 for the CTU image while confusion decreases from 0.30 (in Optics) to 0.02 (in the CTU). |
author2 |
He, Dong-Chen |
author_facet |
He, Dong-Chen Mondésir, Jacques Philémon |
author |
Mondésir, Jacques Philémon |
author_sort |
Mondésir, Jacques Philémon |
title |
Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar). |
title_short |
Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar). |
title_full |
Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar). |
title_fullStr |
Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar). |
title_full_unstemmed |
Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar). |
title_sort |
apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar). |
publisher |
Université de Sherbrooke |
publishDate |
2016 |
url |
http://hdl.handle.net/11143/9706 |
work_keys_str_mv |
AT mondesirjacquesphilemon apportsdelatexturemultibandedanslaclassificationorienteeobjetsdimagesmultisourcesoptiqueetradar AT mondesirjacquesphilemon contributionsoftexturemultibandinobjectorientedclassificationofmultisourceimageryopticsandradar |
_version_ |
1718393382542245888 |
spelling |
ndltd-usherbrooke.ca-oai-savoirs.usherbrooke.ca-11143-97062016-11-17T17:13:01Z Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar). Contributions of texture "multiband" in object-oriented classification of multisource imagery (optics and radar). Mondésir, Jacques Philémon He, Dong-Chen Traitement d'images Texture CTU-multibande Fusion Données multisources Classification orientée-objet Occupation du sol Image processing CTU-multiband Data merging Objected-oriented classification Land cover mapping Résumé : La texture dispose d’un bon potentiel discriminant qui complète celui des paramètres radiométriques dans le processus de classification d’image. L’indice Compact Texture Unit (CTU) multibande, récemment mis au point par Safia et He (2014), permet d’extraire la texture sur plusieurs bandes à la fois, donc de tirer parti d’un surcroît d’informations ignorées jusqu’ici dans les analyses texturales traditionnelles : l’interdépendance entre les bandes. Toutefois, ce nouvel outil n’a pas encore été testé sur des images multisources, usage qui peut se révéler d’un grand intérêt quand on considère par exemple toute la richesse texturale que le radar peut apporter en supplément à l’optique, par combinaison de données. Cette étude permet donc de compléter la validation initiée par Safia (2014) en appliquant le CTU sur un couple d’images optique-radar. L’analyse texturale de ce jeu de données a permis de générer une image en « texture couleur ». Ces bandes texturales créées sont à nouveau combinées avec les bandes initiales de l’optique, avant d’être intégrées dans un processus de classification de l’occupation du sol sous eCognition. Le même procédé de classification (mais sans CTU) est appliqué respectivement sur : la donnée Optique, puis le Radar, et enfin la combinaison Optique-Radar. Par ailleurs le CTU généré sur l’Optique uniquement (monosource) est comparé à celui dérivant du couple Optique-Radar (multisources). L’analyse du pouvoir séparateur de ces différentes bandes à partir d’histogrammes, ainsi que l’outil matrice de confusion, permet de confronter la performance de ces différents cas de figure et paramètres utilisés. Ces éléments de comparaison présentent le CTU, et notamment le CTU multisources, comme le critère le plus discriminant ; sa présence rajoute de la variabilité dans l’image permettant ainsi une segmentation plus nette, une classification à la fois plus détaillée et plus performante. En effet, la précision passe de 0.5 avec l’image Optique à 0.74 pour l’image CTU, alors que la confusion diminue en passant de 0.30 (dans l’Optique) à 0.02 (dans le CTU). Abstract : Texture has a good discriminating power which complements the radiometric parameters in the image classification process. The index Compact Texture Unit multiband, recently developed by Safia and He (2014), allows to extract texture from several bands at a time, so taking advantage of extra information not previously considered in the traditional textural analysis: the interdependence between bands. However, this new tool has not yet been tested on multi-source images, use that could be an interesting added-value considering, for example, all the textural richness the radar can provide in addition to optics, by combining data. This study allows to complete validation initiated by Safia (2014), by applying the CTU on an optics-radar dataset. The textural analysis of this multisource data allowed to produce a "color texture" image. These newly created textural bands are again combined with the initial optical bands before their use in a classification process of land cover in eCognition. The same classification process (but without CTU) was applied respectively to: Optics data, then Radar, finally on the Optics-Radar combination. Otherwise, the CTU generated on the optics separately (monosource) was compared to CTU arising from Optical-Radar couple (multisource). The analysis of the separating power of these different bands (radiometric and textural) with histograms, and the confusion matrix tool allows to compare the performance of these different scenarios and classification parameters. These comparators show the CTU, including the CTU multisource, as the most discriminating criterion; his presence adds variability in the image thus allowing a clearer segmentation (homogeneous and non-redundant), a classification both more detailed and more efficient. Indeed, the accuracy changes from 0.5 with the Optics image to 0.74 for the CTU image while confusion decreases from 0.30 (in Optics) to 0.02 (in the CTU). 2016 Mémoire http://hdl.handle.net/11143/9706 fre eng © Jacques Philemon Mondesir Attribution 2.5 Canada http://creativecommons.org/licenses/by/2.5/ca/ Université de Sherbrooke |