Požymių išskyrimas optimizuojant priklausomumo struktūrą
Daugelis praktiškai reikšmingu sistemu mokymo uždaviniu reikalauja gebeti panaudoti didelio matavimo, strukturizuotus, netiesinius duomenis. Vaizdu, teksto, socialiniu bei verslo ryšiu analize, ivairus bioinformatikos uždaviniai galetu buti tokiu uždaviniu pavyzdžiais. Todel požymiu išskyrimas dažna...
Main Author: | |
---|---|
Other Authors: | |
Format: | Doctoral Thesis |
Language: | Lithuanian |
Published: |
Lithuanian Academic Libraries Network (LABT)
2012
|
Subjects: | |
Online Access: | http://vddb.laba.lt/fedora/get/LT-eLABa-0001:E.02~2012~D_20121001_093636-64906/DS.005.0.01.ETD |
id |
ndltd-LABT_ETD-oai-elaba.lt-LT-eLABa-0001-E.02~2012~D_20121001_093636-64906 |
---|---|
record_format |
oai_dc |
spelling |
ndltd-LABT_ETD-oai-elaba.lt-LT-eLABa-0001-E.02~2012~D_20121001_093636-649062014-01-16T03:40:25Z2012-10-01litInformaticsDaniušis, PovilasPožymių išskyrimas optimizuojant priklausomumo struktūrąFeature extraction via dependence structure optimizationLithuanian Academic Libraries Network (LABT)Daugelis praktiškai reikšmingu sistemu mokymo uždaviniu reikalauja gebeti panaudoti didelio matavimo, strukturizuotus, netiesinius duomenis. Vaizdu, teksto, socialiniu bei verslo ryšiu analize, ivairus bioinformatikos uždaviniai galetu buti tokiu uždaviniu pavyzdžiais. Todel požymiu išskyrimas dažnai yra pirmasis žingsnis, kuriuo pradedama duomenu analize ir nuo kurio priklauso galutinio rezultato sekme. Šio disertacinio darbo tyrimo objektas yra požymiu išskyrimo algoritmai, besiremiantys priklausomumo savoka. Darbe nagrinejamas priklausomumas, nusakytas kovariacinio operatoriaus Hilberto-Šmidto normos (HSIC mato) branduoliniu ivertiniu. Pasiulyti šiuo ivertiniu besiremiantys HBFE ir HSCA algoritmai leidžia dirbti su bet kokios strukturos duomenimis, bei yra formuluojami tikriniu vektoriu terminais (tai leidžia optimizavimui naudoti standartinius paketus), bei taikytini ne tik prižiurimo, bet ir dalinai prižiurimo mokymo imtims. Pastaruoju atveju HBFE ir HSCA modifikacijos remiasi Laplaso reguliarizacija. Eksperimentais su klasifikavimo bei daugiažymio klasifikavimo duomenimis parodyta, jog pasiulyti algoritmai leidžia pagerinti klasifikavimo efektyvuma lyginant su PCA ar LDA.In many important real world applications the initial representation of the data is inconvenient, or even prohibitive for further analysis. For example, in image analysis, text analysis and computational genetics high-dimensional, massive, structural, incomplete, and noisy data sets are common. Therefore, feature extraction, or revelation of informative features from the raw data is one of fundamental machine learning problems. Efficient feature extraction helps to understand data and the process that generates it, reduce costs for future measurements and data analysis. The representation of the structured data as a compact set of informative numeric features allows applying well studied machine learning techniques instead of developing new ones.. The dissertation focuses on supervised and semi-supervised feature extraction methods, which optimize the dependence structure of features. The dependence is measured using the kernel estimator of Hilbert-Schmidt norm of covariance operator (HSIC measure). Two dependence structures are investigated: in the first case we seek features which maximize the dependence on the dependent variable, and in the second one, we additionally minimize the mutual dependence of features. Linear and kernel formulations of HBFE and HSCA are provided. Using Laplacian regularization framework we construct semi-supervised variants of HBFE and HSCA. Suggested algorithms were investigated experimentally using conventional and multilabel classification data... [to full text]Požymių išskyrimasDimensijos mažinimasPriklausomumo maksimizavimasPriklausomumo optimizavimasHSICFeature extractionDimensionality reductionDependence maximizationDependence optimizationHSICDoctoral thesisVaitkus, PranasŽilinskas, AntanasNavakauskas, DaliusVaicekauskas, RimantasBastys, AlgirdasSimutis, RimvydasBikelis, Algimantas JonasBaronas, RomasVilnius UniversityVilnius Universityhttp://vddb.laba.lt/obj/LT-eLABa-0001:E.02~2012~D_20121001_093636-64906LT-eLABa-0001:E.02~2012~D_20121001_093636-64906VU-nmbaqdzoujt-20120906-075652http://vddb.laba.lt/fedora/get/LT-eLABa-0001:E.02~2012~D_20121001_093636-64906/DS.005.0.01.ETDUnrestrictedapplication/pdf |
collection |
NDLTD |
language |
Lithuanian |
format |
Doctoral Thesis |
sources |
NDLTD |
topic |
Informatics Požymių išskyrimas Dimensijos mažinimas Priklausomumo maksimizavimas Priklausomumo optimizavimas HSIC Feature extraction Dimensionality reduction Dependence maximization Dependence optimization HSIC |
spellingShingle |
Informatics Požymių išskyrimas Dimensijos mažinimas Priklausomumo maksimizavimas Priklausomumo optimizavimas HSIC Feature extraction Dimensionality reduction Dependence maximization Dependence optimization HSIC Daniušis, Povilas Požymių išskyrimas optimizuojant priklausomumo struktūrą |
description |
Daugelis praktiškai reikšmingu sistemu mokymo uždaviniu reikalauja gebeti panaudoti didelio matavimo, strukturizuotus, netiesinius duomenis. Vaizdu, teksto, socialiniu bei verslo ryšiu analize, ivairus bioinformatikos uždaviniai galetu buti tokiu uždaviniu pavyzdžiais. Todel požymiu išskyrimas dažnai yra pirmasis žingsnis, kuriuo pradedama duomenu analize ir nuo kurio priklauso galutinio rezultato sekme. Šio disertacinio darbo tyrimo objektas yra požymiu išskyrimo algoritmai, besiremiantys priklausomumo savoka. Darbe nagrinejamas priklausomumas, nusakytas kovariacinio operatoriaus Hilberto-Šmidto normos (HSIC mato) branduoliniu ivertiniu. Pasiulyti šiuo ivertiniu besiremiantys HBFE ir HSCA algoritmai leidžia dirbti su bet kokios strukturos duomenimis, bei yra formuluojami tikriniu vektoriu terminais (tai leidžia optimizavimui naudoti standartinius paketus), bei taikytini ne tik prižiurimo, bet ir dalinai prižiurimo mokymo imtims. Pastaruoju atveju HBFE ir HSCA modifikacijos remiasi Laplaso reguliarizacija. Eksperimentais su klasifikavimo bei daugiažymio klasifikavimo duomenimis parodyta, jog pasiulyti algoritmai leidžia pagerinti klasifikavimo efektyvuma lyginant su PCA ar LDA. === In many important real world applications the initial representation of the data is inconvenient, or even prohibitive for further analysis. For example, in image analysis, text analysis and computational genetics high-dimensional, massive, structural, incomplete, and noisy data sets are common. Therefore, feature extraction, or revelation of informative features from the raw data is one of fundamental machine learning problems. Efficient feature extraction helps to understand data and the process that generates it, reduce costs for future measurements and data analysis. The representation of the structured data as a compact set of informative numeric features allows applying well studied machine learning techniques instead of developing new ones.. The dissertation focuses on supervised and semi-supervised feature extraction methods, which optimize the dependence structure of features. The dependence is measured using the kernel estimator of Hilbert-Schmidt norm of covariance operator (HSIC measure). Two dependence structures are investigated: in the first case we seek features which maximize the dependence on the dependent variable, and in the second one, we additionally minimize the mutual dependence of features. Linear and kernel formulations of HBFE and HSCA are provided. Using Laplacian regularization framework we construct semi-supervised variants of HBFE and HSCA. Suggested algorithms were investigated experimentally using conventional and multilabel classification data... [to full text] |
author2 |
Vaitkus, Pranas |
author_facet |
Vaitkus, Pranas Daniušis, Povilas |
author |
Daniušis, Povilas |
author_sort |
Daniušis, Povilas |
title |
Požymių išskyrimas optimizuojant priklausomumo struktūrą |
title_short |
Požymių išskyrimas optimizuojant priklausomumo struktūrą |
title_full |
Požymių išskyrimas optimizuojant priklausomumo struktūrą |
title_fullStr |
Požymių išskyrimas optimizuojant priklausomumo struktūrą |
title_full_unstemmed |
Požymių išskyrimas optimizuojant priklausomumo struktūrą |
title_sort |
požymių išskyrimas optimizuojant priklausomumo struktūrą |
publisher |
Lithuanian Academic Libraries Network (LABT) |
publishDate |
2012 |
url |
http://vddb.laba.lt/fedora/get/LT-eLABa-0001:E.02~2012~D_20121001_093636-64906/DS.005.0.01.ETD |
work_keys_str_mv |
AT daniusispovilas pozymiuisskyrimasoptimizuojantpriklausomumostruktura AT daniusispovilas featureextractionviadependencestructureoptimization |
_version_ |
1716624707099295744 |