Požymių išskyrimas optimizuojant priklausomumo struktūrą

Daugelis praktiškai reikšmingu sistemu mokymo uždaviniu reikalauja gebeti panaudoti didelio matavimo, strukturizuotus, netiesinius duomenis. Vaizdu, teksto, socialiniu bei verslo ryšiu analize, ivairus bioinformatikos uždaviniai galetu buti tokiu uždaviniu pavyzdžiais. Todel požymiu išskyrimas dažna...

Full description

Bibliographic Details
Main Author: Daniušis, Povilas
Other Authors: Vaitkus, Pranas
Format: Doctoral Thesis
Language:Lithuanian
Published: Lithuanian Academic Libraries Network (LABT) 2012
Subjects:
Online Access:http://vddb.laba.lt/fedora/get/LT-eLABa-0001:E.02~2012~D_20121001_093636-64906/DS.005.0.01.ETD
id ndltd-LABT_ETD-oai-elaba.lt-LT-eLABa-0001-E.02~2012~D_20121001_093636-64906
record_format oai_dc
spelling ndltd-LABT_ETD-oai-elaba.lt-LT-eLABa-0001-E.02~2012~D_20121001_093636-649062014-01-16T03:40:25Z2012-10-01litInformaticsDaniušis, PovilasPožymių išskyrimas optimizuojant priklausomumo struktūrąFeature extraction via dependence structure optimizationLithuanian Academic Libraries Network (LABT)Daugelis praktiškai reikšmingu sistemu mokymo uždaviniu reikalauja gebeti panaudoti didelio matavimo, strukturizuotus, netiesinius duomenis. Vaizdu, teksto, socialiniu bei verslo ryšiu analize, ivairus bioinformatikos uždaviniai galetu buti tokiu uždaviniu pavyzdžiais. Todel požymiu išskyrimas dažnai yra pirmasis žingsnis, kuriuo pradedama duomenu analize ir nuo kurio priklauso galutinio rezultato sekme. Šio disertacinio darbo tyrimo objektas yra požymiu išskyrimo algoritmai, besiremiantys priklausomumo savoka. Darbe nagrinejamas priklausomumas, nusakytas kovariacinio operatoriaus Hilberto-Šmidto normos (HSIC mato) branduoliniu ivertiniu. Pasiulyti šiuo ivertiniu besiremiantys HBFE ir HSCA algoritmai leidžia dirbti su bet kokios strukturos duomenimis, bei yra formuluojami tikriniu vektoriu terminais (tai leidžia optimizavimui naudoti standartinius paketus), bei taikytini ne tik prižiurimo, bet ir dalinai prižiurimo mokymo imtims. Pastaruoju atveju HBFE ir HSCA modifikacijos remiasi Laplaso reguliarizacija. Eksperimentais su klasifikavimo bei daugiažymio klasifikavimo duomenimis parodyta, jog pasiulyti algoritmai leidžia pagerinti klasifikavimo efektyvuma lyginant su PCA ar LDA.In many important real world applications the initial representation of the data is inconvenient, or even prohibitive for further analysis. For example, in image analysis, text analysis and computational genetics high-dimensional, massive, structural, incomplete, and noisy data sets are common. Therefore, feature extraction, or revelation of informative features from the raw data is one of fundamental machine learning problems. Efficient feature extraction helps to understand data and the process that generates it, reduce costs for future measurements and data analysis. The representation of the structured data as a compact set of informative numeric features allows applying well studied machine learning techniques instead of developing new ones.. The dissertation focuses on supervised and semi-supervised feature extraction methods, which optimize the dependence structure of features. The dependence is measured using the kernel estimator of Hilbert-Schmidt norm of covariance operator (HSIC measure). Two dependence structures are investigated: in the first case we seek features which maximize the dependence on the dependent variable, and in the second one, we additionally minimize the mutual dependence of features. Linear and kernel formulations of HBFE and HSCA are provided. Using Laplacian regularization framework we construct semi-supervised variants of HBFE and HSCA. Suggested algorithms were investigated experimentally using conventional and multilabel classification data... [to full text]Požymių išskyrimasDimensijos mažinimasPriklausomumo maksimizavimasPriklausomumo optimizavimasHSICFeature extractionDimensionality reductionDependence maximizationDependence optimizationHSICDoctoral thesisVaitkus, PranasŽilinskas, AntanasNavakauskas, DaliusVaicekauskas, RimantasBastys, AlgirdasSimutis, RimvydasBikelis, Algimantas JonasBaronas, RomasVilnius UniversityVilnius Universityhttp://vddb.laba.lt/obj/LT-eLABa-0001:E.02~2012~D_20121001_093636-64906LT-eLABa-0001:E.02~2012~D_20121001_093636-64906VU-nmbaqdzoujt-20120906-075652http://vddb.laba.lt/fedora/get/LT-eLABa-0001:E.02~2012~D_20121001_093636-64906/DS.005.0.01.ETDUnrestrictedapplication/pdf
collection NDLTD
language Lithuanian
format Doctoral Thesis
sources NDLTD
topic Informatics
Požymių išskyrimas
Dimensijos mažinimas
Priklausomumo maksimizavimas
Priklausomumo optimizavimas
HSIC
Feature extraction
Dimensionality reduction
Dependence maximization
Dependence optimization
HSIC
spellingShingle Informatics
Požymių išskyrimas
Dimensijos mažinimas
Priklausomumo maksimizavimas
Priklausomumo optimizavimas
HSIC
Feature extraction
Dimensionality reduction
Dependence maximization
Dependence optimization
HSIC
Daniušis, Povilas
Požymių išskyrimas optimizuojant priklausomumo struktūrą
description Daugelis praktiškai reikšmingu sistemu mokymo uždaviniu reikalauja gebeti panaudoti didelio matavimo, strukturizuotus, netiesinius duomenis. Vaizdu, teksto, socialiniu bei verslo ryšiu analize, ivairus bioinformatikos uždaviniai galetu buti tokiu uždaviniu pavyzdžiais. Todel požymiu išskyrimas dažnai yra pirmasis žingsnis, kuriuo pradedama duomenu analize ir nuo kurio priklauso galutinio rezultato sekme. Šio disertacinio darbo tyrimo objektas yra požymiu išskyrimo algoritmai, besiremiantys priklausomumo savoka. Darbe nagrinejamas priklausomumas, nusakytas kovariacinio operatoriaus Hilberto-Šmidto normos (HSIC mato) branduoliniu ivertiniu. Pasiulyti šiuo ivertiniu besiremiantys HBFE ir HSCA algoritmai leidžia dirbti su bet kokios strukturos duomenimis, bei yra formuluojami tikriniu vektoriu terminais (tai leidžia optimizavimui naudoti standartinius paketus), bei taikytini ne tik prižiurimo, bet ir dalinai prižiurimo mokymo imtims. Pastaruoju atveju HBFE ir HSCA modifikacijos remiasi Laplaso reguliarizacija. Eksperimentais su klasifikavimo bei daugiažymio klasifikavimo duomenimis parodyta, jog pasiulyti algoritmai leidžia pagerinti klasifikavimo efektyvuma lyginant su PCA ar LDA. === In many important real world applications the initial representation of the data is inconvenient, or even prohibitive for further analysis. For example, in image analysis, text analysis and computational genetics high-dimensional, massive, structural, incomplete, and noisy data sets are common. Therefore, feature extraction, or revelation of informative features from the raw data is one of fundamental machine learning problems. Efficient feature extraction helps to understand data and the process that generates it, reduce costs for future measurements and data analysis. The representation of the structured data as a compact set of informative numeric features allows applying well studied machine learning techniques instead of developing new ones.. The dissertation focuses on supervised and semi-supervised feature extraction methods, which optimize the dependence structure of features. The dependence is measured using the kernel estimator of Hilbert-Schmidt norm of covariance operator (HSIC measure). Two dependence structures are investigated: in the first case we seek features which maximize the dependence on the dependent variable, and in the second one, we additionally minimize the mutual dependence of features. Linear and kernel formulations of HBFE and HSCA are provided. Using Laplacian regularization framework we construct semi-supervised variants of HBFE and HSCA. Suggested algorithms were investigated experimentally using conventional and multilabel classification data... [to full text]
author2 Vaitkus, Pranas
author_facet Vaitkus, Pranas
Daniušis, Povilas
author Daniušis, Povilas
author_sort Daniušis, Povilas
title Požymių išskyrimas optimizuojant priklausomumo struktūrą
title_short Požymių išskyrimas optimizuojant priklausomumo struktūrą
title_full Požymių išskyrimas optimizuojant priklausomumo struktūrą
title_fullStr Požymių išskyrimas optimizuojant priklausomumo struktūrą
title_full_unstemmed Požymių išskyrimas optimizuojant priklausomumo struktūrą
title_sort požymių išskyrimas optimizuojant priklausomumo struktūrą
publisher Lithuanian Academic Libraries Network (LABT)
publishDate 2012
url http://vddb.laba.lt/fedora/get/LT-eLABa-0001:E.02~2012~D_20121001_093636-64906/DS.005.0.01.ETD
work_keys_str_mv AT daniusispovilas pozymiuisskyrimasoptimizuojantpriklausomumostruktura
AT daniusispovilas featureextractionviadependencestructureoptimization
_version_ 1716624707099295744