Classificadores de alta interpretabilidade e de alta precisão
=== Building a Machine Learning application, typically requires an expert who defines the objectives and data that have a causal relationship with these objectives, selects the best model that fits the assumptions and data, conducts some experiments and analyses the quality of the solution. In the...
Main Author: | |
---|---|
Other Authors: | |
Format: | Others |
Language: | Portuguese |
Published: |
Universidade Federal de Minas Gerais
2013
|
Online Access: | http://hdl.handle.net/1843/ESBF-9GNGG3 |
id |
ndltd-IBICT-oai-bibliotecadigital.ufmg.br-MTD2BR-ESBF-9GNGG3 |
---|---|
record_format |
oai_dc |
collection |
NDLTD |
language |
Portuguese |
format |
Others
|
sources |
NDLTD |
description |
=== Building a Machine Learning application, typically requires an expert who defines the objectives and data that have a causal relationship with these objectives, selects the best model that fits the assumptions and data, conducts some experiments and analyses the quality of the solution. In the analysis phase, a fundamental property of the model is its interpretability. In some application domains, such as medical or business, the interpretability is taken as a differential solution. To build an interpretable model, it is recommended the use of few features within the parsimony principle, which states that everything being equal, simpler explanations are preferable. Recently, this principle has shown to be well suited to associative classifiers, where the number of rules composing the classifier can be substantially reduced by using condensed representations such as maximal or closed rules. However, the remaining amount of rules is still large, and the resulting models are hard to interpret. In this work we propose a more aggressive filtering strategy, which decreases the number of rules within the classifier without hurting its accuracy. Our strategy consists in evaluating each rule under different statistical criteria, and filtering only those rules that show a positive balance between all the criteria considered. Specifically, each candidate rule is associated with a point in an n-dimensional scatter-gram, where each coordinate corresponds to a statistical criterion. Points that are not dominated by any other point in the scatter-gram compose the Pareto frontier, and correspond to rules that are optimal in the sense that there is no rule that is better off when all the criteria are taken into account. Finally, rules lying in the Pareto frontier are filtered and compose the classifier. A systematic set of experiments involving benchmark data as well as recent data from actual application scenarios, followed by an extensive set of significance tests, reveal that the proposed strategy decreases the number of rules by up to two orders of magnitude and produces classifiers that are more readable without hurting accuracy. === Na construção de uma aplicação de aprendizado de máquina, um especialista define seu objetivo, determina, baseado em algumas hipóteses, os dados que possuem uma relação causal com o objetivo, seleciona o modelo que melhor se adequa a suas hipóteses e dados, realiza experimentos e analisa a qualidade da solução. Na fase de análise, uma propriedade fundamental do modelo é a interpretabilidade. Em alguns domínios de aplicação, como médica ou de negócios, a interpretabilidade é tida como diferencial. Para que um modelo seja interpretável é indicado que ele possua poucos atributos e siga o princípio da parcimônia no qual, dentre explicações equivalentes, as mais simples são preferíveis. Esse princípio tem se mostrado adequado para classificadores baseados em regras de associação, nos quais a quantidade de regras utilizadas podem ser substancialmente reduzidas utilizando-se representações condensadas, como os conjuntos máximos ou fechados. Porém, a quantidade restante de regras ainda é grande, sendo os modelos resultantes de difícil interpretabilidade. Neste trabalho, propomos uma estratégia de redução mais agressiva, que ao mesmo tempo mantem a acurácia do classificador. Essa estratégia consiste em avaliar
cada regra sob um critério estatístico e filtrar as melhores. Cada regra representa um ponto num espaço no qual cada dimensão é representada por um critério estatístico. Pontos que não são dominados por nenhum outro compõem a fronteira de Pareto e correspondem às regras que são ótimas, dado que não existe regra que possa ser melhor do que elas nos critérios selecionados. Um conjunto sistemático de experimentos envolvendo dados de referência, assim como dados de aplicações atuais, seguido de um conjunto extensivo de testes de significância, revelam que a estratégia proposta foi capaz de reduzir em até duas ordens de grandeza (reduções de até 96%) a quantidade de regras utilizadas na classificação, produzindo classificadores mais interpretáveis, sem prejudicar a acurácia dos modelos. |
author2 |
Adriano Alonso Veloso |
author_facet |
Adriano Alonso Veloso Itamar Sakae Viana Hata |
author |
Itamar Sakae Viana Hata |
spellingShingle |
Itamar Sakae Viana Hata Classificadores de alta interpretabilidade e de alta precisão |
author_sort |
Itamar Sakae Viana Hata |
title |
Classificadores de alta interpretabilidade e de alta precisão |
title_short |
Classificadores de alta interpretabilidade e de alta precisão |
title_full |
Classificadores de alta interpretabilidade e de alta precisão |
title_fullStr |
Classificadores de alta interpretabilidade e de alta precisão |
title_full_unstemmed |
Classificadores de alta interpretabilidade e de alta precisão |
title_sort |
classificadores de alta interpretabilidade e de alta precisão |
publisher |
Universidade Federal de Minas Gerais |
publishDate |
2013 |
url |
http://hdl.handle.net/1843/ESBF-9GNGG3 |
work_keys_str_mv |
AT itamarsakaevianahata classificadoresdealtainterpretabilidadeedealtaprecisao |
_version_ |
1718846669482622976 |
spelling |
ndltd-IBICT-oai-bibliotecadigital.ufmg.br-MTD2BR-ESBF-9GNGG32019-01-21T18:05:23Z Classificadores de alta interpretabilidade e de alta precisão Itamar Sakae Viana Hata Adriano Alonso Veloso Nivio Ziviani Nivio Ziviani Berthier Ribeiro de Araujo Neto Renato Antonio Celso Ferreira Building a Machine Learning application, typically requires an expert who defines the objectives and data that have a causal relationship with these objectives, selects the best model that fits the assumptions and data, conducts some experiments and analyses the quality of the solution. In the analysis phase, a fundamental property of the model is its interpretability. In some application domains, such as medical or business, the interpretability is taken as a differential solution. To build an interpretable model, it is recommended the use of few features within the parsimony principle, which states that everything being equal, simpler explanations are preferable. Recently, this principle has shown to be well suited to associative classifiers, where the number of rules composing the classifier can be substantially reduced by using condensed representations such as maximal or closed rules. However, the remaining amount of rules is still large, and the resulting models are hard to interpret. In this work we propose a more aggressive filtering strategy, which decreases the number of rules within the classifier without hurting its accuracy. Our strategy consists in evaluating each rule under different statistical criteria, and filtering only those rules that show a positive balance between all the criteria considered. Specifically, each candidate rule is associated with a point in an n-dimensional scatter-gram, where each coordinate corresponds to a statistical criterion. Points that are not dominated by any other point in the scatter-gram compose the Pareto frontier, and correspond to rules that are optimal in the sense that there is no rule that is better off when all the criteria are taken into account. Finally, rules lying in the Pareto frontier are filtered and compose the classifier. A systematic set of experiments involving benchmark data as well as recent data from actual application scenarios, followed by an extensive set of significance tests, reveal that the proposed strategy decreases the number of rules by up to two orders of magnitude and produces classifiers that are more readable without hurting accuracy. Na construção de uma aplicação de aprendizado de máquina, um especialista define seu objetivo, determina, baseado em algumas hipóteses, os dados que possuem uma relação causal com o objetivo, seleciona o modelo que melhor se adequa a suas hipóteses e dados, realiza experimentos e analisa a qualidade da solução. Na fase de análise, uma propriedade fundamental do modelo é a interpretabilidade. Em alguns domínios de aplicação, como médica ou de negócios, a interpretabilidade é tida como diferencial. Para que um modelo seja interpretável é indicado que ele possua poucos atributos e siga o princípio da parcimônia no qual, dentre explicações equivalentes, as mais simples são preferíveis. Esse princípio tem se mostrado adequado para classificadores baseados em regras de associação, nos quais a quantidade de regras utilizadas podem ser substancialmente reduzidas utilizando-se representações condensadas, como os conjuntos máximos ou fechados. Porém, a quantidade restante de regras ainda é grande, sendo os modelos resultantes de difícil interpretabilidade. Neste trabalho, propomos uma estratégia de redução mais agressiva, que ao mesmo tempo mantem a acurácia do classificador. Essa estratégia consiste em avaliar cada regra sob um critério estatístico e filtrar as melhores. Cada regra representa um ponto num espaço no qual cada dimensão é representada por um critério estatístico. Pontos que não são dominados por nenhum outro compõem a fronteira de Pareto e correspondem às regras que são ótimas, dado que não existe regra que possa ser melhor do que elas nos critérios selecionados. Um conjunto sistemático de experimentos envolvendo dados de referência, assim como dados de aplicações atuais, seguido de um conjunto extensivo de testes de significância, revelam que a estratégia proposta foi capaz de reduzir em até duas ordens de grandeza (reduções de até 96%) a quantidade de regras utilizadas na classificação, produzindo classificadores mais interpretáveis, sem prejudicar a acurácia dos modelos. 2013-12-12 info:eu-repo/semantics/publishedVersion info:eu-repo/semantics/masterThesis http://hdl.handle.net/1843/ESBF-9GNGG3 por info:eu-repo/semantics/openAccess text/html Universidade Federal de Minas Gerais 32001010004P6 - CIÊNCIA DA COMPUTAÇÃO UFMG BR reponame:Biblioteca Digital de Teses e Dissertações da UFMG instname:Universidade Federal de Minas Gerais instacron:UFMG |