Uma nova abordagem do Real AdaBoost resistente a overfitting para classificação de dados binários

Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-29T18:16:12Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Valter Eduardo da Silva Júnior.pdf: 2926608 bytes, checksum: afbf1cd8b2291a8e0c01613cf854ac9a (MD5) === Made availabl...

Full description

Bibliographic Details
Main Author: SILVA JÚNIOR, Valter Eduardo da
Other Authors: http://lattes.cnpq.br/9289080285504453
Language:Portuguese
Published: Universidade Federal de Pernambuco 2017
Subjects:
Online Access:https://repositorio.ufpe.br/handle/123456789/22431
Description
Summary:Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-29T18:16:12Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Valter Eduardo da Silva Júnior.pdf: 2926608 bytes, checksum: afbf1cd8b2291a8e0c01613cf854ac9a (MD5) === Made available in DSpace on 2017-11-29T18:16:12Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Valter Eduardo da Silva Júnior.pdf: 2926608 bytes, checksum: afbf1cd8b2291a8e0c01613cf854ac9a (MD5) Previous issue date: 2016-08-26 === O estudo da Inteligência Artificial (IA) e de suas técnicas tem trazido grandes resultados para a evolução da tecnologia em diversas áreas. Técnicas já conhecidas como as Redes Neurais (RN) e Árvores de Decisão (AD) vêm sendo aprimoradas por técnicas de Boosting como o Adaptive Boosting (AdaBoost). Esta técnica é uma das que apresenta maior perspectiva de crescimento devido a seu potencial, flexibilidade e simplicidade para ser implementada em diferentes cenários, como por exemplo, no tratamento para reconhecimento de padrões. Desde o seu surgimento surgiram várias variantes do AdaBoost, as mais conhecidas são o Real AdaBoost (RAb) e Gentle AdaBoost (GAb), no intuito de obter um melhor desempenho. Um problema peculiar do Real AdaBoost é relacionado a base de dados com ruído. Vários artigos sugerem que o Real AdaBoost é sensível a um nível alto de ruído. A partir desse problema será proposto uma nova variante do Real AdaBoost com o objetivo de reduzir esta sensibilidade ao ruído visto ao aparecimento de overfitting nas bases de testes dos problemas com ruído. A nova variante do Real Adaboost será chamada de Noise Real AdaBoost (NRAb), onde será aplicada em base de dados simuladas e reais e será utilizado Real AdaBoost e Gentle AdaBoost para comparar o desempenho em relação a nova variante proposta nesta dissertação. === The study of Artificial Intelligence (AI) and its techniques have brought great results for the evolution of technology in various fields. Known techniques such as Neural Networks (RN) and Decision Trees (AD) have been enhanced by Boosting techniques such as Adaptive Boosting (AdaBoost). This technique is one that has greater prospect of growth potential due to its flexibility and simplicity to be implemented in different scenarios, such as in treatment for pattern recognition. Since its inception AdaBoost were several variants, the best known are the Real AdaBoost (RAB) and Gentle AdaBoost (GAB) in order to get better performance. A peculiar problem of Real AdaBoost is related to noise with database. Several articles suggest that Real AdaBoost is sensitive to a high noise level. From this problem a new variant of Real AdaBoost in order to reduce this sensitivity to noise seen the emergence of overfitting in the problems with noise test bases will be proposed. The new variant of the Real AdaBoost will be called Noise Real AdaBoost (NRAb), which will be applied to simulated and real data base and will be used Real AdaBoost and Gentle AdaBoost to compare performance against the new variant proposed in this dissertation.