Summary: | Tarefas envolvendo Reconhecimento de Padrões vêm se tornando mais freqüentes em diferentes domínios de aplicação. A maioria destas tarefas tem sido eficientemente tratada através da utilização de Redes Neurais Artificiais. Entre os modelos de Redes Neurais mais difundidos, destaca-se o modelo Perceptron Multi-Camadas (Multi-Layer Perceptron ou MLP). Entretanto, o desempenho de uma Rede Neural MLP em um determinado problema depende diretamente da topologia adotada, que deve ser determinada no inicio do processo de treinamento. A escolha da topologia de uma Rede Neural não é trivial, normalmente resultando em uma busca exaustiva pela configuração mais apropriada. Com o objetivo de auxiliar a determinação da topologia de uma Rede Neural, vários métodos foram desenvolvidos para a automação deste processo, entre os quais encontram-se as Redes Neurais Construtivas. Estas redes utilizam Algoritmos Construtivos que, a partir de uma rede mínima, inserem gradualmente novos neurônios e conexões durante o treinamento, procurando melhorar o desempenho da mesma. Contudo, a avaliação da melhor aplicação de diferentes Algoritmos Construtivos em um mesmo problema depende da homogeneidade do seu ambiente de treinamento. Este trabalho fornece a definição de um conjunto de classes abstratas para permitir que diferentes algoritmos de treinamento, incluindo Algoritmos Construtivos, sejam criados como componentes com acesso estritamente definido para futura utilização em diferentes aplicações. Através do uso destes componentes em uma nova versão do Simulador para Redes Neurais Artificiais Kipu, a análise da eficiência de Redes Neurais Construtivas em tarefas reais de Reconhecimento de Padrões teve início. === Tasks involving Pattern Recognition are becoming more frequent in many applications. Most of these tasks have been efficiently handled by Artificial Neural Networks. One of the most common models used is the MLP (Multi-Layer Perceptron), though its performance is directly dependent on the chosen topology, which it must be set in the beginning of the training process. The choice of a Neural Network topology is not trivial, and usually becomes an exhaustive search for the most appropriate configuration. Several methods have been developed to automatically find a suitable Neural Network topology, including Constructive Neural Networks. These networks are trained by Constructive Algorithms which, starting from a minimal topology, gradually insert new neurons and connections, aming to improve the network\'s performance. Nevertheless, the evaluation of the best use of such algorithms in a given task depends on the homogeneity of the training environment. This work provides the definition of a set of abstract classes which allow different training algorithms, including Constructive Algorithms, to be built as components with strictly defined access in order to be used in different applications. By using these components in a new version of the Kipu Neural Network Simulator, it is possible to begin analyzing the efficiency of Constructive Neural Networks in real Pattern Recognition tasks.
|