Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen

Am Beispiel moderner Automatisierungssysteme wird deutlich, dass die Steuerung und optimale Führung der technischen Prozesse eng verbunden ist mit der Verfügbarkeit eines möglichst exakten Prozessmodells. Steht jedoch kein Modell des zu steuernden Systems zur Verfügung oder ist das System nicht aus...

Full description

Bibliographic Details
Main Author: Tagscherer, Michael
Other Authors: TU Chemnitz, Fakultät für Elektrotechnik und Informationstechnik
Format: Doctoral Thesis
Language:deu
Published: Universitätsbibliothek Chemnitz 2001
Subjects:
Online Access:http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200100725
http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200100725
http://www.qucosa.de/fileadmin/data/qucosa/documents/4431/data/tagscherer.pdf
http://www.qucosa.de/fileadmin/data/qucosa/documents/4431/20010072.txt
id ndltd-DRESDEN-oai-qucosa.de-bsz-ch1-200100725
record_format oai_dc
collection NDLTD
language deu
format Doctoral Thesis
sources NDLTD
topic Hybrid-Verfahren
Kontinuierliches Lernen
Adaptive Netztopologie
Vertrauenswürdigkeitsprognose
Zeitvarianz
Neural Networks
Hybrid Network
Continuous Learning
Confidence Value
Time Variance
ddc:004
Neuronales Netz
Lernendes System
Computerunterstütztes Lernen
spellingShingle Hybrid-Verfahren
Kontinuierliches Lernen
Adaptive Netztopologie
Vertrauenswürdigkeitsprognose
Zeitvarianz
Neural Networks
Hybrid Network
Continuous Learning
Confidence Value
Time Variance
ddc:004
Neuronales Netz
Lernendes System
Computerunterstütztes Lernen
Tagscherer, Michael
Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen
description Am Beispiel moderner Automatisierungssysteme wird deutlich, dass die Steuerung und optimale Führung der technischen Prozesse eng verbunden ist mit der Verfügbarkeit eines möglichst exakten Prozessmodells. Steht jedoch kein Modell des zu steuernden Systems zur Verfügung oder ist das System nicht ausreichend genau analytisch beschreibbar, muss ein adäquates Modell auf der Basis von Beobachtungen (Messdaten) abgeleitet werden. Erschwerend wirken sich hierbei starke Nichtlinearitäten sowie der zeitvariante Charakter der zu identifizierenden Systeme aus. Die Zeitvarianz, beispielsweise durch Alterung oder Verschleiß hervorgerufen, erfordert zusätzlich eine schritthaltende Adaption an den sich verändernden Prozess. Das einmalige, zeitlich begrenzte Erstellen eines Modells ist somit nicht ausreichend. Stattdessen muss zeitlich unbegrenzt "nachtrainiert" werden, was dementsprechend als "Kontinuierliches Lernen" bezeichnet wird. Auch wenn das Ableiten eines Systemmodells anhand von Beobachtungen eine typische Aufgabenstellung für Neuronale Netze ist, stellt die Zeitvarianz Neuronale Netze dennoch vor enorme Probleme. Im Rahmen der Dissertation wurden diese Probleme identifiziert und anhand von unterschiedlichen Neuronalen Netzansätzen analysiert. Auf den sich hieraus ergebenden Ergebnissen steht anschließend die Entwicklung eines neuartigen Neuronalen Netzansatzes im Mittelpunkt. Die besondere Eigenschaft des hybriden ICE-Lernverfahrens ist die Fähigkeit, eine zur Problemkomplexität adäquate Netztopologie selbstständig zu generieren und diese entsprechend des zeitvarianten Charakters der Zielfunktion dynamisch adaptieren zu können. Diese Eigenschaft begünstigt insbesondere schnelles Initiallernen. Darüber hinaus ist das ICE-Verfahren in der Lage, parallel zur Modellausgabe Vertrauenswürdigkeitsprognosen für die aktuelle Ausgabe zur Verfügung zu stellen. Den Abschluss der Arbeit bildet eine spezielle Form des ICE-Ansatzes, bei der durch asymmetrische Aktivierungsfunktionen Parallelen zur Fuzzy-Logik hergestellt werden. Dadurch wird es möglich, automatisch Regeln abzuleiten, welche das erlernte Modell beschreiben. Die "Black-Box", die Neuronale Netze in der Regel darstellen, wird dadurch transparenter. === One of the main requirements for an optimal industrial control system is the availability of a precise model of the process, e.g. for a steel rolling mill. If no model or no analytical description of such a process is available a sufficient model has to be derived from observations, i.e. system identification. While nonlinear function approximation is a well-known application for neural networks, the approximation of nonlinear functions that change over time poses many additional problems which have been in the focus of this research. The time-variance caused for example by aging or attrition requires a continuous adaptation to process changes throughout the life-time of the system, here referred to as continuous learning. Based on the analysis of different neural network approaches the novel incremental construction algorithm ICE for continuous learning tasks has been developed. One of the main advantages of the ICE-algorithm is that the number of RBF-neurons and the number of local models of the hybrid network have not to be determined in advance. This is an important feature for fast initial learning. The evolved network is automatically adapted to the time-variant target function. Another advantage of the ICE-algorithm is the ability to simultaneously learn the target function and a confidence value for the network output. Finally a special version of the ICE-algorithm with asymmetric receptive fields is introduced. Here similarities to fuzzy logic are intended. The goal is to automatically derive rules which describe the learned model of the unknown process. In general a neural network is a "black box". In contrast to that an ICE-network is more transparent.
author2 TU Chemnitz, Fakultät für Elektrotechnik und Informationstechnik
author_facet TU Chemnitz, Fakultät für Elektrotechnik und Informationstechnik
Tagscherer, Michael
author Tagscherer, Michael
author_sort Tagscherer, Michael
title Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen
title_short Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen
title_full Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen
title_fullStr Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen
title_full_unstemmed Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen
title_sort dynamische neuronale netzarchitektur für kontinuierliches lernen
publisher Universitätsbibliothek Chemnitz
publishDate 2001
url http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200100725
http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200100725
http://www.qucosa.de/fileadmin/data/qucosa/documents/4431/data/tagscherer.pdf
http://www.qucosa.de/fileadmin/data/qucosa/documents/4431/20010072.txt
work_keys_str_mv AT tagscherermichael dynamischeneuronalenetzarchitekturfurkontinuierlicheslernen
_version_ 1716471840119980032
spelling ndltd-DRESDEN-oai-qucosa.de-bsz-ch1-2001007252013-01-07T19:55:22Z Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen Tagscherer, Michael Hybrid-Verfahren Kontinuierliches Lernen Adaptive Netztopologie Vertrauenswürdigkeitsprognose Zeitvarianz Neural Networks Hybrid Network Continuous Learning Confidence Value Time Variance ddc:004 Neuronales Netz Lernendes System Computerunterstütztes Lernen Am Beispiel moderner Automatisierungssysteme wird deutlich, dass die Steuerung und optimale Führung der technischen Prozesse eng verbunden ist mit der Verfügbarkeit eines möglichst exakten Prozessmodells. Steht jedoch kein Modell des zu steuernden Systems zur Verfügung oder ist das System nicht ausreichend genau analytisch beschreibbar, muss ein adäquates Modell auf der Basis von Beobachtungen (Messdaten) abgeleitet werden. Erschwerend wirken sich hierbei starke Nichtlinearitäten sowie der zeitvariante Charakter der zu identifizierenden Systeme aus. Die Zeitvarianz, beispielsweise durch Alterung oder Verschleiß hervorgerufen, erfordert zusätzlich eine schritthaltende Adaption an den sich verändernden Prozess. Das einmalige, zeitlich begrenzte Erstellen eines Modells ist somit nicht ausreichend. Stattdessen muss zeitlich unbegrenzt "nachtrainiert" werden, was dementsprechend als "Kontinuierliches Lernen" bezeichnet wird. Auch wenn das Ableiten eines Systemmodells anhand von Beobachtungen eine typische Aufgabenstellung für Neuronale Netze ist, stellt die Zeitvarianz Neuronale Netze dennoch vor enorme Probleme. Im Rahmen der Dissertation wurden diese Probleme identifiziert und anhand von unterschiedlichen Neuronalen Netzansätzen analysiert. Auf den sich hieraus ergebenden Ergebnissen steht anschließend die Entwicklung eines neuartigen Neuronalen Netzansatzes im Mittelpunkt. Die besondere Eigenschaft des hybriden ICE-Lernverfahrens ist die Fähigkeit, eine zur Problemkomplexität adäquate Netztopologie selbstständig zu generieren und diese entsprechend des zeitvarianten Charakters der Zielfunktion dynamisch adaptieren zu können. Diese Eigenschaft begünstigt insbesondere schnelles Initiallernen. Darüber hinaus ist das ICE-Verfahren in der Lage, parallel zur Modellausgabe Vertrauenswürdigkeitsprognosen für die aktuelle Ausgabe zur Verfügung zu stellen. Den Abschluss der Arbeit bildet eine spezielle Form des ICE-Ansatzes, bei der durch asymmetrische Aktivierungsfunktionen Parallelen zur Fuzzy-Logik hergestellt werden. Dadurch wird es möglich, automatisch Regeln abzuleiten, welche das erlernte Modell beschreiben. Die "Black-Box", die Neuronale Netze in der Regel darstellen, wird dadurch transparenter. One of the main requirements for an optimal industrial control system is the availability of a precise model of the process, e.g. for a steel rolling mill. If no model or no analytical description of such a process is available a sufficient model has to be derived from observations, i.e. system identification. While nonlinear function approximation is a well-known application for neural networks, the approximation of nonlinear functions that change over time poses many additional problems which have been in the focus of this research. The time-variance caused for example by aging or attrition requires a continuous adaptation to process changes throughout the life-time of the system, here referred to as continuous learning. Based on the analysis of different neural network approaches the novel incremental construction algorithm ICE for continuous learning tasks has been developed. One of the main advantages of the ICE-algorithm is that the number of RBF-neurons and the number of local models of the hybrid network have not to be determined in advance. This is an important feature for fast initial learning. The evolved network is automatically adapted to the time-variant target function. Another advantage of the ICE-algorithm is the ability to simultaneously learn the target function and a confidence value for the network output. Finally a special version of the ICE-algorithm with asymmetric receptive fields is introduced. Here similarities to fuzzy logic are intended. The goal is to automatically derive rules which describe the learned model of the unknown process. In general a neural network is a "black box". In contrast to that an ICE-network is more transparent. Universitätsbibliothek Chemnitz TU Chemnitz, Fakultät für Elektrotechnik und Informationstechnik 2001-08-23 doc-type:doctoralThesis application/pdf text/plain application/zip http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200100725 urn:nbn:de:bsz:ch1-200100725 http://www.qucosa.de/fileadmin/data/qucosa/documents/4431/data/tagscherer.pdf http://www.qucosa.de/fileadmin/data/qucosa/documents/4431/20010072.txt deu