Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen
Am Beispiel moderner Automatisierungssysteme wird deutlich, dass die Steuerung und optimale Führung der technischen Prozesse eng verbunden ist mit der Verfügbarkeit eines möglichst exakten Prozessmodells. Steht jedoch kein Modell des zu steuernden Systems zur Verfügung oder ist das System nicht aus...
Main Author: | |
---|---|
Other Authors: | |
Format: | Doctoral Thesis |
Language: | deu |
Published: |
Universitätsbibliothek Chemnitz
2001
|
Subjects: | |
Online Access: | http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200100725 http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200100725 http://www.qucosa.de/fileadmin/data/qucosa/documents/4431/data/tagscherer.pdf http://www.qucosa.de/fileadmin/data/qucosa/documents/4431/20010072.txt |
id |
ndltd-DRESDEN-oai-qucosa.de-bsz-ch1-200100725 |
---|---|
record_format |
oai_dc |
collection |
NDLTD |
language |
deu |
format |
Doctoral Thesis |
sources |
NDLTD |
topic |
Hybrid-Verfahren Kontinuierliches Lernen Adaptive Netztopologie Vertrauenswürdigkeitsprognose Zeitvarianz Neural Networks Hybrid Network Continuous Learning Confidence Value Time Variance ddc:004 Neuronales Netz Lernendes System Computerunterstütztes Lernen |
spellingShingle |
Hybrid-Verfahren Kontinuierliches Lernen Adaptive Netztopologie Vertrauenswürdigkeitsprognose Zeitvarianz Neural Networks Hybrid Network Continuous Learning Confidence Value Time Variance ddc:004 Neuronales Netz Lernendes System Computerunterstütztes Lernen Tagscherer, Michael Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen |
description |
Am Beispiel moderner Automatisierungssysteme wird deutlich, dass die Steuerung und optimale Führung der technischen Prozesse eng verbunden ist mit der Verfügbarkeit eines möglichst exakten Prozessmodells.
Steht jedoch kein Modell des zu steuernden Systems zur Verfügung oder ist das System nicht ausreichend genau analytisch beschreibbar, muss ein adäquates Modell auf der Basis von Beobachtungen (Messdaten) abgeleitet werden.
Erschwerend wirken sich hierbei starke Nichtlinearitäten sowie der zeitvariante Charakter der zu identifizierenden Systeme aus. Die Zeitvarianz, beispielsweise durch Alterung oder Verschleiß hervorgerufen, erfordert zusätzlich eine schritthaltende Adaption an den sich verändernden Prozess.
Das einmalige, zeitlich begrenzte Erstellen eines Modells ist somit nicht ausreichend. Stattdessen muss zeitlich unbegrenzt "nachtrainiert" werden, was dementsprechend als "Kontinuierliches Lernen" bezeichnet wird. Auch wenn das Ableiten eines Systemmodells anhand von Beobachtungen eine typische Aufgabenstellung für Neuronale Netze ist, stellt die Zeitvarianz Neuronale Netze dennoch vor enorme Probleme.
Im Rahmen der Dissertation wurden diese Probleme identifiziert und anhand von unterschiedlichen Neuronalen Netzansätzen analysiert. Auf den sich hieraus ergebenden Ergebnissen steht anschließend die Entwicklung eines neuartigen Neuronalen Netzansatzes im Mittelpunkt.
Die besondere Eigenschaft des hybriden ICE-Lernverfahrens ist die Fähigkeit, eine zur Problemkomplexität adäquate Netztopologie selbstständig zu generieren und diese entsprechend des zeitvarianten Charakters der Zielfunktion dynamisch adaptieren zu können. Diese Eigenschaft begünstigt insbesondere schnelles Initiallernen. Darüber hinaus ist das ICE-Verfahren in der Lage,
parallel zur Modellausgabe Vertrauenswürdigkeitsprognosen für die aktuelle Ausgabe zur Verfügung zu stellen.
Den Abschluss der Arbeit bildet eine spezielle Form des ICE-Ansatzes, bei der durch asymmetrische Aktivierungsfunktionen Parallelen zur Fuzzy-Logik hergestellt werden. Dadurch wird es möglich, automatisch Regeln abzuleiten, welche das erlernte Modell beschreiben.
Die "Black-Box", die Neuronale Netze in der Regel darstellen, wird dadurch transparenter. === One of the main requirements for an optimal industrial control system
is the availability of a precise model of the process, e.g. for a steel rolling
mill. If no model or no analytical description of such a process is available a sufficient model has to be derived from observations, i.e. system identification. While nonlinear function approximation is a well-known application for neural networks, the approximation of nonlinear functions
that change over time poses many additional problems which have been in the focus of this research. The time-variance caused for example by aging or attrition requires a continuous adaptation to process changes throughout the life-time of the system, here referred to as continuous learning.
Based on the analysis of different neural network approaches the novel incremental construction algorithm ICE for continuous learning tasks has been developed. One of the main advantages of the ICE-algorithm is that the number of RBF-neurons and the number of local models of the hybrid
network have not to be determined in advance. This is an important feature for fast initial learning. The evolved network is automatically adapted to the time-variant target function. Another advantage of the ICE-algorithm is the ability to simultaneously learn the target function and a
confidence value for the network output. Finally a special version of the ICE-algorithm with asymmetric receptive fields is introduced. Here similarities to fuzzy logic are intended. The goal is to automatically derive rules which describe the learned model of the unknown process. In
general a neural network is a "black box". In contrast to that an ICE-network is more transparent. |
author2 |
TU Chemnitz, Fakultät für Elektrotechnik und Informationstechnik |
author_facet |
TU Chemnitz, Fakultät für Elektrotechnik und Informationstechnik Tagscherer, Michael |
author |
Tagscherer, Michael |
author_sort |
Tagscherer, Michael |
title |
Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen |
title_short |
Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen |
title_full |
Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen |
title_fullStr |
Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen |
title_full_unstemmed |
Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen |
title_sort |
dynamische neuronale netzarchitektur für kontinuierliches lernen |
publisher |
Universitätsbibliothek Chemnitz |
publishDate |
2001 |
url |
http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200100725 http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200100725 http://www.qucosa.de/fileadmin/data/qucosa/documents/4431/data/tagscherer.pdf http://www.qucosa.de/fileadmin/data/qucosa/documents/4431/20010072.txt |
work_keys_str_mv |
AT tagscherermichael dynamischeneuronalenetzarchitekturfurkontinuierlicheslernen |
_version_ |
1716471840119980032 |
spelling |
ndltd-DRESDEN-oai-qucosa.de-bsz-ch1-2001007252013-01-07T19:55:22Z Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen Tagscherer, Michael Hybrid-Verfahren Kontinuierliches Lernen Adaptive Netztopologie Vertrauenswürdigkeitsprognose Zeitvarianz Neural Networks Hybrid Network Continuous Learning Confidence Value Time Variance ddc:004 Neuronales Netz Lernendes System Computerunterstütztes Lernen Am Beispiel moderner Automatisierungssysteme wird deutlich, dass die Steuerung und optimale Führung der technischen Prozesse eng verbunden ist mit der Verfügbarkeit eines möglichst exakten Prozessmodells. Steht jedoch kein Modell des zu steuernden Systems zur Verfügung oder ist das System nicht ausreichend genau analytisch beschreibbar, muss ein adäquates Modell auf der Basis von Beobachtungen (Messdaten) abgeleitet werden. Erschwerend wirken sich hierbei starke Nichtlinearitäten sowie der zeitvariante Charakter der zu identifizierenden Systeme aus. Die Zeitvarianz, beispielsweise durch Alterung oder Verschleiß hervorgerufen, erfordert zusätzlich eine schritthaltende Adaption an den sich verändernden Prozess. Das einmalige, zeitlich begrenzte Erstellen eines Modells ist somit nicht ausreichend. Stattdessen muss zeitlich unbegrenzt "nachtrainiert" werden, was dementsprechend als "Kontinuierliches Lernen" bezeichnet wird. Auch wenn das Ableiten eines Systemmodells anhand von Beobachtungen eine typische Aufgabenstellung für Neuronale Netze ist, stellt die Zeitvarianz Neuronale Netze dennoch vor enorme Probleme. Im Rahmen der Dissertation wurden diese Probleme identifiziert und anhand von unterschiedlichen Neuronalen Netzansätzen analysiert. Auf den sich hieraus ergebenden Ergebnissen steht anschließend die Entwicklung eines neuartigen Neuronalen Netzansatzes im Mittelpunkt. Die besondere Eigenschaft des hybriden ICE-Lernverfahrens ist die Fähigkeit, eine zur Problemkomplexität adäquate Netztopologie selbstständig zu generieren und diese entsprechend des zeitvarianten Charakters der Zielfunktion dynamisch adaptieren zu können. Diese Eigenschaft begünstigt insbesondere schnelles Initiallernen. Darüber hinaus ist das ICE-Verfahren in der Lage, parallel zur Modellausgabe Vertrauenswürdigkeitsprognosen für die aktuelle Ausgabe zur Verfügung zu stellen. Den Abschluss der Arbeit bildet eine spezielle Form des ICE-Ansatzes, bei der durch asymmetrische Aktivierungsfunktionen Parallelen zur Fuzzy-Logik hergestellt werden. Dadurch wird es möglich, automatisch Regeln abzuleiten, welche das erlernte Modell beschreiben. Die "Black-Box", die Neuronale Netze in der Regel darstellen, wird dadurch transparenter. One of the main requirements for an optimal industrial control system is the availability of a precise model of the process, e.g. for a steel rolling mill. If no model or no analytical description of such a process is available a sufficient model has to be derived from observations, i.e. system identification. While nonlinear function approximation is a well-known application for neural networks, the approximation of nonlinear functions that change over time poses many additional problems which have been in the focus of this research. The time-variance caused for example by aging or attrition requires a continuous adaptation to process changes throughout the life-time of the system, here referred to as continuous learning. Based on the analysis of different neural network approaches the novel incremental construction algorithm ICE for continuous learning tasks has been developed. One of the main advantages of the ICE-algorithm is that the number of RBF-neurons and the number of local models of the hybrid network have not to be determined in advance. This is an important feature for fast initial learning. The evolved network is automatically adapted to the time-variant target function. Another advantage of the ICE-algorithm is the ability to simultaneously learn the target function and a confidence value for the network output. Finally a special version of the ICE-algorithm with asymmetric receptive fields is introduced. Here similarities to fuzzy logic are intended. The goal is to automatically derive rules which describe the learned model of the unknown process. In general a neural network is a "black box". In contrast to that an ICE-network is more transparent. Universitätsbibliothek Chemnitz TU Chemnitz, Fakultät für Elektrotechnik und Informationstechnik 2001-08-23 doc-type:doctoralThesis application/pdf text/plain application/zip http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200100725 urn:nbn:de:bsz:ch1-200100725 http://www.qucosa.de/fileadmin/data/qucosa/documents/4431/data/tagscherer.pdf http://www.qucosa.de/fileadmin/data/qucosa/documents/4431/20010072.txt deu |