Data Compression of Seismic Images by Neural Networks Compression d'images sismiques par des réseaux neuronaux
Neural networks with the multi-layered perceptron architecture were trained on an autoassociation task to compress 2D seismic data. Networks with linear transfer functions outperformed nonlinear neural nets with single or multiple hidden layers. This indicates that the correlational structure of the...
Main Authors: | , |
---|---|
Format: | Article |
Language: | English |
Published: |
EDP Sciences
2006-11-01
|
Series: | Oil & Gas Science and Technology |
Online Access: | http://dx.doi.org/10.2516/ogst:1992032 |
Summary: | Neural networks with the multi-layered perceptron architecture were trained on an autoassociation task to compress 2D seismic data. Networks with linear transfer functions outperformed nonlinear neural nets with single or multiple hidden layers. This indicates that the correlational structure of the seismic data is predominantly linear. A compression factor of 5 to 7 can be achieved if a reconstruction error of 10% is allowed. The performance on new test data was similar to that achieved with the training data. The hidden units developed feature-detecting properties that resemble oriented line, edge and more complex feature detectors. The feature detectors of linear neural nets are near-orthogonal rotations of the principal eigenvectors of the Karhunen-Loève transformation. <br> Des réseaux neuronaux à architecture de perceptron multicouches ont été expérimentés en auto-association pour permettre la compression de données sismiques bidimensionnelles. Les réseaux neuronaux à fonctions de transfert linéaires s'avèrent plus performants que les réseaux neuronaux non linéaires, à une ou plusieurs couches cachées. Ceci indique que la structure corrélative des données sismiques est à prédominance linéaire. Un facteur de compression de 5 à 7 peut être obtenu si une erreur de reconstruction de 10 % est admise. La performance sur les données de test est très proche de celle obtenue sur les données d'apprentissage. Les unités cachées développent des propriétés de détection de caractéristiques ressemblant à des détecteurs de lignes orientées, de bords et de figures plus complexes. Les détecteurs de caractéristique des réseaux neuronaux linéaires sont des rotations quasi orthogonales des vecteurs propres principaux de la transformation de Karhunen-Loève. |
---|---|
ISSN: | 1294-4475 1953-8189 |