Probabilistic models of natural language semantics
This thesis tackles the problem of modeling the semantics of natural language. Neural Network models are reviewed and a new Bayesian approach is developed and evaluated. As the performance of standard Monte Carlo algorithms proofed to be unsatisfactory for the developed models, the main focus lies o...
Main Author: | |
---|---|
Other Authors: | |
Format: | Doctoral Thesis |
Language: | English |
Published: |
Universitätsbibliothek Leipzig
2016
|
Subjects: | |
Online Access: | http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-204503 http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-204503 http://www.qucosa.de/fileadmin/data/qucosa/documents/20450/Ingmar_Schuster_-_PhD_Thesis.pdf http://www.qucosa.de/fileadmin/data/qucosa/documents/20450/Abstract.pdf |
id |
ndltd-DRESDEN-oai-qucosa.de-bsz-15-qucosa-204503 |
---|---|
record_format |
oai_dc |
spelling |
ndltd-DRESDEN-oai-qucosa.de-bsz-15-qucosa-2045032016-06-15T03:34:13Z Probabilistic models of natural language semantics Schuster, Ingmar natürliche Sprache semantik Monte Carlo natural language semantics Monte Carlo ddc:000 This thesis tackles the problem of modeling the semantics of natural language. Neural Network models are reviewed and a new Bayesian approach is developed and evaluated. As the performance of standard Monte Carlo algorithms proofed to be unsatisfactory for the developed models, the main focus lies on a new adaptive algorithm from the Sequential Monte Carlo (SMC) family. The Gradient Importance Sampling (GRIS) algorithm developed in the thesis is shown to give very good performance as compared to many adaptive Markov Chain Monte Carlo (MCMC) algorithms on a range of complex target distributions. Another advantage as compared to MCMC is that GRIS provides a straight forward estimate of model evidence. Finally, Sample Inflation is introduced as a means to reduce variance and speed up mode finding in Importance Sampling and SMC algorithms. Sample Inflation provides provably consistent estimates and is empirically found to improve convergence of integral estimates. Diese Dissertation befasst sich mit der Modellierung der Semantik natürlicher Sprache. Eine Übersicht von Neuronalen Netzwerkmodellen wird gegeben und ein eigener Bayesscher Ansatz wird entwickelt und evaluiert. Da die Leistungsfähigkeit von Standardalgorithmen aus der Monte-Carlo-Familie auf dem entwickelten Model unbefriedigend ist, liegt der Hauptfokus der Arbeit auf neuen adaptiven Algorithmen im Rahmen von Sequential Monte Carlo (SMC). Es wird gezeigt, dass der in der Dissertation entwickelte Gradient Importance Sampling (GRIS) Algorithmus sehr leistungsfähig ist im Vergleich zu vielen Algorithmen des adaptiven Markov Chain Monte Carlo (MCMC), wobei komplexe und hochdimensionale Integrationsprobleme herangezogen werden. Ein weiterer Vorteil im Vergleich mit MCMC ist, dass GRIS einen Schätzer der Modelevidenz liefert. Schließlich wird Sample Inflation eingeführt als Ansatz zur Reduktion von Varianz und schnellerem auffinden von Modi in einer Verteilung, wenn Importance Sampling oder SMC verwendet werden. Sample Inflation ist beweisbar konsistent und es wird empirisch gezeigt, dass seine Anwendung die Konvergenz von Integralschätzern verbessert. Universitätsbibliothek Leipzig Universität Leipzig, Fakultät für Mathematik und Informatik Professor Gerhard Heyer Professor Christian Robert 2016-06-14 doc-type:doctoralThesis application/pdf application/pdf application/zip http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-204503 urn:nbn:de:bsz:15-qucosa-204503 http://www.qucosa.de/fileadmin/data/qucosa/documents/20450/Ingmar_Schuster_-_PhD_Thesis.pdf http://www.qucosa.de/fileadmin/data/qucosa/documents/20450/Abstract.pdf eng |
collection |
NDLTD |
language |
English |
format |
Doctoral Thesis |
sources |
NDLTD |
topic |
natürliche Sprache semantik Monte Carlo natural language semantics Monte Carlo ddc:000 |
spellingShingle |
natürliche Sprache semantik Monte Carlo natural language semantics Monte Carlo ddc:000 Schuster, Ingmar Probabilistic models of natural language semantics |
description |
This thesis tackles the problem of modeling the semantics of natural language. Neural Network models are reviewed and a new Bayesian approach is developed and evaluated. As the performance of standard Monte Carlo algorithms proofed to be unsatisfactory for the developed models, the main focus lies on a new adaptive algorithm from the Sequential Monte Carlo (SMC) family. The Gradient Importance Sampling (GRIS) algorithm developed in the thesis is shown to give very good performance as compared to many adaptive Markov Chain Monte Carlo (MCMC) algorithms on a range of complex target distributions. Another advantage as compared to MCMC is that GRIS provides a straight forward estimate of model evidence. Finally, Sample Inflation is introduced as a means to reduce variance and speed up mode finding in Importance Sampling and SMC algorithms. Sample Inflation provides provably consistent estimates and is empirically found to improve convergence of integral estimates. === Diese Dissertation befasst sich mit der Modellierung der Semantik natürlicher Sprache. Eine Übersicht von Neuronalen Netzwerkmodellen wird gegeben und ein eigener Bayesscher Ansatz wird entwickelt und evaluiert. Da die Leistungsfähigkeit von Standardalgorithmen aus der Monte-Carlo-Familie auf dem entwickelten Model unbefriedigend ist, liegt der Hauptfokus der Arbeit auf neuen adaptiven Algorithmen im Rahmen von Sequential Monte Carlo (SMC). Es wird gezeigt, dass der in der Dissertation entwickelte Gradient Importance Sampling (GRIS) Algorithmus sehr leistungsfähig ist im Vergleich zu vielen Algorithmen des adaptiven Markov Chain Monte Carlo (MCMC), wobei komplexe und hochdimensionale Integrationsprobleme herangezogen werden. Ein weiterer Vorteil im Vergleich mit MCMC ist, dass GRIS einen Schätzer der Modelevidenz liefert. Schließlich wird Sample Inflation eingeführt als Ansatz zur Reduktion von Varianz und schnellerem auffinden von Modi in einer Verteilung, wenn Importance Sampling oder SMC verwendet werden. Sample Inflation ist beweisbar konsistent und es wird empirisch gezeigt, dass seine Anwendung die Konvergenz von Integralschätzern verbessert. |
author2 |
Universität Leipzig, Fakultät für Mathematik und Informatik |
author_facet |
Universität Leipzig, Fakultät für Mathematik und Informatik Schuster, Ingmar |
author |
Schuster, Ingmar |
author_sort |
Schuster, Ingmar |
title |
Probabilistic models of natural language semantics |
title_short |
Probabilistic models of natural language semantics |
title_full |
Probabilistic models of natural language semantics |
title_fullStr |
Probabilistic models of natural language semantics |
title_full_unstemmed |
Probabilistic models of natural language semantics |
title_sort |
probabilistic models of natural language semantics |
publisher |
Universitätsbibliothek Leipzig |
publishDate |
2016 |
url |
http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-204503 http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-204503 http://www.qucosa.de/fileadmin/data/qucosa/documents/20450/Ingmar_Schuster_-_PhD_Thesis.pdf http://www.qucosa.de/fileadmin/data/qucosa/documents/20450/Abstract.pdf |
work_keys_str_mv |
AT schusteringmar probabilisticmodelsofnaturallanguagesemantics |
_version_ |
1718304116839546880 |