Probabilistic models of natural language semantics

This thesis tackles the problem of modeling the semantics of natural language. Neural Network models are reviewed and a new Bayesian approach is developed and evaluated. As the performance of standard Monte Carlo algorithms proofed to be unsatisfactory for the developed models, the main focus lies o...

Full description

Bibliographic Details
Main Author: Schuster, Ingmar
Other Authors: Universität Leipzig, Fakultät für Mathematik und Informatik
Format: Doctoral Thesis
Language:English
Published: Universitätsbibliothek Leipzig 2016
Subjects:
Online Access:http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-204503
http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-204503
http://www.qucosa.de/fileadmin/data/qucosa/documents/20450/Ingmar_Schuster_-_PhD_Thesis.pdf
http://www.qucosa.de/fileadmin/data/qucosa/documents/20450/Abstract.pdf
id ndltd-DRESDEN-oai-qucosa.de-bsz-15-qucosa-204503
record_format oai_dc
spelling ndltd-DRESDEN-oai-qucosa.de-bsz-15-qucosa-2045032016-06-15T03:34:13Z Probabilistic models of natural language semantics Schuster, Ingmar natürliche Sprache semantik Monte Carlo natural language semantics Monte Carlo ddc:000 This thesis tackles the problem of modeling the semantics of natural language. Neural Network models are reviewed and a new Bayesian approach is developed and evaluated. As the performance of standard Monte Carlo algorithms proofed to be unsatisfactory for the developed models, the main focus lies on a new adaptive algorithm from the Sequential Monte Carlo (SMC) family. The Gradient Importance Sampling (GRIS) algorithm developed in the thesis is shown to give very good performance as compared to many adaptive Markov Chain Monte Carlo (MCMC) algorithms on a range of complex target distributions. Another advantage as compared to MCMC is that GRIS provides a straight forward estimate of model evidence. Finally, Sample Inflation is introduced as a means to reduce variance and speed up mode finding in Importance Sampling and SMC algorithms. Sample Inflation provides provably consistent estimates and is empirically found to improve convergence of integral estimates. Diese Dissertation befasst sich mit der Modellierung der Semantik natürlicher Sprache. Eine Übersicht von Neuronalen Netzwerkmodellen wird gegeben und ein eigener Bayesscher Ansatz wird entwickelt und evaluiert. Da die Leistungsfähigkeit von Standardalgorithmen aus der Monte-Carlo-Familie auf dem entwickelten Model unbefriedigend ist, liegt der Hauptfokus der Arbeit auf neuen adaptiven Algorithmen im Rahmen von Sequential Monte Carlo (SMC). Es wird gezeigt, dass der in der Dissertation entwickelte Gradient Importance Sampling (GRIS) Algorithmus sehr leistungsfähig ist im Vergleich zu vielen Algorithmen des adaptiven Markov Chain Monte Carlo (MCMC), wobei komplexe und hochdimensionale Integrationsprobleme herangezogen werden. Ein weiterer Vorteil im Vergleich mit MCMC ist, dass GRIS einen Schätzer der Modelevidenz liefert. Schließlich wird Sample Inflation eingeführt als Ansatz zur Reduktion von Varianz und schnellerem auffinden von Modi in einer Verteilung, wenn Importance Sampling oder SMC verwendet werden. Sample Inflation ist beweisbar konsistent und es wird empirisch gezeigt, dass seine Anwendung die Konvergenz von Integralschätzern verbessert. Universitätsbibliothek Leipzig Universität Leipzig, Fakultät für Mathematik und Informatik Professor Gerhard Heyer Professor Christian Robert 2016-06-14 doc-type:doctoralThesis application/pdf application/pdf application/zip http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-204503 urn:nbn:de:bsz:15-qucosa-204503 http://www.qucosa.de/fileadmin/data/qucosa/documents/20450/Ingmar_Schuster_-_PhD_Thesis.pdf http://www.qucosa.de/fileadmin/data/qucosa/documents/20450/Abstract.pdf eng
collection NDLTD
language English
format Doctoral Thesis
sources NDLTD
topic natürliche Sprache
semantik
Monte Carlo
natural language
semantics
Monte Carlo
ddc:000
spellingShingle natürliche Sprache
semantik
Monte Carlo
natural language
semantics
Monte Carlo
ddc:000
Schuster, Ingmar
Probabilistic models of natural language semantics
description This thesis tackles the problem of modeling the semantics of natural language. Neural Network models are reviewed and a new Bayesian approach is developed and evaluated. As the performance of standard Monte Carlo algorithms proofed to be unsatisfactory for the developed models, the main focus lies on a new adaptive algorithm from the Sequential Monte Carlo (SMC) family. The Gradient Importance Sampling (GRIS) algorithm developed in the thesis is shown to give very good performance as compared to many adaptive Markov Chain Monte Carlo (MCMC) algorithms on a range of complex target distributions. Another advantage as compared to MCMC is that GRIS provides a straight forward estimate of model evidence. Finally, Sample Inflation is introduced as a means to reduce variance and speed up mode finding in Importance Sampling and SMC algorithms. Sample Inflation provides provably consistent estimates and is empirically found to improve convergence of integral estimates. === Diese Dissertation befasst sich mit der Modellierung der Semantik natürlicher Sprache. Eine Übersicht von Neuronalen Netzwerkmodellen wird gegeben und ein eigener Bayesscher Ansatz wird entwickelt und evaluiert. Da die Leistungsfähigkeit von Standardalgorithmen aus der Monte-Carlo-Familie auf dem entwickelten Model unbefriedigend ist, liegt der Hauptfokus der Arbeit auf neuen adaptiven Algorithmen im Rahmen von Sequential Monte Carlo (SMC). Es wird gezeigt, dass der in der Dissertation entwickelte Gradient Importance Sampling (GRIS) Algorithmus sehr leistungsfähig ist im Vergleich zu vielen Algorithmen des adaptiven Markov Chain Monte Carlo (MCMC), wobei komplexe und hochdimensionale Integrationsprobleme herangezogen werden. Ein weiterer Vorteil im Vergleich mit MCMC ist, dass GRIS einen Schätzer der Modelevidenz liefert. Schließlich wird Sample Inflation eingeführt als Ansatz zur Reduktion von Varianz und schnellerem auffinden von Modi in einer Verteilung, wenn Importance Sampling oder SMC verwendet werden. Sample Inflation ist beweisbar konsistent und es wird empirisch gezeigt, dass seine Anwendung die Konvergenz von Integralschätzern verbessert.
author2 Universität Leipzig, Fakultät für Mathematik und Informatik
author_facet Universität Leipzig, Fakultät für Mathematik und Informatik
Schuster, Ingmar
author Schuster, Ingmar
author_sort Schuster, Ingmar
title Probabilistic models of natural language semantics
title_short Probabilistic models of natural language semantics
title_full Probabilistic models of natural language semantics
title_fullStr Probabilistic models of natural language semantics
title_full_unstemmed Probabilistic models of natural language semantics
title_sort probabilistic models of natural language semantics
publisher Universitätsbibliothek Leipzig
publishDate 2016
url http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-204503
http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-204503
http://www.qucosa.de/fileadmin/data/qucosa/documents/20450/Ingmar_Schuster_-_PhD_Thesis.pdf
http://www.qucosa.de/fileadmin/data/qucosa/documents/20450/Abstract.pdf
work_keys_str_mv AT schusteringmar probabilisticmodelsofnaturallanguagesemantics
_version_ 1718304116839546880