Differential Deep Learning for Pricing Exotic Financial Derivatives

Calculating the value of a financial derivative is a central problem in quantitative finance. For many exotic derivatives there are no closed-form solutions for present values, instead, computationally expensive Monte Carlo methods are used for valuation. In addition to the present value, the sensit...

Full description

Bibliographic Details
Main Author: Aslaksen Jonasson, Erik Alexander
Format: Others
Language:English
Published: KTH, Skolan för elektroteknik och datavetenskap (EECS) 2021
Subjects:
Online Access:http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-301311
Description
Summary:Calculating the value of a financial derivative is a central problem in quantitative finance. For many exotic derivatives there are no closed-form solutions for present values, instead, computationally expensive Monte Carlo methods are used for valuation. In addition to the present value, the sensitivities (derivatives with respect to the input parameters) are of interest. This study trains deep neural networks to approximate the present value of an autocallable, a highly path-dependent and customizable financial derivative in the form of a contract between two parties. This study pretrains deep neural networks on 2 million samples corresponding to one contract for an autocallable, and then retrains the same networks on 500 000 samples corresponding to a new, slightly different, contract. A differential method of training which includes the derivatives with respect to the inputs in the loss function, is compared to a baseline "vanilla" method in which the loss is merely the mean squared error of the predicted present value and the ground truth. The performance of the differential method is compared to the baseline method in terms of error, dependency on data, and number of epochs of training required to achieve a low error. The study finds that including derivatives (differentials) obtained by the finite difference method in the loss function yields several improvements when recalibrating a model to fit new data. The differential model achieves a significantly lower generalisation error. It is also less reliant on data, achieving lower errors than the non-differential model, despite using 10% of the data available for retraining. Additionally, the lowest error level achieved by the non-differential model is achieved within a few epochs by the differential model. This study shows that using derivatives obtained by the finite difference method is a suitable option when analytic derivatives cannot be obtained through automatic differentiation and can be used for differential machine learning.  === Att beräkna värdet på ett finansiellt derivat är ett av huvudproblemen inom kvantitativ finans. Många finansiella derivat saknar analytiska lösningar för nuvärdet och förlitar sig istället på beräkningstunga Monte Carlo-metoder för värdering. Även känsligheterna (derivatorna med avseende på inparametrarna) är av intresse. I denna studie tränas djupa neurala nätverk för att approximera nuvärdet av autocallables, ett mycket vägberoende och anpassningsbart exotiskt finansiellt derivat i form av ett kontrakt mellan två parter. Djupa neurala nätverk förtränas först på två miljoner datapunkter genererade baserade på en autocallable, och dessa tränas därefter om på 500 000 datapunkter genererade baserat på en annan liknande autocallable. En metod som inkluderar derivatorna (differentialerna) i funktionen som ska minimeras under träningsförloppet jämförs med en basmetod som enbart innefattar nuvärdet jämförs med varandra. Differentialmodellen jämförs med basmodellen på flera olika sätt, däribland storleken på generaliseringsfelet, beroendet av datamängd, och antalet epoker som krävs för att uppnå ett lågt generaliseringsfel jämförs mellan modellerna. Studien finner att flera fördelar fås när man omkalibrerar en modell för att anpassa den till ny data genom att inkludera differentialerna som (beräknats med hjälp av finita differensmetoden) under träningen. Differentialmodellen uppnår ett signifikant lägre generaliseringsfel. Den är dessutom mindre inte lika beroende av mängden data och lyckas uppnå ett lägre generaliseringsfel än en motsvarande basmodell, även då differentialmodellen tränats på 10% av den tillgängliga datan. Det lägsta generaliseringsfelet basmodellen uppnår under 200 epoker av träning uppnås av differentialmodellen inom några få epoker av träning. Studien finner att inkludera differentialer som beräknats med hjälp av finita differansmetoden är ett möjligt alternativ när derivatorna automatisk differentiering inte är möjligt