Gradientmetoder för artificiellaneurala nätverk
Arbetet syftar sig i att implementera flertalet optimeringsmetoder i ett egetskapatartificiellt feedforward Neuralt Nätverk (med hjälp av MATLAB),där vi vill jämföra och utforska en ny optimeringsmetod DFPM mot redankända välfungerande optimeringsmetoder för artificiella feed forward NeuralaNätverk....
Main Authors: | , |
---|---|
Format: | Others |
Language: | Swedish |
Published: |
Örebro universitet, Institutionen för naturvetenskap och teknik
2021
|
Subjects: | |
Online Access: | http://urn.kb.se/resolve?urn=urn:nbn:se:oru:diva-94320 |
id |
ndltd-UPSALLA1-oai-DiVA.org-oru-94320 |
---|---|
record_format |
oai_dc |
spelling |
ndltd-UPSALLA1-oai-DiVA.org-oru-943202021-09-15T05:23:14ZGradientmetoder för artificiellaneurala nätverksweLeu, AndreasRönning, DanielÖrebro universitet, Institutionen för naturvetenskap och teknik2021MathematicsMatematikArbetet syftar sig i att implementera flertalet optimeringsmetoder i ett egetskapatartificiellt feedforward Neuralt Nätverk (med hjälp av MATLAB),där vi vill jämföra och utforska en ny optimeringsmetod DFPM mot redankända välfungerande optimeringsmetoder för artificiella feed forward NeuralaNätverk. Då DFPM är välfungerande i dämpade dynamiska system föratt lösa ekvationer och optimeringsproblem, vill vi utforska om DFPM kanvisa sig vara användningsbar föt artificiella feedforward neurala nätverk.I stort består uppsatsen av tre sektioner, där vi går igenom den matematiskaformuleringen hur ett Neuralt Nätverk är uppbyggt från grunden, teoriom de gradientmetoderna metoderna vi använder i våra simuleringar samtresultat från de test vi gjort genom illustration i form av tabeller och grafer.Där det huvudsakliga intresset ligger i att utforska DFPM’s konvergensegenskaper. Student thesisinfo:eu-repo/semantics/bachelorThesistexthttp://urn.kb.se/resolve?urn=urn:nbn:se:oru:diva-94320application/pdfinfo:eu-repo/semantics/openAccess |
collection |
NDLTD |
language |
Swedish |
format |
Others
|
sources |
NDLTD |
topic |
Mathematics Matematik |
spellingShingle |
Mathematics Matematik Leu, Andreas Rönning, Daniel Gradientmetoder för artificiellaneurala nätverk |
description |
Arbetet syftar sig i att implementera flertalet optimeringsmetoder i ett egetskapatartificiellt feedforward Neuralt Nätverk (med hjälp av MATLAB),där vi vill jämföra och utforska en ny optimeringsmetod DFPM mot redankända välfungerande optimeringsmetoder för artificiella feed forward NeuralaNätverk. Då DFPM är välfungerande i dämpade dynamiska system föratt lösa ekvationer och optimeringsproblem, vill vi utforska om DFPM kanvisa sig vara användningsbar föt artificiella feedforward neurala nätverk.I stort består uppsatsen av tre sektioner, där vi går igenom den matematiskaformuleringen hur ett Neuralt Nätverk är uppbyggt från grunden, teoriom de gradientmetoderna metoderna vi använder i våra simuleringar samtresultat från de test vi gjort genom illustration i form av tabeller och grafer.Där det huvudsakliga intresset ligger i att utforska DFPM’s konvergensegenskaper. |
author |
Leu, Andreas Rönning, Daniel |
author_facet |
Leu, Andreas Rönning, Daniel |
author_sort |
Leu, Andreas |
title |
Gradientmetoder för artificiellaneurala nätverk |
title_short |
Gradientmetoder för artificiellaneurala nätverk |
title_full |
Gradientmetoder för artificiellaneurala nätverk |
title_fullStr |
Gradientmetoder för artificiellaneurala nätverk |
title_full_unstemmed |
Gradientmetoder för artificiellaneurala nätverk |
title_sort |
gradientmetoder för artificiellaneurala nätverk |
publisher |
Örebro universitet, Institutionen för naturvetenskap och teknik |
publishDate |
2021 |
url |
http://urn.kb.se/resolve?urn=urn:nbn:se:oru:diva-94320 |
work_keys_str_mv |
AT leuandreas gradientmetoderforartificiellaneuralanatverk AT ronningdaniel gradientmetoderforartificiellaneuralanatverk |
_version_ |
1719480837819334656 |