Federated Learning for Time Series Forecasting Using LSTM Networks: Exploiting Similarities Through Clustering
Federated learning poses a statistical challenge when training on highly heterogeneous sequence data. For example, time-series telecom data collected over long intervals regularly shows mixed fluctuations and patterns. These distinct distributions are an inconvenience when a node not only plans to c...
Main Author: | |
---|---|
Format: | Others |
Language: | English |
Published: |
KTH, Skolan för elektroteknik och datavetenskap (EECS)
2019
|
Subjects: | |
Online Access: | http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-254665 |
id |
ndltd-UPSALLA1-oai-DiVA.org-kth-254665 |
---|---|
record_format |
oai_dc |
spelling |
ndltd-UPSALLA1-oai-DiVA.org-kth-2546652020-01-23T03:36:15ZFederated Learning for Time Series Forecasting Using LSTM Networks: Exploiting Similarities Through ClusteringengFedererad inlärning för tidserieprognos genom LSTM-nätverk: utnyttjande av likheter genom klustringDíaz González, FernandoKTH, Skolan för elektroteknik och datavetenskap (EECS)2019Federated LearningTime Series ForecastingClusteringTime Series Feature ExtractionRecurrent Neural NetworksLong Short-Term MemoryComputer and Information SciencesData- och informationsvetenskapFederated learning poses a statistical challenge when training on highly heterogeneous sequence data. For example, time-series telecom data collected over long intervals regularly shows mixed fluctuations and patterns. These distinct distributions are an inconvenience when a node not only plans to contribute to the creation of the global model but also plans to apply it on its local dataset. In this scenario, adopting a one-fits-all approach might be inadequate, even when using state-of-the-art machine learning techniques for time series forecasting, such as Long Short-Term Memory (LSTM) networks, which have proven to be able to capture many idiosyncrasies and generalise to new patterns. In this work, we show that by clustering the clients using these patterns and selectively aggregating their updates in different global models can improve local performance with minimal overhead, as we demonstrate through experiments using realworld time series datasets and a basic LSTM model. Federated Learning utgör en statistisk utmaning vid träning med starkt heterogen sekvensdata. Till exempel så uppvisar tidsseriedata inom telekomdomänen blandade variationer och mönster över längre tidsintervall. Dessa distinkta fördelningar utgör en utmaning när en nod inte bara ska bidra till skapandet av en global modell utan även ämnar applicera denna modell på sin lokala datamängd. Att i detta scenario införa en global modell som ska passa alla kan visa sig vara otillräckligt, även om vi använder oss av de mest framgångsrika modellerna inom maskininlärning för tidsserieprognoser, Long Short-Term Memory (LSTM) nätverk, vilka visat sig kunna fånga komplexa mönster och generalisera väl till nya mönster. I detta arbete visar vi att genom att klustra klienterna med hjälp av dessa mönster och selektivt aggregera deras uppdateringar i olika globala modeller kan vi uppnå förbättringar av den lokal prestandan med minimala kostnader, vilket vi demonstrerar genom experiment med riktigt tidsseriedata och en grundläggande LSTM-modell. Student thesisinfo:eu-repo/semantics/bachelorThesistexthttp://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-254665TRITA-EECS-EX ; 2019:308application/pdfinfo:eu-repo/semantics/openAccess |
collection |
NDLTD |
language |
English |
format |
Others
|
sources |
NDLTD |
topic |
Federated Learning Time Series Forecasting Clustering Time Series Feature Extraction Recurrent Neural Networks Long Short-Term Memory Computer and Information Sciences Data- och informationsvetenskap |
spellingShingle |
Federated Learning Time Series Forecasting Clustering Time Series Feature Extraction Recurrent Neural Networks Long Short-Term Memory Computer and Information Sciences Data- och informationsvetenskap Díaz González, Fernando Federated Learning for Time Series Forecasting Using LSTM Networks: Exploiting Similarities Through Clustering |
description |
Federated learning poses a statistical challenge when training on highly heterogeneous sequence data. For example, time-series telecom data collected over long intervals regularly shows mixed fluctuations and patterns. These distinct distributions are an inconvenience when a node not only plans to contribute to the creation of the global model but also plans to apply it on its local dataset. In this scenario, adopting a one-fits-all approach might be inadequate, even when using state-of-the-art machine learning techniques for time series forecasting, such as Long Short-Term Memory (LSTM) networks, which have proven to be able to capture many idiosyncrasies and generalise to new patterns. In this work, we show that by clustering the clients using these patterns and selectively aggregating their updates in different global models can improve local performance with minimal overhead, as we demonstrate through experiments using realworld time series datasets and a basic LSTM model. === Federated Learning utgör en statistisk utmaning vid träning med starkt heterogen sekvensdata. Till exempel så uppvisar tidsseriedata inom telekomdomänen blandade variationer och mönster över längre tidsintervall. Dessa distinkta fördelningar utgör en utmaning när en nod inte bara ska bidra till skapandet av en global modell utan även ämnar applicera denna modell på sin lokala datamängd. Att i detta scenario införa en global modell som ska passa alla kan visa sig vara otillräckligt, även om vi använder oss av de mest framgångsrika modellerna inom maskininlärning för tidsserieprognoser, Long Short-Term Memory (LSTM) nätverk, vilka visat sig kunna fånga komplexa mönster och generalisera väl till nya mönster. I detta arbete visar vi att genom att klustra klienterna med hjälp av dessa mönster och selektivt aggregera deras uppdateringar i olika globala modeller kan vi uppnå förbättringar av den lokal prestandan med minimala kostnader, vilket vi demonstrerar genom experiment med riktigt tidsseriedata och en grundläggande LSTM-modell. |
author |
Díaz González, Fernando |
author_facet |
Díaz González, Fernando |
author_sort |
Díaz González, Fernando |
title |
Federated Learning for Time Series Forecasting Using LSTM Networks: Exploiting Similarities Through Clustering |
title_short |
Federated Learning for Time Series Forecasting Using LSTM Networks: Exploiting Similarities Through Clustering |
title_full |
Federated Learning for Time Series Forecasting Using LSTM Networks: Exploiting Similarities Through Clustering |
title_fullStr |
Federated Learning for Time Series Forecasting Using LSTM Networks: Exploiting Similarities Through Clustering |
title_full_unstemmed |
Federated Learning for Time Series Forecasting Using LSTM Networks: Exploiting Similarities Through Clustering |
title_sort |
federated learning for time series forecasting using lstm networks: exploiting similarities through clustering |
publisher |
KTH, Skolan för elektroteknik och datavetenskap (EECS) |
publishDate |
2019 |
url |
http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-254665 |
work_keys_str_mv |
AT diazgonzalezfernando federatedlearningfortimeseriesforecastingusinglstmnetworksexploitingsimilaritiesthroughclustering AT diazgonzalezfernando federeradinlarningfortidserieprognosgenomlstmnatverkutnyttjandeavlikhetergenomklustring |
_version_ |
1719309540949753856 |