Utilize este identificador para referenciar este registo: http://hdl.handle.net/10071/33592
Registo completo
Campo DCValorIdioma
dc.contributor.advisorMendes, Diana Aldea-
dc.contributor.authorJesus , Vasco Manuel dos Santos Pedrosa Gonçalves de-
dc.date.accessioned2025-03-06T11:29:36Z-
dc.date.issued2024-11-28-
dc.date.submitted2024-09-
dc.identifier.citationJesus, V. M. dos S. P. G. de. (2024). Transformers for time series forecasting [Dissertação de mestrado, Iscte - Instituto Universitário de Lisboa]. Repositório Iscte. http://hdl.handle.net/10071/33592por
dc.identifier.urihttp://hdl.handle.net/10071/33592-
dc.description.abstractThis study aims to bridge the gap between theoretical research and practical application in time series forecasting by introducing and evaluating a novel transformer-based model. It builds on the foundations set by models such as Frequency Enhanced Decomposed Transformer (Zhou et al., 2022) and Patch Time Series Transformer (Nie et al., 2022), which have excelled in univariate and multivariate settings. The core of this thesis is the development of a transformerbased model, combining elements of the two models mentioned above. Through rigorous testing using Mean Squared Error (MSE) and Mean Absolute Error (MAE) as evaluative metrics, the new model's performance was benchmarked against its precursors. The findings reveal that while the latest model surpasses one of its predecessors in forecasting accuracy, it does not outperform the other. This research contributes to the field of Data Science by providing insights into the effectiveness of these models and guiding future advancements in time series forecasting.por
dc.description.abstractEste estudo tem como objetivo diminuir a lacuna existente entre a pesquisa (teórica) e a prática existente para a tarefa de previsão de séries temporais, ao introduzir e avaliar um novo modelo transformer-based. Este é baseado nas arquiteturas já existentes em modelos como o Frequency Enhanced Decomposed Transformer (Zhou et al., 2022) e o Patch Time Series Transformer (Nie et al., 2022), que se destacaram pela positiva em ambientes univariados e multivariados, respetivamente. O cerne desta tese é então o desenvolvimento de um modelo transformerbased, que combina elementos dos dois modelos acima mencionados. Através de diversos testes rigorosos recorrendo às métricas erro quadrático médio (MSE) e erro médio absoluto (MAE), o desempenho deste novo modelo foi comparado com os que o originaram. Em sede de conclusão as descobertas revelam que este novo modelo supera um dos modelos que o origina ainda que não supere o outro. Esta pesquisa contribui para a área da Ciência de Dados ao fornecer insights sobre a eficácia deste tipo de modelos e orientando possíveis avanços futuros para a tarefa de previsão de séries temporais.por
dc.language.isoengpor
dc.rightsrestrictedAccesspor
dc.subjectTime series forecastingpor
dc.subjectTransformerspor
dc.subjectAttention mechanismpor
dc.subjectErro Quadratico Médio (MSE)por
dc.subjectErro Médio Absoluto (MAE)por
dc.subjectPrevisão de séries temporaispor
dc.titleTransformers for time series forecastingpor
dc.typemasterThesispor
dc.peerreviewedyespor
dc.identifier.tid203756827por
dc.subject.fosDomínio/Área Científica::Ciências Sociais::Economia e Gestãopor
dc.subject.fosDomínio/Área Científica::Engenharia e Tecnologia::Outras Engenharias e Tecnologiaspor
thesis.degree.nameMestrado em Ciência de Dadospor
dc.date.embargo2025-11-28-
thesis.degree.departmentDepartamento de Métodos Quantitativos para Gestão e Economiapor
thesis.degree.departmentDepartamento de Ciências e Tecnologias da Informaçãopor
Aparece nas coleções:T&D-DM - Dissertações de mestrado

Ficheiros deste registo:
Ficheiro Descrição TamanhoFormato 
master_vasco_goncalves_jesus.pdf
  Restricted Access
2,76 MBAdobe PDFVer/Abrir Request a copy


FacebookTwitterDeliciousLinkedInDiggGoogle BookmarksMySpaceOrkut
Formato BibTex mendeley Endnote Logotipo do DeGóis Logotipo do Orcid 

Todos os registos no repositório estão protegidos por leis de copyright, com todos os direitos reservados.