Discussão do artigo "Redes neurais de maneira fácil (Parte 87): Segmentação de séries temporais"

 

Novo artigo Redes neurais de maneira fácil (Parte 87): Segmentação de séries temporais foi publicado:

A previsão desempenha um papel importante na análise de séries temporais. No novo artigo, falaremos sobre as vantagens da segmentação de séries temporais.

A arquitetura Transformer, que começou seu desenvolvimento na área de processamento de linguagem natural (NLP), demonstrou suas vantagens na visão computacional (CV) e encontrou aplicação bem-sucedida na análise de séries temporais. Seu mecanismo de Self-Attention, capaz de identificar automaticamente conexões entre elementos da sequência, tornou-se a base para a criação de modelos de previsão eficazes.

O aumento dos volumes de dados disponíveis para análise e a melhoria dos métodos de aprendizado de máquina permitem desenvolver modelos mais precisos e eficientes para a análise de dados temporais. No entanto, à medida que a complexidade das séries temporais aumenta, torna-se necessário desenvolver métodos de análise mais eficientes e menos dispendiosos para alcançar previsões precisas e detectar padrões ocultos.

Um desses métodos é o Transformer de segmentação de séries temporais (Patch Time Series Transformer — PatchTST), que foi apresentado no artigo "A Time Series is Worth 64 Words: Long-term Forecasting with Transformers". Este método baseia-se na divisão de séries temporais em segmentos (patches) e no uso do Transformer para prever valores futuros.

Neural Networks - Time series patching

Autor: Dmitriy Gizlyk