文章 "神经网络变得简单(第 86 部分):U-形变换器"

 

新文章 神经网络变得简单(第 86 部分):U-形变换器已发布:

我们继续研究时间序列预测算法。在本文中,我们将讨论另一种方法:U-形变换器。

预测长期时间序列对于交易特别重要。变换器架构于 2017 年推出,在自然语言处理(NLP)、和计算机视觉(CV)领域展现出令人印象深刻的性能。自关注机制的运用可在涵盖较长时间的间隔内有效捕获依赖关系,从上下文中提取关键信息。当然,基于这种机制迅速就提出了大量不同算法,来解决与时间序列相关的问题。 

然而,最近的研究表明,针对不同时间序列数据集上的准确性,简单的多层感知器网络(MLP)能够超过基于变换器的模型。无论如何,变换器架构已在若干个领域证明了它的有效性,甚至找到了实际应用。因此,它的代表能力应该相对较强。必须有运用它的机制。改进原版变换器算法的选项之一是论文《U-形变换器:在时间序列分析中保留高频上下文》,其中阐述了 U-形变换器算法。

通过迭代学习,我能够获得一个能够在训练和测试数据集上均产生盈利的模型。

在测试期间,该模型进行了 26 笔交易。其中 20 笔以盈利收盘,为 76.92%。盈利因子为 2.87。

得到的结果是有前景的,但 1 个月的测试区间太短,无法可靠地评估模型的稳定性。

作者:Dmitriy Gizlyk