文章 "神经网络变得简单(第 86 部分):U-形变换器" 新评论 MetaQuotes 2025.01.14 09:58 新文章 神经网络变得简单(第 86 部分):U-形变换器已发布: 我们继续研究时间序列预测算法。在本文中,我们将讨论另一种方法:U-形变换器。 预测长期时间序列对于交易特别重要。变换器架构于 2017 年推出,在自然语言处理(NLP)、和计算机视觉(CV)领域展现出令人印象深刻的性能。自关注机制的运用可在涵盖较长时间的间隔内有效捕获依赖关系,从上下文中提取关键信息。当然,基于这种机制迅速就提出了大量不同算法,来解决与时间序列相关的问题。 然而,最近的研究表明,针对不同时间序列数据集上的准确性,简单的多层感知器网络(MLP)能够超过基于变换器的模型。无论如何,变换器架构已在若干个领域证明了它的有效性,甚至找到了实际应用。因此,它的代表能力应该相对较强。必须有运用它的机制。改进原版变换器算法的选项之一是论文《U-形变换器:在时间序列分析中保留高频上下文》,其中阐述了 U-形变换器算法。 通过迭代学习,我能够获得一个能够在训练和测试数据集上均产生盈利的模型。 在测试期间,该模型进行了 26 笔交易。其中 20 笔以盈利收盘,为 76.92%。盈利因子为 2.87。 得到的结果是有前景的,但 1 个月的测试区间太短,无法可靠地评估模型的稳定性。 作者:Dmitriy Gizlyk 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
新文章 神经网络变得简单(第 86 部分):U-形变换器已发布:
我们继续研究时间序列预测算法。在本文中,我们将讨论另一种方法:U-形变换器。
预测长期时间序列对于交易特别重要。变换器架构于 2017 年推出,在自然语言处理(NLP)、和计算机视觉(CV)领域展现出令人印象深刻的性能。自关注机制的运用可在涵盖较长时间的间隔内有效捕获依赖关系,从上下文中提取关键信息。当然,基于这种机制迅速就提出了大量不同算法,来解决与时间序列相关的问题。
然而,最近的研究表明,针对不同时间序列数据集上的准确性,简单的多层感知器网络(MLP)能够超过基于变换器的模型。无论如何,变换器架构已在若干个领域证明了它的有效性,甚至找到了实际应用。因此,它的代表能力应该相对较强。必须有运用它的机制。改进原版变换器算法的选项之一是论文《U-形变换器:在时间序列分析中保留高频上下文》,其中阐述了 U-形变换器算法。
通过迭代学习,我能够获得一个能够在训练和测试数据集上均产生盈利的模型。
在测试期间,该模型进行了 26 笔交易。其中 20 笔以盈利收盘,为 76.92%。盈利因子为 2.87。
得到的结果是有前景的,但 1 个月的测试区间太短,无法可靠地评估模型的稳定性。
作者:Dmitriy Gizlyk