交易中的机器学习:理论、模型、实践和算法交易 - 页 628

 
尼古拉-德姆科

不,我是说,你不能把市场数据和网络性能混为一谈。

换句话说,你的网络正在处理报价,你给它提供的数据是关于以前的交易是否成功,这不是同一个数据,你不能把它混为一谈。

而一般来说,网络工作得好坏,这是一个独立的单元(我习惯于在GA中称其为健身函数,在NS中称其为误差函数,但想法是一样的)。

假设你用backprop训练一个网络,结果发现你有一个错误成为数据的一部分,黄油手。我希望你明白我的意思。

是的,我知道了......首先,我想在MT5的优化器中简单地教授它--它将给我一个机会来获得交易结果和资产,并立即将它们反馈给网格,而没有任何复杂的繁琐游戏。

那么架构呢--它可能会被重新设计,但我没有任何其他选择,因为我甚至还没有尝试过它。它至少会显示一些结果--这是肯定的,但什么样的结果是个问题 :)

 
马克西姆-德米特里耶夫斯基

我知道这一切,交叉验证也是一个合适的,但更复杂的方法。

复发也是自我循环的,有时无法学习

我不明白--你说你不能把网络的输出端送入输入端,然后你告诉我用递归法......:) 这就是它所做的一切,它吃了它的产出。

在最简单的情况下,递归是一个简单的MLP,它吃自己。

关于交叉验证,我同意,但有更复杂的方法。然而,尽管交叉验证法很简单,但它给出了可接受的结果。

虽然如果我们把它作为一个整体,NS是一个合适的。它是一个普遍的近似值,而当我们处于NS发展的那个阶段时,如何找到可以说NS已经学会了依赖性的点,而不是对数据的拟合,还没有可靠的确定。

这是用一组来自许多变量的简单函数来表示一个变量的复杂函数的问题。

而如果你解决了这个问题,你实际上就建立了人工智能。

 
尼古拉-德姆科

我同意交叉验证的说法,但还有更复杂的方法。

虽然在一般情况下,NS是一个合适的。通用近似器,而我们正处于NS科学的那个发展阶段,在这个阶段,如何找到该领域的点,可以说NS已经学会了依赖,而不是适合数据。

这是用一组来自许多变量的简单函数来表示一个变量的复杂函数的问题。

而如果你解决了这个问题,你实际上是在建立一个人工智能。

这一切都太复杂了,无法同时想象,更无法想象NS中的所有连接,以及它们之间将如何相互作用。

我们不需要人工智能,但至少要对市场变化做出某种反应,有一些 "记忆 "就好了。

 
马克西姆-德米特里耶夫斯基

这一切都太复杂了,无法同时想象,更不用说想象NS中的所有连接,以及事物之间将如何相互影响。

我们不需要人工智能,但至少对市场变化有某种反馈会很好,有一些 "记忆"。

如果你不喜欢小猫,也许你只是不知道如何烹饪它们 ))

NS会对任何数据进行近似甚至总结,最主要的是数据应该包含你要找的东西。

这意味着,除了选择NS的类型外,正确准备数据也同样重要。

正如你所看到的,这项任务是相互依存的,你需要输入什么数据取决于NS的类型,而选择哪个NS则取决于你准备给它的数据。

但这个问题即使是封闭可解的,例如GA也是如此,最初算法对数据一无所知,通过问题的逐步分支,它得出了稳健的解决方案。

因此,这里也是一样的,将你的研究系统化,保持记录,你就会成功。

 
马克西姆-德米特里耶夫斯基

是的,明白了......一开始我想在MT5优化器中简单地训练它-- 这将给我一个机会,立即获得交易和股票结果,并将它们反馈给网格,没有手鼓。

那么架构呢--它可能会被重新设计,但我没有任何其他选择,因为我甚至还没有尝试。它至少会显示一些结果--这是肯定的,但什么样的结果是个问题 :)

马克西姆,好吧,你不需要在MT优化器中训练网络。NS训练器和优化器是相当不同的算法,具有相当不同的优化标准。

如果你还在使用以前画的那个NS结构,那就太简单了--对市场来说太弱了。我已经写过,我只有在达到15-20-15-10-5-1的结构时才获得成功。而这仅仅是针对一种类型的交易。我也完全用海金描述的方法做了一切,也就是说,没有什么新东西,没有什么技巧。

简单的结构 是训练不足的。

 
尤里-阿索连科

马克西姆,嗯,不要在MT优化器中训练网络。NS训练器和优化器是完全不同的算法,具有完全不同的优化标准。

如果你仍然使用你之前画的那个NS结构,那就有点简单了--对市场来说很弱。我已经写过,我只有在达到15-20-15-10-5-1的结构时才获得成功。而这仅仅是针对一种类型的交易。我也完全用海金描述的方法做了一切,也就是说,没有什么新东西,没有什么技巧。

简单的结构 是训练不足的。

但没有什么能阻止我在这个基础上再加一个。重点不是网格的深度,而是要让它有反馈。这是我现在的幻想,就像一个艺术家,所以我看到:)经典是不有趣的。

把所有的东西都附在一个网格上,用背胶是一件很麻烦的事......最好是保持简单 :)

因为这是一个分阶段学习的网格......你走了一步,得到一个反馈,以此类推,直到整个行动和结果被总结出来。

你可以采取较小的历史,一切都会好的,你可以在之后扩大规模。

 
马克西姆-德米特里耶夫斯基

而且没有什么可以阻止你在这个基础上再加一个。问题的关键不在于网格的深度,而在于使其具有反馈作用。这是我现在的幻想,就像一个艺术家,所以我看到:)经典的东西是不有趣的

把所有的东西都附在一个网格上,用背胶是一件很麻烦的事......最好是保持简单 :)

因为它是一个按步骤训练的网格......你走一步,你得到一个反馈,如此反复,直到整个行动和结果被总结出来。

因此,我写道,在每N个纪元后,我停止BP,运行测试并继续进一步训练BP。我意识到二十四小时的训练是一个很长的时间,但这次谈话是在几个月前进行的。

但这取决于艺术家,当然了)。不要向钢琴家开枪,他是按自己的方式演奏的。

ZS 事实上,你不需要大量的数据来学习,而是需要很多。由于样本量小,NS不会得到任何有用的东西。

 
尤里-阿索连科

因此,我写道,每隔N个纪元我就停止BP,运行测试并继续进一步训练BP。我意识到二十四小时的训练是一个很长的时间,但这次谈话是在几个月前进行的。

但这取决于艺术家,当然了)。不要向钢琴家开枪,他是按自己的方式演奏的。

还有更多的字,两小时后有重做))我今晚就做,mb

所有需要实现的是在正手上取得更稳定和清晰的结果,但这一切都很有效。

 
马克西姆-德米特里耶夫斯基

这里多说几句,重做需要2个小时))我今晚就做。

所有需要实现的是,在前进的道路上有一个更稳定和可理解的结果,因此一切都可以实现。

我完成了前期的帖子,但由于页面已经改变,所以重复了。

我只是想弄清楚我需要多少数据来进行训练。在一个小的样本量,NS不会得到任何有用的东西。

 
尼古拉-德姆科

我当然对攻击行为表示歉意,但重新阅读你的帖子。它看起来相当含糊。
一般来说,你是对的,但只涉及第一层神经元。如果反馈到第二层和后续层,甚至到平行网络层,你的声明将变得无效。
在这种情况下,马克西姆 应该考虑深化网络,把反馈带到隐藏层。

而至于。

正如你所看到的,这项任务是相互依存的,你需要提交什么数据取决于NS的类型,而你选择哪个NS则取决于你为它准备的数据。
同样的事情。MLPs已经没有意义了,深度学习已经有很长一段时间的趋势了。而一个网络是很有能力处理异质数据的,重要的是架构。