交易中的机器学习:理论、模型、实践和算法交易 - 页 629

 
尤里-阿索连科

马克西姆,嗯,不要在MT优化器中训练网络。NS训练器和优化器是完全不同的算法,具有完全不同的优化标准。

如果你仍然使用你之前画的那个NS结构,那么就有点简单了--对市场来说很弱。我已经写过,我只有在达到15-20-15-10-5-1的结构时才获得成功。而这仅仅是针对一种类型的交易。我也完全用海金描述的方法做了一切,也就是说,没有什么新东西,没有什么技巧。

简单的结构 是训练不足的。

你有没有试过不取层数,而是取一个层中的神经元数量?例如,15-200-1或15-200-20-1?

尤里-阿索连科

事实上,用于培训的数据不是很多,而是很多。在一个小的样本量上,NS不会得到任何有用的东西。

那么你要拿多少数据呢?我带着86000根弦进行训练。

 
elibrarius

1)你是否尝试过不取层数,而是取一个层中的神经元数?例如,15-200-1或15-200-20-1?

2)那你拿多少数据呢?我当时拿着86000线进行培训。

1.我还没有试过。第一层中的20个已经很足够了。通过增加每层的神经元和层数来实现。

2.我在训练中大约有12000行,在N个epoch之间进行了中间洗牌。在一些历时之后,训练数据被之前没有参与训练的其他数据所取代。

 
阿列克谢-特伦特夫

我很抱歉对你的侮辱,但你应该重读你的帖子。它看起来相当含糊。
一般来说,你是对的,但只涉及神经网络的第一层。如果反馈到第二层和后续层,或者一般来说到平行网络层,你的声明将变得无效。
在这种情况下,马克西姆 应该考虑深化网络,把反馈带到隐藏层。

那又如何呢。

同样的事情。MLPs在很长一段时间内都是不相关的,深度学习已经有很长一段时间的趋势了。而一个网络是很有能力处理异质数据的,主要是架构。

我同意,但如何将深度与所有这些技巧结合起来:)在优化器中的学习时间会有点长......但质量非常非常高,因为那里和交易一次发生。

我认为超过30个权重对优化器来说不是一个选项。

+ 许多人忘记了有一个云,一般来说,与所有这些东西一起工作是很酷的,但你必须非常善于优化代码。

 
马克西姆-德米特里耶夫斯基

我同意,但如何将深度与所有这些技巧结合起来:)在优化器中的学习时间会有点长......但质量非常非常高,因为那里和交易一次发生。

我认为超过30个权重对优化器来说不是一个选项。

+ 我认为很多人忘记了有一个云,通过这个云,所有这些东西都可以很有趣地工作,但你必须很好地优化代码。

尝试复制输入层。

 
阿列克谢-特伦特夫


同样的事情。MLPs已经没有意义了,深度学习已经有很长一段时间的趋势了。而一个网络是很有能力处理异质数据的,重要的是架构。
如果一个MLP能够解决一个任务,那么他们是否是最新的,有什么区别呢?特别是对于MLPs,你不必做太多努力--几乎到处都有它们的东西。
 
阿列克谢-特伦特夫

尝试复制输入层。

主题,并混合了重量 :)
 
尤里-阿索连科
如果MLPs能够解决一个问题,那么它们是否相关有什么区别呢?特别是对于MLPs,你不必劳神费力--几乎到处都有它们的东西。

我不是想让你屈服于任何东西。深入学习从MLP开始。
但是,当涉及到网络内的数据表示,它们的移动和转换时,关于激活、循环层、正则化、层的组合等问题就会自然而然地被提出来。现在这才是深刻的学习。

此外,对于深度学习来说,什么都有,到处都有。=)
 
尤里-阿索连科
如果MLPs能够解决一个问题,那么它们是否相关有什么区别呢?特别是对于MLPs,你不必劳神费力--几乎到处都有它们的东西。
只是在其他条件相同的情况下,深入学习可以快得多......比如说,不是10个小时,而是5分钟 :)
 
阿列克谢-特伦特夫

好吧,我不倾向于你的任何事情。深度学习仅仅从MLP开始。
但是,当涉及到网络内部的数据表示、它们的移动和转换时,关于激活、循环层、正则化、层组合等问题就自然而然地被提出来了。这是深入的学习。

我明白,但我说的是别的东西。对于双管齐下的问题,你不需要高等数学,只需要算术。算术是否相关是另一回事。

也就是说,你必须首先定义问题,然后选择解决问题的方法。

至于大型和复杂的DM--DL,MLP肯定早就过了阶段。

 
马克西姆-德米特里耶夫斯基
只是,在其他条件相同的情况下,深层的人还能学得更快......比如说,不是10个小时,而是5分钟 :)
我不能确定,但在我看来,这些都是幻觉。只是从一般考虑。