交易中的机器学习:理论、模型、实践和算法交易 - 页 730

 
我早些时候注意到,长期播放TC的问题是,两周或一个月后,你会忘记你是如何做的....。但在这种情况下不是。我记得我的方法,因为看今天的信号,我希望它能正常工作两个星期。静观其变.....
 

回归/预测问题。

输入的数据是否需要归一化/标度?直觉告诉我,我不需要这样做。

 
埃利布留斯

回归/预测问题。

输入需要归一化/缩放吗?直觉告诉我,我不需要这样做。

对于回归,通常采用输入-输出归一化。也就是说,它们在输入端按正向顺序应用系数,在输出端按反向顺序应用系数。
 
样本是产生可接受的学习曲线的样本。

这是一个老话题,关于米哈伊尔的数据集和已故的尤拉-雷谢托夫的分类器中的样本数量,米哈伊尔在谈到样本数量时并不低头,雷谢托夫的工艺的广告让人只怀疑米哈伊尔和尤拉是同一个人,但考虑到账户的年龄和帖子的数量,这是值得怀疑的,但尤拉应该感谢米哈伊尔,即使是从天堂或冥界,对一个相当平庸的工艺进行如此无私的推广。

好吧,平庸的工艺与否,我不知道。我所知道的是,它不会过度训练,但它确实概括得很好....。

而至于训练样本。我不能增加它,尽管我很乐意这样做。我使用的那些数据不允许你这样做。因此,选择的样本允许以可接受的培训质量接收模型.....。

 
这是一个 简单而相当好的例子。

米哈伊尔和朱拉是同一个人,但考虑到账户的年龄和帖子的数量,这是值得怀疑的,但朱拉必须感谢米哈伊尔,即使是在天堂或地狱,对一个相当平庸的作品如此无私的推广。

首先,这并不确定。

第二,它根本不是平庸之作,而是一个简单的、相当好的、可行的神经元应用实例。

 

我整晚都在玩一些废话。 我想把它写下来,然后我想,谁需要它?

但也许有人会得到对自己有用的fth,虽然它只是一个有--神经元学习:)

无论如何,一些非常不幸的RRL(强化 的循环学习)的实现,我在mql4版本中没有得到这么好的测试,因为作者在python中的测试。

在Python和Mql4中都有源代码

https://github.com/darden1/tradingrrl

 

我终于认识了雷舍托夫的这个 "神经元"。

远远不是一个神经元。它更像是一个基于遗传算法 的交易系统,没有使用遗传算法。

这个想法很有趣,但我不太理解这么多人关注它。

 
阿列克谢-特伦特夫

我终于认识了雷舍托夫的这个 "神经元"。

远远不是一个神经元。它更像是一个基于遗传算法 的交易系统,没有使用遗传算法。

这个想法很有趣,但我不太明白它得到了多少关注。

它是一个普通的专家系统,你可以通过模糊逻辑进行大量的这种修改。

 
马克西姆-德米特里耶夫斯基

我整晚都在玩一些废话。 我想把它写下来,然后我想,谁需要它?

但也许有人会得到一个对自己有用的fth,虽然它只是一个有--神经元学习:)

无论如何,一些非常不幸的RRL(强化的循环学习)的实现,我在mql4版本中没有得到这么好的测试,因为作者在python中的测试。

在Python和Mql4中都有源代码

https://github.com/darden1/tradingrrl

潜移默化的描述了一下。

http://dustwell.com/PastWork/MoodyRLTradingPresentation.pdf

https://raghavgoyal14.github.io/assets/ML_project/Final%20Report.pdf

在测试中应该有不好的结果,但在学习中一切都很好......但系统本身也很简单,事实上它使用一个夏普比率进行训练。

他们还写道,RRL比Q-learning更好,但我有疑问,因为这一切都取决于实现(代理人学到了什么,他得到了什么样的奖励)。

 

像马克西姆一样,我已经厌倦了试图用蟑螂的能力来训练NS。我可能会回去训练更有能力的东西--我自己的大脑。虽然它容易受到情绪和疲劳的影响。而且在没有事情发生的时候,大部分时间会感到无聊。由于无聊(当你想开车时),有时你也会开始交易,50%的时间会走错路......。
一般来说,也有弊端。

可能是春天的怀旧情绪,我想要一些极端的行动。我可能会在一个掌上电脑账户上卖掉,然后再回来。尽管开始赚钱 会更好。