交易中的机器学习:理论、模型、实践和算法交易 - 页 1033

 
Roffild:

我是一个程序员,不是一个心灵感应者。任何问题,我都会给你答案......。

答案:42 :D

如果你准备作为一个程序员来回答,这里有一个快速的问题--一个编程任务,同时检查你所坚持的技能。

在附件中,有一个EA的欧元兑美元H1 信号的模板,我们需要确定其形成的算法。

如果你愿意,你可以把解决方案作为一个EA发布,并在行动中展示预测器bruteforcing和你的机器学习库的力量。

我建议所有感兴趣的机器学习者加入,我也准备用我的MO来解决所提出的问题或任何其他作为模板的问题。

也许在这种划线模式下,我们至少能够制定出一些共同的方法和格式))。

附加的文件:
EA_EURUSD_H1.tpl  130 kb
 

在保存模板之前,所有指标都应该被删除。它可能不是name=main指标,但数据没有显示。

而且,哪里能保证该战略是有利可图的?也许这只是一个幸运的历史片段...

似乎没有人读过我的图书馆,因为没有专门关于它的问题。每个人都想得到圣杯,却不了解找到它的方法。

 
罗费尔德

在保存模板之前,所有指标都应该被删除。它可能不是name=main指标,但数据没有显示。

而且,哪里能保证该战略是有利可图的?也许这只是一个幸运的历史片段...

似乎没有人熟悉我的图书馆,因为没有关于它的问题。都想得到圣杯,不了解寻找圣杯的方法。

主条目在所有的模板中,它不干扰,那里的数据只是图形对象 - 箭头,蓝色 - 买入,红色 - 卖出。

你打开欧元兑美元H1图表并下载文件(菜单Charts/Template/Load Template...),并在上下文菜单中查看对象列表。


而且没有人要求你提供圣杯,只是为了解决问题,在实践中确认你所说的和图书馆的工作方式。

 
阿列克谢-特伦特夫
如果你对高级神经网络架构感兴趣,就会出现一些非常有趣的想法。当然,这很难详细说明,你需要对抖动的框架有经验,并对一般的矢量数学有了解。
但这是值得的。
至于市场,我没有什么可展示的,市场是***inok),需要很多时间。
请到我们这里来,我们有一个安静而舒适的环境)我将描述并通过实例向你展示如何准备深度网络。

不要给他,他会把你的脑子搞坏的。

 
阿列克谢-特伦特夫
如果你对高级神经网络架构感兴趣,就会出现一些非常有趣的想法。当然,这很难深入了解细节,你需要对抖动框架有经验,并了解一般的矢量数学。
但这是值得的。
至于市场,我没有什么可展示的,市场是***inok),需要很多时间。
到我们这里来吧,我们有一个安静而舒适的环境)我将描述并通过实例向你展示,如何准备一个深度网络。

我在论坛上交流,不支持教派

)

 
罗费尔德

我是一个程序员,不是一个心灵感应者。如果你有任何问题,我会给你答案的...

答案:42 :D

我感兴趣的是为什么它应该工作的概念,而不是什么连接到什么以及如何快速连接

对方法的理论解释,我没有从代码中意识到它,而且为了理解它而使用java和spark等也没什么意思。

也就是说,你是如何看待和处理iO的,你的理解深度,可以说是。

如果你回答43,我就不会再问了 :)

 

我的部分库,是在MQL5上的,没有直接与Apache Spark链接。在Java中,有一个单独的模块 可以转换数据用于Spark。而且这个模块 应该被移植到Python上。

Apache Spark是一个分布式 大数据处理系统+随机森林的模块。可以处理1000台服务器上的数据(Facebook偶然发现了这样一个门槛)。

大数据--当文件处理无法装入RAM时。

给出:2年内有800个预测因子,在5GB中。

任务:使用一些 廉价的亚马逊服务器,在1-2小时内创建250棵树。

解决方案:AWS EMR + Apache Spark。

有什么办法可以不使用Spark来解决这个问题吗?

 

Apache Spark可以让你忘记内存不足的问题。

我创建了一个 500棵树的随机森林,有7000个预测因子和30GB的数据。亚马逊在两台有16个CPU的服务器上运行了15个小时。

 
罗费尔德

Apache Spark可以让你忘记内存不足的问题。

我创建了500棵树的随机森林,有7000个预测因子和30GB的数据。亚马逊在两台有16个CPU的服务器上运行了15个小时。

那么随机森林中的7000个预测因子的意义何在?这仍然是再培训。取了大约30-40个预测器,训练了森林。然后我逐一检查了它们,并通过这种方式选择了4个预测器。

用四个预测器训练的森林比用30-40个预测器训练的森林要好一点,但也差不了多少。特别是外汇的报价有更多的随机数据类型,结果是相对于负数来说,所需的类别为+5%(正确预测55%)。

当然,也许我们可以以某种方式从价格系列中提取一个成分,从而更好地划分类别,但到目前为止,我还没有成功做到这一点。

我的观点是,没有必要创建预测器。我认为这不会有多大意义,它只会让森林的再培训更快。

 
Roffild:

Apache Spark可以让你忘记内存不足的问题。

我创建了一个500棵树的随机森林,有7000个预测因子和30GB的数据。亚马逊在两台有16个CPU的服务器上运行了15个小时。

他们决定把没有能力的人塞进去,并毫无意义地增加预测者。

你从哪里得到这么多的预测因子? 它们的重要性 如何?有1/3的森林没有包括在训练集中,95%的重要性很低。而现在有这么多的预测器,3个小时做一次预测,系统的反应是什么?)