交易中的机器学习:理论、模型、实践和算法交易 - 页 1034

 
马克西姆-德米特里耶夫斯基

决定在没有任何意义的情况下,把未压缩的和倍增的预测器塞进去。

你从哪里建立了这么多的预测器? 它们的重要性如何?有1/3的森林没有包括在训练集里,95%的重要性很低。而现在这个系统有这么多的预测器,3个小时做一次预测,反馈是什么?)

除非你建造它,否则你不会知道...

结果本身:用Apache Spark就能实现

我现在不做超过1000个预测器。但少于100个预测因子是不够的。

 
罗费尔德

除非你建造它,否则你不会知道...

结果本身:这在Apache Spark中是可能的

我目前不做超过1000个预测器。但少于100个预测因子我认为是不够的。

你是在故意忽视问题吗?

重复:怎么会有这么多的预测因素?

 
马克西姆-德米特里耶夫斯基

你是在故意无视这些问题吗?

重复:怎么会有这么多的预测因素?

你可以做10亿个预测器,势头以一为单位递增,以此类推)

但他们不会给你任何额外的东西。

 
马克西姆-德米特里耶夫斯基

你是在故意无视这些问题吗?

重复:怎么会有这么多的预测因素?

这些预测器的大部分结果是:bool(high[0]>high[1]),因此状态是0或1。

当然,我是用一个脚本生成一个预测器的列表。

有目的的选择预测因素是没有意义的,因为很容易将一个重要的预测因素排除在其中。

 
罗费尔德

这些预测器的大部分结果是:bool(high[0]>high[1]),并且分别有状态0或1

当然,我用脚本生成了一个预测器的列表。

有目的地选择预测因素是没有意义的,因为很容易排除掉一个重要的预测因素。

你需要的不是数量上的取舍,而是通过对最初的几个类别进行改造,直到类别变得可以很好地分离,并对OOS进行误差控制。

 
forexman77:

你可以做10亿个预测器,以1为增量的势头,等等)。

但他们不会给我们任何额外的东西。

如果预测器不会成为森林的一部分,它就不会有任何危害。也许这个预测器会在另一个版本的随机森林 中表现出来。

我们讨论的是一个由7000个双数组成的数组,它占用的内存很少,在纳秒级的时间内就能完成。在解释具有7000个预测因子的500棵树时,没有明显的减速。如果你不相信我,可以安装Spark并自己检查。

 
马克西姆-德米特里耶夫斯基

你需要的不是数量上的取舍,而是对最初的几项进行改造,直到这些类别可以很好地分开,同时对OOS进行误差控制。

评价一个森林的质量是一个完全不同的话题。
 
罗费尔德
评估一个森林的质量是一个完全不同的话题。

问题是方法的有效性,你提出的方法,直截了当地说,是无效的。

 
马克西姆-德米特里耶夫斯基

问题是方法的有效性,你提出的方法,直截了当地说,是无效的。

效率还有待实际结果来证明。也许我对价格图表的估计方法与经典的质量指标不一致,但最终一切都由利润决定。

我在回答 "我们为什么需要火花 "的问题。我回答说。还是你要再次指责我无视问题?

 
罗费尔德

其有效性仍然需要用实际结果来证明。也许我对价格图表的评估方法与经典的质量指标不一致,但最终是利润决定一切。

我在回答 "我们为什么需要火花 "的问题。我回答说。还是你会再次指责我无视问题?

关于 "火花 "的问题,很长时间以来都很清楚,我没有问。被问及这个想法。这种火花方式正是由于低效的学习曲线和所需能力而被凭空抛出的。

同样可以通过在MT5云中的优化来完成,不需要支架。我不知道你的产出,也不知道它是否给你带来了利润,但它没有,这种算法总是会因为过度拟合而失败。

IMHA