交易中的机器学习:理论、模型、实践和算法交易 - 页 2406

 
长期以来,各地都将熵作为损失fi或交叉熵来使用。此外,所有这些对浮动法的排行并不重要,如果有,也是次要的。解决方案就在表面上,其中一个变体已经在这个主题中被提出,工作起来很不稳定。我暂时不说细节,但我有一天会写一篇文章。Z.I.可能对表面有点兴奋,但至少对我来说😀。
 
参考度量衡,自己不知道一些https://russianblogs.com/article/7586220986/
 
Maxim Dmitrievsky:
衡量标准的参考,我自己不知道一些https://russianblogs.com/article/7586220986/

如果符号均匀地分布在一个单位立方体中,切比雪夫公制在直觉上似乎是最正确的一种。另一点是,任意的特征不太可能被规范化得这么好。

 
Aleksey Nikolayev:

如果特征均匀地分布在一个单位立方体中,切比雪夫度量直观上似乎是最正确的。另一件事是,它不太可能将任意属性规范化得那么好。

我试验了归一化,在模型中得到了体面的损失,没有归一化我得到了更好的结果。这就是为什么是树木的森林,而不是神经网络。
 
马克西姆-德米特里夫斯基
实验了正常化,在模型中得到了体面的损失,没有它更好。因此,是树木的森林,而不是神经网络。
类似的结论--只有树木。特别是当Maxima被更新时,一切都会发生转变,非常有趣。当然,你可以手动或自动设置最大值(针对每个特征),但这是拐杖。
 
马克西姆-德米特里夫斯基
实验了正常化,在模型中得到了体面的损失,没有它更好。这就是为什么是树木的森林,而不是神经网络。

我也倾向于 要感谢你的努力)像xgboost 这样的东西。但是,规范化以及具有特征的一般准备性研究,永远不会有坏处。我还需要一个灵活的方法来建立一个自定义的目标函数。

 
Maxim Dmitrievsky:
因此是树木的森林,不是神经网络。

是的,几年前有人在这个主题中写了这样一个想法--建议森林,并将神经网络与核武器相比较。他说,只有在其他方法无能为力的情况下,才应使用这些方法。但有些马克西姆却对他大倒苦水。

我想知道...他是对的吗?

 
Aleksey Nikolayev:

我也倾向于 要感谢你的工作)像xgboost 这样的东西。但是,规范化,以及具有特征的一般准备性研究工作,永远不会受到伤害。同时,我们需要灵活的方法来建立自定义的目标函数。

推荐LightGBM或CatBoost,XGBoost落后了。

事实证明,任何预处理都会杀死阿尔法。这是如果你采取增量并开始烘干它们。最理想的是采取原始系列(报价),但由于它的非平稳性,你不能训练它。这一点可以在有关分化的文章中清楚地看到(我们将埋葬市场的记忆)。应用的转化越多,留在那里的东西就越少。

 
Dmytryi Nazarchuk:

是的,几年前在这个主题中有人写了这样一个想法--他建议建立脚手架,并将神经网络与核武器相比较。他说,只有在其他方法根本无法实现的情况下,才应该使用这些方法。但有些马克西姆却对他大倒苦水。

我想知道...他是对的吗?

我不知道他在说什么。

 
elibrarius:
类似的结论--只限于树木。特别是当Maxima被更新时,一切都会发生转变,非常有趣。当然,你可以手动或自动设置最大值(针对每个功能),但这是一个拐杖。

是的,无论结果如何,都是无稽之谈