交易中的机器学习:理论、模型、实践和算法交易 - 页 2406 1...239924002401240224032404240524062407240824092410241124122413...3399 新评论 Maxim Dmitrievsky 2021.06.23 13:39 #24051 长期以来,各地都将熵作为损失fi或交叉熵来使用。此外,所有这些对浮动法的排行并不重要,如果有,也是次要的。解决方案就在表面上,其中一个变体已经在这个主题中被提出,工作起来很不稳定。我暂时不说细节,但我有一天会写一篇文章。Z.I.可能对表面有点兴奋,但至少对我来说😀。 Maxim Dmitrievsky 2021.06.23 17:26 #24052 参考度量衡,自己不知道一些https://russianblogs.com/article/7586220986/ Aleksey Nikolayev 2021.06.23 18:03 #24053 Maxim Dmitrievsky: 衡量标准的参考,我自己不知道一些https://russianblogs.com/article/7586220986/ 如果符号均匀地分布在一个单位立方体中,切比雪夫公制在直觉上似乎是最正确的一种。另一点是,任意的特征不太可能被规范化得这么好。 Maxim Dmitrievsky 2021.06.23 18:08 #24054 Aleksey Nikolayev: 如果特征均匀地分布在一个单位立方体中,切比雪夫度量直观上似乎是最正确的。另一件事是,它不太可能将任意属性规范化得那么好。 我试验了归一化,在模型中得到了体面的损失,没有归一化我得到了更好的结果。这就是为什么是树木的森林,而不是神经网络。 Forester 2021.06.23 20:06 #24055 马克西姆-德米特里夫斯基: 实验了正常化,在模型中得到了体面的损失,没有它更好。因此,是树木的森林,而不是神经网络。 类似的结论--只有树木。特别是当Maxima被更新时,一切都会发生转变,非常有趣。当然,你可以手动或自动设置最大值(针对每个特征),但这是拐杖。 Aleksey Nikolayev 2021.06.25 07:15 #24056 马克西姆-德米特里夫斯基: 实验了正常化,在模型中得到了体面的损失,没有它更好。这就是为什么是树木的森林,而不是神经网络。 我也倾向于(也 要感谢你的努力)像xgboost 这样的东西。但是,规范化以及具有特征的一般准备性研究,永远不会有坏处。我还需要一个灵活的方法来建立一个自定义的目标函数。 Dmytryi Nazarchuk 2021.06.25 07:30 #24057 Maxim Dmitrievsky: 因此是树木的森林,不是神经网络。 是的,几年前有人在这个主题中写了这样一个想法--建议森林,并将神经网络与核武器相比较。他说,只有在其他方法无能为力的情况下,才应使用这些方法。但有些马克西姆却对他大倒苦水。 我想知道...他是对的吗? Maxim Dmitrievsky 2021.06.25 07:33 #24058 Aleksey Nikolayev: 我也倾向于(也 要感谢你的工作)像xgboost 这样的东西。但是,规范化,以及具有特征的一般准备性研究工作,永远不会受到伤害。同时,我们需要灵活的方法来建立自定义的目标函数。 推荐LightGBM或CatBoost,XGBoost落后了。 事实证明,任何预处理都会杀死阿尔法。这是如果你采取增量并开始烘干它们。最理想的是采取原始系列(报价),但由于它的非平稳性,你不能训练它。这一点可以在有关分化的文章中清楚地看到(我们将埋葬市场的记忆)。应用的转化越多,留在那里的东西就越少。 Maxim Dmitrievsky 2021.06.25 07:36 #24059 Dmytryi Nazarchuk: 是的,几年前在这个主题中有人写了这样一个想法--他建议建立脚手架,并将神经网络与核武器相比较。他说,只有在其他方法根本无法实现的情况下,才应该使用这些方法。但有些马克西姆却对他大倒苦水。我想知道...他是对的吗? 我不知道他在说什么。 Maxim Dmitrievsky 2021.06.25 07:45 #24060 elibrarius: 类似的结论--只限于树木。特别是当Maxima被更新时,一切都会发生转变,非常有趣。当然,你可以手动或自动设置最大值(针对每个功能),但这是一个拐杖。 是的,无论结果如何,都是无稽之谈 1...239924002401240224032404240524062407240824092410241124122413...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
衡量标准的参考,我自己不知道一些https://russianblogs.com/article/7586220986/
如果符号均匀地分布在一个单位立方体中,切比雪夫公制在直觉上似乎是最正确的一种。另一点是,任意的特征不太可能被规范化得这么好。
如果特征均匀地分布在一个单位立方体中,切比雪夫度量直观上似乎是最正确的。另一件事是,它不太可能将任意属性规范化得那么好。
实验了正常化,在模型中得到了体面的损失,没有它更好。因此,是树木的森林,而不是神经网络。
实验了正常化,在模型中得到了体面的损失,没有它更好。这就是为什么是树木的森林,而不是神经网络。
我也倾向于(也 要感谢你的努力)像xgboost 这样的东西。但是,规范化以及具有特征的一般准备性研究,永远不会有坏处。我还需要一个灵活的方法来建立一个自定义的目标函数。
因此是树木的森林,不是神经网络。
是的,几年前有人在这个主题中写了这样一个想法--建议森林,并将神经网络与核武器相比较。他说,只有在其他方法无能为力的情况下,才应使用这些方法。但有些马克西姆却对他大倒苦水。
我想知道...他是对的吗?
我也倾向于(也 要感谢你的工作)像xgboost 这样的东西。但是,规范化,以及具有特征的一般准备性研究工作,永远不会受到伤害。同时,我们需要灵活的方法来建立自定义的目标函数。
推荐LightGBM或CatBoost,XGBoost落后了。
事实证明,任何预处理都会杀死阿尔法。这是如果你采取增量并开始烘干它们。最理想的是采取原始系列(报价),但由于它的非平稳性,你不能训练它。这一点可以在有关分化的文章中清楚地看到(我们将埋葬市场的记忆)。应用的转化越多,留在那里的东西就越少。
是的,几年前在这个主题中有人写了这样一个想法--他建议建立脚手架,并将神经网络与核武器相比较。他说,只有在其他方法根本无法实现的情况下,才应该使用这些方法。但有些马克西姆却对他大倒苦水。
我想知道...他是对的吗?
我不知道他在说什么。
类似的结论--只限于树木。特别是当Maxima被更新时,一切都会发生转变,非常有趣。当然,你可以手动或自动设置最大值(针对每个功能),但这是一个拐杖。
是的,无论结果如何,都是无稽之谈