交易中的机器学习:理论、模型、实践和算法交易 - 页 3019

 
Aleksey Vyazmikin #:

我就是这么写的,贪婪和遗传木材之间有什么区别--也许我没有理解问题。

我没听说过从神经网络中提取规则。能给我一个链接吗?到目前为止,我还在想象一些繁琐的东西。

但我认为,就发布新规则的速度而言,这里的神经网络显然会比树木慢。

你把 "好规则 "和 "坏规则 "区分开来的想法完全是死胡同,方法论上的死胡同。

出于某种原因,你认为 "好 "规则(树)真的 "好"。

这不仅仅是因为它们的未来模糊不清,还因为根本就没有什么规则可以按照某种标准来衡量。有一些规则会产生一种 "好坏 "的可变性,这种可变性会随着窗口的移动而变化,而这种规则很有可能随着窗口的移动而从 "好 "变为 "坏"。这种可变性由一个将预测概率划分为不同类别的值来定义。

在 MO 算法中,标准的类别划分方法是将类别预测概率对半划分,但这是完全错误的。我考虑的是类划分的值--它永远不会是 0.5:这个值是变化的,取决于特定的预测因子。

现在回到您的 "好 "树。

如果您选择的树的 "好坏 "接近临界值,那么它就会移动。这就是为什么我在上文指出,你选择的 "好 "树很容易变成坏树。


这是一个死胡同。

 

Yandex 的教程不错,写得也不赖。其中的一部分 与我的想法更为相关。它描述了树构建中使用的损失函数的一般类型。其中的观点是,优化平均 错误价格 和利润最大化等同于优化错误价格之

如果转换成利润术语,它就是一笔交易中的总利润与平均利润之差。由于我解决的是二元分类(进入/不进入)问题,因此最大化交易中的平均利润会愚蠢地导致进入一两次交易而放弃其他交易。

我想知道,这是否是优化和 MO 之间不可逾越的界限。

Решающие деревья
Решающие деревья
  • academy.yandex.ru
Обучение древесных моделей для классификации и регрессии. Эффективное построение решающих деревьев
 
Aleksey Nikolayev #:

Yandex 的教程不错,写得也不赖。我的想法与其中 另一部分内容有关。它描述了树构建中使用的损失函数的一般类型。重点在于,优化平均误差价格 和利润最大化等同于优化误差价格之

如果转换成利润术语,它就是一笔交易中的总利润与平均利润之差。由于我解决的是二元分类(进入/不进入)的问题,因此最大化交易中的平均利润会愚蠢地导致进入一两次交易,而放弃其他交易。

我想知道,这是否是优化和 MO 之间不可逾越的界限。

是什么阻碍了你编写自己的损失函数?

 
Maxim Dmitrievsky #:
这是我对谷歌工作原理的总结,我自己也在用。Dipminds的做法通常非常接近我自己对现实的看法。


谢谢您的建议!

 
Aleksey Vyazmikin #:

谢谢您的建议!

外面的情况很复杂,我昨晚搜索了一下这个主题。同样的树从天平和 NS 层中提取规则。它们还从超精密网络中提取规则。我会在获得更多信息后再发布。从规则搜索这个角度来看,探索性分析中的树现在看起来太酷了,如果数据集准备得当,速度可能会超过遗传优化。
我自己还没试过,可能会有一些陷阱。
 
mytarmailS #:
应该由你来处理你的问题,而不是别人.....。
一旦进入你的头脑,这就是一个过程...

好好想想吧

我用 MQL5 解决问题,而我们在谈论 R。

事实就是事实--你不假思索地说了一句话,然后就跑到灌木丛里去了。

 
mytarmailS #:

是什么阻碍了你《FUN》的写作?

比如说,我还不知道如何在同样的 Bousting 中实现利润最大化。

当然,我正在做一些事情,但我希望听到其他关于这个话题的信息。

 
Aleksey Nikolayev #:

比如说,我还不知道如何在同样的 "雏菊 "中实现利润最大化。

当然,我正在做一些事情,但我想听听其他相关人士的意见。

在平衡类中,精确度运行良好。我尝试了所有标准指标,结果几乎没有差别。利润最大化是通过最大利润交易的标记来实现的,不是吗)?
 
СанСаныч Фоменко #:

你把 "好规则 "和 "坏规则 "分开的想法完全是死胡同,是方法论上的死胡同。

你莫名其妙地认为 "好 "规则(树)真的 "好"。

这不仅仅是因为它们的未来模糊不清,还因为根本就没有什么规则可以按照某种标准来衡量。有一些规则会产生一种 "好坏 "的可变性,这种可变性会随着窗口的移动而变化,而这种规则很有可能随着窗口的移动而从 "好 "变为 "坏"。这种可变性由一个将预测概率划分为不同等级的值决定。

在 MO 算法中,标准的类划分方法是将类预测概率对半划分,但这是完全错误的。我考虑的是类别划分的值--它永远不会是 0.5:这个值是变化的,取决于特定的预测因子。

现在回到你的 "好 "树。

如果您选择的树的 "好坏 "接近阈值,那么它就会移动。这就是为什么我在上文指出,您选择的 "好 "树很容易变成坏树。


这是一个死胡同。

你自己对我的想法提出假设,却又自相矛盾。试着从头开始提问吧。

不管是不是死胡同,我已经展示了真实的结果。在培训两年后,用 50%的树叶能分出 3 个等级的森林来证明这一点。在我的记忆中,你有一个定期重新训练模型的概念,几乎每周一次。

我不需要解释漂移的问题,我已经在论坛上创建了一个单独的主题,试图解决这个问题,如果你想分享想法,请加入。

因此,这种方法很有前途,但还有待改进和发展。

 
Aleksey Nikolayev #:

比如说,我还不知道如何在同样的 "雏菊 "中实现利润最大化。

当然,我正在做一些事情,但我想听听其他相关人士的意见。

我向你展示了如何在利润最大化的基础上训练 forrest。

这是一种通过适度函数进行的简单无梯度学习,本质上就是 RL。

我把代码扔在这里,但这种方法对大型任务并不十分有效。


对于大型任务,我们需要将无梯度学习转化为梯度学习,即转化为常规的典型RL dip。

看这段视频的前半部 分,它会告诉你如何训练。

其中有一个神经元的例子,不过是提升还是其他并不重要。

Deep Learning на пальцах 13 - Reinforcement Learning
Deep Learning на пальцах 13 - Reinforcement Learning
  • 2019.05.15
  • www.youtube.com
Курс: http://dlcourse.ai