交易中的机器学习:理论、模型、实践和算法交易 - 页 2591

 
Maxim Dmitrievsky#:
是的,相应地,它可以在MT5中作为一个普通的机器人进行测试和优化,通过在外部尝试参数。它在酒吧上的测试很快,但在蜱虫上可能会有缓慢的情况,因为树木被自己评估了很长时间。

那么,在加入ML之后,人们就不想再进一步优化什么了。过度拟合的风从那一边吹来)。尽管如果速度正常,你至少可以尝试一下,以确定。总的来说,是的,因为不是最好的集成速度,我很少注意交易者附加的ML,如果这样的集成和在测试器的条件原生它是可能的测试和正常的速度,它肯定打开额外的可能性的视野。


而一般来说,更好的速度(相对于我的解决方案,我认为会有正常的速度差异)总是好的--无论是在有很多机器人的时候,还是在时间框架很小,速度更关键的时候。

 
Aleksey Nikolayev#:

在模型的参数空间中?它有一个巨大的维度。这只适用于具有少量预测因子的非常简单的模型。

目前还不是很清楚,如何在巨大维度的空间中建立一个曲面是可能的。与这种维度相比,我们的点数简直少得可怜。除非通过一些维度的降维可视化,如PCA等,但这一点并不清楚。

一切都乱七八糟。

我们讨论的是什么模型参数?

如果模型是来自MO的东西,那是一回事,如果模型是测试器中的EA,那就完全是另一回事。

在测试器中被优化的模型通常不涉及任何东西。例如,我们拿着一个清障车,开始挑选一个时期,并得到了一组结果。如果有很多这样的 "巫师",有他们自己的参数,我们不会因此得到光滑的表面,我们挑选的是随机的山峰,可能在未来重合。为什么?对我来说,答案是显而易见的:这些 "擦拭 "的参数与模型的性能无关,它只是噪音。


另一点是,如果MO中的模型参数是一组预测器,那么就可以有意义地提出问题:预测器/无预测器是否与模拟的结果有关。如果是这样,它与建模的结果有什么关系? 当我们选择模型时,情况类似:射频、神经元c或其他.....。

 
SanSanych Fomenko#:

这一切都混在一起,乱成一团。

我们讨论的是什么模型参数?

如果模型是来自MO的东西,那是一回事,如果模型是测试器中的EA,那就完全是另一回事。

在测试器中被优化的模型通常不涉及任何东西。例如,我们拿着一个清障车,开始挑选一个时期,并得到了一组结果。如果有很多这样的 "巫师",有他们自己的参数,我们不会因此得到光滑的表面,我们挑选的是随机的山峰,可能在未来重合。为什么?对我来说,答案是显而易见的:这些 "擦拭 "的参数与模型的性能无关,它只是噪音。


另一点是,如果MO中的模型参数是一组预测器,那么就可以用一种有意义的方式提出问题:预测器/无预测器是否与模拟的结果有关。如果有,是什么。如果我们选择模型,情况类似:射频、神经元或其他.....。

的确,这一切都在增加。参数是参数,预测器是预测器。在你的例子中的假人:参数是他们的时期,预测因素是这些假人的值。对于一个或两个球来说,建立所需的表面并不困难,但对于数百个球来说,由于预测器和参数空间的维度越来越大,意义已经完全丧失。

我看不出测试器中的模型和MO包中的模型有什么根本区别--区别只是技术上的(所用软件的能力)。

 
Aleksey Nikolayev#:

的确,这一切都在一堆。参数是参数,预测器是预测器。在你的假人的例子中:参数是他们的时期,而预测因素是这些假人的值。对于一个或两个球来说,建立所需的表面并不困难,但对于数百个球来说,由于预测器和参数空间的维度越来越大,意义已经完全丧失。

我看不出测试器中的模型和MO包中的模型有什么根本区别--区别只是技术上的(所用软件的能力)。

我不喜欢干涉,但只是说说关于数百个或其他MA......它们的合理数量有一个限制,不超过1.386*ln(N)(其中N是整个观察历史)。

 
优化表面分析也是一把双刃剑。达到高原期并不能保证什么,尽管它给了暂时的鼓励,直到你意识到是时候去工厂的那一刻。此外,优化/学习算法在一定程度上被调整为打破局部极值,即它们被调整为搜索全局极值。
 
Maxim Dmitrievsky#:
优化表面分析也是一把双刃剑。而达到高原期的时候,虽然能给人暂时的鼓舞,直到你意识到该去工厂了,但也不能保证什么。
上帝的批评
 
mytarmailS#:
神圣的批评
试过了 :)
 
Maxim Dmitrievsky#:
Trying :)
我希望我能理解 "高原 "和全球最低点之间的区别。
 
mytarmailS#:
我希望我能理解 "高原 "和全球最低点之间的区别
取决于你在寻找什么。意思是全球的一个高原,就像一个理想和梦想
 
没有人认为稳健性是一件好事。问题是,没有简单和绝对的方法来实现它。