交易中的机器学习:理论、模型、实践和算法交易 - 页 963

 
伊万-内格雷什尼

而你自己,除了纯粹的机会之外,还有什么可以证明允许向下的偏差呢?

我没有理由期待OOS应该比Train更好。
你怎么能从随机的OOS数据中要求比你所学的更好的结果呢?这不可能,除非是偶然。
最近在另一个主题中写道,学生不可能比老师知道得更多。
例子。
EP上的部分数据(例如80%)对模型来说是熟悉的,它将显示与Train上相同的误差(让误差=30%),EP上的另外20%的数据是新的和没有学习过的,将给出50%的误差。结合起来,这80%的熟悉数据和20%的新数据应该把网站的OOS误差提高到35%左右。
因此,我预计OOS结果的恶化比改善更有可能。
如果有非常多的好例子进入OOS,比在Train plot中的比例更大,也有可能会有改善。我想不出有什么其他方法可以减少反馈的误差。

伊万-内格雷什尼

那么你的主要任务是什么,如果不是与这种随机性作斗争,因为它平添了验证和OOS以及一般的IO的意义?)

任务是使误差delta不要太大。

 
有一个问题要问阿莱莎。
你如何从你的600个预测器中筛选出噪音的?
 
elibrarius

我没有理由期望OOS比Train更好。
你怎么能指望随机的OOS数据能比所教的数据产生更好的结果?这不可能,除非是偶然。
最近在另一个主题中写道,学生不可能比老师知道得更多。
例子。
OOS上的部分数据(例如80%)对模型来说是熟悉的, 它将显示与Train上相同的误差(让误差=30%),另外20%的OOS数据是新的和未学习过的,将给出50%的误差。结合起来,这80%的熟悉数据和20%的新数据应该把网站的OOS误差提高到35%左右。
因此,我预计OOS结果的恶化比改善更有可能。
如果有非常多的好例子进入了OOS,而且比例大于Train plot,那么也有可能会有改善。我想不出其他方法来减少反馈中的误差。

任务是使误差delta不要太大。

为了不被混淆,有必要对术语进行定义--OOS或OOS(样本外)是数据,根据定义不为模型所熟悉,另一件事是IS(样本内)。

 
伊万-内格雷什尼

你需要定义术语--OOS或OOS(样本外)是数据,顾名思义不是熟悉的模型,IS(样本内)是另一回事。

如果发现了数据中的规律性,那么与之对应的例子就可以被认为是熟悉的。
 
elibrarius

如果有很多好的例子进入OOS,比在火车部分的比例更大,也有机会得到改善。我没有看到任何其他的选择来减少反馈回路中的误差。

我在国防部的一本书中读到,训练时,成功与不成功的比例应该与现实相符。我们应该对成功的结果和不成功的结果进行同等的训练。

 
尤里-阿索连科

我在国防部的一本书中读到,在训练时,成功-失败的比例应该与现实一致。我们应该对成功和不成功的结果进行平等的教育。

那么,为什么要尝试过滤掉失败的和嘈杂的例子;或者隔离它们,把它们重新划分为 "不知道",然后再次训练网络?
 
elibrarius
那么,为什么要尝试过滤掉坏的和有噪音的例子;或者隔离它们,把它们重新划分为 "不知道",然后再次训练网络?

我没有意识到这一点。这是为那些人做的。我的教学工作正如我上面写的那样。

 
交易员博士

是的,你的演示已经消失了,这很可惜。而这一切都是因为你太看重OOS了,尽管你引用了一篇文章,里面说不能选择OOS模式,而且在这里的论坛上也多次写过同样的话。

我已经写过,在TOF上,TOF和稳定性之间有直接的关系。

到目前为止,在OOB上没有得到和托盘上一样的错误,总是至少大2倍。我以后会再试的,我现在已经厌倦了这些废话 :)

也许我得换成P,得到一个更好的模型,因为alglib本身不会让我看到别的东西
 
马克西姆-德米特里耶夫斯基

因为alglib本身不会让你看到其他东西

我很久以前就告诉过你,这是一条死胡同。你不应该在MT中建模--R、MathLab,如A_K2,在VisSim中,等等。

当模型工作时,就可以把它转移到MT,而你不能转移)。

 
尤里-阿索连科

你已经被告知很长时间了--这是一个死胡同。你不应该在MT中建模--R、MathLab,如A_K2,在VisCim等。

当这个模型工作时,你就可以把它转移到MT,或者不转移)。

你还能说些什么感兴趣的事呢?