交易中的机器学习:理论、模型、实践和算法交易 - 页 89

 
Vizard_:
滑动控制是为粉丝))))),只有在这种情况下,该模型才适合,这是一个谬论。
但这都是无稽之谈,每个人在不同阶段都有自己的怪癖-必需品,你也可以添加。
我指的是一般和测试的输出%(测试=OOS-对新数据的公式应用)
窗口应用程序的一个优点是快速易用性。做一个正常的外壳是可能的,
Reshetov是一个有经验的编码员,所以必须以正常的方式进行。这就是全部。当然,这都是我的看法。
我不会尝试尤里的软件,不是因为我认为他做的是垃圾。尽管他是一个经验丰富的程序员。只是所有的东西都已经实现了,甚至原来在我使用的软件包中也有一个走位。而每个样本有150-200个模型,从SVM,到带正则化的线性模型,到XGBOOST
 
阿列克谢-伯纳科夫


如果在样本中选择一个好的模型,在样本外也能得到好的结果,意味着该模型适合于所选择的问题。

再次提醒那些特别有天赋的人:如果一个模型通过了选择,并不意味着它有可能适合所选择的问题,特别是在非平稳环境中。这只意味着它以某种方式通过了选择。

如果申请人通过了大学入学考试的选拔,这并不意味着她会答辩,更不意味着她随后会在她选择的领域工作。

选择只是减少不适合的概率,但不一定是零。而且我们不应忘记,选择的结果也可能是假阳性和假阴性。也就是说,有一个非零的概率,即选择过程也把 "婴儿和洗澡水一起扔掉"。

 
Yury Reshetov:

再次,对于特别有天赋的人来说:如果一个模型通过了选择,并不意味着它有可能适合所选择的问题,特别是在非稳态环境中。这只是意味着它已经以某种方式通过了选择。

如果申请人通过入学考试被选入大学,这并不意味着她会答辩,更不意味着她随后会在她选择的专业中工作。

选择只是减少不适合的概率,但不一定是零。而且我们不应忘记,选择的结果也可能是假阳性和假阴性。也就是说,有一个非零的概率,即选择过程也把 "婴儿和洗澡水一起扔掉"。

让我为非常复杂的人再次解释。

当然,所有的结果都是概率性的!

训练中有模型结果,交叉验证或测试中也有结果(挑选 模型参数,并进行早期学习停止)。还有样本外的模型结果--最终估计。

如果测试的结果与样本外的结果有很好的相关性,这意味着依赖性建模的质量对于样本外的时期有惯性。在这种情况下,可以采取测试中的最佳模型(不是 "样本外")。随后,人们可以在所有已知参数的新数据上重新训练模型,并采取最佳模型,因为与未来结果的关系实际上已经确立。

如果测试的结果与样本外的结果相关性很差,那么在训练中采取最好的模型是没有意义的。在 "非样本 "中采取最好的模型是一种适合。只有一条出路--拒绝创建模型的方法或大幅改变参数的范围。

 
而我,用深度学习来提高雷舍托夫优化器的泛化能力,加上评估谓词质量的新可能性,真是美不胜收。通过深度学习,从50%的泛化率可以提高到80-90%。 而在这种情况下,模型开始工作,在hurray....。所以,从这里开始吧,伙计们。也不需要争吵 (c) 利奥波德和所有其他......
 
.

"你可以建议他们创建一个星期的主题,例如 -- 一个星期让人们表达自己 -- 然后让他们擦亮眼睛。"

我不知道是哪个妖精在我的帖子里插入了上面这段话,但这不是我的帖子。

如果版主不喜欢我帖子里的东西,那是他们的权利。只是不要把别人的文字粘贴到我的帖子里,要表现得更有文化性:说明他们到底不喜欢什么,并以自己的名义。而我,不是为了刺激版主,从这个网站到我自己的网站去:链接在我的个人资料中。

大家再见

 
尤里-雷舍托夫
.

"你可以建议他们创建一个星期的主题,例如 -- 一个星期让人们表达自己 -- 然后让他们擦亮眼睛。"

我不知道是哪个妖精在我的帖子里插入了上面这段话,但这不是我的帖子。

如果版主不喜欢我帖子里的东西,那是他们的权利。只是不要把别人的文字粘贴到我的帖子里,要表现得更有文化性:说明他们到底不喜欢什么,并以自己的名义。而我,不是为了刺激版主,从这个网站到我自己的网站去:链接在我的个人资料中。

大家再见!

我还以为是你在写...聪明之举...没错...
 
尤里-雷舍托夫
.

"你可以建议他们创建一个星期的主题,例如 -- 一个星期让人们表达自己 -- 然后让他们擦亮眼睛。"

我不知道是哪个妖精在我的帖子里插入了上面这段话,但这不是我的帖子。

如果版主不喜欢我帖子里的东西,那是他们的权利。只是不要把别人的文字粘贴到我的帖子里,要表现得更有文化性:说明他们到底不喜欢什么,并以自己的名义。而我,不是为了刺激版主,从这个网站到我自己的网站去:链接在我的个人资料中。

大家再见!

请随时回来。
 
Vizard_

我稍后会看一下兴趣,虽然我认为我已经做了一些垃圾))))。
是的,+R是指它可能已经实现了一切可能。ML很长一段时间我都不使用,但只是模型,没有重新训练。我对ML做的最后一件事就是
在模型中塞满事件,所以它们总是能击中目标。将它们结合起来,你通常会得到93-96%。其余的,你来训练。换句话说。
如果你已经教你的孩子走了一点路,你不必每天都告诉他同样的事情,你只需告诉他什么时候跳过水坑。
(在目标中没有预测)。有点滴水不漏,目标肯定不是蜡烛的颜色))。
我不知道该怎么做,但我想说的是,我不知道该怎么做,但我想说的是,我不知道该怎么做,我不知道该怎么做。
 
Vizard_

有点滴水不漏,目标当然不是蜡烛的颜色))))。
它只是不言而喻 )
 
Nested cross validation for model selection
Nested cross validation for model selection
  • stats.stackexchange.com
How can one use nested cross validation for model selection? From what I read online, nested CV works as follows: There is the inner CV loop, where we may conduct a grid search (e.g. running K-fold for every available model, e.g. combination of hyperparameters/features) There is the outer CV loop, where we measure the performance of the model...