交易中的机器学习:理论、模型、实践和算法交易 - 页 1239

 
马克西姆-德米特里耶夫斯基

我有一个较小的班级。 我有一个0.14/0.4的错误。

14%到40%的考试成绩?

 
圣杯

14%到40%的考试成绩?

嗯,Traine 14测试40

 
Vizard_

准确率和分类误差是不同的,准确率和样本(测试-训练)的百分比。

原则上是清楚的--它超出了追踪的范围...在这个数据集上的测试(20%的样本)中,0.6的准确率会做...

到目前为止,分类错误......很久没有在那里重做了))

我有20%的alglib训练,80%的OOB,在这里也做了同样的事情

我在Python中做了这个,得到的结果是这样的

score(X,y,sample_weight=None)[来源]

返回给定测试数据和标签的平均精度。


我完全不明白,我今天才在python中掌握了这个方法,明天我再试试。如果测试和跟踪是50%,那么就像这样


 
Vizard_

我对这个的数据集(准确性)是
趋势(80%的样本)= 0.619
测试(20%的样本)= 0.612 OOS

挖一挖,迎面少。这就是你的做法,而不是20%的测试))))。

50%是不够的,300个观察是没有的。

训练的内容是什么?
 
elibrarius
20%的学习是新的东西))。

我认为那里的错误没有什么变化,这就是我这样做的原因,简而言之,是一种强烈的正则化。

 
马克西姆-德米特里耶夫斯基

我认为那里的误差变化不大,这就是我这样做的原因,简而言之就是强正则化。

它怎么可能没有变化呢?14%和40%是一个很大的区别。
例如,60x60如《向导》--这是真的!

 
Vizard_

我对Doc和Toxic做了同样的事情,Python和R没有这个...我不会告诉你...

至少是脚手架或网子?
 
埃利布留斯

怎么可能不呢?14%和40%是一个很大的区别。
60岁以上的人像巫师一样--就是这样!

好吧,我们要检查所有在python中的模型......我的意思是,那些流通的模型......直到明天......直到明天才会有。

也许我们还需要一些预处理。
 

难道你不明白,你在外汇上是赚不到钱的吗?)

成为一名程序员并获得一份高薪工作比从事这种受虐狂更容易。

 

简而言之,在alglib分类错误和logloss...对数损失完全没有意义,在受训者样本>0.8和oob 0.2的情况下,森林中的分类误差下降到零。

rmse不利于分类

这就是为什么我采取了一个小的训练样本,为了某种误差,但它仍然很小。我不知道如何与Python的比较