交易中的机器学习:理论、模型、实践和算法交易 - 页 1239 1...123212331234123512361237123812391240124112421243124412451246...3399 新评论 Грааль 2018.12.26 19:58 #12381 马克西姆-德米特里耶夫斯基。我有一个较小的班级。 我有一个0.14/0.4的错误。14%到40%的考试成绩? Maxim Dmitrievsky 2018.12.26 20:13 #12382 圣杯。14%到40%的考试成绩?嗯,Traine 14测试40 Maxim Dmitrievsky 2018.12.26 20:15 #12383 Vizard_。准确率和分类误差是不同的,准确率和样本(测试-训练)的百分比。 原则上是清楚的--它超出了追踪的范围...在这个数据集上的测试(20%的样本)中,0.6的准确率会做...到目前为止,分类错误......很久没有在那里重做了)) 我有20%的alglib训练,80%的OOB,在这里也做了同样的事情 我在Python中做了这个,得到的结果是这样的 score(X,y,sample_weight=None)[来源]返回给定测试数据和标签的平均精度。 我完全不明白,我今天才在python中掌握了这个方法,明天我再试试。如果测试和跟踪是50%,那么就像这样 Forester 2018.12.26 20:30 #12384 Vizard_。我对这个的数据集(准确性)是 趋势(80%的样本)= 0.619 测试(20%的样本)= 0.612 OOS 挖一挖,迎面少。这就是你的做法,而不是20%的测试))))。 50%是不够的,300个观察是没有的。 训练的内容是什么? Maxim Dmitrievsky 2018.12.26 20:32 #12385 elibrarius。 20%的学习是新的东西))。我认为那里的错误没有什么变化,这就是我这样做的原因,简而言之,是一种强烈的正则化。 Forester 2018.12.26 20:34 #12386 马克西姆-德米特里耶夫斯基。我认为那里的误差变化不大,这就是我这样做的原因,简而言之就是强正则化。它怎么可能没有变化呢?14%和40%是一个很大的区别。 例如,60x60如《向导》--这是真的! Forester 2018.12.26 20:37 #12387 Vizard_。我对Doc和Toxic做了同样的事情,Python和R没有这个...我不会告诉你... 至少是脚手架或网子? Maxim Dmitrievsky 2018.12.26 20:40 #12388 埃利布留斯。怎么可能不呢?14%和40%是一个很大的区别。 60岁以上的人像巫师一样--就是这样!好吧,我们要检查所有在python中的模型......我的意思是,那些流通的模型......直到明天......直到明天才会有。 也许我们还需要一些预处理。 forexman77 2018.12.26 21:14 #12389 难道你不明白,你在外汇上是赚不到钱的吗?) 成为一名程序员并获得一份高薪工作比从事这种受虐狂更容易。 Maxim Dmitrievsky 2018.12.26 21:17 #12390 简而言之,在alglib分类错误和logloss...对数损失完全没有意义,在受训者样本>0.8和oob 0.2的情况下,森林中的分类误差下降到零。 rmse不利于分类 这就是为什么我采取了一个小的训练样本,为了某种误差,但它仍然很小。我不知道如何与Python的比较 1...123212331234123512361237123812391240124112421243124412451246...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我有一个较小的班级。 我有一个0.14/0.4的错误。
14%到40%的考试成绩?
14%到40%的考试成绩?
嗯,Traine 14测试40
准确率和分类误差是不同的,准确率和样本(测试-训练)的百分比。
原则上是清楚的--它超出了追踪的范围...在这个数据集上的测试(20%的样本)中,0.6的准确率会做...
到目前为止,分类错误......很久没有在那里重做了))
我有20%的alglib训练,80%的OOB,在这里也做了同样的事情
我在Python中做了这个,得到的结果是这样的
score(X,y,sample_weight=None)[来源]返回给定测试数据和标签的平均精度。
我完全不明白,我今天才在python中掌握了这个方法,明天我再试试。如果测试和跟踪是50%,那么就像这样
我对这个的数据集(准确性)是
趋势(80%的样本)= 0.619
测试(20%的样本)= 0.612 OOS
挖一挖,迎面少。这就是你的做法,而不是20%的测试))))。
50%是不够的,300个观察是没有的。
20%的学习是新的东西))。
我认为那里的错误没有什么变化,这就是我这样做的原因,简而言之,是一种强烈的正则化。
我认为那里的误差变化不大,这就是我这样做的原因,简而言之就是强正则化。
它怎么可能没有变化呢?14%和40%是一个很大的区别。
例如,60x60如《向导》--这是真的!
我对Doc和Toxic做了同样的事情,Python和R没有这个...我不会告诉你...
怎么可能不呢?14%和40%是一个很大的区别。
60岁以上的人像巫师一样--就是这样!
好吧,我们要检查所有在python中的模型......我的意思是,那些流通的模型......直到明天......直到明天才会有。
也许我们还需要一些预处理。难道你不明白,你在外汇上是赚不到钱的吗?)
成为一名程序员并获得一份高薪工作比从事这种受虐狂更容易。
简而言之,在alglib分类错误和logloss...对数损失完全没有意义,在受训者样本>0.8和oob 0.2的情况下,森林中的分类误差下降到零。
rmse不利于分类
这就是为什么我采取了一个小的训练样本,为了某种误差,但它仍然很小。我不知道如何与Python的比较