Пятую статью курса мы посвятим простым методам композиции: бэггингу и случайному лесу. Вы узнаете, как можно получить распределение среднего по генеральной совокупности, если у нас есть информация только о небольшой ее части; посмотрим, как с помощью композиции алгоритмов уменьшить дисперсию и таким образом улучшить точность модели; разберём...
正如你所说的,这些 "机会 "是可以叠加的,这就是为什么它们被保留下来。
是的,在新的上,但现在已经意识到目标是错误的。我采取了实际的ZZ矢量与偏移量,这是不对的。
我得起草一个剧本,让目标出来。
那么,怎么了,结果如何呢?
我在教程中的某个地方看到过......我认为在预习时做更方便,或者与此有关的事情。
马克西姆,你现在似乎在做聚类。
这里表明,脚手架与聚类相似。
https://habr.com/ru/company/ods/blog/324402/
第 "随机森林 与K-近邻算法的相似性"。
有问题吗?
马克西姆,你现在似乎在做聚类。
这里表明,脚手架与聚类相似。
https://habr.com/ru/company/ods/blog/324402/
第 "随机森林与K-近邻算法的相似性"。
我做得怎么样......我开始了,然后我就放弃了)。森林也可以集群,是的。
至于现在的聚类--它很好地将增量分成了3组,包括新数据。作为分类特征使用是有意义的,这就是我想做的事情有什么问题吗?
这就是赢家!!!!!兄弟!!!!horraaaaaaaaaaaaa!!!!!大家节日快乐。
因为一旦我们忘记这场战争,另一场战争将立即开始。让我们永远记住它!!!!!!!!victoryaaaaaaaaaaaaaaaaa!!!!!!!Pew, pew(这是我把我想象中的TT枪发射出去,然后穿着我的军官制服在街上跑来跑去)那么结果是什么呢? 阿库拉西是什么呢?
10个CatBoost模型,树的深度为6,学习在100个新树时停止,没有改善结果,以100的增量坐下。
2018年和2019年的学习样本为80%,20%的样本为控制学习停止。2020年1月至5月的独立样本
如果你用不同的分区方法折磨样本,建立更多的模型,我想你可以得到72个。
分类余额
10个CatBoost模型,树的深度为6,学习在100个新树时停止,没有改善结果,以100的增量坐下。
培训样本80%为2018年和2019年,20%样本为控制培训停止。2020年1月至5月的独立样本
如果你用不同的分区方法折磨样本,建立更多的模型,我想你可以得到72个。
分类余额
嗯...不错,很有道理。我还希望看到交易本身的余额和有进项的图表。
我想这是一个由10个模型组成的集合? 这些模型之间有什么区别?