交易中的机器学习:理论、模型、实践和算法交易 - 页 1334

 
阿列克谢-维亚兹米 金。

我查了MSUA,我不知道它具体指的是哪本书,但用这个名字是搜不到的。据我所知,这个东西是在CatBoost中使用的

--l2-leaf-reg

l2-leaf-regularizer

L2正则化系数。用于计算叶值。

任何正值都是允许的。

3

CPU和GPU


或者是关于其他的东西?这种方法也可以在创建预测器时使用,例如,描述某些领域的模式。

那么这就是提霍诺夫的正则化,而温度反弹在哪里?

 
Maxim Dmitrievsky:

好吧,这是Tikhonov的正则化,那么温度包络呢?

但重点似乎是一样的,不是吗?我只是不知道里面有什么样的算法...

--装袋-温度

定义贝叶斯引导法的设置。在分类和回归模式下,它被默认使用。

使用贝叶斯引导法为对象分配随机权重。

如果这个参数的值被设置"1",那么权重将从指数分布中取样。如果这个参数的值被设置"0",所有的权重都等于1。

可能的数值范围是. 该值越高,装袋就越积极。

1
 
阿列克谢-维亚兹米 金。

但重点似乎是一样的,不是吗?我只是完全不知道里面的算法是什么......

--装袋-温度

定义贝叶斯引导法的设置。在分类和回归模式下,它被默认使用。

使用贝叶斯引导法为对象分配随机权重。

如果这个参数的值被设置"1",那么权重将从指数分布中取样。如果这个参数的值被设置"0",所有的权重都等于1。

可能的数值范围是. 该值越高,装袋就越积极。

1

这当然是不同的。

当你有很多功能的时候,我想这是很有用的。

将会对模型做一些改变,纯粹是细微的调整,没有更多的改变。

细节需要阅读,总的来说是可以理解的,但不能一蹴而就。

 

顺便说一下,我找到了我之前提到的讲座,有python的例子,供那些想了解XGboost 的人参考。在那里,或在接下来的讲座中,也会讨论正则化。


 
马克西姆-德米特里耶夫斯基

当然,这是不一样的。

当有很多功能的时候,我想这是很有用的。

将会对模型进行一些改变,纯粹是微妙的调整,没有更多的改变。

我们将看到什么样的变化--今天或明天将是下一个10万模型,我将决定是否在过冲中应用这个参数......

 
阿列克谢-维亚兹米 金。

让我们看看价差会是多少--今天或明天会有另外10万个模型,我将决定是否在超限中应用这个参数......

我不知道是否有参数的手册,我正在阅读其他的东西

 
马克西姆-德米特里耶夫斯基

难道没有参数手册吗? 我还没有使用katb,我正在阅读其他东西。

好吧,这里只有一个设置和一个简单的描述,加上一个著名的片段与解释。

 
阿列克谢-维亚兹米 金。

如果你仔细观察,你可以看到同一样本中的模型的财务结果可能非常不同--从5000到1500,即明显不同,这意味着种子确实影响了模型。我将假设是所选模型相似(我会检查),而它们的利润率略有不同,但几乎所有模型都在中间持平,这令人惊讶--它们在相同的利润率上是错误的(新数据中的异常现象?)

你有一个盒子,里面创造了某种非常多的丘陵景观。我们在那里扔了很多球(这就是SID),我们的工作是确保大部分球都能打到最深的空洞里。这将是学习,这也是组织ME学习的原则。

1.如果我们稍微抖动一下盒子,大部分的球就无法离开它们最初击中的空洞--学习就不会发生。

2.如果我们大力摇晃盒子,一些球就有机会击中并只停留在最深的空洞中,但较浅的空洞将保持不被填满,因为球会从那里弹出来。充分的学习将不会发生。

3.如果我们用中等力度摇晃盒子,只有最深和中间的空洞会被填满,但其余的球不会找到任何东西,会继续随机地在盒子里蹦跳。学习情况比1和2好,但也不是王牌。

学习方法总是有设置的--究竟如何和何时摇动箱子才能得到最有效的学习。

如果不同的 "sids "相加,那么要么是学习算法出了问题--你摇动它的方式不对,要么是我们的盒子里缺少任何你能掌握的深层空洞。

 
尤里-阿索连科

你有一个盒子,里面创造了某种非常多的丘陵景观。我们在那里扔了很多球(这就是SID),我们的工作是确保大部分球都能打到最深的空洞里。这将是学习,这也是组织ME学习的原则。

1.如果我们稍微抖动一下盒子,大部分的球就无法离开它们最初击中的空洞--学习就不会发生。

2.如果我们大力摇晃盒子,一些球就有机会击中并只停留在最深的空洞里,但较浅的空洞将保持不被填满,因为球会从那里弹出来。充分的学习将不会发生。

3.如果我们用中等力度摇晃盒子,只有最深和中间的空洞会被填满,但其余的球不会找到任何东西,会继续随机地在盒子里弹跳。学习情况比1和2好,但也不是王牌。

学习方法总是有设置的--究竟如何和何时摇动箱子才能得到最有效的学习。

如果不同的 "sids "不相加,那么要么是学习算法出了问题--你摇动它的方式不对,要么是我们的盒子里缺少任何可以把握的深空。

或一个鞋盒)

这些球是一个很好的解释。

和一个好的盒子自己摇晃。

 
尤里-阿索连科

你有一个盒子,里面创造了某种非常多的丘陵景观。我们在那里扔了很多球(这就是SID),我们的工作是确保大部分球都能打到最深的空洞里。这将是学习,这也是ME中学习结构的原则。

1.如果我们稍微抖动一下盒子,大部分的球就无法离开它们最初击中的空洞--学习就不会发生。

2.如果我们大力摇晃盒子,一些球就有机会击中并只停留在最深的空洞里,但较浅的空洞将保持不被填满,因为球会从那里弹出来。充分的学习将不会发生。

3.如果我们用中等力度摇晃盒子,只有最深和中间的空洞会被填满,但其余的球不会找到任何东西,会继续随机地在盒子里蹦跳。学习情况比1和2好,但也不是王牌。

学习方法总是有设置的--究竟如何和何时摇动箱子才能得到最有效的学习。

如果不同的 "sids "不相加,那么要么是学习算法出了问题--你摇错了,要么是我们的盒子里没有深槽可以抓取。

很好的抽象,如果我们所说的深谷是指在验证时误差最小的反应,对于这种反应有一个学习的停止,那么这也可以解释为什么当验证样本量增加时,他得到了更好的结果,这可能是正式增加抽象地形的大小,从而增加谷底数量的结果。