交易中的机器学习:理论、模型、实践和算法交易 - 页 2593

 
Maxim Dmitrievsky#:
这不是我的错,你最近才发现。
啊哈哈哈,对。
 
有人从公开渠道吸收信息,对其进行分析并将其用于自己的目的,这有什么错呢?)信息和想法在以结果的形式出现之前都是虚无的。
 
mytarmailS#:
Ahahaha, exactly
听起来像歇斯底里 )没有人在使用你的 "想法",冷静下来
 
Replikant_mih#:
有人从公开渠道吸收信息,对其进行分析,并将其用于自己的目的,这有什么错?)信息和想法在以结果的形式出现之前都是虚无的。
说来话长
 
Maxim Dmitrievsky#:
听起来像是歇斯底里)没有人使用你的 "想法",冷静下来。

就这样吧,我很平静))

 
Aleksey Nikolayev#:

我问了 一个 问题,如果有可能恢复OP,我写给我的是,在Metropolis Hastings 算法的帮助下,这是可能的,这是一种模拟Muntecarlo或类似的东西,总之我对它不了解,有几个R的软件包...

你有什么办法可以帮助解决这个问题吗?

 
mytarmailS#:

我问了一个问题 ,是否 有可能恢复OP,我从一个人那里得到的信息是,用Hastings metropolis 算法可以,这是一种Montecarlo模拟或类似的东西,我对它没有一点了解,有几个R的包...

你有什么办法可以帮助解决这个问题吗?

不太清楚后验分布和目标函数之间有什么联系。

 
Aleksey Nikolayev#:

我不确定后验分布和目标函数之间有什么联系。

我也是()
 
mytarmailS#:
我更是如此()。
你需要在每次训练迭代中拉出所有的模型权重,并在每次迭代中绘制模型得分对权重的依赖性。你会得到一个优化的超表面,不会给你任何东西。猜猜看为什么?你有3次尝试的机会。你有更多的方法失败,尤其是你如果做了助推,你会在精神和身体上遭受很多痛苦,但你已经习惯了🤣🤣🤣🤣,但在其他情况下,也有一个埋伏在那里等着你。
 
Maxim Dmitrievsky#:
你需要在每次训练迭代中拉出所有的模型权重,并在每次迭代中建立模型评分对权重的依赖。你会得到一个优化的超表面,不会给你任何东西。猜猜看为什么?你有3次尝试的机会。甚至还有一些失败的选择,你会在精神上和身体上受到伤害,特别是在提升的情况下,但你不习惯🤣🤣🤣🤣,但在其他情况下,也有一个伏击在等着你。
上帝再次提出批评