交易中的机器学习:理论、模型、实践和算法交易 - 页 1051

 
伊戈尔-马卡努

故事是否有续集?

我观察到,如果一个交易系统只给出积极的结果,那么就会有永久性的损失--我们说的是有固定手数和止损的TS。

我认为这个故事可以追溯到2006年,只是你不知道它是在多高的水平上进行的,由谁来做。

http://www.kamynin.ru/

你只是不知道它的水平有多高,由...选择红宝书 "交易机器人",进入开头,泡茶、吃小面包、阅读、看图片、看人们的评论、看作者的回复,变得更聪明,而不是一个孩子的啊......咿......)))

这里有从头到尾的整个演变过程
Николай Камынин
Николай Камынин
  • 2018.09.02
  • www.kamynin.ru
умру от акробатиков! Продолжу свои рассуждения на тему пенсионной реформы. Естественно, что я не претендую на истину в последней инстанции, но на основе своего опыта и знаний в кибернетике, экономике, финансах и гражданском праве, вижу то, что не видят, либо делают вид, что не видят многие эксперты и власть имущие. Вернемся к судьбоносному...
 

可惜没有 :-( 虽然我有一个六项多项式委员会的想法,但我还没有完全破解雷舍托夫密码。虽然最后一个变化开始节省我在MKUL中准备模型的时间,但这不是重点,但在我看来,MO问题的关键在于以下几点,如果你有反对它的重要论据,我愿意倾听。

除了其他一切,如前期准备、培训等。最后一个阶段是选择模型。毕竟,在训练过程中,一个算法建立了一个模型,估计其参数,并试图使用其他模型来改进它们,具有最佳训练指标的模型是保存模型的模型,是优化的结果。在我看来,Reshetov的优化器为分类器选择了最好的度量。它是对敏感性和特异性以及总体可推广性的确定。当使用四个参数True Positiv, True Negativ, False Positiv, False Negativ评估模型学习结果时。我相信你已经听说过了。这是一个相当流行的指标,但实践表明,这个指标只与概括性有部分关系。换句话说,这个指标的结果被高估了,在训练集上进行过度训练时,其数值将和没有过度训练时一样高。让我们稍微决定一下吧。

假设我们有一种方法来估计多项式对数据集的普适性。而我们的衡量标准实际上是对可概括性水平的估计。换句话说,当其他指标在训练期显示出良好的结果,而我们的指标在多项式被过度训练时显示出不好的结果,在多项式被泛化时显示出良好的结果。然后这个指标可以在学习过程中使用,迫使算法寻找一个被低估的(用我们的数据),但仍然是一个泛化的模型。它可能是坏的,但它是有效的,而且是100%未经训练的。这就是训练不足的影响所在。将成绩不佳的情况控制在最低限度是非常重要的。这段文字可以说是我的理论的先驱,因为我们接近什么????。今天的问题就说到这里。Think.....

 
mytarmailS:

如果我没记错的话,这个故事可以追溯到2006年,只是你不知道这一切是在多高的水平上完成的,由什么样的人完成的。

http://www.kamynin.ru/

你选择的是 "交易机器人 "这一主题。选择红宝书 "交易机器人",进入开头,泡茶,吃面包,阅读,看图片,看人们的评论,作者的答案,变得更聪明,真的很生气......)))

这里有从头到尾的整个演变过程

真的没有听说过这个人,我会去看看的,谢谢。

 
Vizard_

这个分支机构...只是一派胡言)))。

http://www.kamynin.ru/2015/08/26/lua-quik-robot-uchitel/


从头开始读,然后再发,我知道我在说什么。

MGUA是这一切的开始,作者建议从这个开始,是的,现在他没有应用它,而是应用其他已经纯粹属于他自己的东西,但这个东西是从MGUA发展出来的,这个东西他没有披露。
 

简要介绍一下图片中的信息

 
马克西姆-德米特里耶夫斯基

简要介绍一下图片中的信息


是的,这就是它,作者不喜欢极简主义)

 
mytarmailS:

是的,这就是它,作者不喜欢极简主义)

有水平和几个混搭,他以某种方式为他所谓的神经网络提取信息。

他也是一位民谣歌手。
 
mytarmailS:

是的,它就是这样,作者不喜欢极简主义)

看了5秒钟就明白了。这是100%的猫腻,我甚至不想看它......

你是否看过我的网站或帖子或图片????

 
马克西姆-德米特里耶夫斯基

有水平和几个混搭,以某种方式为他所谓的神经网络提取信息。

另一个球状物的种类。

哦,妈的。来了)据称,神经元网,贝贝))。

阅读它,进入它或忘记它。

这是对你帖子的回答。

一切都在那里,你只需要阅读。

 
mytarmailS:

哦,该死,我们来了))据称,神经网络,贝贝))。

阅读、吸收或忘记。

这是对你帖子的回答。

这一切都在那里,你只需要阅读

这就是我所说的。

就这样吧,我明天也会这样做。