交易中的机器学习:理论、模型、实践和算法交易 - 页 815

 
马克西姆-德米特里耶夫斯基

现在把每个预测者的历史副业/持有量估计值,转换成概率估计值。

取几个预测器,对每个预测器做同样的处理

在一组特征上找到利润的条件概率

然后你把它放到NS或模糊集合中,就像这个例子中一样

每个预测因子的平均估计值将在0.5左右波动,但贝叶斯方法的奇迹将使总数达到可接受的水平。

是在理论上 :)

在我所知道的所有分类模型中,结果可以被排序为一个类别,也可以被排序为一个类别的概率。通常情况下,这个概率被分成两半,用于两个班。但有一个程序不是把这个概率除以一半,而是除以其他一些考虑。

 
Vizard_

)))

Wizard_,我仔细阅读了你的帖子

解释一下这些图片,怎么了?

 
桑桑尼茨-弗门科

在我所知道的所有分类模型中,结果可以被排序为一个类别,也可以被排序为一个类别的概率。通常情况下,这个概率被分成两半,用于两个班。但有一个程序不是把这个概率除以一半,而是除以其他一些考虑。

是的,逻辑回归被称为))

 
马克西姆-德米特里耶夫斯基

是的,逻辑回归被称为))

不,我是说。

CORElearn::calibrate()

给出概率分数predictedProb,例如通过调用predict.CoreModel提供的概率分数。

并使用方法给出的一种可用的方法,该函数 校准了预测的概率

以便它们与correctClass提供的二元类1的实际概率相符。

calibrate(correctClass, predictedProb, class1=1,
method = c("isoReg","binIsoReg","binning","mdlMerge"),
weight=NULL, noBins=10, assumeProbabilities=FALSE)


PS。

有很多回归是以类作为其输出的。

最著名和相对简单的是glm()。


见.

实际上,非常希望这些帖子能更具体,能提到原始资料,最好能提到具体的职能。

 
Vizard_

阿法,你已经搞了好几年了。glm(.~...,family = "binomial")
物流))))丢掉他妈的所有。在这个问题上,只有医生和毒药是足够的......

托克斯一生中曾经说过什么,他突然变得理智起来?

他什么都不写。

椰子完全不够用,而且迷失了方向,你也是如此。

 
Vizard_

在这个问题上,只有医生和毒药是足够的......

仅限有毒

 
不要把我放在眼里,我什么都不知道......。
 
Vizard_:

阿法,你已经胡说八道多年了。glm(.~...,family = "binomial") 是
logistic))丢掉他妈的所有。在这个问题上,只有医生和毒药是足够的......

公民在面具中,在板凳下,在你发布废话之前。

  • 请看,我的帖子是关于校准的,为此我有我提到的工具,而不是逻辑 回归。
  • 放下你正在做的事情,阅读附件,也许你会在各种逻辑回归的乐趣中闭嘴几年。读完后,在此启迪一下,如何使用逻辑回归来校准类。
在附件中还有更多关于这个想法的内容

附加的文件:
 

这个主题的信息是没有意义的,因为每个人都有不同的模式。唯一让参与者团结起来的是将外部工具与MQL5整合。我有一个从Spark Random Forest到Alglib(MQL5)格式的转换器。如果你想发关于整合的帖子,请随意将此作为一个总体思路,这就是为什么它对大家都有好处。

P.s. 我更喜欢Git

 
(这是很有意义的)。) 这里有一些有趣的东西。只是要读完整个主题已经不现实了。