交易中的机器学习:理论、模型、实践和算法交易 - 页 839

 

一开始,当他们只有几百个人提供他们的预言时,一切都很好,我甚至得到了报酬的地方。论坛上至少还有两个人也用奖品展示了巨大的成果。

我在论坛上至少还有两个人显示出了很好的效果,也是如此。然后他们开始向他们发送各种垃圾,而不是模型,各种骗子出现了,他们有数百个账户,愚蠢地破坏了预测。管理员们厌倦了这种马戏团,并把它变得非常简单--"如果你想获得现金奖励,就留下押金。如果模型是假的,而存款会消失,利润也不会。
在我看来,管理员采取了对他们来说最简单的方法。他们没有学习如何识别潜在的好模型,甚至没有准备好特征,把一切都变成了抽奖。如果我是他们,我会以不同的方式做事。

 
交易员博士

一开始,当他们只有几百个人提供他们的预言时,一切都很好,我甚至得到了报酬的地方。论坛上至少还有两个人也用奖品展示了巨大的成果。

对于Numeraire管理员来说,选择最好的结果并在其上进行交易是相当容易的。他们不满意自己的方式,当他们买了一个条目,或当他们不想给一个条目。管理员对这整个马戏团感到厌烦,并使其变得非常简单--"如果你想获得现金奖励,就留下押金。如果模型是假的,而存款会消失,利润也不会。
在我看来,管理员采取了对他们来说最容易的方法。他们没有学习如何识别潜在的好模型,甚至没有准备好特征,把一切都变成了抽奖。如果我是他们,我会以不同的方式行事。

也许你是对的,但现在IMHO这一切都太武断了,改变标识是很奇怪的,当时有一半以上低于(更好)随机(0.96315)的生活,现在突然几乎都变成了你的(更差)随机......短暂的任意IMHO,我不相信他们在你无法检查任何东西的情况下 "承担风险",而且整个想法是愚蠢的,分类本身不是一个挑战的主题,委托它是没有意义的,另一件事是从原始数据中制作芯片和目标...

 

我不会让这个支部跌出顶级行列。

神经网络的先生们--老百姓正在等待你们的圣杯。不要毁了它。

 

实验了随机统一森林(RandomUniformForest)--不喜欢它。

预测因素的重要性不断地在名单上跳升和下降。

下面是一个关于文章中数据的可重复的例子 https://www.mql5.com/ru/articles/4227 。
启动RStudio,从GitHub/Part_I 下载Cotir.RData 文件,并从终端获得报价,以及从GitHub/Part_IV 下载带有数据准备功能的FunPrepareData.R 文件。
然后。

evalq({
  dt <- PrepareData(Data, Open, High, Low, Close, Volume)
}, env)

 prep <- caret::preProcess(x = env$dt[, -c(1,ncol(env$dt))], method = c("spatialSign"))
 x.train <- predict(prep, env$dt[, -c(1,ncol(env$dt))])#удалить время и класс
 x.train <- as.matrix(x.train,ncol=(ncol(env$dt)-1))
 
 y.train <- as.matrix(env$dt[, ncol(env$dt)],ncol=1)
 require(randomUniformForest)

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

这里,预测因子的全局重要性在同一数据上计算了4次。其结果几乎是随机的。

----------------------------------------------------------------------------------------------
1 ftlm 9204 2 0.52 100.00 8
2 rbci 9197 2 0.52 99.92 8
3 Stlm 9150 2 0.52 99.41 8
4 v. fatl 9147 2 0.51 99.38 8
5 v.rftl 9122 2 0.52 99.11 8
6 v. satl 9110 2 0.51 98.98 8
7 v.stlm 9096 2 0.51 98.82 8
8 V.RBCI 9084 2 0.51 98.69 8
9 pcci 9082 2 0.52 98.68 8
10 V.RSTL 9049 2 0.52 98.31 8
11 v.pcci 8980 2 0.51 97.57 8
12 v.ftlm 8953 2 0.52 97.28 8
----------------------------------------------------------------------------------------------

1 v. fatl 9130 2 0.51 100.00 8
2 ftlm 9079 2 0.52 99.45 8
3 V.RBCI 9071 2 0.52 99.35 8
4 v.rftl 9066 2 0.52 99.30 8
5 stlm 9058 2 0.51 99.21 8
6 v. satl 9033 2 0.51 98.94 8
7 pcci 9033 2 0.51 98.94 8
8 v.stlm 9019 2 0.51 98.78 8
9 V.RSTL 8977 2 0.51 98.33 8
10 rbci 8915 2 0.52 97.64 8
11 v.pcci 8898 2 0.51 97.46 8
12 v.ftlm 8860 2 0.51 97.04 8
----------------------------------------------------------------------------------------------

1 v. fatl 9287 2 0.51 100.00 9
2 Stlm 9191 2 0.52 98.96 8
3 V.RBCI 9172 2 0.52 98.76 8
4 v.rftl 9134 2 0.51 98.35 8
5 v.satl 9115 2 0.51 98.14 8
6 ftlm 9109 2 0.51 98.08 8
7 v.stlm 9072 2 0.51 97.69 8
8 V.RSTL 9072 2 0.51 97.68 8
9 v.ftlm 9036 2 0.51 97.30 8
10 pcci 9014 2 0.52 97.05 8
11 rbci 9002 2 0.52 96.93 8
12 v.pcci 8914 2 0.51 95.98 8
----------------------------------------------------------------------------------------------

1 V. satl 9413 2 0.51 100.00 8
2 ftlm 9389 2 0.52 99.75 8
3 v.stlm 9371 2 0.51 99.55 8
4 v.rftl 9370 2 0.51 99.54 8
5 V.Rbci 9337 2 0.51 99.19 8
6 v.pcci 9314 2 0.51 98.95 8
7 v. fatl 9311 2 0.52 98.91 8
8 stlm 9295 2 0.52 98.75 8
9 pcci 9281 2 0.51 98.60 8
10 V.RSTL 9261 2 0.51 98.39 8
11 v.ftlm 9257 2 0.51 98.35 8
12 rbci 9238 2 0.52 98.14 8

对于其他两个被测试的软件包,预测因子的重要性是以同样的方式在预运行中确定的。

Глубокие нейросети (Часть VI). Ансамбль нейросетевых классификаторов: bagging
Глубокие нейросети (Часть VI). Ансамбль нейросетевых классификаторов: bagging
  • 2018.03.01
  • Vladimir Perervenko
  • www.mql5.com
В предыдущей статье этой серии мы оптимизировали гиперпараметры модели DNN, обучили ее несколькими вариантами и протестировали. Качество полученной модели оказалось довольно высоким. Также мы обсудили возможности того, как можно улучшить качество классификации. Одна из них — использовать ансамбль нейросетей. Этот вариант усиления мы и...
 
elibrarius

实验了随机统一森林(RandomUniformForest)--不喜欢它。

预测器的重要性不断地在名单上跳动。

我没有看到。

但这不是重点,重点是这个原则。

预测器的重要性,在这个模型和其他模型中都有定义,它是在特定模型中使用特定预测器的一些特征。

而且你可以把问题归结为预测者对目标变量的重要性,而不是在某个特定的模型中。

这些是来自caret的功能,正是如此。你可以用它们来生成一些对目标变量 "有用 "的一般预测器集合。有一个非常有趣的细微差别:如果我们移动窗口,在已经选定的预测器中重新选择,例如与某个特定算法有关的预测器,这个集合将不断变化。

一般来说,你需要回答一个问题:为什么你需要预测器的重要性?为了在一个特定的算法中进行选择?所以,算法已经对此表达了自己的意见,并告知了你。所以,你所展示的数字根本就不是什么,它们是否改变是不重要的。重要的是模型在训练样本之外的预测,以及预测因子列表与样本外预测成功的关系

 
elibrarius:

实验了随机统一森林(RandomUniformForest)--不喜欢它。

尝试在这里上传你的预测器

https://www.mql5.com/ru/articles/3856

然后在自动生成的矩阵上看到他们的进口,在代理训练之后

到目前为止,我的结果是+-,但仍有改进的余地。

我认为在非稳定的市场上,自己调整目标和预测因素是没有用的,重要性也是随机变化的。

Random Decision Forest в обучении с подкреплением
Random Decision Forest в обучении с подкреплением
  • 2018.04.12
  • Maxim Dmitrievsky
  • www.mql5.com
Random Forest (RF) с применением бэггинга — один из самых сильных методов машинного обучения, который немного уступает градиентному бустингу.  Случайный лес состоит из комитета деревьев решений (которые также называются деревьями классификации или регрессионными деревьями "CART" и решают одноименные задачи). Они применяются в статистике...
 
SanSanych Fomenko:

我没有看到。

但这不是重点,重点是这个原则。

预测器的重要性,在这个模型和其他模型中都有定义,它是在特定模型中使用特定预测器的一些特征。

而且你可以把问题归结为预测者对目标变量的重要性,而不是在某个特定的模型中。

这些是来自caret的功能,正是如此。你可以用它们来生成一些对目标变量 "有用 "的一般预测器集合。也就是说,有一个非常有趣的细微差别:如果我们移动窗口,在已经选定的预测器中重新选择,例如与某个特定算法有关的预测器,这个集合会不断变化。

一般来说,你需要回答一个问题:为什么你需要预测器的重要性?为了在一个特定的算法中进行选择?所以,算法已经对此表达了自己的意见,并告知了你。所以,你所展示的数字根本就不是什么,它们是否改变是不重要的。重要的是模型在训练样本之外的预测,以及预测因子列表与样本外预测成功的关系

种子--将简单地固定这些随机集合中的一个。但它仍将是随机的,尽管是可重复的。我想重点是,重要性权重(第3列)在最小和最大之间只相差3%,所以在森林的小变化下,它们很容易跳过列表。在其他包装中,这些重量相差数倍或数个数量级。

需要预测器的重要性,以剔除不重要的和嘈杂的预测器,并在NS或集合中使用它们。

在这个数据集中,stlm--极大地降低了训练结果,我把它作为一个标记--如果它没有掉出来,那么预测器选择 包--已经失败了。

 
马克西姆-德米特里耶夫斯基

尝试在这里上传你的预测器

https://www.mql5.com/ru/articles/3856

然后看到他们在已经自动生成的矩阵上的进口,在训练代理之后

到目前为止,我在OOS上的结果是+-,但仍有改进的余地。

我认为在一个非稳定的市场上挑选预测者的目标是没有用的,因为影响因素是随机变化的。

哦--新文章。有趣的是...
 
elibrarius
哦--新文章。有趣的是...

是的,用这种方法消除了目标选择的问题,但你需要学习如何对代理人进行有意义的修改

它在任何预测器上都能正常工作,但要使它在OOS上工作,你需要对它们的选择进行混乱处理

 
亚历山大_K2

我不会让这个支部跌出顶级行列。

神经网络的先生们--老百姓正在等待你们的圣杯。不要毁了它。

当我失去它时,我自己也很担心 :-)