交易中的机器学习:理论、模型、实践和算法交易 - 页 266 1...259260261262263264265266267268269270271272273...3399 新评论 СанСаныч Фоменко 2017.01.31 18:03 #2651 mytarmailS: 你从哪里得到这些烛台的?我在CRAN和RSUDIO上都没有。 Vladimir Perervenko 2017.01.31 18:06 #2652 mytarmailS:当进行微分时,转变是自动的,因为系列变得短了一个元素,那么所需要的就是缩短样本(有观测值的表格)的最后一个元素。这里有一个例子SomeData <- c(10,20,30,20,10,20,30,40,50,40) Y <- diff(SomeData) cbind.data.frame( Y , SomeData[-length(SomeData)]) 得到 Y SomeData[-length(SomeData)]1 10 102 10 203 -10 304 -10 205 10 106 10 207 10 308 10 409 -10 50错了。其方法是> SomeData <- c(10,20,30,20,10,20,30,40,50,40)> > Y <- diff(SomeData)> > Y[1] 10 10 -10 -10 10 10 10 10 -10> require(magrittr) Loading required package: magrittr> Y <- diff(SomeData) %>% c(., NA)> dt <- cbind(SomeData, Y) %>% na.omit()> dt SomeData Y [1,] 10 10 [2,] 20 10 [3,] 30 -10 [4,] 20 -10 [5,] 10 10 [6,] 20 10 [7,] 30 10 [8,] 40 10 [9,] 50 -10 attr(,"na.action")[1] 10 attr(,"class")[1] "omit"> Y [1] 10 10 -10 -10 10 10 10 10 -10 NA现在,目标已经前移了1巴。 保证金计算: 证券模型 - 高级用户选项 市场深度 - MetaTrader 5 测试日志 - 算法交易, 交易机器人 mytarmailS 2017.01.31 18:16 #2653 桑桑尼茨-弗门科。应该向左 偏移的不是预测因子,而是目标让我再试着解释一下。我不知道,我还是不明白这个问题,也许我已经过热了,但我按你说的做了。得到了Confusion Matrix and Statistics Reference Prediction 0 1 0 1862 487 1 487 2164 Accuracy : 0.8052 95% CI : (0.7939, 0.8161) No Information Rate : 0.5302 P-Value [Acc > NIR] : <2e-16 Kappa : 0.609 Mcnemar's Test P-Value : 1 Sensitivity : 0.7927 Specificity : 0.8163 Pos Pred Value : 0.7927 Neg Pred Value : 0.8163 Prevalence : 0.4698 Detection Rate : 0.3724 Detection Prevalence : 0.4698 Balanced Accuracy : 0.8045 你的错误是什么?也许我又做错了,我已经太乐观了。 Machine learning in trading: 深度神经网络(第八部分)。 提高袋封融合的分类品质 机器学习模型的变量评估和选择 mytarmailS 2017.01.31 18:20 #2654 桑桑尼茨-弗门科。 你从哪里得到这些烛台的?我在CRAN和RSUDIO上都没有。遗憾的是,有很多东西都不在水龙头上,...install.packages("candlesticks", repos="http://R-Forge.R-project.org") mytarmailS 2017.01.31 18:25 #2655 弗拉基米尔-佩雷文科。错了。它应该是这样的现在,目标被转移到未来的1个酒吧。那么,如果我不在"Y"的末尾加上NA,然后再删除同样的 NA,而是直接删除SomeData中的最后一行,不就一样了吗?我真的不明白有什么不同,也许已经完全过热了(()。 СанСаныч Фоменко 2017.01.31 18:26 #2656 mytarmailS:我不知道,我一直不明白这个问题,也许我已经过热了,但我按你说的做了。得到了我没有计算--我没有包裹。而结果是非常体面的,也与事实非常相似。这里的人正在努力争取接近70%(30%的误差)。而在这里,它显然低于30%。而从车轮上看,在 "原样 "原则下。 mytarmailS 2017.01.31 18:29 #2657 桑桑尼茨-弗门科。我没有计算过--我没有包裹。而结果是非常体面的,也与事实非常相似。这里的人正在努力接近70%(30%的误差)。而在这里,它显然低于30%。而从车轮上看,在 "原样 "原则下。 我不知道....我不相信奇迹已经很久了......。我认为这只是一个小故障,这就是为什么我希望有人能仔细检查。 СанСаныч Фоменко 2017.01.31 18:32 #2658 mytarmailS:遗憾的是,水龙头中缺少很多东西...install.packages("candlesticks", repos="http://R-Forge.R-project.org")谢谢你,都下载好了。完全是形成预测器的新思维。会做的。对我来说,非常有趣的是每个预测因素的规定性问题。我将在计算后公布。如果预测能力太好,我就把它贴出来。 如果你不介意,请将.RData钉在墙上。 СанСаныч Фоменко 2017.01.31 18:37 #2659 mytarmailS: 我不知道....我已经很久没有相信过奇迹了......我认为这又是一个小故障,这就是为什么我希望有人能仔细检查。 我通过预先清理预测器得到低于25%的误差。很可能是真的。把RD数据发给我,我来算算看。但主要的是预测器对指定目标变量的预测能力。 mytarmailS 2017.01.31 18:47 #2660 SanSanych Fomenko: 如果你不介意,请附上.RData 我做不到,我就是做不到,我已经试过很多次了,用你的方法试试,你知道我的目标,然后报告你是怎么做的。 1...259260261262263264265266267268269270271272273...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
当进行微分时,转变是自动的,因为系列变得短了一个元素,那么所需要的就是缩短样本(有观测值的表格)的最后一个元素。
这里有一个例子
Y <- diff(SomeData)
cbind.data.frame( Y , SomeData[-length(SomeData)])
得到
1 10 10
2 10 20
3 -10 30
4 -10 20
5 10 10
6 10 20
7 10 30
8 10 40
9 -10 50
错了。其方法是
>
> Y <- diff(SomeData)
>
> Y
[1] 10 10 -10 -10 10 10 10 10 -10
> require(magrittr)
Loading required package: magrittr
> Y <- diff(SomeData) %>% c(., NA)
> dt <- cbind(SomeData, Y) %>% na.omit()
> dt
SomeData Y
[1,] 10 10
[2,] 20 10
[3,] 30 -10
[4,] 20 -10
[5,] 10 10
[6,] 20 10
[7,] 30 10
[8,] 40 10
[9,] 50 -10
attr(,"na.action")
[1] 10
attr(,"class")
[1] "omit"
> Y
[1] 10 10 -10 -10 10 10 10 10 -10 NA
现在,目标已经前移了1巴。
应该向左 偏移的不是预测因子,而是目标
让我再试着解释一下。
我不知道,我还是不明白这个问题,也许我已经过热了,但我按你说的做了。得到了
Reference
Prediction 0 1
0 1862 487
1 487 2164
Accuracy : 0.8052
95% CI : (0.7939, 0.8161)
No Information Rate : 0.5302
P-Value [Acc > NIR] : <2e-16
Kappa : 0.609
Mcnemar's Test P-Value : 1
Sensitivity : 0.7927
Specificity : 0.8163
Pos Pred Value : 0.7927
Neg Pred Value : 0.8163
Prevalence : 0.4698
Detection Rate : 0.3724
Detection Prevalence : 0.4698
Balanced Accuracy : 0.8045
你的错误是什么?
也许我又做错了,我已经太乐观了。
你从哪里得到这些烛台的?我在CRAN和RSUDIO上都没有。
遗憾的是,有很多东西都不在水龙头上,...
错了。它应该是这样的
现在,目标被转移到未来的1个酒吧。
那么,如果我不在"Y"的末尾加上NA,然后再删除同样的 NA,而是直接删除SomeData中的最后一行,不就一样了吗?
我真的不明白有什么不同,也许已经完全过热了(()。
我不知道,我一直不明白这个问题,也许我已经过热了,但我按你说的做了。得到了
我没有计算--我没有包裹。
而结果是非常体面的,也与事实非常相似。这里的人正在努力争取接近70%(30%的误差)。而在这里,它显然低于30%。而从车轮上看,在 "原样 "原则下。
我没有计算过--我没有包裹。
而结果是非常体面的,也与事实非常相似。这里的人正在努力接近70%(30%的误差)。而在这里,它显然低于30%。而从车轮上看,在 "原样 "原则下。
遗憾的是,水龙头中缺少很多东西...
谢谢你,都下载好了。
完全是形成预测器的新思维。会做的。对我来说,非常有趣的是每个预测因素的规定性问题。我将在计算后公布。如果预测能力太好,我就把它贴出来。
如果你不介意,请将.RData钉在墙上。我不知道....我已经很久没有相信过奇迹了......我认为这又是一个小故障,这就是为什么我希望有人能仔细检查。
如果你不介意,请附上.RData