交易中的机器学习:理论、模型、实践和算法交易 - 页 266

 
mytarmailS:


你从哪里得到这些烛台的?我在CRAN和RSUDIO上都没有。
 
mytarmailS:

当进行微分时,转变是自动的,因为系列变得短了一个元素,那么所需要的就是缩短样本(有观测值的表格)的最后一个元素。

这里有一个例子

SomeData <- c(10,20,30,20,10,20,30,40,50,40)

Y <- diff(SomeData)

cbind.data.frame(  Y , SomeData[-length(SomeData)])


得到

   Y                   SomeData[-length(SomeData)]
1  10                          10
2  10                          20
3 -10                          30
4 -10                          20
5  10                          10
6  10                          20
7  10                          30
8  10                          40
9 -10                          50

错了。其方法是

> SomeData <- c(10,20,30,20,10,20,30,40,50,40)
>

> Y <- diff(SomeData)
>

> Y
[1]  10  10 -10 -10  10  10  10  10 -10
> require(magrittr)
Loading required package: magrittr
> Y <- diff(SomeData) %>% c(., NA)
> dt <- cbind(SomeData, Y) %>% na.omit()
> dt
      SomeData   Y
[1,]       10  10
[2,]       20  10
[3,]       30 -10
[4,]       20 -10
[5,]       10  10
[6,]       20  10
[7,]       30  10
[8,]       40  10
[9,]       50 -10
attr(,"na.action")
[1] 10
attr(,"class")
[1] "omit"
> Y
[1]  10  10 -10 -10  10  10  10  10 -10  NA

现在,目标已经前移了1巴。

 
桑桑尼茨-弗门科

应该向左 偏移的不是预测因子,而是目标

让我再试着解释一下。

我不知道,我还是不明白这个问题,也许我已经过热了,但我按你说的做了。得到了

Confusion Matrix and Statistics

          Reference
Prediction    0    1
         0 1862  487
         1  487 2164
                                          
               Accuracy : 0.8052          
                 95% CI : (0.7939, 0.8161)
    No Information Rate : 0.5302          
    P-Value [Acc > NIR] : <2e-16          
                                          
                  Kappa : 0.609          
Mcnemar's Test P-Value : 1              
                                          
            Sensitivity : 0.7927          
            Specificity : 0.8163          
         Pos Pred Value : 0.7927          
         Neg Pred Value : 0.8163          
             Prevalence : 0.4698          
         Detection Rate : 0.3724          
   Detection Prevalence : 0.4698          
      Balanced Accuracy : 0.8045  

你的错误是什么?

也许我又做错了,我已经太乐观了。

 
桑桑尼茨-弗门科
你从哪里得到这些烛台的?我在CRAN和RSUDIO上都没有。

遗憾的是,有很多东西都不在水龙头上,...

install.packages("candlesticks", repos="http://R-Forge.R-project.org")
 
弗拉基米尔-佩雷文科

错了。它应该是这样的

现在,目标被转移到未来的1个酒吧。

那么,如果我不在"Y"的末尾加上NA,然后再删除同样的 NA,而是直接删除SomeData中的最后一行,不就一样了吗?

我真的不明白有什么不同,也许已经完全过热了(()。

 
mytarmailS:

我不知道,我一直不明白这个问题,也许我已经过热了,但我按你说的做了。得到了

我没有计算--我没有包裹。

而结果是非常体面的,也与事实非常相似。这里的人正在努力争取接近70%(30%的误差)。而在这里,它显然低于30%。而从车轮上看,在 "原样 "原则下。

 
桑桑尼茨-弗门科

我没有计算过--我没有包裹。

而结果是非常体面的,也与事实非常相似。这里的人正在努力接近70%(30%的误差)。而在这里,它显然低于30%。而从车轮上看,在 "原样 "原则下。

我不知道....我不相信奇迹已经很久了......。我认为这只是一个小故障,这就是为什么我希望有人能仔细检查。
 
mytarmailS:

遗憾的是,水龙头中缺少很多东西...

install.packages("candlesticks", repos="http://R-Forge.R-project.org")


谢谢你,都下载好了。

完全是形成预测器的新思维。会做的。对我来说,非常有趣的是每个预测因素的规定性问题。我将在计算后公布。如果预测能力太好,我就把它贴出来。

如果你不介意,请将.RData钉在墙上。
 
mytarmailS:
我不知道....我已经很久没有相信过奇迹了......我认为这又是一个小故障,这就是为什么我希望有人能仔细检查。
我通过预先清理预测器得到低于25%的误差。很可能是真的。把RD数据发给我,我来算算看。但主要的是预测器对指定目标变量的预测能力。
 
SanSanych Fomenko:
如果你不介意,请附上.RData
我做不到,我就是做不到,我已经试过很多次了,用你的方法试试,你知道我的目标,然后报告你是怎么做的。