Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 266

 
mytarmailS:


А где вы взяли candlesticks? У меня нет на CRAN и RSUDIO.
 
mytarmailS:

при дифференцировании сдвиг идет как бы автоматически так как ряд становиться короче на один элемент, потом все что нужно это укоротить  выборку(табл. с наблюдениями) на последний элемент

вот пример

SomeData <- c(10,20,30,20,10,20,30,40,50,40)

Y <- diff(SomeData)

cbind.data.frame(  Y , SomeData[-length(SomeData)])


 получаем

   Y                   SomeData[-length(SomeData)]
1  10                          10
2  10                          20
3 -10                          30
4 -10                          20
5  10                          10
6  10                          20
7  10                          30
8  10                          40
9 -10                          50

Неверно. Нужно так

 

> SomeData <- c(10,20,30,20,10,20,30,40,50,40)
>

> Y <- diff(SomeData)
>

> Y
[1]  10  10 -10 -10  10  10  10  10 -10
> require(magrittr)
Loading required package: magrittr
> Y <- diff(SomeData) %>% c(., NA)
> dt <- cbind(SomeData, Y) %>% na.omit()
> dt
      SomeData   Y
[1,]       10  10
[2,]       20  10
[3,]       30 -10
[4,]       20 -10
[5,]       10  10
[6,]       20  10
[7,]       30  10
[8,]       40  10
[9,]       50 -10
attr(,"na.action")
[1] 10
attr(,"class")
[1] "omit"
> Y
[1]  10  10 -10 -10  10  10  10  10 -10  NA

 Теперь целевая сдвинута в будущее на 1 бар.

 
СанСаныч Фоменко:

Сдвигать влево надо не предикторы, а целевую  

Попробую еще раз объяснить.

Не знаю, я проблему так и не понял, может перегрелся уже, но сделал так как ты говоришь. Получил

Confusion Matrix and Statistics

          Reference
Prediction    0    1
         0 1862  487
         1  487 2164
                                          
               Accuracy : 0.8052          
                 95% CI : (0.7939, 0.8161)
    No Information Rate : 0.5302          
    P-Value [Acc > NIR] : <2e-16          
                                          
                  Kappa : 0.609          
Mcnemar's Test P-Value : 1              
                                          
            Sensitivity : 0.7927          
            Specificity : 0.8163          
         Pos Pred Value : 0.7927          
         Neg Pred Value : 0.8163          
             Prevalence : 0.4698          
         Detection Rate : 0.3724          
   Detection Prevalence : 0.4698          
      Balanced Accuracy : 0.8045  

У тебя какая ошибка??

Может снова что то не так сделал, как то уже слишком оптимистично
 

 
СанСаныч Фоменко:
А где вы взяли candlesticks? У меня нет на CRAN и RSUDIO.

на кране много чего нет, к сожалению...

install.packages("candlesticks", repos="http://R-Forge.R-project.org")


 

 
Vladimir Perervenko:

Неверно. Нужно так

 Теперь целевая сдвинута в будущее на 1 бар.

ну а если я вместо того чтобы добавлять к "Y" NA в конце,  и потом его же NA буду удалять, просто возьму и удалю последнюю строчку в SomeData , разве это не будет тоже самое?

Я реально не понимаю разницы, может уже перегрелся напрочь (( 

 
mytarmailS:

Не знаю, я проблему так и не понял, может перегрелся уже, но сделал так как ты говоришь. Получил 

Я не считал - нет пакета

А результат ну очень даже приличный и также очень похожий на правду. Тут ребята бьются, чтобы приблизится к 70% (30% ошибки). А тут явно менее 30%. Причем с колес, по принципу "как есть".

 
СанСаныч Фоменко:

Я не считал - нет пакета

А результат ну очень даже приличный и также очень похожий на правду. Тут ребята бьются, чтобы приблизится к 70% (30% ошибки). А тут явно менее 30%. Причем с колес, по принципу "как есть".

Не знаю.... Я в чудеса уже давно не верю... Думаю снова затуп какой то, потому и хочу чтобы кто то перепроверил
 
mytarmailS:

на кране много чего нет, к сожалению...

install.packages("candlesticks", repos="http://R-Forge.R-project.org")


 

Спасибо, вся скачалось. 

Совершенно новая мысль в формировании предикторов. Займусь. Для меня очень интересен вопрос предскзательной силы каждого из предикторов. Как посчитаю - выложу. Если слишком хорошая предсказательная способность, то в личку.   

Если не жалко, прицепи .RData
 
mytarmailS:
Не знаю.... Я в чудеса уже давно не верю... Думаю снова затуп какой то, потому и хочу чтобы кто то перепроверил
Я дотягивая ниже 25% ошибки за счет предварительной чистки предикторов. Очень похоже на правду. Скинь .RData, заодно и посчитаю. Но главное - это предсказательноа способность предикторов именно к указанной целевой переменной 
 
СанСаныч Фоменко:
Если не жалко, прицепи .RData
не жалко но я не умею, просто не получается сколько раз уже пробовал, ты попробуй по своему, какую целевую я делал ты знаешь , и отпишись как сделаешь 
Причина обращения: