Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 239

 
Andrej Dik:
Versuchen Sie, die Kerze durch zwei Zahlen zu beschreiben, die jeweils im Bereich [-1,0; 1,0] liegen. Dies sind die Positionen von O und C im Verhältnis zu H und L.
In Ihrem Beispiel würde es etwa so aussehen:
1. [-0.8; 0.8]
2. [-0.2; 0.2]
3. [-0.9; -0.1]
wie man das macht?
 
mytarmailS:
Wie machen Sie das?
In der Höhe ist H gleich 1, L gleich -1, d.h. O und C werden in Bezug auf H und L ausgedrückt.
Dadurch wird die Form unabhängig von der Größe der Kerze eindeutig beschrieben.

 
Andrej Dik:
Durch die Höhe H ist 1, L ist -1, bzw. drücken O und C in Bezug auf H und L aus.
Damit wird die Form unabhängig von der Größe der Kerze eindeutig beschrieben.

Die Volatilität der Kerze wird hier nicht berücksichtigt, alle Berechnungen gehen innerhalb der Kerze, und welche Art von Kerze es ist, eine Gap-Kerze oder ein kleines Dojiq sieht der MO nicht

Ich denke, das Normalste sind die %-Schritte, aber ich kann sie nicht richtig zählen.

 
mytarmailS:

Die Volatilität der Kerze wird hier nicht berücksichtigt, alle Berechnungen gehen innerhalb der Kerze, und welche Art von Kerze es ist, eine Gap-Kerze oder ein kleines Dojiq sieht der MO nicht

Ich denke, das Normalste ist der %-Anstieg, aber ich bekomme ihn nicht richtig hin.

Die Volatilität ist genau das, was man nicht zu berücksichtigen braucht, und die Lücken müssen beseitigt werden (Verschiebung der Kerze um den Abstand der Lücke).
 
Andrej Dik:
Die Volatilität sollte nicht berücksichtigt werden, aber die Gaps sollten beseitigt werden (Candlesticks um den Abstand der Gaps verschoben).
Im Gegenteil, Lücken sollten auswendig gelernt - und berücksichtigt - werden. Da Lücken statistisch gesehen ohnehin geschlossen sind. Ich habe einmal nach einem Indikator für Lücken gesucht - und ihn nicht gefunden, also habe ich das Trapping mit Fraktalen selbst gemacht. Aber ich brauche noch einen guten Indikator.
 
Leute, es gibt einen Indikator namens CandleCode, er kodiert Kerzen, die genau gleich sind und den gleichen Code haben, unter Berücksichtigung des Spreads. Warum erfindest du ein Fahrrad, ich verstehe das nicht :-(
 
Eidechse_:
Die Stunde ist vorbei)))

Danke, ich glaube, ich habe es verstanden. Scheint sehr einfach zu sein, ich glaube es nicht, aber ich werde es überprüfen.

Seltsam ist auch, dass das Vorzeichen ein separater Prädiktor ist. Ich würde die Kerzengröße einfach negativ machen, wenn sie nach unten zeigt. Das sollte ich auch versuchen.

 
Dr. Trader:

Danke, ich glaube, ich habe es verstanden. Scheint sehr einfach zu sein, ich glaube es nicht, aber ich werde es überprüfen.

Seltsam ist auch, dass das Vorzeichen ein separater Prädiktor ist. Ich würde die Kerzengröße einfach negativ machen, wenn sie nach unten zeigt. Das sollte ich auch versuchen.

Aber ich verstehe das nicht.

Wie macht man ein Ziel?

Woher stammt die Formel?

 

Ich bin nach wie vor der Meinung, dass ohne die Auswahl von Prädiktoren nach ihrer Auswirkung auf die Zielvariable alles andere irrelevant ist. Dies ist der allererste Schritt. Entweder wir entfernen die Rauschprädiktoren, dann steigen unsere Chancen, ein NICHT neu trainiertes Modell zu erstellen, oder die Rauschprädiktoren bleiben bestehen, was zwangsläufig zu einem erneuten Training führen wird. Und da das Verhalten des neu trainierten Modells in der Zukunft in keiner Weise mit seinem Verhalten in der Vergangenheit zusammenhängt, ist ein solches neu trainiertes Modell nicht erforderlich.

Ein weiterer interessanter Ansatz zur Bestimmung der Bedeutung von Prädiktoren. Mehrere Algorithmen zur Bestimmung derSignifikanztests werden nicht verwendet.

Hier ist der ausgeführte Code aus diesem Beitrag

> n <- 10000
>
> x1 <- runif(n)
> x2 <- runif(n)
> y <- -500 * x1 + 50 * x2 + rnorm(n)
>
> model <- lm(y ~ 0 + x1 + x2)
>

 

 


> # 1a. Standardized betas
> summary(model)$coe[,2]
        x1         x2
0.02599082 0.02602010
> betas <- model$coefficients
> betas
        x1         x2
-500.00627   50.00839

 

 


> imp <- abs(betas)/sd.betas
Ошибка: объект 'sd.betas' не найден
> sd.betas <- summary(model)$coe[,2]
> betas <- model$coefficients
> imp <- abs(betas)/sd.betas
> imp <- imp/sum(imp)
> imp
       x1        x2
0.9091711 0.0908289

 

 


> imp1 <- abs(model$coefficients[1] * sd(x1)/sd(y))
> imp2 <- abs(model$coefficients[2] * sd(x2)/sd(y))
>
> imp1 / (imp1 + imp2)
       x1
0.9095839

 

 


> imp2 / (imp1 + imp2)
       x2
0.0904161

 

 


> # 2. Standardized variables
> model2 <- lm(I(scale(y)) ~ 0 + I(scale(x1)) + I(scale(x2)))
> summary(model2)

Call:
lm(formula = I(scale(y)) ~ 0 + I(scale(x1)) + I(scale(x2)))

Residuals:
       Min         1Q     Median         3Q        Max
-0.0236475 -0.0046199  0.0000215  0.0046571  0.0243383

Coefficients:
               Estimate Std. Error t value Pr(>|t|)    
I(scale(x1)) -9.932e-01  6.876e-05  -14446   <2e-16 ***
I(scale(x2))  9.873e-02  6.876e-05    1436   <2e-16 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.006874 on 9998 degrees of freedom
Multiple R-squared:      1,     Adjusted R-squared:      1
F-statistic: 1.058e+08 on 2 and 9998 DF,  p-value: < 2.2e-16

 

 


> abs(model2$coefficients)/sum(abs(model2$coefficients))
I(scale(x1)) I(scale(x2))
  0.90958355   0.09041645

How important is that variable?
  • 2016.12.03
  • Andrés Gutiérrez
  • hagutierrezro.blogspot.nl
When modeling any phenomena by including explanatory variables that highly relates the variable of interest, one question arises: which of the auxiliary variables have a higher influence on the response? I am not writing about significance testing or something like this. I am just thinking like a researcher who wants to know the ranking of...