Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1508

 
mytarmailS:

Wie geht es Beraterin Ilya?

Ich bin enttäuscht von dem Gral. Es gibt eine starke Abweichung von meinen theoretischen Berechnungen und Annahmen. Der gleichnamige Artikel von Maxim hat mich dazu inspiriert, das Phänomen des so genannten Langzeitgedächtnisses oder derFernabhängigkeit zu untersuchen.Ich habe einen Indikator geschrieben, der auf ARFIMA basiert. Nach Ansicht der Autoren hat es eine bessere Vorhersagekraft alsARIMA.

Autoregressive fractionally integrated moving average - Wikipedia
Autoregressive fractionally integrated moving average - Wikipedia
  • en.wikipedia.org
In statistics, autoregressive fractionally integrated moving average models are time series models that generalize ARIMA (autoregressive integrated moving average) models by allowing non-integer values of the differencing parameter. These models are useful in modeling time series with long memory—that is, in which deviations from the long-run...
Dateien:
R_ARFIMA.zip  20 kb
 
Ilya Antipin:

Enttäuscht. Es gibt eine starke Abweichung von meinen theoretischen Berechnungen und Annahmen. Der gleichnamige Artikel von Maxim hat mich dazu inspiriert, das Phänomen des so genannten Langzeitgedächtnisses oder derFernabhängigkeit zu untersuchen...

So etwas gibt es nicht, Sie brauchen sich keine Sorgen zu machen.
 
Ilya Antipin:

Ich bin enttäuscht von dem Gral. Es gibt eine starke Abweichung von meinen theoretischen Berechnungen und Annahmen. Der gleichnamige Artikel von Maxim inspirierte mich dazu, das Phänomen des so genannten Langzeitgedächtnisses oder der Fernabhängigkeit zu untersuchen.Ich habe einen Indikator geschrieben, der auf ARFIMA basiert. Nach Meinung der Autoren hat es eine bessere Vorhersagefähigkeit als ARIMA.

LRD schwimmt in Wellen, es ist sinnvoll, Bereiche mit hohen en herauszufiltern, dann machen die Vorhersagen Sinn, für eine kleine Perspektive. Und wählen Sie ein Fenster.

Sind die Ketten schlecht für Clustering? Ich habe es fast herausgefunden, ich werde sie in mql zum Spaß neu schreiben, sie in meinem Arsenal behalten
 
Ilya Antipin:

Ich bin von dem Gral enttäuscht.

Haben Sie also den Indikator ausprobiert, den ich mit den Ketten geworfen habe, oder haben Sie nur mit den Preisen herumgespielt?

 

Beeindruckte, verwöhnte Psychologen sollten besser nicht zusehen


 
Maxim Dmitrievsky:

Beeindruckte, verwöhnte Psychologen sollten besser nicht zusehen


Was sagt man dazu! Drobyshevsky von der Systematisierung der homenidischen Schädel, ist zum Philosophieren über das Thema über ihren Inhalt übergegangen (es sind die Schädel gemeint). Unerwartet! Ich habe ihn mit großem Vergnügen gesehen, danke.

Pyssy: Es sieht so aus, als könne er nicht genug von den Lorbeeren von Anokhin und Tschernigowskaja bekommen.
 
sibirqk:

Was sagt man dazu! Drobyshevsky wechselte von der Systematisierung der Schädel der Homeniden zum Philosophieren über deren Inhalt (Schädel, in der Tat). Unerwartet! Ich habe ihn mit großem Vergnügen gesehen, danke.

Pyssy: Es sieht so aus, als hätte er ein Problem mit Anokhin und Tschernigowskaja.

Ich kann Leute nicht ernst nehmen, die, wenn sie etwas nicht verstehen, immer zu Gott kommen oder vor den Gefühlen der Gläubigen so kriechen. Anochin scheint ein vernünftiger Kerl zu sein, aber wenn er anfängt, über hohe Dinge nachzudenken... Über den zweiten werde ich nichts sagen :))

 
Maxim Dmitrievsky:

Beeindruckte, verwöhnte Psychologen sollten besser nicht zusehen


Ich war sehr überrascht, denn ich wusste nicht, dass humanoide Urzeitaffen/Menschen heute als Vorfahren der modernen Menschenaffen gelten (58:18).

Vom Material her fühlt es sich an wie ein Teil der Geschichte :) Leider ist die Argumentation schwach und widersprüchlich, aber als Standpunkt kann man sie gelten lassen.

Meiner Meinung nach sollten ähnliche Forschungen durch die Analyse von Veränderungen in der DNA von Unterarten mit Abtrennung von neuen Mutationen, die der Entwicklung der Art gedient haben, unterstützt werden - dann wird es für mich interessanter sein.

Und was die "konditionierten Reflexe" betrifft, auf deren Grundlage der Mensch im Alltag oft gedankenlos Entscheidungen trifft, auch in wichtigen Fragen, so ist das Buch "Psychologie der Beeinflussung" von Robert Cialdini interessant. Das Thema wird auch dort nicht vollständig behandelt, aber es ist interessant, welche Techniken von sachkundigen und interessierten Personen für ihre Zwecke eingesetzt werden.

 
Na bitte, ich hab's doch gesagt :( Psychologen fordern die Entnahme von DNA aus fossilen Überresten, die so alt sind wie Dinosaurier.
 
Maxim Dmitrievsky:
Wie sieht es mit den Schaltkreisen aus, ist Ihnen die Leistung ausgegangen?

Bei den Ketten ist alles zweideutig. Ich habe einen EURUSD/M20 Logreturn genommen und ihn mit "lambertW" "angepasst" (Bilder hier). Ich habe das Modell mit zwei Zuständen trainiert (der bessere, der Autor sagt 5). Nachstehend finden Sie den Code und Bilder.

require(LambertW)
set.seed(12358)
y1 <- diff(log(pr$close), 3)*100
out <- Gaussianize(y1, return.tau.mat = TRUE)
x1 <- get_input(y1, c(out$tau.mat[, 1]))  #  same as out$input
#---
 States <- 2 L
#set.seed(12358)
 param0 <- matrix(c(0.1, 0.05, -1, -0.1, -0.05, 1), States, 3 L, byrow = TRUE)
gamma0 <- ldhmm.gamma_init(m = States)
h <- ldhmm(m = States, param = param0, gamma = gamma0, stationary = TRUE)

mod <- ldhmm.mle(h, x1)
dc <- ldhmm.decoding(mod, x1)
post <- t(as.matrix(dc@states.prob))
#predStates <- cbind(post[,1:States])
prStat <- apply(post, 1, function(x) which.max(x))
Stat <- dc@states.global

mod@param
mod@delta
floor(mod@gamma*10000)/100
ldhmm.ld_stats(mod)


> mod@param
               mu      sigma    lambda
[1,] -0.001182310 0.09119015 0.4625385
[2,]  0.001808756 0.04114724 0.6977260
> mod@delta
[1] 0.4189323 0.5810677
> floor(mod@gamma*10000)/100
      [,1]  [,2]
[1,] 93.79  6.20
[2,]  4.47 95.52
> ldhmm.ld_stats(mod)
             mean         sd kurtosis
[1,] -0.001182310 0.05256228 2.142325
[2,]  0.001808756 0.02542165 2.465665

Zeichnen wir das Signal und die Anführungszeichen

par(mfrow = c(2,1))
matplot(tail(post, 300), t = "l", col = c(1,2,4,5))
abline(h = 0.5, col = 2)
plot(tail(pr$close, 300), t = "l")
par(mfrow = c(1,1))

Signal