Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 488

 
Maxim Dmitrievsky:

Nun, es ist eine Frage der richtigen Chips und des richtigen Ziels, obwohl es scheint, dass es einfacher sein könnte als eine Multiplikationstabelle, aber auch da gibt es keine kleinen Fehler

Ich kann mir nicht sicher sein, ob meine Ausbildung korrekt ist, daher die Fehler.

Mit Verlaub.
 
Andrey Kisselyov:
Ich kann mir nicht sicher sein, ob die Ausbildung korrekt ist, daher die Fehler. In Forex gibt es zumindest auf die eine oder andere Weise Wiederholungen im Einmaleins, keine Wiederholungen.

Mit Verlaub.

Nun ja, wenn man bedenkt, dass RF überhaupt nicht in der Lage ist, zu extrapolieren

 
Eidechse_:

kann...


(Überall steht, dass man nicht... )

 
Eidechse_:

Sie haben auch eine Rassel geschrieben)))) Aber Sie haben sich entschieden, einen anderen zu produzieren.
Steck ihn rein.
х = 1 0 1 0 1 0 1 0 1 0
Ziel = 1 0 1 0 1 0 1 0 1 0 1 0
dann -
х = 1 0 1 0 1 0 1 0 1 1
Ziel = 1 0 1 0 1 0 1 0 1 0 1 0
usw...
Zu einem interpretierbaren Beispiel siehe kurz.
Genauigkeit, Verlust, Kappa ... usw., was immer Sie wollen. Zu Recht wurde bereits darauf hingewiesen.
es gibt viel zu sehen im Wald...


OK, wenn ja, werde ich die Strategie fertigstellen und dann werden wir sehen, was los ist :)

 

Grüße an die Neuronauten! Große Geister ))

Hier ist ein Film über einen Neuralisten, der ein Super-Prädiktionsprogramm entwickelt und einer Bank "geholfen" hat, reich zu werden.



 
Alexander Iwanow:

Grüße an die Neuronauten! Große Geister ))

Es gibt hier einen Film über einen Neuronen-Typen, der eine Super-Vorhersagemaschine entwickelt und einer Bank "geholfen" hat, reich zu werden.




The Texas Chainsaw Massacre" sehen, ein neuer und entspannender Film.

 

Ich bin der Meinung, dass eine Reihe von Problemen sowohl bei Klassifizierungs- als auch bei Regressionsmodellen auftreten.


Ein solches Problem ist die Multikollinearität, die in der Regel als Korrelation zwischen den Eingabevariablen interpretiert wird, was jedoch nicht unbedingt zutrifft.


Multikollinearität im allgemeinen Sinne führt zu einer sehr unangenehmen Folge, die unsere Modellierungsbemühungen untergräbt:

  • Modellparameter werden unsicher
  • Die Standardfehler der Schätzung werden unendlich groß.


Versteht man Multikollinearität als eine lineare Beziehung zwischen Inputvariablen (erklärende Variablen, Prädiktoren), so ergibt sich folgendes Bild

  • die OLS-Schätzungen sind zwar immer noch unverzerrt, haben aber eine große Varianz und Kovarianz, was eine genaue Schätzung erschwert
  • Infolgedessen sind die Konfidenzintervalle tendenziell breiter. Wir können also die "Nullhypothese" (d. h. die wahre Abtastrate ist Null) nicht zurückweisen,
  • Aufgrund des ersten Effekts von t ist das Verhältnis von einem oder mehreren Koeffizienten tendenziell statistisch unbedeutend
  • Auch wenn einige Regressionskoeffizienten statistisch unbedeutend sind, kann der R^2-Wert sehr hoch sein.
  • OLS-Schätzverfahren und ihre Standardfehler können empfindlich auf kleine Änderungen in den Daten reagieren


In diesem Artikel finden Sie R-Tools, mit denen Sie das Vorhandensein von Multikollinearität erkennen können.

Multicollinearity in R
Multicollinearity in R
  • Bidyut Ghosh
  • www.r-bloggers.com
One of the assumptions of Classical Linear Regression Model is that there is no exact collinearity between the explanatory variables. If the explanatory variables are perfectly correlated, you will face with these problems: However, the case of perfect collinearity is very rare in practical cases. Imperfect or less than perfect...
 
SanSanych Fomenko:

Ich bin der Meinung, dass eine Reihe von Problemen sowohl bei Klassifizierungs- als auch bei Regressionsmodellen auftreten.


Ein solches Problem ist die Multikollinearität, die in der Regel als Korrelation zwischen den Inputvariablen interpretiert wird, was jedoch nicht unbedingt zutrifft.


Multikollinearität im allgemeinen Sinne führt zu einer sehr unangenehmen Folge, die unsere Modellierungsbemühungen untergräbt:

  • Modellparameter werden unsicher
  • Die Standardfehler der Schätzung werden unendlich groß.


Versteht man Multikollinearität als eine lineare Beziehung zwischen Inputvariablen (erklärende Variablen, Prädiktoren), so ergibt sich folgendes Bild

  • die OLS-Schätzungen sind zwar immer noch unverzerrt, haben aber eine große Varianz und Kovarianz, was eine genaue Schätzung erschwert
  • Infolgedessen sind die Konfidenzintervalle tendenziell breiter. Wir können also die "Nullhypothese" (d. h. die wahre Abtastrate ist Null) nicht zurückweisen,
  • Aufgrund des ersten Effekts von t ist das Verhältnis von einem oder mehreren Koeffizienten tendenziell statistisch unbedeutend
  • Auch wenn einige Regressionskoeffizienten statistisch unbedeutend sind, kann der R^2-Wert sehr hoch sein.
  • OLS-Schätzverfahren und ihre Standardfehler können empfindlich auf kleine Änderungen in den Daten reagieren.


In diesem Artikel finden Sie R-Tools, mit denen Sie das Vorhandensein von Multikollinearität erkennen können.


danke für das neue Wort, habe es heute schon ein paar Mal überflogen :)

Welche anderen Probleme gibt es?

 

Heute habe ich beschlossen, mein Netzwerk auf Percetron zu überprüfen. Optimiert für Mai/Anfang Juni 2016, EURUSD, Spread 15 Pips.

Der Schwanz selbst.

Ich bin immer noch verwirrt über das Ergebnis.

 
forexman77:

Heute habe ich beschlossen, mein Netzwerk auf Percetron zu überprüfen. Optimiert für Mai/Anfang Juni 2016, EURUSD, Spread 15 Pips.

Der Schwanz selbst.

Das Ergebnis verwirrt mich bis jetzt.

Ich bin auch verwöhnt, auch wenn ich ein bisschen schockiert bin. Ich habe es an Stichproben ausprobiert und die Ergebnisse sind erstaunlich. Ich habe noch keine TC gemacht.

Maxim sagt, es sei eine lange Lernkurve. Ich habe etwa 23 Stunden. Aber selbst wenn ich es einmal alle 3 Monate mache - was für ein Unsinn).

Und für 3 Monate reicht es auf jeden Fall, ich habe es nicht weiter getestet.