Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2821

 
Verwendet hmm geometrische Wahrscheinlichkeit?
Nein! Was willst du damit sagen?
Du nennst die Nähe eine geometrische Wahrscheinlichkeit, OK. Sie ist trotzdem nicht mit der normalen Wahrscheinlichkeit vergleichbar...

Du gibst einfach nicht zu, dass du dumm bist, du änderst deine Meinung in jedem Beitrag, du springst von Thema zu Thema, du beschimpfst mich.
Nur um zu vermeiden, das Offensichtliche zuzugeben...


 

Das ist die Wahrscheinlichkeit eines Clusters, geometrisch interpretiert.

Man hat Ihnen gesagt, Sie hätten Wahnvorstellungen und wüssten nicht, wovon Sie reden. Niemand hat sich seither geändert.

 
Maxim Dmitrievsky geometrischer Interpretation
Nun.... und Sie setzen diese geometrische Wahrscheinlichkeit der Nähe, die sich in Clustern befindet, mit der normalen Wahrscheinlichkeit, die sich in hmm befindet, gleich und sagen, dass sie auf dieselbe Weise funktionieren.

Weil Cluster und hmm gleich funktionieren, wie Sie sagen....

Wenn das wahr ist, und das ist es, dann lautet das Urteil: Arschloch)))
 
mytarmailS #:
Nun.... und Sie setzen diese geometrische Wahrscheinlichkeit der Nähe, die in Clustern liegt, mit der normalen Wahrscheinlichkeit, die in hmm liegt, gleich und sagen, dass sie gleich funktionieren.

Denn Cluster und hmm funktionieren Ihrer Meinung nach auf die gleiche Weise....

Wenn das wahr ist, und das ist es, dann ist das Urteil Arschloch))))
Jeder hat das bereits erkannt und sogar aufgehört, auf Sie zu antworten. Leider haben Sie es gewagt, meinen Beitrag zu kommentieren, und ich musste Sie wieder einmal fertig machen.
Machen Sie ruhig weiter mit Ihrem Geschwafel. Sie können später wiederkommen, um eine weitere Runde intellektuelles Bashing zu betreiben. Ich denke, das Thema ist erschöpft, aber Sie sind noch nicht dazu gekommen, wie eine Giraffe. Das ist normal für einen ptu.
 
Ohhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhh.
Ruiniert, so ruiniert...
Was für ein tiefgründiges Argument.)
SCHANDE ÜBER DICH...
Neptushnik)))))))))))))))))))))))))))))
 

Kurioser Artikel.

Übersetzung der Zusammenfassung

Diese Arbeit vergleicht die Prognosegenauigkeit von neuronalen Netzen und bedingten heteroskedastischen Modellen wie ARCH, GARCH, GARCH-M, TGARCH, EGARCH und IGARCH für die Prognose verschiedener Wechselkurse.

IGARCH, für die Vorhersage einer Reihe von Wechselkursen.mehrschichtige Perseptron-Netzwerke (MLP) und

Radial Basis Function (RBF)-Netzwerke mit unterschiedlichen Architekturen und bedingten

Heteroskedastische Modelle werden verwendet, um fünf Zeitreihen von Wechselkursen zu prognostizieren. Die Ergebnisse zeigen

dass sowohl neuronale Netze als auch bedingte heteroskedastische Modelle effektiv für die Vorhersage

für die Vorhersage. RBF-Netzwerke schneiden deutlich besser ab als MLP-Netzwerke in der Fallstudie mit dem neuronalen

Netzwerk-Fallstudie. IGARCH und TGARCH schneiden besser ab als andere bedingte heteroskedastische

Modelle. Die Leistung der neuronalen Netze

bei der Vorhersage des Wechselkurses ist besser als Modelle der bedingten Heteroskedastizität. Es wird gezeigt, dass das neuronale Netz wirksam eingesetzt werden kann

für die Schätzung der bedingten Volatilität von Wechselkursreihen und der impliziten Volatilität von Optionen N

Volatilität von NIFTY-Optionen. Es wird festgestellt, dass das neuronale Netz die bedingten heteroskedastischen

Modelle bei Out-of-Sample-Prognosen übertrifft.

 
Der Vorteil von arche-like ist die minimale Anzahl von Parametern, wahrscheinlich im Verhältnis zur Anzahl der Gewichte der Neuronen. RBF hat auch weniger Gewichte als mlp. Das ist aber nur die Art, wie man es zählt.
 
Maxim Dmitrievsky #:
Der Vorteil von arche-like ist die minimale Anzahl von Parametern, wahrscheinlich im Verhältnis zur Anzahl der Gewichte der Neuronen. RBF hat auch weniger Gewichte als mlp. Allerdings zählt man das so.

Archie modelliert Nicht-Stationarität, und zwar ziemlich detailliert.

MO-Modelle, wahrscheinlich auch Neuronen, machen sich die Idee der "Geschichte wiederholt sich" zunutze, indem sie nach Mustern suchen.

Deutet der Artikel an, dass der Weg der Mustersuche vielversprechender ist als die Modellierung von Nicht-Stationarität?

 
СанСаныч Фоменко #:

archi Modellierung der Nicht-Stationarität, und zwar sehr detailliert.

MO-Modelle, wahrscheinlich auch neuronale Modelle, machen sich die Idee der "Wiederholung der Geschichte" zunutze, indem sie nach Mustern suchen.

Deutet der Artikel an, dass der Weg der Mustersuche vielversprechender ist als die Modellierung von Nicht-Stationarität?

Die Modellierung der Nicht-Stationarität impliziert die Modellierung der Volatilität, so wie ich sie verstehe. Ohne die Richtung des Handels. In dieser Hinsicht sind Muster oder sich verschiebende Durchschnittsinkremente für den direktionalen Handel vielversprechender. Ich habe mir den Artikel noch nicht angesehen.

Ich würde sogar auf Trades in verschiedene Richtungen verzichten, z.B. sollten Eurobucks der letzten 10 Jahre dummerweise periodisch verkauft werden, ohne zu kaufen. Da werden Käufe mehr Fehler in die Modelle einbringen als Verkäufe.
 
Maxim Dmitrievsky #:
Die Modellierung der Nicht-Stationarität impliziert die Modellierung der Volatilität, so wie ich sie verstehe. Ohne direktionale Trades. In dieser Hinsicht sind Muster oder sich verschiebende Durchschnittsinkremente für den direktionalen Handel vielversprechender. Ich habe mir den Artikel noch nicht angesehen.

Ich würde sogar auf Trades in verschiedene Richtungen verzichten, z.B. sollten Eurobucks der letzten 10 Jahre dummerweise periodisch verkauft werden, ohne zu kaufen. Dort wird jeder Kauf mehr Fehler in die Modelle einbringen als der Verkauf.

Ich bin einverstanden.

In unseren Terminals werden Trades angezeigt. Was Volatilität ist, ist überhaupt nicht klar.

Aber wenn man den absoluten Wert eines Vermögenswerts vorhersagen will, ist das eine andere Sache. Volatilität ist das Risiko, das für die Vorhersage des Wertes eines Vermögenswertes entscheidend ist.


Wahrscheinlich ist das so.


Ich werde also die Garchas vergessen.