Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 656

 
Yuriy Asaulenko:


Nun, und Nicht-Stationarität. Jeder Prozess wird, wenn er in Teile zerlegt wird, unstetig, und wenn er es nicht ist, wird er nicht zufällig sein.

Das verstehe ich nicht. Bei GARCH wird der Prozess in Komponenten zerlegt und nicht in Stücke zerlegt. Das liegt an der Formel selbst: vorheriger Wert + Rauschen.

Übrigens, wenn ich die Verteilungen in verschiedenen langen Abständen (mehrere über 3 Monate) betrachte, konnte ich keinen signifikanten Unterschied zwischen ihnen feststellen.

In Veröffentlichungen über GARCH wurde nachgewiesen, dass mehr als 5000 Beobachtungen erforderlich sind, um die Parameter der Verteilungen zu berechnen. Bei weniger als 1000 ist das Modell instabil.

Was den wirtschaftlichen Sinn angeht - nun, ich weiß es nicht. Ich gehe davon aus, dass der Markt für den Beobachter zufällig ist. Ob es tatsächlich zufällig ist oder nicht, spielt keine Rolle. Das Schlüsselwort ist hierfür den Beobachter.

Was den Devisenhandel betrifft, stimme ich voll und ganz zu, denn ich glaube, dass Wechselkurse Politik sind.

Was die anderen Vermögensarten betrifft. Allerdings sind die Vermögenspreise heute falsch: Der Ölpreis ist um ein Vielfaches höher, während der Verbrauch ungefähr gleich ist.

 
Maxim Dmitrievsky:


aber Sie sind die Emissionen nicht losgeworden.


Natürlich nicht, und das können Sie nicht tun. Darüber hinaus ist eine der Implikationen der GARCH-Modelle, wie gut sie den Prozess nach einer Emission WIRKLICH abbilden.

 
SanSanych Fomenko:

Natürlich nicht und es sollte auch nicht getan werden. Darüber hinaus ist eine der Bedeutungen von GARCH-Modellen, wie gut sie den Prozess nach dem Ausreißer WIRKLICH abbilden.

Ich meine, wenn man nur die Inkremente und die Logarithmen der Inkremente nimmt, sind die Diagramme gleichwertig, aber nur auf einer anderen Preisskala

 
Dr. Trader:

Darüber habe ich auch schon oft nachgedacht.

Wenn das Regressionsmodell Kursgewinne pro Balken vorhersagt und der R2-Wert bei Fronttests und Backtests über Null liegt, ist das bereits ein guter Anfang. Das Problem ist, dass das Ergebnis zwar stabil, aber klein ist und die Spanne nicht übertroffen werden kann.

Analytisch gesehen besteht das Problem darin, dass R2 das Modell bei großen Fehlern stärker bestraft und kleine Fehler und falsche Handelsrichtungen ignoriert. Betrachtet man die Verteilung der Kursgewinne, so liegen die meisten Kursbewegungen nur bei ein paar Pips. Und das Modell lernt, anstatt die richtige Richtung solcher kleinen Bewegungen vorherzusagen, die langen Schwänze der Verteilung vorherzusagen, für die es ein höheres R2 erhält. Infolgedessen kann das Modell große Bewegungen einigermaßen vorhersagen, aber bei kleinen Bewegungen macht es immer einen Fehler in der Richtung und verliert den Spread.

Fazit: Standardregressionsschätzungen sind schlecht für den Devisenhandel. Es ist notwendig, eine Art von Fitnessfunktion zu erstellen, um die Richtung der Geschäfte, die Streuung und die Genauigkeit zu berücksichtigen. Dann besteht selbst bei einer Genauigkeit von etwas mehr als 50 % eine Chance auf Gewinn.
Genauigkeit, Schärfeverhältnis, Wiederherstellungsfaktor und andere Funktionen, die Handelsdiagramme analysieren, sind zu diskret, Neuronen mit einem Standard-Backprop kommen nicht aus dem lokalen Minimum heraus und können nicht richtig lernen.

Eine alternative Schlussfolgerung wäre, schwache Signale des Neurons vollständig zu ignorieren. Handeln Sie nur mit starken Titeln. Das Problem ist, dass wir immer einen Schwellenwert festlegen können, der beim Backtest gute Ergebnisse liefert, beim Fronttest aber nicht. Auch hier muss man sich etwas einfallen lassen.

R2 ist IMHO ebenso wie logloss wegen seiner Nichtlinearität eine recht unbequeme Metrik. Für mich ist eine einfache Korrelation der Renditen mit den Prognosen viel praktischer, es ist wie die Wurzel aus R2, multipliziert mit 100 erhalten Sie den genauen Prozentsatz der Veränderung können Sie aus dem Markt zu erfassen, ich 3-5%, aber das Problem ist, wie Sie richtig gesagt, dass diese Signale zu häufig sind, und Filterung oder Mittelwertbildung fast vollständig tötet das Alpha. Ich denke, dass ich mich auf diesen Punkt konzentrieren muss, da ich mit normalen Daten ohnehin nicht mehr als 5 % erreiche.

 
SanSanych Fomenko:

Was den wirtschaftlichen Sinn angeht - nun, ich weiß es nicht. Ich gehe davon aus, dass der Markt für den Beobachter zufällig ist. Ob es tatsächlich zufällig ist oder nicht, spielt keine Rolle. Das Schlüsselwort ist hierfür den Beobachter.

Was den Devisenhandel betrifft, stimme ich voll und ganz zu, denn ich glaube, dass Wechselkurse Politik sind.

Was die anderen Vermögensarten betrifft. Auch wenn die Vermögenspreise heute völlig aus dem Ruder gelaufen sind: Der Ölpreis und der Verbrauch sind in etwa gleich hoch.

Ja, überall. Ich spiele hauptsächlich auf dem Aktien-Futures-Markt. Für einen Beobachter ist alles zufällig. Was wirklich dort ist - wer weiß das schon. Man muss ein Insider sein.)

Was ist "nicht zufällig" - es ist Rollbacks in der Bewegung und Schwankungen um den Durchschnitt (nicht zu verwechseln mit Alexander_K2-m). Bei diesem Ansatz kann eine Bewegung eher als zufällig bezeichnet werden, aber nicht als selten und sogar als regelmäßiges Phänomen, da wir nie wissen, wann und in welche Richtung sie stattfinden wird.

 
Yuriy Asaulenko:

Ja, überall. Ich spiele hauptsächlich auf dem Aktien-Futures-Markt. Für einen Beobachter ist alles zufällig. Was es wirklich ist, weiß ich nicht. Man muss ein Insider sein.)

Was ist "nicht zufällig" - es ist Rollbacks in der Bewegung und Schwankungen um den Durchschnittswert (nicht zu verwechseln mit Alexander_K2-m). Bei diesem Ansatz kann man einen Zug eher als zufällig bezeichnen, aber nicht als selten und sogar als regelmäßig, da man nie weiß, wann oder in welche Richtung er erfolgen wird.

Diese Hypothese eines effizienten Marktes ist unsinnig.

 
Maxim Dmitrievsky:

Ich meine, wenn man nur die Inkremente und die Logarithmen der Inkremente nimmt, sind die Diagramme gleichwertig, aber nur auf einer anderen Preisskala

Stranye Sie haben Graphen, sollte der Logarithmus auch komprimieren sie. Mit welcher Formel haben Sie das berechnet? Eine Dezimalzahl, z. B. eine 10-fache Änderung der Eingabedaten, ergibt eine 2-fache Änderung. Auch natürlich, aber schwächer. Ihre Diagramme zeigen keine vertikale Kompression.
 
SanSanych Fomenko:

Schließlich werden nicht umsonst GARCH-Modelle für Inkremente verwendet, und sie sind derzeit die am häufigsten verwendeten. Die Grundidee, die Nicht-Stationarität durch Zerlegung einer nicht-stationären Reihe in wirtschaftlich und statistisch sinnvolle Komponenten zu überwinden, ist sehr reizvoll.

Im Moment ist Garch für mich zu kompliziert. Bücher darüber sind hauptsächlich für Spezialisten in Statistik und Ökonometrie geschrieben und arbeiten ständig mit Dingen, die ich nicht verstehe; um einige Grundlagen zu verstehen und zu verinnerlichen, muss ich erst eine Menge anderer Dinge verstehen, die in Büchern nicht erklärt werden.

Ich habe mit Paketen in R gespielt, aber ich habe keinen Gewinn mit Standardeinstellungen sogar für einen Test; ich brauche wieder einige Kenntnisse, wie und was in den Einstellungen zu optimieren, und ich kann es nicht durch Zufall tun.

Ich glaube, dass Garch viele Dinge tun kann, aber die Zeit, die ich investieren muss, um sie herauszufinden, ist zu groß, und ich habe nicht viel davon.

 
elibrarius:
Stranye Sie haben Diagramme, der Logarithmus sollte sie auch komprimiert haben. Nach welcher Formel haben Sie das berechnet? Dezimal, zum Beispiel, eine 10-fache Änderung der Eingabedaten führt zu einer 2-fachen Änderung. Auch natürlich, aber schwächer. Ihre Diagramme zeigen keine vertikale Kompression.

log(abschließen[i]/abschließen[i-15])

Wo soll was geschlossen werden, warum?

 
Maxim Dmitrievsky:

Ich meine, wenn man nur die Inkremente und die Logarithmen der Inkremente nimmt, sind die Diagramme gleichwertig, aber nur auf einer anderen Preisskala

Ich vermute, es ist nicht log(open[0] - open[1]),
aber log(offen[0]/offen[1])