Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3092

 
mytarmailS #:

Sie wissen schon, Gewinn und Verlust, richtig?

Wir nehmen also Rückzahlungen aus diesen Staaten, wenn die Position offen ist.

Ja.

mytarmailS #:

Anstelle von verschiedenen TS-Einstellungen nehme ich einfach den Handel in verschiedenen Abschnitten, ich denke, das kann man gleichsetzen.

Ich bin mir nicht sicher.

Und im Allgemeinen. lesen Sie den Artikel zu verstehen, was Sie tun, gibt es Einschränkungen. Zum Beispiel ist es notwendig, offensichtlich erfolgreiche Einstellungen zu geben, nicht -1000000 bis +1000000. Wenn Sie alles in einer Reihe angeben, liegt der durchschnittliche OOS-Wert ganz unten, und es hat keinen Sinn, ihn zu vergleichen. Eine sehr enge Spanne von 0,95...,0,98 ist auch aus DR-Sicht schlecht - die Ergebnisse werden sehr eng beieinander liegen.

 
Forester #:

ja

nicht sicher.

Und im Allgemeinen. lesen Sie den Artikel zu verstehen, was Sie tun, gibt es Einschränkungen. Zum Beispiel ist es notwendig, offensichtlich erfolgreiche Einstellungen anzugeben, nicht -1000000 bis +1000000. Wenn Sie alles in einer Reihe angeben, liegt der durchschnittliche OOS-Wert ganz unten, und es hat keinen Sinn, ihn zu vergleichen. Eine sehr enge Spanne von 0,95...,0,98 ist ebenfalls schlecht - die Ergebnisse werden sehr nahe beieinander liegen.

Ich verstehe, dass Sie einen profitablen TS einreichen sollten und nicht einfach irgendetwas....


Ich habe bereits den Algorithmus zum Testen dieser Sache skizziert, aber es gibt nur eine Nuance bei den Metriken


Soll ich alle 4 + 1 Metriken optimieren?

 p_bo      slope       ar^2     p_loss 
 0.1666667  2.1796000 -0.2100000  0.1670000 
+

прибыль


Oder nur

 p_bp  + прибыль


 
Aber ich verstehe nicht, wie sie die Kreuzvalidierung ohne Training durchführen. Sie geben einfach einen fertigen Satz von Rückgaben ein und mischen ihn dann mit 12000 Varianten. Es sollte auf jede der 12000 IS trainiert und auf jede entsprechende OOS vorhergesagt werden.
 
mytarmailS #:

Mir ist klar, dass Sie eine gewinnbringende TK einreichen müssen und nicht irgendetwas.


Ich habe bereits den Algorithmus zum Testen dieser Sache skizziert, aber es gibt nur eine Nuance bei den Metriken.


Ich muss alle 4 + 1 Metriken optimieren


Oder nur


Ich weiß es nicht. Ich schätze, irgendeine von ihnen.
 
Forester #:
Aber ich verstehe nicht, wie sie die Kreuzvalidierung ohne Training durchführen. Sie geben einfach einen fertigen Satz von Rückgaben ein und mischen ihn dann mit 12000 Varianten. Es sollte auf jede der 12000 IS trainiert werden und auf jede entsprechende OOS vorhergesagt werden.

Auf diese Weise wird es trainiert.

Vielleicht ist es an der Zeit, sich das Paket anzuschauen.

 
mytarmailS #:

So wird es auch gelehrt.

Wo sind die Wald/NS-Hyperparameter? Keine, also trainiert es auch nicht. Die Prädiktoren werden auch nicht gefüttert.
Ich denke, es bewertet nur die Stabilität der externen Modellvorhersagen.
 
Forester #:
Wo sind die Wald/NS-Hyperparameter? Nein - es wird also nicht trainiert. Die Prädiktoren werden auch nicht gefüttert.
Ich denke, es wird nur die Stabilität der externen Modellvorhersagen bewertet.

Es schätzt die Stabilität durch lineare Regression, so wie ich es verstehe.

Steht in dem Papier etwas über Wälder/NS?
 

Ich verstehe das mit dem Wettbewerb nicht so ganz. Profsreda, nicht profsreda, es gibt eine Aufgabe, und die Diskussion über die Korrektheit der Aufgabe ist relevanter, und wenn korrekt, warum nicht?

Ich respektiere die Meinung aller Teilnehmer des Holivars, aber ich habe eine andere))))))

Ohne externe oder andere Parameter ist alles sehr kompliziert, oder eher nahe am Perpetuum Mobile))))) Aber mit externen Parametern das gleiche große Problem)

Rückkehr zum Mittelwert ist am einfachsten zu verstehen und ewig scheinbar und es ist klar, dass auf kleinen tf Fehler weniger sind, aber Saber ticks geben auch schwarze Schwäne)))))

 
mytarmailS #:

schätzt die Stabilität durch lineare Regression, so wie ich es verstehe

Steht in dem Artikel etwas über Wälder/NS?

Oder ist es vielleicht ganz einfach? Wie Rattle?

Wir nehmen zwei Dateien, die erste ist groß, die zweite kann kleiner sein, aber mit den neuesten Daten im Vergleich zur ersten.

Wir teilen die erste Datei per Zufallsstichprobe in drei Teile auf: train, test, validation im Verhältnis 70/15/15.

Bei train lehren wir mit Kreuzvalidierung, zum Beispiel mit 5 Faltungen. Wenn ein Fold mindestens 1500 Balken beträgt, dann ist train = 7500 Balken. In einem Kreis sind 15000 Balken für zwei Quelldateien ausreichend.

Wir lassen das trainierte Modell auf Test und Validierung laufen und erhalten jeweils einen Klassifikationsfehler .

Dann lassen wir das 1500-Balken-Fenster auf die zweite Datei laufen. Sammeln Sie den Klassifizierungsfehler.

Wenn ALLE erhaltenen Klassifizierungsfehler innerhalb des 5 %-Kanals liegen, ist alles in Ordnung: Wir können dem erhaltenen Klassifizierungsfehler vertrauen, und es ist keine Nachschulung erforderlich.

 
СанСаныч Фоменко #:

Wie wäre es, wenn wir es einfach halten?

Wir werden sehen.


Zuerst sollten Sie versuchen, den Algorithmus laufen zu lassen und ihn zu testen. Wenn er nicht funktioniert, dann werfen Sie ihn weg und vergessen Sie ihn... 99%.

Wenn er funktioniert, können Sie sich mit dem Artikel und der Methode befassen und versuchen, 1% zu verbessern/zu ändern/zu ersetzen .