Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1626
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Es scheint mir, dass die Wahrscheinlichkeit sowohl Wahrscheinlichkeit als auch Wahrscheinlichkeit ist...
Ungewissheit ist etwas anderes, aber Wahrscheinlichkeit (wo es eine gibt) ist immer Wahrscheinlichkeit).
In der Spieltheorie wird in der Regel versucht, die Ungewissheit im Spiel auf die probabilistische Ungewissheit zu reduzieren. Zum Beispiel durch ein Nash-Gleichgewicht bei gemischten Strategien.
Für Märkte besteht das Hauptproblem bei der Umstellung auf probabilistische Modelle in der erheblichen Nicht-Stationarität der resultierenden Modelle.
In der Tat, es gibt viele Verrückte da draußen, zehntausend ist nur ein Vorgeschmack, einige Spechte versuchen, sich eine Million Punkte in den Mund zu stecken! Es gibt auch Tics und Tumblers...
Ungewissheit ist etwas anderes, aber Wahrscheinlichkeit (wo es eine gibt) ist immer Wahrscheinlichkeit).
In der Spieltheorie wird in der Regel versucht, die Ungewissheit im Spiel auf die probabilistische Ungewissheit zu reduzieren. Zum Beispiel durch ein Nash-Gleichgewicht bei gemischten Strategien.
Für die Märkte besteht das Hauptproblem beim Übergang zu probabilistischen Modellen in der erheblichen Nicht-Stationarität der resultierenden Modelle.
Alles nur, weil die Darstellung der Informationen nicht korrekt ist.
Mit einem nichtstationären Prozess verhält man sich wie mit einem stationären, indem man eine Meereswelle mit einem Lineal/Zentimeter misst.
Zunächst sollten Sie fraktale Strukturen in eine Dimension umwandeln (nicht-stationäre in stationäre), dann Muster/Muster finden und dann Statistik/Wahrscheinlichkeit.
Das ist es, was ich meine. Viele Menschen vergessen eine sehr wichtige Grundregel. Wenn eine Aufgabe ohne die Hilfe von NS gelöst werden kann, muss sie erledigt werden. Aus dieser Regel folgt, dass wir Daten mathematisch betrachten, solange die Mathematik es uns erlaubt, sobald die Mathematik machtlos wird, verwenden wir NS. Mit anderen Worten: Die Eingangsdaten sollten maximal gefiltert, geglättet, normalisiert usw. werden. MATHEMATIK bis zur Mathematik im Prinzip, und erst dann beginnen, NS anzuwenden. Und nicht so, dass wir NS-Schrott reinstopfen und am Meer des Wetters warten. So funktioniert das nicht. Wenn ich zum Beispiel 50 Eingabevektoren verwende, habe ich alle unnötigen Marktteile, die während des Trainings zu Rauschen werden, verworfen, und mit dieser Anzahl von Eingaben erhalte ich ein Modell von 90-95% Lernqualität mit einer Zeit von 2 Monaten auf M5. Was würde passieren, wenn ich diesen Teil in das Netz einspeisen würde? Nichts. Ich würde ein Modell von viel schlechterer Qualität und nicht brauchbar bekommen. Und da der Abschnitt in zwei Monaten in der ersten, dass in der zweiten Fall war, und blieb so. Das Ergebnis ist jedoch ein anderes.
Cool, was soll ich sagen, ich hatte noch nie mehr als 55% acurasi bei der Vorhersage der zukünftigen Richtung, ohne jede Beimischung der Vergangenheit. Im Allgemeinen ist es besser, nicht acurasi zu zählen, sondern Korrelation mit der zukünftigen Rendite, diese Zahl wird gesagt, um proportional zu Sharpe Ratio, die erhalten werden (natürlich abhängig von Handelskosten). 3%ige Korrelation ist ausreichend für jährliche SR ~1 -1,5
Cool, was soll ich sagen, ich hatte noch nie mehr als 55% acurasi bei der Vorhersage der zukünftigen Richtung, ohne jede Beimischung der Vergangenheit. Im Allgemeinen ist es besser, nicht acurasi zu zählen, sondern Korrelation mit der zukünftigen Rendite, diese Zahl wird gesagt, um proportional zu Sharpe Ratio, die erhalten werden (natürlich abhängig von Handelskosten). 3%ige Korrelation ist ausreichend für eine jährliche SR von ~1 -1,5
Versuchen Sie , den Input mathematisch zu filtern und so die Trainingsstichprobe zu reduzieren, ohne den Zeitraum zu verkürzen, und ich bin sicher, dass die Qualität von NS steigen wird. Auf diese Weise werden Sie unnötigen Lärm los, der durch Mathematik eliminiert wird. Auch hier habe ich die vom Optimierer vorgegebenen Werte für die Verallgemeinerbarkeit geschrieben. D.h. der Zeitraum ist derselbe, aber die Qualität des entstehenden Netzes wird besser sein, was sich auf die Rückmeldung auswirkt. IMHO
Wie bitte?
alles nur, weil die Darstellung der Informationen nicht korrekt ist...
Der nicht-stationäre Prozess wird wie ein stationärer Prozess behandelt, der mit einem "Lineal/Zentimeter-Seegang" gemessen wird.
Zunächst müssen fraktale Strukturen in eine Dimension umgewandelt werden (nicht stationär in stationär), dann müssen Muster gefunden werden, und dann muss eine Statistik/Wahrscheinlichkeit erstellt werden.
Bei erheblicher Nicht-Stationarität ist es korrekter, von multifraktal zu sprechen, da sich die fraktalen Merkmale mit der Zeit ändern. Diese Veränderungen sind ebenso unvorhersehbar wie alle anderen.
Wie meinen Sie das?
Nun, sagen wir, nicht alle Minuten, aber diejenigen mit einem Körper größer als N Punkte als Beispiel. Auf diese Weise reduzieren Sie die Datenmenge, aber nicht das Stichprobenintervall. Und das Netz wird es Ihnen danken.
Da wir dieses Thema im Allgemeinen angesprochen haben, möchte ich sagen, dass ich in letzter Zeit das Netz bei der Vorverarbeitung unterstützt habe. Angenommen, ich optimiere zunächst die Parameter des Sequents, so erhalte ich im Prinzip ein typisierendes Sequent. Und ich bitte das Netz, die Sequenta, die bereits zunimmt, besser zu machen. Ich meine ein Mannschaftsspiel. In der Hälfte, die Sequenta gewinnt, in der anderen Hälfte ein Netz, das der gewinnenden Sequenta hilft, mehr zu gewinnen. Ich vergewaltige die NS also nicht, sondern bitte sie nur darum, ein bisschen zu helfen, und dieses bisschen reicht aus.
All dies wird in dem Video behandelt...
Sagen wir, nicht alle Minuten, aber diejenigen mit einem Körper größer als N Punkte als Beispiel. Dadurch verringert sich zwar die Datenmenge, nicht aber das Stichprobenintervall. Und das Netz wird es Ihnen danken.
Da wir dieses Thema im Allgemeinen angesprochen haben, möchte ich sagen, dass ich in letzter Zeit das Netz bei der Vorverarbeitung unterstützt habe. Angenommen, ich optimiere zunächst die Parameter des Sequents, so erhalte ich im Prinzip ein typisierendes Sequent. Und ich bitte das Netz, die Sequenta, die bereits zunimmt, besser zu machen. Ich meine ein Mannschaftsspiel. In der Hälfte, in der Sequenta gewinnt, in der anderen Hälfte ein Netz, das dem gewinnenden Sequenta hilft, besser zu punkten. Ich vergewaltige die NS also nicht, sondern bitte sie nur darum, ein bisschen zu helfen, und dieses bisschen reicht aus.
All dies wird in dem Video gezeigt...