Brauche Hilfe bei der Optimierung des Ergebnisses - Seite 4

 
sergeyrar:

Vielen Dank für Ihre Zeit! Ich weiß das wirklich zu schätzen

Nach den folgenden Testergebnissen habe ich also einfach nur extremes Glück gehabt?

die maximale Anzahl von aufeinanderfolgenden Verlusttrades für diesen gesamten Zeitraum (von ungefähr 23 Gruppen von 50 Trades - konnte das Ganze nicht in einen Test quetschen) war 41 (was sich auf 2 Gruppen von 50 Trades aufteilen kann)

Hätte ich diese Art von Drawdown häufiger sehen sollen?

Wenn ich dieses Spiel weiter "spiele", werde ich eventuell in 9% der Fälle diese Art von Verlusten haben.

Jetzt noch eine Sache

Laut diesem Bericht

Die durchschnittliche Chance, dass ich einen gewinnbringenden Handel habe, liegt bei 8,85% und die Chance, einen Verlusthandel zu haben, bei 91,15%.

Demnach ist die Chance, 50 aufeinanderfolgende Verluste zu haben: 0,9115^50 = 0,97% ...

das ist ziemlich weit weg von 9% ... wie kann das sein?

Wenn ich in 95,3% der Fälle verlieren würde, wäre das korrekt, und bei einem solchen Prozentsatz wäre meine Erwartung negativ O_O

Ex= 0,953*(-23)+0,047*(247) = -10,31 Pips Gewinn pro Handel


Es ist wichtig zu verstehen, dass die in dem automatisierten Bericht berechneten und ausgewiesenen Statistiken "zeitserienspezifisch" sind. Das bedeutet, dass sie buchstäblich nur dann für die Vorhersage zukünftiger Handelscharakteristika relevant sind, wenn der Markt selbst dieselben Zeitseriencharakteristika aufweist...., was aus offensichtlichen Gründen nie der Fall ist.

Man kann sich wirklich hoffnungslos verirren, wenn man versucht, aus den Statistiken eines Backtesting-Berichts auf die Zukunft zu schließen. Im schlimmsten Fall sind die Ergebnisse des Backtestings völlig nutzlos, im besten Fall, wenn Sie die Art und Weise des Backtestings richtig vorbereitet haben, können Sie einige Nuggets an Daten generieren, die es Ihnen ermöglichen, Dinge anzusprechen, die nicht mit den im Backtesting verwendeten Zeitreihen korreliert sein sollten.

Denken Sie einfach daran, dass Sie es NICHT mit einem stationären Prozess zu tun haben. Praktisch alle Statistiken, die Sie auf der Grundlage von Backtests berechnen können, sind irrelevant für die Angabe zukünftiger Ergebnisse, da die übergeordnete Verteilung nie vollständig abgetastet wird (das kann sie auch nicht, denn sie existiert noch nicht, und die Zeit schafft mehr unabgetasteten Raum) und sich die Verteilungsstatistiken wie der Durchschnitt und die Standardabweichung ändern.

Vor diesem Hintergrund sollte man die Berechnungen des Verlustrisikos als "bestes" Ergebnis betrachten, da die Standardabweichung in der Realität wahrscheinlich größer ist als das, was aus der begrenzten Stichprobe beim Backtesting resultiert.
 

Hallo nochmal :)

Ich habe den Stichprobenzeitraum von Gruppen von 50 Trades auf eine monatliche Berechnung geändert und kam zu folgenden Ergebnissen :

unter der Annahme, dass sich diese Werte normal verteilen (was hier nicht der Fall sein dürfte)

1. Gibt es eine Möglichkeit, Schiefe und Kurtosis bei der ROR-Berechnung zu berücksichtigen?

2. Handelt es sich wirklich um eine Normalverteilung? Wenn nicht, wie kann sie sonst behandelt werden?

 
sergeyrar:

Hallo nochmal :)

Ich habe den Stichprobenzeitraum von Gruppen von 50 Trades auf eine monatliche Berechnung geändert und kam zu folgenden Ergebnissen :

unter der Annahme, dass sich diese Werte normal verteilen (was hier nicht der Fall sein dürfte)

1. Gibt es eine Möglichkeit, Schiefe und Kurtosis bei der ROR-Berechnung zu berücksichtigen?

2. Handelt es sich wirklich um eine Normalverteilung? Wenn nicht, wie kann sie sonst behandelt werden?


Ein Satz, der Ihnen vielleicht nicht geläufig ist, lautet: "Darin liegt der Hund begraben", was wohl so viel bedeutet wie "der Teufel steckt im Detail", denn wenn man erst einmal erkannt hat, auf welche Details es ankommt, wird einem klar, dass man es mit dem Teufel zu tun hat.

Ja, Sie gehen von einer Normalverteilung aus, obwohl Ihre Ergebnisse in Wirklichkeit nicht repräsentativ für eine Normalverteilung sind.

Übrigens, das ist nur ein Randthema, aber Sie werden vielleicht feststellen, dass Ihre Histogramme besser funktionieren, wenn Sie die Bin-Größe optimieren.

Optimierung der Bin-Breite von Histogrammen

Ich habe diesen Code in MQL implementiert, vielleicht habe ich ihn sogar hier hochgeladen, wenn Sie meine Beiträge überprüfen. Aber wenn Sie sich dafür entscheiden, ist dies eines der Dinge, in die Sie wirklich eintauchen und die Sie sich selbst beibringen müssen, da Sie sonst nicht wirklich verstehen werden, warum ein optimiertes Histogramm mit Bin-Breite hilfreich oder besonders ist.

Zurück zu Ihrem Thema: Der wichtigste Punkt, den Sie aufgedeckt haben, ist, dass Sie bei der Durchführung statistischer Analysen Ihrer Backtesting-Ergebnisse häufig Statistiken verwenden, die nur dann streng genommen wahr sind, wenn Ihre Daten aus einer Gauß-Verteilung stammen. Die meisten Menschen scheitern an dieser Stelle daran, diese Annahme zu testen und zu überprüfen, ob die Anwendung normalisierter Verteilungsstatistiken auf ihre Analysen überhaupt legitim ist.

An diesem Punkt kommt man an eine Weggabelung... man kann sich dafür entscheiden, "statistisch charakterisierbare" Ergebnisse zu verfolgen und vielleicht die scheinbar optimalen Ergebnisse zu verwerfen, weil sie nicht mit der Normalverteilungsstatistik übereinstimmen, oder man sucht nach allgemeineren Methoden zur Analyse der Backtesting-Ergebnisse, so dass die Methoden robust sind und aussagekräftige und nützliche Metriken für die Prognose künftiger Ergebnisse liefern.

Hier ist ein Beispiel für eine Analyse, die ich durchgeführt habe und die mir die Erkenntnis gebracht hat, wie unsinnig es ist, normalisierte Verteilungsstatistiken in meinen Backtest-Charakterisierungen zu verwenden:



Die roten Punkte sind Datenpunkte, die durchgezogene grüne Linie ist die beste Anpassung der Gaußfunktion an die roten Datenpunkte, die hellblaue Linie ist die beste Anpassung der verallgemeinerten Gaußverteilungsfunktion.

Sind Sie mathematisch begabt und haben Sie keine Angst, sich mit statistischen Analysen zu beschäftigen, die über die traditionelle Gauß-Verteilung hinausgehen? Oder sind Sie eher der Meinung, dass dies nicht Ihre Leidenschaft und Ihr Stil ist und Sie daher diese scheinbar merkwürdigen Ergebnisse lieber verwerfen und ignorieren und sich stattdessen mit der Charakterisierung derjenigen Ergebnisse befassen, die mit den leichter zu interpretierenden Metriken übereinstimmen?

An diesem Punkt gibt es keinen Konsens darüber, welchen Weg Sie wählen sollten, es ist eher eine Frage der Persönlichkeit und der Leidenschaft. Tun Sie, was Ihnen natürlich und leicht erscheint.

 
zzuegg:

Gewinn ist kein guter Optimierungsparameter, Gewinnfaktor und Drawdown sagen mehr über eine Strategie aus...

Ich schließe mich dem an und werde vielleicht das Denken in diesem Thread neu ausrichten...
Eine solide Strategie sollte nicht viel Optimierung benötigen...?

Wenn Sie Scalping betreiben, sollten Sie ein bestimmtes Niveau von TP und SL anstreben.
Beim Grid-Trading sind TP und SL selbstverständlich, ebenso wie beim Range-Trading.
Beim Swing-Trading werden ATR- oder Fibo-basierte Stops benötigt.
Die Anzahl derPositionsgeschäfte wird zu gering sein, um aussagekräftige Statistiken zur Optimierung zu erstellen.
Wonach suchen wir eigentlich?
Wenn eine Strategie nicht (wirklich) vollständig ist, wird die Optimierung dann wirklich den Unterschied ausmachen?

FWIW

-BB-

 
@BarrowBoy "Eine gute Strategie sollte nicht viel Optimierung benötigen...?" Optimierung kann keine gute Strategie von einer schlechten unterscheiden, aber denken Sie nicht eher, dass die Optimierung dazu dient, die Einstellungen zu finden, die die Chancen des Augenblicks aufzeigen?