Besoin d'aide pour l'optimisation des résultats - page 4

 
sergeyrar:

Merci beaucoup pour votre temps ! J'apprécie vraiment cela

Donc, d'après les résultats des tests suivants, j'ai été extrêmement chanceux ?

le nombre maximum de trades perdants consécutifs pour toute cette période (sur environ 23 groupes de 50 trades - je n'ai pas pu tout mettre dans un seul test) a été de 41 (qui peuvent être répartis entre 2 groupes de 50 trades).

J'aurais dû voir ce type de drawdown plus fréquemment ?

En fin de compte, si je continue à "jouer" à ce jeu, j'obtiendrai 9 % du temps ce genre de perte ?

Encore une chose

Selon ce rapport

la probabilité moyenne pour moi d'avoir un trade profitable est de 8.85% et un trade perdant est de 91.15%.

donc selon ce rapport, la probabilité d'avoir 50 pertes consécutives est de : 0.9115^50 = 0.97% ...

ce qui est assez éloigné de 9% ... comment est-ce possible ?

Si je devais perdre par 95,3% du temps, ce serait correct, et avec un tel pourcentage mon espérance serait négative O_O

Ex= 0.953*(-23)+0.047*(247) = -10.31 pips de profit par trade


Il est important de comprendre que les statistiques calculées et rapportées dans le rapport automatisé sont "spécifiques aux séries temporelles". Cela signifie qu'elles ne sont littéralement pertinentes pour prévoir les caractéristiques des transactions futures que si le marché lui-même présente les mêmes caractéristiques de séries temporelles.... ce qui, pour des raisons évidentes, ne se produit jamais.

Vous pouvez vraiment vous perdre en essayant de prédire l'avenir à partir des statistiques d'un rapport de backtesting. Au pire, les résultats d'un backtesting sont complètement et totalement inutiles, au mieux, si vous avez préparé correctement le backtesting, vous pouvez générer quelques pépites de données qui vous permettent de parler de choses qui ne devraient pas être corrélées avec les séries temporelles utilisées dans le backtesting.

N'oubliez pas que vous n'avez PAS affaire à un processus stationnaire. Pratiquement toutes les statistiques que vous pouvez être amené à calculer sur la base de backtesting ne sont pas pertinentes pour fournir des indications sur les résultats futurs car la distribution mère n'est jamais complètement échantillonnée (elle ne peut pas l'être car elle n'existe pas encore, le temps crée plus d'espace non échantillonné) et les statistiques de la distribution changent telles que la moyenne et l'écart type.

C'est dans cet esprit que l'on est censé considérer les calculs du risque de perte comme un résultat "idéal", car l'écart type est plus susceptible d'être plus large en réalité que ce qui a été généré à partir de l'échantillonnage limité rencontré lors du backtesting.
 

Re-bonjour :)

J'ai changé la période d'échantillonnage de groupes de 50 transactions à un calcul par mois et j'ai obtenu les résultats suivants :

en supposant que ces valeurs se distribuent normalement ( ce qui n'est peut-être pas le cas ici )

1. Existe-t-il un moyen de prendre en compte l'asymétrie et l'aplatissement dans le calcul du ROR ?

2. S'agit-il vraiment d'une distribution normale ? Si non, comment peut-on la traiter autrement ?

 
sergeyrar:

Re-bonjour :)

J'ai changé la période d'échantillonnage de groupes de 50 transactions à un calcul par mois et j'ai obtenu les résultats suivants :

en supposant que ces valeurs se distribuent normalement ( ce qui n'est peut-être pas le cas ici )

1. Existe-t-il un moyen de prendre en compte l'asymétrie et l'aplatissement dans le calcul du ROR ?

2. S'agit-il vraiment d'une distribution normale ? Si non, comment peut-on la traiter autrement ?


Une expression qui ne vous est peut-être pas familière est "therein lies the rub" qui, je suppose, se traduit librement par quelque chose comme "le diable est dans les détails" en ce sens qu'une fois que vous vous rendez compte des détails qui comptent, vous réalisez alors que c'est un diable à traiter.

Oui, vous supposez une distribution normale alors qu'en fait vos résultats ne sont pas représentatifs d'une distribution normale.

À propos, c'est un sujet tout à fait secondaire, mais vous trouverez peut-être que vos histogrammes vous serviront mieux si vous optimisez la taille de la case.

Optimisation de la largeur des cases des histogrammes

J'ai implémenté ce code dans MQL, je l'ai peut-être même téléchargé ici si vous vérifiez mes posts. Mais je dirai que si vous décidez de le faire, c'est l'une des choses que vous devez vraiment apprendre par vous-même, sinon vous ne comprendrez pas vraiment pourquoi un histogramme à largeur de bac optimisée est utile ou spécial.

Pour en revenir à votre sujet, le point clé que vous avez découvert est que lorsque vous effectuez des analyses statistiques sur vos résultats de backtesting, vous utilisez souvent des statistiques qui ne sont rigoureusement vraies que si vos données sont des échantillons tirés d'une distribution gaussienne. Là où les gens ont tendance à échouer dans leurs efforts, c'est de tester cette hypothèse, de vérifier qu'ils ont une quelconque légitimité à appliquer des statistiques de distribution normalisée à leurs analyses.

Vous pouvez choisir de rechercher des résultats "statistiquement caractérisables", en écartant peut-être les résultats apparemment optimaux parce qu'ils ne sont pas conformes aux statistiques de distribution normalisées, ou vous pouvez rechercher des méthodes plus générales d'analyse de vos résultats de backtesting afin que les méthodes soient robustes et vous fournissent des mesures significatives et utiles pour prévoir les résultats futurs.

Voici un exemple d'une analyse que j'ai effectuée et qui m'a fait comprendre qu'il était absurde d'utiliser des statistiques de distribution normalisées dans mes caractérisations de backtest :



Les points rouges sont des points de données, la ligne verte pleine est la fonction gaussienne la mieux adaptée aux points de données rouges, la ligne bleu clair est la fonction de distribution gaussienne généralisée la mieux adaptée.

Avez-vous un penchant pour les mathématiques et n'êtes-vous pas intimidé par l'idée de poursuivre le domaine des analyses statistiques au-delà de celui de la distribution traditionnelle basée sur la loi gaussienne ? Ou êtes-vous plus enclin à penser que ce n'est ni votre passion ni votre style et que, par conséquent, vous préférez écarter et ignorer ces résultats apparemment étranges et continuer à caractériser ceux qui sont conformes aux paramètres plus facilement interprétables ?

À ce stade, il n'y a pas de consensus sur la voie que vous devriez choisir, c'est plutôt une question de personnalité et de passion. Faites ce qui vous semble naturel et facile.

 
zzuegg:

Le profit n'est pas un bon paramètre d'optimisation, le facteur de profit et le drawdown en disent plus sur une stratégie...

Je vais appuyer cette idée et peut-être recentrer la pensée dans le fil...
Une bonne stratégie ne devrait pas avoir besoin de beaucoup d'optimisation... ?

Si vous faites du scalping, il devrait y avoir un niveau observé de TP & SL que vous allez chercher.
Si vous faites du grid-trading, le TP et le SL sont évidents, comme pour le range-trading.
Le Swing trading nécessite des stops basés sur ATR ou Fibo.
Lestransactions de position seront trop peu nombreuses pour produire des statistiques significatives sur l'optimisation, donc...
Que recherchons-nous exactement ?
Si une stratégie n'est pas (réellement) complète, l'optimisation va-t-elle vraiment combler la différence ?

POUR INFORMATION,

-BB-

 
@BarrowBoy "Une bonne stratégie ne devrait pas avoir besoin de beaucoup d'optimisation... ?" L'optimisation ne peut pas faire une bonne stratégie d'une mauvaise, mais ne pensez-vous pas plutôt que l'optimisation est faite pour trouver les réglages qui sont révélateurs des oportunités du moment ?