Statistiques d'un système anti-grille - page 3

 

Désolé de te corriger, ubzen, mais les mathématiques sont tout simplement vraies. C'est la mauvaise utilisation des mathématiques qui peut causer des problèmes. Si vous voulez vraiment contester la véracité des théorèmes mathématiques, il est presque certain que vous vous cognez la tête contre un mur de briques et, dans le cas improbable où ce ne serait pas le cas, je pense que vous devez améliorer vos connaissances au niveau post-doc. Par exemple, le critère de Kelly est une vérité mathématique sur la distribution de probabilité des rendements obtenus en utilisant un certain effet de levier sur une séquence d'opportunités ayant certaines propriétés statistiques. Il peut être d'une utilité pratique dans des situations où vous avez ce que vous pensez être de bonnes estimations des propriétés statistiques nécessaires. Mais la chose la plus importante que la théorie (et mes études empiriques) me dit, c'est que vous pouvez vous attendre à une variance épouvantable du rendement si vous utilisez un levier proche du levier maximum que le critère suggère. La seule façon dont la théorie peut induire en erreur une personne qui la comprend est d'introduire des estimations trop imprécises des propriétés statistiques de ses transactions. Le principe "Garbage in, garbage out" est une vieille vérité. Si vous introduisez des données incorrectes dans un programme correct, ne vous attendez pas à des résultats corrects.

En ce qui concerne la distribution gaussienne, le fait que certaines personnes négligentes aient fait des hypothèses incorrectes sur le modèle mathématique à utiliser pour la corrélation entre les actifs dans certaines applications, et que cette erreur ait conduit à de gros problèmes financiers est plutôt dépassé aujourd'hui, et me semble aussi excitant que le problème de l'an 2000 (qui m'endormait déjà vers 1990, d'autant plus que j'avais toujours évité d'utiliser des années à deux chiffres dans mes programmes).

J'aspire à ne pas faire d'affirmations farfelues comme les vôtres (par exemple "des milliards d'événements indépendants"), mais à déterminer réellement la signification des informations dont je dispose. Par exemple, si la courbe d'équité obtenue par le système de Zzuegg est vraiment aussi étonnante qu'elle le paraît, c'est une preuve très forte de son efficacité, à moins qu'il n'ait été optimisé sur ces données. Je n'ai jamais produit une courbe d'équité aussi bonne que celle-là sans qu'elle soit absurde ou optimisée à partir des données. Chaque fois que vous voyez un profit final qui est un très grand multiple du drawdown maximum de l'équité, c'est très indicatif de la qualité. Lorsqu'il s'agit d'un petit multiple, la probabilité que ce soit un coup de chance est beaucoup plus élevée. Il s'agit d'une simple règle empirique, mais elle n'est pas mauvaise. Elle peut être améliorée en examinant les statistiques plus en détail.


Soit dit en passant, si George Soros était ruiné cette année, je dirais que "sa gestion de l'argent a été épouvantable". Si George Soros ne commettra jamais l'erreur de risquer toute sa fortune, le célèbre Jesse Livermore est un bon exemple de personne qui l'a fait. Il était suffisamment mauvais dans la gestion de son argent pour devenir pauvre après avoir été extrêmement riche. Il n'est pas nécessaire d'être mathématicien pour comprendre qu'il a été stupide d'agir ainsi, probablement en raison d'une combinaison de défauts psychologiques et d'un manque de gestion méthodique de sa richesse. Livermore était clairement un très bon trader, mais sa gestion de l'argent pouvait être améliorée, n'est-ce pas ?

 

Avec tout le respect que je vous dois, pourriez-vous nous aider à trouver une substance. Vingt paragraphes expliquant pourquoi nous ne sommes pas d'accord ne vont pas aider ce fil. J'espère que vous pourrez répondre à mes questions par une réponse directe, j'accepterai même les "je ne sais pas" ou "je vais y réfléchir".

1) Veuillez nous montrer les mathématiques qui prouvent ou infirment l'approche anti-grille.

2) Veuillez fournir une estimation d'un nombre statistiquement valide de transactions.

3) Veuillez fournir des formules ou des références qui soutiennent vos opinions avec lesquelles je n'étais pas d'accord.

Comme vous l'avez dit, c'est la mauvaise utilisation des mathématiques qui peut causer des problèmes. IMO. Utiliser la statique conventionnelle pour le trading comme si c'était une loi est une mauvaise utilisation des mathématiques. Je vous supplie vraiment de fournir des formules cette fois-ci.

En réponse à :

Livermore était clairement un très bon trader, mais il y avait place à l'amélioration dans sa gestion de l'argent, n'est-ce pas ? Je dirais que la fin justifie les moyens. S'il n'avait pas fait faillite, nous aurions continué à penser qu'il connaissait sa gestion de l'argent.

D'après wikipedia : Le 16 septembre 1992, mercredi noir, le fonds de Soros a vendu à découvert des livres pour une valeur de plus de 10 milliards de dollars[27], profitant de la réticence du gouvernement britannique à relever ses taux d'intérêt à des niveaux comparables à ceux des autres pays du mécanisme de change européen ou à laisser flotter sa monnaie.

Où pensez-vous qu'ils ont obtenu les statistiques, qui ont soutenu le Edge sur le commerce, qui a soutenu la gestion de l'argent de 10 milliards de livres. Si Soro avait perdu ce pari, nous aurions dit qu'il ne connaissait pas non plus la gestion de l'argent, parce que la gelée et la bankroll ne soutenaient pas le pari.

Si les mathématiques disent que vous avez un risque de ruine de 0,01% (1/10000), et que vous avez perdu tout votre argent. Cela signifie-t-il que vous ne savez pas gérer votre argent ? ou que vous n'avez pas eu de chance, ce qui arrive à une personne sur 10000 ?

 

@ubzen, points intéressants. Je ne pense pas que nous soyons autant en désaccord que vous pourriez le croire. Et la discussion améliore la compréhension, espérons-le pour nous tous.


1) Je n'ai fait aucune de ces (quatre ?) affirmations et ne le ferais pas. Je ne voudrais pas ou ne tenterais pas de prouver ou de réfuter les systèmes de grille ou anti-grille en général. C'est tout simplement infaisable. Même avec un système particulier, tout ce qui est possible est de faire des déclarations statistiques sur ses performances.

2) Cette question soulève un problème qui est d'une importance fondamentale dans l'interprétation des preuves. L'idée de base est d'estimer la probabilité que les résultats aient pu être obtenus par hasard, afin d'éviter d'être trompé. Pour faire une analogie simple, supposons que vous disposiez d'une méthode pour prédire les tirages à pile ou face et que vous réussissiez à obtenir 14/20. Vous pouvez facilement calculer la probabilité d'un tel résultat si vous obteniez réellement 50 %. 14/20 peut être considéré comme un facteur de profit de 1,75, et ne nécessite donc pas un échantillon important pour devenir significatif. (en fait, il y a environ 1 chance sur 17 d'obtenir au moins 14 bonnes réponses sur 20 si vous n'avez pas d'avantage).

Il s'avère que les facteurs de profit inférieurs (par exemple 1,1) nécessitent des échantillons beaucoup plus importants pour devenir significatifs. Le processus précis à suivre consiste à créer une hypothèse nulle qui pourrait être quelque chose comme "les transactions ont la même variance que les résultats réels, mais le profit moyen est nul", puis à calculer la probabilité que vous obteniez le résultat réel par hasard. Une procédure générale très utile, j'espère que vous serez d'accord. Dans le cas des résultats de zzuegg, mon analyse n'était pas suffisante pour réfuter l'hypothèse nulle (même avec l'hypothèse optimiste que j'ai faite à propos de la variance) mais la courbe d'équité étonnamment bonne me fait clairement comprendre qu'une analyse utilisant des données dont je ne disposais pas montrerait que les résultats ne pouvaient absolument pas être attribués au hasard.

Il y a un point intéressant lorsque vous testez plusieurs systèmes (disons dans une sorte d'optimisation). Si vous effectuez cette analyse sur le meilleur de vos essais, vous risquez de vous tromper, en raison de la sélection qui a été opérée. Vous devez renforcer le critère pour tenir compte du fait que vous avez effectué plusieurs essais. Par exemple, si vous effectuez 100 tests indépendants et que l'un d'entre eux donne des résultats qui, par hasard, ne se produisent qu'une fois sur 200, cela ne prouve pas que la méthode est rentable. J'espère que la raison est claire.

3) ok, enfin je réponds à vos trois désaccords cités ci-dessous.

ubzen:

Je ne suis pas d'accord: C'est un fait mathématique que le moyen d'obtenir la meilleure performance à long terme (avec une définition raisonnable de ce terme incluant votre aversion au risque) à partir d'une série d'opportunités de trading ayant des caractéristiques statistiques similaires est d'utiliser un effet de levier similaire pour chacune d'entre elles :

Je ne suis pas d'accord: Certes, il y a probablement un certain nombre de personnes qui sont prêtes à accepter (ou à ignorer) une faible probabilité de perdre très lourdement afin d'avoir une forte probabilité de profits sains, mais il vaut mieux classer cela comme un pur jeu de hasard.

Je ne suis pas d'accord: il n'y a aucune raison théorique de permettre à ce qui arrive à la première transaction d'influencer la taille de la position pour la deuxième transaction (sauf qu'elle peut être modifiée en proportion de l'équité du compte).

Le premier point est lié au critère de Kelly avec lequel vous êtes familier. Si vous disposez d'une série d'opportunités de trading présentant les mêmes caractéristiques statistiques (disons, deux résultats possibles avec les mêmes probabilités à chaque fois), vous savez que vous obtenez la croissance moyenne logarithmique maximale avec la fraction de Kelly - c'est-à-dire le même levier fixe spécifique chaque fois que vous obtenez l'une des opportunités, mais que cela donne une variance extrêmement élevée dans les résultats. Vous savez probablement aussi que si vous utilisez un levier fixe plus faible, vous obtenez une croissance moyenne plus faible mais une variance beaucoup plus faible. Si, pour une séquence d'opportunités similaires, vous utilisez deux niveaux de levier différents ou plus pour des sous-ensembles de celles-ci, le résultat sera une moyenne géométrique de ce que vous obtiendriez avec chacun des différents niveaux de levier séparément (si cela n'est pas évident, je peux élaborer). La raison pour laquelle vous obtenez une variance plus faible avec le mélange d'effets de levier qu'avec un seul choix d'effet de levier est que le graphique de la variance par rapport au rendement est concave (chaque point correspondant à un seul choix d'effet de levier). Si vous pensez à cette courbe de la variance par rapport au rendement, une moyenne de deux points ou plus sur la courbe sera au-dessus de la courbe (simplement parce qu'elle est concave). Cela signifie qu'il est toujours préférable d'utiliser un seul niveau d'effet de levier. Il y a évidemment un énorme problème dans le fait que nous ne connaissons pas les probabilités dans le trading, mais si nous les connaissions, Kelly nous indiquerait la manière de varier l'exposition afin de fournir un compromis optimal entre le rendement et la variance.

Il n'est pas facile d'appliquer cela à la situation où vous avez une position nette de taille variable, ce qui est le cas dans les systèmes de grille et anti-grille. Cette situation est très différente de celle, par exemple, où vous avez une série de paris sur une pièce de monnaie biaisée. À la réflexion, dans ce type de situation, nous pourrions adopter la définition artificielle et commode d'une transaction comme étant le temps pendant lequel une position reste constante. En fermant les yeux sur le spread, vous pouvez prétendre que vous ouvrez et fermez simplement ces positions aux moments où la taille des positions est modifiée. L'exposition que vous avez et le temps pendant lequel vous l'avez est évidemment la chose la plus importante et la plus intéressante.

De ce point de vue, la théorie suggère que les variations de la taille de la position devraient être associées aux variations de la performance statistique (vous souhaitez une exposition relativement faible (en termes de levier effectif) lorsque vous avez un léger avantage et une exposition élevée lorsque vous avez un avantage énorme).

Je suppose que le deuxième désaccord pourrait être considéré comme une préférence personnelle. Mais les probabilités et la taille des gains et des pertes sont également importantes. Le genre de situation à laquelle je pensais est celle où quelqu'un a 90 % de chances de gagner 10 % et 10 % de chances de perdre 90 % ou pire. C'est le genre de situation que l'on obtient avec le jalonnement martingale sans avantage.

Le troisième désaccord vient de la réflexion sur l'effet sur l'équité finale. Pouvons-nous nous mettre d'accord sur le fait qu'en principe, la seule chose qui devrait être prise en compte dans le choix de l'exposition à un moment donné est la façon dont cette exposition affecte la distribution de probabilité de votre équité finale ? Pour autant que je puisse le voir, les seules choses pertinentes sont les probabilités que les choses se produisent (le prix atteignant différents niveaux plus tard) et l'équité au moment où l'opportunité se présente. La seule façon dont le résultat d'une transaction antérieure affecte ceci est par l'effet qu'il a eu sur l'équité. Bien sûr, si une position est déjà ouverte, cela affecte la façon dont le niveau d'exposition approprié peut être atteint. C'est peut-être ce que vous vouliez dire.

 

@ubzen, sur les autres points :

Vous ne pouvez certainement pas penser que c'est une bonne gestion de l'argent pour quelqu'un qui possède une immense fortune de tout perdre et plus encore ? Pour quantifier cela, les gens ont généralement une fonction d' utilité convexe, en particulier à l'extrémité inférieure, où la première partie de leur richesse vaut beaucoup plus que la richesse supplémentaire. Par exemple, la différence d'utilité entre 0 et 1 million de dollars est beaucoup plus importante que la différence entre 9 et 10 millions de dollars. Ce fait peut être utilisé pour montrer que l'on perd de l'utilité en risquant une trop grande partie de sa richesse. La raison en est que les bénéfices marginaux ont une utilité beaucoup plus faible que les pertes marginales. Mais il s'agit certainement d'une question de bon sens : si vous disposez de 100 millions de dollars (en monnaie actuelle), vous devriez en garder au moins une partie en sécurité pour être sûr d'avoir la plupart de ce que vous voulez. L'utilité d'extraire le dernier centime de bénéfices potentiels en maximisant l'exposition est loin d'être suffisante pour justifier de tout risquer.


Je pense que vous avez mal évalué le risque du pari de Soros. Si la position était de 10 milliards de dollars, le risque était inférieur à 4,5 % de ce montant (450 millions de dollars) en raison de la limite supérieure de l'ERM, mais probablement beaucoup moins que cela car les prix d'entrée et de sortie n'auraient pas été aux pires moments possibles. Il avait identifié une transaction avec un bon rapport risque/récompense, puisque le risque de voir la livre surévaluée quitter le MCE était très élevé. Étant donné que le fonds de Soros disposait probablement de plus de 10 milliards de dollars au moment de la transaction (nous savons par exemple qu'environ 6 milliards de dollars ont été investis par les Rothschild en 1969), l'effet de levier utilisé pour la transaction peut être considéré comme conservateur selon le critère de Kelly, en supposant tout avantage raisonnable. [Par ailleurs, la livre a chuté d'environ 25 % et le pari de Soros a dû capter une grande partie de ce mouvement, ce qui est impressionnant. Je me demande quelle était sa stratégie de sortie :) ]

 

Bien, bien expliqué. Je comprends maintenant où vous voulez en venir. Je suis d'accord avec toutes les explications fournies. Permettez-moi de jouer l'avocat du diable contre ce système pendant un moment. En apparence, le système semble aléatoire. Pas de prévision, pas d'avantage et pas d'algorithme. La plupart des personnes ayant une formation mathématique regarderaient un tel système et diraient que l'espérance du système est de 0. En raison de la loi mathématique avec laquelle j'ai été d'accord sur la liste, ce système est voué à l'échec. Pourquoi diable ce système utilise-t-il des paris de taille variable de toute façon. S'il est vraiment rentable, selon les mathématiques et la façon dont je les comprends, il devrait être rentable en utilisant des paris à plat également. De même, pourquoi utilise-t-il 20 000 euros au lieu du compte de départ standard de 10 000 euros ? Gordon a fourni quelques bons calculs et commentaires pour désarmer de tels systèmes.

Je vais maintenant essayer de soutenir ce système. Je pense que Zzuegg a bien présenté ses justifications. Les indicateurs sont en baisse et les prix ne le sont pas. Ce que fait le système, c'est utiliser l'OrderProfit comme indicateur. Dès que j'ai vu sa courbe, j'ai su qu'il couvrait la même devise. J'ai vu des courbes où Zzuegg a fait des merveilles avec le drawdown en utilisant le hedging. Apparemment, il sait quelque chose que je ne sais pas. La couverture est quelque chose que 7-bit, la première personne qui m'a parlé de cet Anti-Grid, n'aurait pas envisagé. Cependant, il a envisagé d'utiliser la grille et l'anti-grille ensemble car l'une a une croissance linéaire (grille) et l'autre une croissance quadratique (anti-grille). Dans l'ensemble, de belles mathématiques ont été fournies pour soutenir ce système par 7-bit.

En ce qui concerne la question de la taille de lot variable par rapport à la taille similaire : Cela ne fait pas une grande différence, Zzuegg aurait pu utiliser 0,1 lot pendant tout le test et obtenir les mêmes résultats. Seulement, cette fois, il aura 10x plus de transactions. Je l'ai déjà vu faire ça avant. La raison pour laquelle les mathématiciens aiment les lots fixes est que cela facilite le calcul de la Kelly et d'autres statistiques. Mais ce n'est pas ce qui est important avec de tels systèmes, ce qui est plus important c'est la dépendance des ordres/les événements indépendants. Oui, je sais qu'il n'est pas impossible de calculer les courbes de Kelly et de Sd avec des événements dépendants, c'est juste plus difficile et j'apprécie vos commentaires qui tentent d'expliquer une partie de cela.

En ce qui concerne la question du Draw-Down et des 20k Bankroll. Je pense que même Zzuegg se rend compte que son système nécessite un capital d'investissement beaucoup plus important que la normale. Le draw-down relatif sera de plus en plus faible à mesure que le capital d'investissement augmentera. Je voulais simplement souligner l'importance de comparer des pommes avec des pommes.

En ce qui concerne la question du nombre de transactions statistiquement valables : J'aurais aimé que vous ayez la réponse à cette question :(. Quoi qu'il en soit, tous les espoirs ne sont pas perdus. Il a d'autres paires de devises qui peuvent présenter des caractéristiques différentes et qu'il pourrait tester. Je suis plus que confiant dans le fait qu'un tel système fonctionnerait mieux sur différents graphiques qu'un système de suivi de tendance ou d'orientation latérale. Maintenant, bien sûr, encore une fois, il pourrait mourir sur l'une de ces paires de gamme.

Pour ce qui est de l'espérance 0 du trading aléatoire : Ma conviction est que le marché est aléatoire un pourcentage élevé du temps. Les effets de sa nature non aléatoire sont principalement réalisés sur une échelle/un cadre temporel plus large. Cependant, c'est dans les plus petites périodes de temps que la plupart de nos bankrolls doivent résister à la tempête. De plus, le trading n'est pas un processus statique comme un jeu de cartes ou d'échecs où des algorithmes pourraient les exploiter (à un degré statistique quasi certain) car toutes les variables connues sont visibles. L'analyse technique et les graphiques de prix ne montrent qu'une seule dimension des marchés. Les aspects fondamentaux et émotionnels ne sont pas visibles. On peut calculer toutes les variables et même les émotions (si l'on pense qu'elles se reflètent aussi dans le prix) jusqu'au moment où l'on passe l'ordre. Mais après cela, la transaction est à la merci des nouveaux mouvements de prix. Je pense qu'un tel système vous permet de vous adapter à l'avant et à l'après dans un marché qui change de façon aléatoire.

En conclusion : Zzuegg a-t-il réussi à percer le code du système 7-Bit Anti-Grid en utilisant le Hedging ? Eh bien, nous allons attendre et voir.

A la vôtre. -Zen-

 

Tu as raison ubzen, le système fonctionne aussi avec des tailles de lot constantes, mais il se rétablit très lentement après les phases de rangements de sorte que le profit diminue. Même s'il peut sembler plus sûr, je ne pense pas qu'il le soit. Récupérer rapidement après une période de range, au mieux dès que le breakout se produit, est un bon moyen de ne pas tomber dans la prochaine période de range sans bloquer le profit.

To the issue of Draw-Down & 20k Bankroll. I think even Zzuegg realizes that his system requires a much bigger investment capital than typical. The relative draw-down will get lower and lower when ever the stating capital is Increased. I just wanted to point out the importance of comparing apples to apples.

Dans le test de 20k, j'ai utilisé mon compte réel. Ce qui signifie que la taille minimale de la lotisze est de 0.1, si vous trouvez un courtier (et il y en a beaucoup, même des ECN) qui vous permet de trader à 0.01, la bankroll ne serait que de 2k. C'est encore élevé pour de si petites sommes, mais c'est abordable.

Une antigrille fixe nécessiterait d'ouvrir une position dans les deux sens après un mouvement de X pip. La principale différence entre une antigrille et une grille est que dans la première vous fixez un stoploss et dans la seconde un takeprofit. Il y a des avantages et des inconvénients au hedging, comme je l'ai dit le même système peut également être mis en œuvre d'une manière non hedging, mais le codage est beaucoup plus facile avec. L'antigrille de 7Bits fonctionne bien (mais si je me souviens bien, il vend et achète simultanément, il y a longtemps) mais vous devez définir des critères de sortie, si vous manquez la sortie, toute l'antigrille se retourne contre vous. Cela nécessiterait un indicateur. Comme je ne veux strictement pas d'indicateur, je devais trouver un autre moyen d'automatiser cela. Le principal ajout à l'antigrille stricte est que le système bloque même une partie du profit si le marché va à l'encontre de la position nette. (pas beaucoup, mais au moins quelques pips). Le "grand" drawdown est toujours un problème, éviter seulement quelques trades dans les phases de range ne diminuerait pas seulement le drawdown, mais augmenterait aussi le profit puisque la reprise serait plus rapide. Malheureusement, je ne sais pas actuellement comment faire sans se fier aux indicateurs.

De plus, les backtests MT5 multidevises semblent plus délicats que prévu :(

BTW, j'ai inversé le système pour voir si j'exploite une stratégie de pari ou la vraie nature des marchés de tendance, et le système inversé a échoué tout le temps, le temps de départ n'a pas d'importance. Cela mène à la conclusion que même si un petit système progressif est inclus, j'exploite le fait que les marchés sont en tendance.

 

@ubzen, en fait, le "hedging" n'apporte exactement aucun avantage ni aucune rentabilité. C'est simplement un moyen pratique de garder les ordres stop et take profit ouverts. Il n'y a aucun autre avantage à avoir deux positions ouvertes dans des directions opposées au même moment chez le même courtier (parce que l'équité du compte change précisément de la même manière que si vous aviez la position nette). Dans certains cas, la couverture peut augmenter les coûts de spread (chaque fois que vous ouvrez et fermez des positions opposées essentiellement au même moment). Bien sûr, avec un peu plus de difficulté, vous pouvez produire les mêmes résultats que n'importe quel système couvert en vous assurant simplement que vous avez les mêmes positions nettes à tout moment et les mêmes ordres stop et limite ouverts (en tant qu'ordres gérés séparément, et non en tant qu'OCO attachés à une position).

Je pensais que ma réponse sur le nombre de transactions statistiquement valables répondait à vos besoins. Pour voir les choses d'une manière légèrement différente, chaque fois que vous avez un échantillon de transactions, vous avez une incertitude dans la performance sous-jacente (par opposition à la performance de l'échantillon), qui diminue avec la taille de l'échantillon. Vous pouvez trouver des choses comme un intervalle de confiance de 95 % sur la performance en utilisant la technique que j'ai décrite. La seule raison pour laquelle vous avez besoin de plus de transactions lorsque le facteur de profit est faible est que vous devez réduire l'intervalle pour être sûr d'être rentable. Bien sûr, l'incertitude diminue avec la racine carrée du nombre de transactions.

En ce qui concerne les réflexions sur ce qui rend une stratégie rentable, gardez à l'esprit cette chose triviale. Parfois, vous avez une position longue, parfois vous avez une position courte. Pour être rentable, le marché doit évoluer dans la même direction que vos transactions plus qu'il ne va dans la mauvaise direction (avec une pondération si la taille de la position varie). Vous devez donc prédire la direction du marché pour en tirer profit (c'est-à-dire être long quand il va monter, être court quand il va baisser), quelle que soit la complexité de votre système :)

 

@zzuegg, quelles étaient les données rouge vert et bleu sur votre graphique posté le 2011.08.08 21:19 ?

Je suis toujours très étonné de voir que la ligne d'actions peut difficilement avoir une baisse, mais qu'elle augmente quand même beaucoup sur toute la période. Pouvez-vous indiquer en gros ce qui, dans le système, est à l'origine de ce phénomène ? L'antigrille que j'ai regardée chez 7bit semble très différente (et loin d'être aussi bonne), du moins lorsque je mets des nombres aléatoires. [De plus, la ligne d'équilibre ne se dirige vers le sud que jusqu'à la fin de la période de test, ce qui semble un peu étrange !

 

@Zzuegg :

7Bits antigrid fonctionne bien, (mais si je me souviens bien, il vend et achète simultanément, il y a longtemps) : Oui, peut-être il y a longtemps, quand il expérimentait. Par sa déclaration ici: "les positions opposées seront bien sûr fermées immédiatement, je pensais que cela allait de soi ? Pourquoi diable voudrais-je être long et court sur le même instrument au même moment ?". La version finale du système Snowball comme mt5 ne le permettrait tout simplement pas. Mais je suis d'accord, il est plus facile de coder avec le hedge car vous aurez accès à toutes les informations stockées dans les ordres sans avoir à utiliser des global_variables ou des ordres factices.

De plus, les backtests MT5 multidevises semblent plus difficiles que prévu :( : Ouais ? lol, j'ai appris que je te donnais à manger aux loups d'abord. Quoi qu'il en soit, si vous essayez toujours de vous faire une idée des performances en multi-devises sans utiliser MT5, je recommande toujours l'outil décrit plus haut. Il peut fusionner plusieurs fichiers de rapport pour montrer les effets d'équité. 1) Le problème avec cette approche est que si vous utilisez le pourcentage de l'équité pour déterminer quelque chose comme (risque/récompense par exemple) alors cette approche serait trompeuse. 2) Cette solution ne permet pas d'examiner ce qui se passe, par exemple, sur l'EUR/USD pour déterminer le résultat de l'EUR/GBP.

Le "grand" drawdown est toujours un problème, en évitant seulement quelques transactions dans les phases de range... : Eh bien, conformément au système, vous pouvez essayer d'utiliser Order_OpenPrices pour déterminer la fourchette. Cependant, dans mes tests, pour autant de fois que cela vous aide, cela vous fait aussi du mal. Voici un exemple de code.

//~~~~~~~~~~Stack-Tech:
for(x=1;x>=-1;x-=2){
    if(Order_Manage(x*iMagic,10)>0){
        if(Order_Manage(x*iMagic,10)<OrMax){
        //~~~~~~~~~~
        if(Last_Or==(x*Atg_Magic) && Zone_Out()){
            if(Order_Manage(x*iMagic,20)<-Neg_Gv*OrderLots()){
                Atg_TimeStamp=Trade(-x,'f',Lots);
                Last_Or=(-x*Atg_Magic); break;
            }
        }
//~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
//~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
//~~~~~~~~~~Zone_Capture:
if(!No_Orders && Order_Manage(0,2)>0){
    if(Zone_Hi==0 || OrderOpenPrice()>Zone_Hi){
        Zone_Hi=OrderOpenPrice();
        //Zone_Lo=Zone_Hi-Grid*Point2Pip;
    }
    if(Zone_Lo==0 || OrderOpenPrice()<Zone_Lo){
        Zone_Lo=OrderOpenPrice();
        //Zone_Hi=Zone_Lo+Grid*Point2Pip;
    }
}
//~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
//~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
//~~~~~~~~~~Zone_Out:
bool Zone_Out(){
    if(Zone_Hi!=0 && Zone_Lo!=0){
        if(Mid_Price>Zone_Hi+Grid*Point2Pip
        || Mid_Price<Zone_Lo-Grid*Point2Pip
        ){
            return(true);
        }else{
            return(false);
        }
    }
}
//~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
//~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
Elroch:

@zzuegg, quelles étaient les données rouges, vertes et bleues sur votre graphique posté le 2011.08.08 21:19 ?

Je suis toujours très étonné de voir que la ligne d'actions peut difficilement avoir une baisse, mais qu'elle augmente quand même beaucoup sur toute la période. Pouvez-vous indiquer en gros ce qui, dans le système, est à l'origine de ce phénomène ? L'antigrille que j'ai regardée chez 7bit semble très différente (et loin d'être aussi bonne), du moins lorsque je mets des nombres aléatoires. [De plus, la ligne d'équilibre ne se dirige vers le sud que jusqu'à la fin de la période de test, ce qui semble un peu étrange !


L'équité diminue, le graphique affiché à 08.08 est l'équité réelle enregistrée montrant le pic (bleu) l'équité actuelle sur une base quotidienne (haut/bas) et en rouge le drawdown maximal. Qui était de 28,quelque chose pour cent...

Je vais écrire plus demain.