une stratégie commerciale basée sur la théorie des vagues d'Elliott - page 237

 
Yuri et Northwind, merci pour ces précisions. Intuitivement, je n'aime pas vraiment ça, mais nous verrons bien.
 
au Neotron

Sergey, voici une simulation très grossière mais correcte d'un processus de Wiener. Ce processus aléatoire est modélisé par la somme d'une série convergente, où N est généralement l'infini.

En général, le point est que l'élément suivant n'est pas obtenu comme une somme avec le précédent. Les éléments sont indépendants, et c'est l'une des propriétés des processus aléatoires.

La méthode donnée (ou plutôt ce n'est pas une méthode, mais la formule dérivée par N. Wiener) ne peut pas non plus être appliquée à la modélisation. Normalement, un processus de Wiener est modélisé par la méthode de Monte Carlo. Mais ma machine est plutôt faible pour cette méthode.



Avec satisfaction, je m'empresse de noter qu'avec l'augmentation de N, mon critère enregistre une diminution de la force de la connexion des comptes et de la "longueur de la mémoire" :

N=50000


N=100000


Ouf, à ce stade, je ne prouve plus rien. Tout ce que je voulais - j'ai vérifié et dit, j'ai donné tous les arguments. Merci beaucoup pour ces idées, Sergei, tu m'as encore aidé. :о)))
 
Bien, maintenant que tout le monde est parvenu à un consensus local, nous allons simuler un véritable trading en utilisant le schéma de Pastukhov sur les ticks.

Pour la modélisation, nous avons pris des ticks pour 2006 de EURUSD (Spread=1 pip), EURCHF (Spread=2 pip), EURGBP (Spread=2 pip). Étant donné que, dans les estimations pour ces paires, un rendement important a été obtenu pour le schéma renko, la négociation réelle a été simulée uniquement pour le schéma renko. Il n'y a qu'un seul paramètre d'optimisation - l'amplitude de partitionnement (taille de la brique verticale). La taille de départ a été prise à partir des résultats des évaluations pour chaque paire ("stratégie de trading basée sur la théorie des vagues d'Elliot" 26.01.07 15:47), puis le calcul a été effectué avec une taille de fractionnement plus petite et ainsi de suite, jusqu'à ce que le profit maximum de l'année soit extrait. Les résultats de la simulation de transactions réelles sont présentés ci-dessous :



La figure ci-dessous montre le comportement de la différence entre la courbe de rendement et sa valeur lissée. Cette relation reflète la valeur absolue caractéristique et la dynamique des rabattements possibles exprimés en points.



Conclusions :

1. La simulation de transactions réelles utilisant le schéma de rente proposé par Pastukhov a confirmé la possibilité d'obtenir le profit d'arbitrage sur les instruments discutés.

2. Le taux de rendement moyen pour l'EURCHF et l'EURGBP à l'écart de 2 points est de 1,5 et 2,5 points pour chaque transaction en conséquence et 6 points pour l'EURUSD à l'écart de 1 point, ce qui est en accord satisfaisant avec les estimations reçues par la formule nt-2H-Spread.
("stratégie de trading basée sur la théorie des vagues d'Elliot" 26.01.07 15:47)

3. Lors de l'optimisation, un seul paramètre a été utilisé - l'amplitude de rvazzle. Le paramètre a montré une bonne stabilité dans le temps :
("stratégie de trading basée sur la théorie des vagues d'Elliot" 27.01.07 09:28).

4. Le drawdown modéré de la paire EURCHF (jusqu'à 50 pips), permet d'utiliser cet outil avec un effet de levier jusqu'à 50. Ceci, avec un revenu annuel d'environ 400 points et le réinvestissement des fonds permet d'espérer 100 à 200% du revenu annuel, avec un prélèvement maximal de 25%.
Un drawdown modéré de la paire EURGBP (jusqu'à 20 points), vous permet d'utiliser cet outil avec un effet de levier jusqu'à 100. Ceci, avec le revenu annuel d'environ 100 points et le réinvestissement des fonds, vous permet d'espérer un revenu annuel de 100 à 150%, avec un drawdown maximum de 50%.
Le drawdown moyen de la paire EURUSD (jusqu'à 100 pips) permet d'utiliser cet outil avec un effet de levier allant jusqu'à 30. Ceci, avec un revenu annuel d'environ 500 pips et le réinvestissement des fonds, nous permet d'espérer des revenus annuels de 100-150%, avec des retraits maximaux de 30%.

Il s'agit de résultats préliminaires. Je demande à chacun de participer à la discussion.
 
2 Neutron

2. La rentabilité moyenne pour l'EURCHF et l'EURGBP à un écart de 2 points était de 1,5 et 2,5 points par transaction respectivement, et de 6 points par transaction, à un écart de 1 point, pour l'EURUSD, ce qui est en accord satisfaisant avec les données estimées obtenues à l'aide de la formule nt-2H-Spread.


Actuellement, mes courtiers ont un spread de 2 points pour l'EURUSD, et de 4 points pour deux autres paires.
D'après ce que j'ai compris, l'additivité, qui est présente dans la formule de calcul des revenus, n'est pas violée lors de la modélisation des transactions réelles. Cela signifie qu'il est élémentaire de recalculer les résultats obtenus, et que nous n'avons pas besoin de modéliser à nouveau les transactions. C'est vrai ?

Et une dernière question. Il s'avère donc que nous n'avons que 80 transactions environ pour l'EURUSD au cours de l'année ?
 
à Yurixx.

C'est exactement ça.

Ce à quoi je pensais, bien que les constructions kagi montrent dans les estimations un rendement inférieur, mais à en juger par les mêmes estimations, elles permettent de faire 1,5 à 2 fois plus de transits dans une période de test, toutes autres conditions étant égales. Dans cette optique, le Kagi montrera probablement un meilleur retour sur la période d'essai...
Yuri, puisque vous avez la méthode, pourriez-vous poster les résultats de simulations réelles de trading pour les builds kagi ?
 
D'accord, mais pas aujourd'hui. J'ai été absent du processus pendant quelques jours et je n'ai pu que poster sur le forum.
Je posterai les résultats du bar aujourd'hui. Et ensuite le modelage pour le kaga.
 
Ce sont les résultats préliminaires. Veuillez participer à la discussion.

Comment se passent les essais en dehors de l'échantillon sur lequel le paramètre de partitionnement a été optimisé ?
100-500 points par an obtenus grâce à l'optimisation (dans des conditions idéales) semble "légèrement" discutable en termes de viabilité sur le marché réel. Comment ne pas tomber dans le piège de "l'adaptation à l'histoire"...
 
Et comment se passent les tests en dehors de l'échantillon sur lequel l'optimisation des paramètres de partitionnement a été effectuée ? <br/ translate="no">100-500 points sur un an, obtenus grâce à l'optimisation (dans des conditions idéales) semble "légèrement" discutable en termes de viabilité sur le marché réel... Comment ne pas tomber dans le piège de "l'adaptation à l'histoire"...


1. Il n'y a et ne peut y avoir aucun ajustement ou optimisation ici. Un schéma parfaitement cohérent et autoconsistant a été construit et justifié sur le plan théorique. Ce schéma contient un seul paramètre H. Vous pouvez le considérer comme un analogue de l'horizon temporel sur lequel la stratégie doit être appliquée. Vous conviendrez qu'il est impossible de respecter le calendrier. Lors des tests sur l'historique, nous définissons simplement le H, sur lequel la stratégie donne le meilleur effet. D'ailleurs, toute stratégie donne des résultats différents selon l'horizon temporel. C'est pourquoi les auteurs ont tendance à l'appliquer à certains d'entre eux et non à d'autres. C'est ce dont ils vous mettent en garde.

2. Les tests hors échantillon sont la bonne et logique étape. Cependant, que peut-elle montrer ? Si les conditions du marché n'ont pas changé (dans ce cas, cela signifie que la volatilité H n'a pas changé), les résultats seront statistiquement similaires. S'ils ont changé, les résultats changeront aussi. Il n'existe pas de stratégie unique qui fonctionne dans toutes les conditions de marché. Ici, c'est une H-volatilité = constante.

3. Pensez-vous, Andrei, qu'il puisse exister un tel conseiller expert, qui garantisse de ne pas tomber dans les pièges ?
Ou un conseiller expert, dont les paramètres de fonctionnement sont déterminés par l'histoire, mais qui ne dépend pas de l'histoire ?

4. Si vous avez compris ce schéma, vous avez dû noter un détail : ce schéma est en fait une démonstration de la puissance des statistiques mathématiques. C'est-à-dire que la possibilité de gagner de l'argent sur le marché a été scientifiquement prouvée et, de plus, une méthode pour y parvenir a été formulée, en fonction des conditions. Voici la bonne nouvelle. La mauvaise nouvelle est que les statistiques mathématiques sont la loi des grands nombres. Et il faut une longue participation au marché pour justifier la prévision de revenu. Mais plus vous restez longtemps sur le marché, plus il est probable que les conditions du marché changent et que le système cesse de fonctionner. Et vous le saurez par vos pertes.

5. Il ne peut y avoir de profit sans le risque de subir des pertes - c'est un AXIOMA. La seule chose que vous pouvez vous permettre de faire est de savoir OÙ vous prenez le risque. Vous le savez déjà. :-))
 
Et comment se passent les tests en dehors de l'échantillon sur lequel l'optimisation des paramètres de partitionnement a été effectuée ? <br / translate="no">100-500 points sur un an, obtenus à la suite d'une optimisation (dans des conditions idéales) semble "légèrement" discutable en termes de viabilité sur le marché réel... Comment ne pas tomber dans le piège de la "correspondance historique"...

Il est à noter qu'il n'y a qu'un seul paramètre d'optimisation et qu'il montre une bonne robustesse. En conséquence, on peut attendre de la stratégie une faible dépendance du niveau de rentabilité à une éventuelle sur-optimisation sur les données historiques. Si Yuri parvient à travailler correctement avec des barres minutes, nous n'aurons pas de problèmes pour tester correctement la stratégie à l'avenir - les archives avec des barres minutes pour n'importe quelle période sont partout.
 
Voici les résultats du découpage en kagi du graphique en chandelier EURUSD, M1, 2006.


Ici, H=1...50 pips est tracé le long de l'axe des x, H-volatilité est tracé le long de l'axe des y.
Détails du graphique des prix : le nombre total de barres est d'environ 350000, la valeur ATR pour cet intervalle = 2.19 points.
Par conséquent, Hvol[H=1]=3,63 et Hvol[H=2]=2,14 sont des résultats qui n'ont pas de sens physique.
À partir de Hvol[H=3]=1,83, les résultats correspondent tout à fait à la théorie.
En ce qui concerne les graphiques en tic-tac, on voit que pour H>20, Hvol -> 2,0 très rapidement et fluctue ensuite autour de cette valeur.

En même temps, je montre la dépendance du nombre de sommets de cage du même graphe par rapport à la valeur de H.
Peut-être que cela intéressera quelqu'un.