une stratégie commerciale basée sur la théorie des vagues d'Elliott - page 23
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Désolé encore pour les réponses tardives. J'aurais aimé regarder plus tôt - cela vous aurait fait gagner du temps, mais j'espère que ce n'était pas du temps perdu. Je n'ai donc pas proposé de lire le critère de Hurst en utilisant un muving - j'ai proposé de prendre l'algorithme de la livraison standard et d'y substituer ce dont vous avez besoin au lieu des valeurs du muving. Dans cet algorithme, que vous avez posté (je n'ai pas encore regardé le dernier), il y a une variable - la médiane de l'échantillon. Comment le voyez-vous ? Si le canal va horizontalement - alors c'est OK et vous obtenez ce dont vous avez besoin, mais dans le cas général non. C'est-à-dire que vous devez prendre la différence entre le prix réel et la projection de ce prix sur chaque barre. Je vais essayer d'être plus précis : si vous approchez le prix de clôture par un muvin, alors vous devez prendre la différence entre la valeur du muvin et le prix de clôture sur chaque barre. Si une régression non linéaire, alors en conséquence la valeur de cette régression, si linéaire, alors la valeur de la ligne de régression, mais tout cela pour chaque barre. C'est pourquoi j'ai écrit que vous devez au moins avoir un tableau de projections - chaque barre a sa propre projection. Ensuite, vous pouvez faire une estimation : ne prenez pas tout l'échantillon, mais seulement une partie, construisez un intervalle - si tout est encore dans la fourchette, prenez tout l'échantillon et construisez une projection dans le futur (extrapolation).
Bonne chance et bonne chance avec les tendances.
Et il s'agit d'une approche générale, tant pour les approximations linéaires que non linéaires.
Donc, d'après ce que je comprends, l'algorithme de calcul du paramètre de Hurst par votre méthodologie devrait être le suivant :
1. Nous prenons un échantillon de points pour lesquels nous voulons obtenir le paramètre de Hearst. Par exemple, pour plus de clarté, prenons un échantillon de points de 0 à N.
2. Prenons successivement une partie de l'échantillon de 0 à M où 0<M<=N. C'est-à-dire que théoriquement nous avons N échantillons ayant les plages suivantes : 0-1, 0-2, 0-3, 0-4,...0-(N-1), 0-N.
3. Pour chaque échantillon, nous construisons une chaîne de régression linéaire. Nous obtenons un éventail de chaînes et leurs projections dans l'avenir.
4. Calculer la différence entre le prix de clôture de la barre M et la projection sur cette barre du canal de régression linéaire, construit pour l'échantillon 0-(M-1). C'est-à-dire que l'on prend les données de la projection de régression linéaire tracée pour le PASSÉ, sans inclure la barre actuelle, pour calculer la différence ? N'est-ce pas ?
5. Nous disposons alors d'un tel tableau de différences à partir duquel nous déterminons la valeur RMS (S)
6. Nous trouvons R comme une différence entre les valeurs maximale et minimale de l'échantillon
7. Calculer le paramètre de Hearst.
Ai-je bien compris comment calculer le paramètre de Hearst ou non ?
Si je comprends bien votre idée, il me semble qu'il s'agit d'un complément TRÈS IMPORTANT à la méthode de calcul du paramètre de Hearst donnée par la formule du livre. Aucun accent n'est mis sur cette circonstance du calcul.
Bonne chance et bonnes tendances.
Vous entendez par là le fait que le concept de niveau (sa valeur déclarée) n'a de sens que pour le moment présent dans le temps ? Et à un moment donné, les niveaux vont naturellement changer car le canal, le long duquel le prix se déplace, passe une certaine distance et les limites des intervalles de confiance seront situées à d'autres endroits dans le futur. Ou vouliez-vous dire quelque chose de plus par cette phrase ? Par exemple, voulez-vous dire la vitesse à laquelle le prix a atteint ce niveau ? Je suppose que vous vouliez peut-être parler du calcul des paramètres de Hearst ? Cela signifie que si le prix a presque atteint un niveau, mais que Hearst montre la continuation de la tendance, le niveau sera cassé, même si ce n'est pas en une seule fois ? Peut-être, ceci est particulièrement pertinent pour les niveaux à l'intérieur de l'intervalle de confiance.
Vladislav, et quelle largeur de l'intervalle de confiance prenez-vous spécifiquement pour le cas du calcul de Hearst, ainsi que pour les recherches générales de l'échantillon optimal ?
90%
95%
99%
99.9%
Ou bien, dans votre recherche générale de l'échantillon optimal, définissez-vous systématiquement différentes largeurs d'intervalle de confiance ? Par exemple, avez-vous cherché un échantillon de 90% et trouvé un échantillon, puis vous avez cherché 95% et trouvé un autre, et ainsi de suite jusqu'à 99,9% ?
Ou sur la base d'expériences, vous avez établi que, par exemple, les échantillons obtenus pour des intervalles de confiance supérieurs à 95 % sont peu utiles pour la prédiction et doivent être écartés de l'analyse ?
Ou peut-être êtes-vous seulement guidé par le fait que les intervalles construits ultérieurement doivent être plus petits que l'intervalle initial construit par 2/3 échantillons ?
.
Mais quand même, lorsque vous construisez le premier intervalle, vous devez définir sa largeur, n'est-ce pas ?
Et une autre question, concernant la séquence des calculs (temps de calcul final). J'ai cru comprendre que lors de la recherche d'un canal de régression linéaire, nous devrions commencer à prendre des échantillons du moment présent en remontant loin dans le passé. Supposons que nous ayons trouvé un ensemble d'échantillons qui répondent aux exigences de convergence. Mais nous avons encore des barres non comptées et nous comptons encore, obtenant des échantillons qui tombent en dehors de l'intervalle. Alors quel critère pourrait-on retenir pour dire que d'autres calculs n'ont pas de sens et que nous pouvons mettre fin au cycle de dénombrement des échantillons ? A première vue, j'imagine qu'il suffit de compter un nombre de mesures égal au nombre de mesures de l'échantillon le plus long réussi ? Ou avez-vous d'autres options ? Par exemple, est-il suffisant de ne compter que 30% de l'échantillon le plus long ou un autre nombre de barres ? Ou bien estimez-vous l'ensemble des séries de prix du dernier semestre indépendamment des résultats, puis les erreurs calculées pour l'approximation des séries de prix par des fonctions d'autres ordres ? Par exemple, la quadratique, que vous avez déjà mentionnée.
Dites-moi, utilisez-vous d'autres fonctions pour l'approximation ? Par exemple, les fonctions harmoniques, exponentielles, logarithmiques, puissances (supérieures au second ordre), etc. Ou, si on l'applique au marché des changes, l'application de deux fonctions seulement - linéaire et quadratique - est-elle suffisante pour réussir à négocier sur ce marché ?
Bien sûr que vous pouvez.
Vous entendez par là le fait que le concept de niveau (sa valeur déclarée) n'a de sens que pour le moment présent du temps ? Et dans un certain temps, les valeurs des niveaux vont naturellement changer, parce que le canal, le long duquel le prix se déplace, passe une certaine distance et les limites des intervalles de confiance seront situées à d'autres endroits dans le futur.
Bien. La coïncidence de la zone du pivot avec l'un des niveaux du pivot augmente considérablement la précision du calcul.
Et quelle largeur de l'intervalle de confiance prenez-vous pour le calcul de Hearst et pour la recherche générale d'un échantillon optimal ?
Je crois que l'échantillon est vrai jusqu'à ce que l'intervalle de confiance de 99% soit brisé. Je prends aussi en compte les 90 et 95% - c'est souvent la fin d'un pullback et la restauration du thrend.
Mais de toute façon, lorsque vous construisez le premier intervalle, vous devez définir sa largeur, n'est-ce pas ?
Absolument - en écarts types - la manière la plus universelle.
Dites-moi s'il vous plaît, utilisez-vous d'autres fonctions pour l'approximation ? Par exemple, harmonique, exponentielle, logarithmique, puissance (supérieure au second ordre), etc. Ou, si on l'applique au marché des changes, deux fonctions - linéaire et quadratique - suffisent-elles pour réussir dans les transactions ?
Non - les fonctions harmoniques sont un cas particulier de la forme quadratique. Et pour le reste - voir les considérations sur la potentialité du champ de prix et pas seulement en ce qui concerne le marché Forex - partout où le champ de prix est potentiel, c'est-à-dire que le profit ne dépend pas de la trajectoire des prix, mais seulement de la différence entre les prix des positions d'ouverture et de fermeture.
Concernant les critères - méthodologiques, j'ai écrit : la trajectoire des prix minimise l'énergie potentielle fonctionnelle. Pour plus de détails, voir .....
Bonne chance et bonnes tendances.
Maintenant, mon script trouve des canaux de régression linéaire qui satisfont au principe d'irréductibilité, c'est-à-dire que la RMS de tous les échantillons du canal est inférieure à la RMS des 2/3 de l'échantillon et au principe de non-échantillonnage sur le dernier 1/3 pour un intervalle de confiance de 99% (tout est conforme à vos recommandations). Mais maintenant, une petite question technique se pose. Puisqu'il y a plusieurs "vrais" canaux qui fonctionnent au moment présent, il y a des régions de dispersion pour ces canaux, comme partout ailleurs dans les statistiques. Supposons que l'un des "vrais" canaux soit un canal de régression linéaire basé sur un échantillon allant de l'heure actuelle à 200 barres auparavant sur la période H1. Si l'échantillon varie par exemple dans la gamme de 190-210 bars, les 2 conditions mentionnées ci-dessus seront pleinement satisfaites. Nous regardons la valeur RMS pour ces échantillons et sélectionnons la plus petite valeur. Selon votre stratégie, ce canal est applicable pour la prévision.
Ensuite, nous passons à un autre cadre temporel, par exemple sur M15. Nous essayons de trouver un canal similaire dans le même cadre temporel. Et nous obtenons le résultat suivant. Le canal optimal (avec une asymétrie minimale) à M15 semble être un canal de régression linéaire obtenu non pas sur un échantillon de 800 barres (200*4) comme cela serait naturel, mais sur un échantillon de 640 barres ! C'est-à-dire que le domaine temporel me donne une variance d'échantillonnage allant jusqu'à 25% (c'est le maximum - généralement moins). C'est également pour cette raison que nous avons actuellement des différences d'environ 5 à 10 points dans la définition des limites de l'intervalle de confiance elles-mêmes. Puisque nous semblons prendre comme échantillon le prix moyen de la barre (O+H+L+C)/4 et que nous n'effectuons pas d'analyse de modèle, alors le cadre temporel optimal du canal tracé pour le même intervalle de temps à différents cadres temporels doit être le même, n'est-ce pas ? Ou bien ce n'est pas le cas et dans ce cas nous devrions également appliquer des méthodes statistiques d'estimation des paramètres ? Et l'intervalle de temps pour le canal optimal a également sa propre variance, ce qui peut expliquer cette divergence des échantillons pour le canal optimal à différents délais ?
En conséquence, j'ai une question. Que faites-vous dans cette situation ? Sur quoi vous basez-vous pour vos calculs ? Par exemple, prenez-vous un canal construit sur une plus petite période comme base de décision, ou estimez-vous les limites de l'intervalle de confiance en plus en faisant la moyenne des limites du canal obtenues sur différentes périodes ? Autrement dit, si vous calculez le même canal sur 4 horizons temporels (M5, M15, M30 et H1), l'estimation moyenne des limites de l'intervalle de confiance pour le même canal sera probablement deux fois plus fiable ? Et vous pourrez vous y fier dans une plus large mesure qu'au calcul du canal par une période de temps séparée ? Ou peut-être avez-vous une autre approche ? Bien que, peut-être, dans cette situation, vous ne faites pas de moyenne et cherchez simplement le niveau approprié de Murray le plus proche, comme vous l'avez déjà dit ?
Sur quelle période effectuez-vous les principaux calculs ? Vous avez dit que votre programme calcule des données pour une demi-année en 30-40 secondes. Je suppose que l'intervalle de temps ne doit pas être inférieur à H1 ? C'est vrai ?
Vladislav, veuillez me conseiller sur le tableau std_dev[][]. D'après ce que je comprends, ce tableau a une dimension de Nx2, où N est le nombre de canaux calculés. Les valeurs des cellules peuvent être les suivantes :
std_dev[n][0] - Valeur RMS pour 2/3 de l'échantillon du canal n
std_dev[n][1] - Valeur RMS pour l'ensemble de l'échantillon du canal n (RMS pour la projection)
Ou je me trompe et ce tableau contient autre chose ? Par exemple, il est possible d'avoir une troisième cellule std_dev[n][2] qui contiendrait le numéro de la barre de départ pour l'échantillonnage.
Au fait, quelles autres variantes peuvent être utilisées pour construire des projections en dehors de la variante standard ? La projection répète la fonction qui a été prise comme fonction d'approximation + les limites des intervalles de confiance qui répètent la fonction d'approximation dans la forme ? Que pouvez-vous imaginer d'autre dans ce domaine ? Je pourrais, par exemple, supposer qu'une projection puisse être construite à partir de données obtenues il y a plusieurs bars. Cela semble encore plus raisonnable de cette façon car si nous effectuons la projection uniquement par le moment actuel, le prix détruit certains canaux qui se sont formés il y a plusieurs barres en s'approchant de la zone de retournement et les canaux restants déplacent leurs limites d'intervalle vers la zone de sous-réalisation. En d'autres termes, si nous voyons la zone de retournement et que le prix s'en rapproche, l'un des canaux considérés comme "vrais" ne remplira pas l'une des deux conditions. Comment gérez-vous ce problème ? Utilisez-vous également les prévisions faites il y a plusieurs bars dans votre analyse de la situation actuelle ?