une stratégie commerciale basée sur la théorie des vagues d'Elliott - page 23

 
Vladislav, pensez-vous qu'il soit possible d'appliquer le calcul du paramètre de Hearst à un canal approximé par une fonction quadratique ? En d'autres termes, pour S, nous prenons la valeur RMS des erreurs estimées de l'approximation du canal, mais pour R, nous pouvons probablement prendre la différence traditionnelle entre le maximum et le minimum du canal lui-même, ou autre chose ? Par exemple, vous pouvez tourner la moitié de la fonction quadratique par rapport à l'axe du temps vers le haut ou vers le bas pour obtenir quelque chose comme y=-Ax^2 à x<0 et y=Ax^2 à x>0 dans le cas où le canal est approximé par une parabole. Et essayez de prendre l'étalement du canal R à partir d'un tel échantillon arrangé artificiellement. Pensez-vous que cela aura un sens ? Ou est-il TOUJOURS possible de prendre le coefficient de Hearst uniquement pour le canal de régression linéaire ou par exemple par muving selon vos recommandations ?
 
Vladislav, le calcul de l'indice Hearst par muving me semble un peu douteux, car on ne sait pas quelle valeur de la période de calcul de la moyenne doit être prise. Je suppose que cette valeur pour chaque calcul particulier devrait en quelque sorte changer en fonction du nombre de jetons. C'est pourquoi j'ai opté pour un canal de régression linéaire pour l'instant.


Désolé encore pour les réponses tardives. J'aurais aimé regarder plus tôt - cela vous aurait fait gagner du temps, mais j'espère que ce n'était pas du temps perdu. Je n'ai donc pas proposé de lire le critère de Hurst en utilisant un muving - j'ai proposé de prendre l'algorithme de la livraison standard et d'y substituer ce dont vous avez besoin au lieu des valeurs du muving. Dans cet algorithme, que vous avez posté (je n'ai pas encore regardé le dernier), il y a une variable - la médiane de l'échantillon. Comment le voyez-vous ? Si le canal va horizontalement - alors c'est OK et vous obtenez ce dont vous avez besoin, mais dans le cas général non. C'est-à-dire que vous devez prendre la différence entre le prix réel et la projection de ce prix sur chaque barre. Je vais essayer d'être plus précis : si vous approchez le prix de clôture par un muvin, alors vous devez prendre la différence entre la valeur du muvin et le prix de clôture sur chaque barre. Si une régression non linéaire, alors en conséquence la valeur de cette régression, si linéaire, alors la valeur de la ligne de régression, mais tout cela pour chaque barre. C'est pourquoi j'ai écrit que vous devez au moins avoir un tableau de projections - chaque barre a sa propre projection. Ensuite, vous pouvez faire une estimation : ne prenez pas tout l'échantillon, mais seulement une partie, construisez un intervalle - si tout est encore dans la fourchette, prenez tout l'échantillon et construisez une projection dans le futur (extrapolation).

Bonne chance et bonne chance avec les tendances.
Et il s'agit d'une approche générale, tant pour les approximations linéaires que non linéaires.
 
Dans ma dernière variante, une régression linéaire est d'abord construite pour l'échantillon et la différence est comptée entre le prix réel de la barre et l'équation de régression linéaire construite pour l'ensemble du canal en une seule fois. Mais je comprends que vous utilisez une méthode de calcul différente ?
Donc, d'après ce que je comprends, l'algorithme de calcul du paramètre de Hurst par votre méthodologie devrait être le suivant :
1. Nous prenons un échantillon de points pour lesquels nous voulons obtenir le paramètre de Hearst. Par exemple, pour plus de clarté, prenons un échantillon de points de 0 à N.
2. Prenons successivement une partie de l'échantillon de 0 à M où 0<M<=N. C'est-à-dire que théoriquement nous avons N échantillons ayant les plages suivantes : 0-1, 0-2, 0-3, 0-4,...0-(N-1), 0-N.
3. Pour chaque échantillon, nous construisons une chaîne de régression linéaire. Nous obtenons un éventail de chaînes et leurs projections dans l'avenir.
4. Calculer la différence entre le prix de clôture de la barre M et la projection sur cette barre du canal de régression linéaire, construit pour l'échantillon 0-(M-1). C'est-à-dire que l'on prend les données de la projection de régression linéaire tracée pour le PASSÉ, sans inclure la barre actuelle, pour calculer la différence ? N'est-ce pas ?
5. Nous disposons alors d'un tel tableau de différences à partir duquel nous déterminons la valeur RMS (S)
6. Nous trouvons R comme une différence entre les valeurs maximale et minimale de l'échantillon
7. Calculer le paramètre de Hearst.
Ai-je bien compris comment calculer le paramètre de Hearst ou non ?
Si je comprends bien votre idée, il me semble qu'il s'agit d'un complément TRÈS IMPORTANT à la méthode de calcul du paramètre de Hearst donnée par la formule du livre. Aucun accent n'est mis sur cette circonstance du calcul.
 
Oui, mais l'échantillon lui-même doit comporter au moins un certain nombre de barres. En d'autres termes, vous fixez le nombre minimum de barres dans l'échantillon (il est extrêmement faible - environ 30, s'il est inférieur, l'erreur sera grande, mais en fait il y a un critère Pearson). Ensuite, vous calculez la régression sur la barre actuelle. De plus, si l'échantillon est > au minimum autorisé, nous commençons par faire passer l'échantillon jusqu'à environ 2/3, comptons les RMS, traçons l'intervalle et regardons où nous en sommes. Si nous sommes toujours dans l'intervalle, nous prenons l'échantillon entier depuis le début et calculons à nouveau la RMS jusqu'à la dernière barre (ce sera différent dans le cas général). Construire l'intervalle - en cas de convergence, il ne doit pas augmenter au moins ;). RMS - nous prenons les carrés des différences entre la valeur de régression (dans ce cas, ou un muving si nous l'approximons par un muving ou une autre fonction, approximant la valeur des prix de clôture) et les prix de clôture sur chaque barre. Si tout est OK - nous calculons Hearst. La valeur RMS est déjà présente, nous définissons ensuite la déviation maximale et minimale. Logarithme ..... - suivant - la technique. En option, il peut s'agir non pas des prix de clôture, mais des bénéfices sur les transactions, par exemple - vous pouvez alors évaluer le caractère aléatoire de la prise de bénéfices par cette stratégie).

Bonne chance et bonnes tendances.
 
À propos, je voudrais également poser la question suivante. Je pense que d'après mes premiers calculs, il est préférable de prendre comme prix de la barre non pas un prix spécifique d'ouverture, de fermeture, de haut ou de bas, mais le prix moyen de la barre (O+C+H+L)/4. Tous les paramètres seront alors plus centrés, c'est-à-dire qu'il y aura un décalage minimal vers le haut ou vers le bas par rapport à la position réelle de la prévision. Nous pouvons alors simplement tracer les lignes des intervalles de confiance pour les prix moyens des barres de l'échantillon dans le diagramme d'erreur, et montrer les erreurs elles-mêmes avec deux lignes. Une ligne montre les erreurs d'échantillonnage par les prix élevés, et une autre ligne - les erreurs par les prix bas. Une telle représentation doit permettre une visualisation plus pratique de la position actuelle du prix dans l'intervalle de confiance. Vladislav, qu'est-ce que tu en penses ? Ou bien avez-vous simplement choisi une fois le traditionnel cours de clôture comme point de référence de la barre et il a déjà fait ses preuves ?
 
Vladislav, je voudrais clarifier cette phrase que vous avez écrite sur http://forex.ua/forum/viewtopic.php?t=1634&postdays=0&postorder=asc&start=100.
Les niveaux devront encore être affinés, comme toujours le temps pour atteindre les niveaux est important.

Vous entendez par là le fait que le concept de niveau (sa valeur déclarée) n'a de sens que pour le moment présent dans le temps ? Et à un moment donné, les niveaux vont naturellement changer car le canal, le long duquel le prix se déplace, passe une certaine distance et les limites des intervalles de confiance seront situées à d'autres endroits dans le futur. Ou vouliez-vous dire quelque chose de plus par cette phrase ? Par exemple, voulez-vous dire la vitesse à laquelle le prix a atteint ce niveau ? Je suppose que vous vouliez peut-être parler du calcul des paramètres de Hearst ? Cela signifie que si le prix a presque atteint un niveau, mais que Hearst montre la continuation de la tendance, le niveau sera cassé, même si ce n'est pas en une seule fois ? Peut-être, ceci est particulièrement pertinent pour les niveaux à l'intérieur de l'intervalle de confiance.
 
Si vous êtes toujours dans l'intervalle - prenez l'échantillon entier du début à la dernière barre

Vladislav, et quelle largeur de l'intervalle de confiance prenez-vous spécifiquement pour le cas du calcul de Hearst, ainsi que pour les recherches générales de l'échantillon optimal ?
90%
95%
99%
99.9%
Ou bien, dans votre recherche générale de l'échantillon optimal, définissez-vous systématiquement différentes largeurs d'intervalle de confiance ? Par exemple, avez-vous cherché un échantillon de 90% et trouvé un échantillon, puis vous avez cherché 95% et trouvé un autre, et ainsi de suite jusqu'à 99,9% ?
Ou sur la base d'expériences, vous avez établi que, par exemple, les échantillons obtenus pour des intervalles de confiance supérieurs à 95 % sont peu utiles pour la prédiction et doivent être écartés de l'analyse ?
Ou peut-être êtes-vous seulement guidé par le fait que les intervalles construits ultérieurement doivent être plus petits que l'intervalle initial construit par 2/3 échantillons ?
.
L'intervalle devrait au moins ne pas augmenter avec la convergence ;).

Mais quand même, lorsque vous construisez le premier intervalle, vous devez définir sa largeur, n'est-ce pas ?

Et une autre question, concernant la séquence des calculs (temps de calcul final). J'ai cru comprendre que lors de la recherche d'un canal de régression linéaire, nous devrions commencer à prendre des échantillons du moment présent en remontant loin dans le passé. Supposons que nous ayons trouvé un ensemble d'échantillons qui répondent aux exigences de convergence. Mais nous avons encore des barres non comptées et nous comptons encore, obtenant des échantillons qui tombent en dehors de l'intervalle. Alors quel critère pourrait-on retenir pour dire que d'autres calculs n'ont pas de sens et que nous pouvons mettre fin au cycle de dénombrement des échantillons ? A première vue, j'imagine qu'il suffit de compter un nombre de mesures égal au nombre de mesures de l'échantillon le plus long réussi ? Ou avez-vous d'autres options ? Par exemple, est-il suffisant de ne compter que 30% de l'échantillon le plus long ou un autre nombre de barres ? Ou bien estimez-vous l'ensemble des séries de prix du dernier semestre indépendamment des résultats, puis les erreurs calculées pour l'approximation des séries de prix par des fonctions d'autres ordres ? Par exemple, la quadratique, que vous avez déjà mentionnée.

Dites-moi, utilisez-vous d'autres fonctions pour l'approximation ? Par exemple, les fonctions harmoniques, exponentielles, logarithmiques, puissances (supérieures au second ordre), etc. Ou, si on l'applique au marché des changes, l'application de deux fonctions seulement - linéaire et quadratique - est-elle suffisante pour réussir à négocier sur ce marché ?
 
À propos, je voudrais poser une autre question. Selon mes premiers calculs, il semble préférable de prendre le prix moyen de la barre (O+C+H+L)/4, plutôt qu'un certain prix d'ouverture, de fermeture, de haut ou de bas, comme prix de la barre. Tous les paramètres seront alors plus centrés, c'est-à-dire qu'il y aura un décalage minimal vers le haut ou vers le bas par rapport à la position réelle de la prévision.


Bien sûr que vous pouvez.

Vous entendez par là le fait que le concept de niveau (sa valeur déclarée) n'a de sens que pour le moment présent du temps ? Et dans un certain temps, les valeurs des niveaux vont naturellement changer, parce que le canal, le long duquel le prix se déplace, passe une certaine distance et les limites des intervalles de confiance seront situées à d'autres endroits dans le futur.


Bien. La coïncidence de la zone du pivot avec l'un des niveaux du pivot augmente considérablement la précision du calcul.


Et quelle largeur de l'intervalle de confiance prenez-vous pour le calcul de Hearst et pour la recherche générale d'un échantillon optimal ?


Je crois que l'échantillon est vrai jusqu'à ce que l'intervalle de confiance de 99% soit brisé. Je prends aussi en compte les 90 et 95% - c'est souvent la fin d'un pullback et la restauration du thrend.

Mais de toute façon, lorsque vous construisez le premier intervalle, vous devez définir sa largeur, n'est-ce pas ?


Absolument - en écarts types - la manière la plus universelle.

Dites-moi s'il vous plaît, utilisez-vous d'autres fonctions pour l'approximation ? Par exemple, harmonique, exponentielle, logarithmique, puissance (supérieure au second ordre), etc. Ou, si on l'applique au marché des changes, deux fonctions - linéaire et quadratique - suffisent-elles pour réussir dans les transactions ?


Non - les fonctions harmoniques sont un cas particulier de la forme quadratique. Et pour le reste - voir les considérations sur la potentialité du champ de prix et pas seulement en ce qui concerne le marché Forex - partout où le champ de prix est potentiel, c'est-à-dire que le profit ne dépend pas de la trajectoire des prix, mais seulement de la différence entre les prix des positions d'ouverture et de fermeture.

Concernant les critères - méthodologiques, j'ai écrit : la trajectoire des prix minimise l'énergie potentielle fonctionnelle. Pour plus de détails, voir .....

Bonne chance et bonnes tendances.
 
Vladislav, en principe, j'ai déjà effectué la recherche de canaux basée sur la régression linéaire. Et maintenant, je dois avoir calculé Hearst en totale conformité avec vos recommandations (calcul prévisionnel pour chaque barre séparément). Je pense que le calcul de Hearst pour chaque barre contient des informations plus utiles, que j'étudie encore mais que j'essaie d'utiliser dans la pratique.
Maintenant, mon script trouve des canaux de régression linéaire qui satisfont au principe d'irréductibilité, c'est-à-dire que la RMS de tous les échantillons du canal est inférieure à la RMS des 2/3 de l'échantillon et au principe de non-échantillonnage sur le dernier 1/3 pour un intervalle de confiance de 99% (tout est conforme à vos recommandations). Mais maintenant, une petite question technique se pose. Puisqu'il y a plusieurs "vrais" canaux qui fonctionnent au moment présent, il y a des régions de dispersion pour ces canaux, comme partout ailleurs dans les statistiques. Supposons que l'un des "vrais" canaux soit un canal de régression linéaire basé sur un échantillon allant de l'heure actuelle à 200 barres auparavant sur la période H1. Si l'échantillon varie par exemple dans la gamme de 190-210 bars, les 2 conditions mentionnées ci-dessus seront pleinement satisfaites. Nous regardons la valeur RMS pour ces échantillons et sélectionnons la plus petite valeur. Selon votre stratégie, ce canal est applicable pour la prévision.
Ensuite, nous passons à un autre cadre temporel, par exemple sur M15. Nous essayons de trouver un canal similaire dans le même cadre temporel. Et nous obtenons le résultat suivant. Le canal optimal (avec une asymétrie minimale) à M15 semble être un canal de régression linéaire obtenu non pas sur un échantillon de 800 barres (200*4) comme cela serait naturel, mais sur un échantillon de 640 barres ! C'est-à-dire que le domaine temporel me donne une variance d'échantillonnage allant jusqu'à 25% (c'est le maximum - généralement moins). C'est également pour cette raison que nous avons actuellement des différences d'environ 5 à 10 points dans la définition des limites de l'intervalle de confiance elles-mêmes. Puisque nous semblons prendre comme échantillon le prix moyen de la barre (O+H+L+C)/4 et que nous n'effectuons pas d'analyse de modèle, alors le cadre temporel optimal du canal tracé pour le même intervalle de temps à différents cadres temporels doit être le même, n'est-ce pas ? Ou bien ce n'est pas le cas et dans ce cas nous devrions également appliquer des méthodes statistiques d'estimation des paramètres ? Et l'intervalle de temps pour le canal optimal a également sa propre variance, ce qui peut expliquer cette divergence des échantillons pour le canal optimal à différents délais ?

En conséquence, j'ai une question. Que faites-vous dans cette situation ? Sur quoi vous basez-vous pour vos calculs ? Par exemple, prenez-vous un canal construit sur une plus petite période comme base de décision, ou estimez-vous les limites de l'intervalle de confiance en plus en faisant la moyenne des limites du canal obtenues sur différentes périodes ? Autrement dit, si vous calculez le même canal sur 4 horizons temporels (M5, M15, M30 et H1), l'estimation moyenne des limites de l'intervalle de confiance pour le même canal sera probablement deux fois plus fiable ? Et vous pourrez vous y fier dans une plus large mesure qu'au calcul du canal par une période de temps séparée ? Ou peut-être avez-vous une autre approche ? Bien que, peut-être, dans cette situation, vous ne faites pas de moyenne et cherchez simplement le niveau approprié de Murray le plus proche, comme vous l'avez déjà dit ?

Sur quelle période effectuez-vous les principaux calculs ? Vous avez dit que votre programme calcule des données pour une demi-année en 30-40 secondes. Je suppose que l'intervalle de temps ne doit pas être inférieur à H1 ? C'est vrai ?
 
Dans mes algorithmes, std_dev[][] est un tableau de RMS calculé pour les échantillons et les projections du canal. Maintenant, au lieu d'un deuxième indice constant, un indice variable est utilisé - les projections étaient alors construites d'une seule façon - maintenant de plusieurs façons. Je ne sais pas encore lequel est le meilleur - pour l'instant, j'ai décidé de les garder tous.

Vladislav, veuillez me conseiller sur le tableau std_dev[][]. D'après ce que je comprends, ce tableau a une dimension de Nx2, où N est le nombre de canaux calculés. Les valeurs des cellules peuvent être les suivantes :
std_dev[n][0] - Valeur RMS pour 2/3 de l'échantillon du canal n
std_dev[n][1] - Valeur RMS pour l'ensemble de l'échantillon du canal n (RMS pour la projection)
Ou je me trompe et ce tableau contient autre chose ? Par exemple, il est possible d'avoir une troisième cellule std_dev[n][2] qui contiendrait le numéro de la barre de départ pour l'échantillonnage.

Au fait, quelles autres variantes peuvent être utilisées pour construire des projections en dehors de la variante standard ? La projection répète la fonction qui a été prise comme fonction d'approximation + les limites des intervalles de confiance qui répètent la fonction d'approximation dans la forme ? Que pouvez-vous imaginer d'autre dans ce domaine ? Je pourrais, par exemple, supposer qu'une projection puisse être construite à partir de données obtenues il y a plusieurs bars. Cela semble encore plus raisonnable de cette façon car si nous effectuons la projection uniquement par le moment actuel, le prix détruit certains canaux qui se sont formés il y a plusieurs barres en s'approchant de la zone de retournement et les canaux restants déplacent leurs limites d'intervalle vers la zone de sous-réalisation. En d'autres termes, si nous voyons la zone de retournement et que le prix s'en rapproche, l'un des canaux considérés comme "vrais" ne remplira pas l'une des deux conditions. Comment gérez-vous ce problème ? Utilisez-vous également les prévisions faites il y a plusieurs bars dans votre analyse de la situation actuelle ?