une stratégie commerciale basée sur la théorie des vagues d'Elliott - page 44
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
J'ai aussi essayé maintenant de calculer GBPJPY H1 sur 1000 barres. J'ai deux canaux de régression linéaire sur les barres 63 et 164.
Je calcule l'échantillon par les prix moyens des barres (O+H+L+C)/4.
Bonne chance et bonnes tendances en matière d'auto-stop.
Pourtant, je soupçonne un dumping dans une boucle infinie (quelque chose comme ça) avec une recherche de canal infructueuse.
Par ailleurs, ce comportement non standard de la livre est peut-être une sorte de signal indiquant qu'elle devient trop bonne pour cet algorithme ?
2. le prix est USD/EUR et le temps est exprimé en secondes, minutes, heures, etc. Ce que vous allez ajouter à quoi. Le rapport R/S dans la figure de Hearst est sans dimension car R et S ont la même dimension. Et c'est la seule raison pour laquelle cela a du sens.
3. Dans la formule H=Log(R/S)/Log(N/2), la valeur N n'est pas le temps, comme on pourrait le penser. N est le nombre d'éléments dans l'échantillon. Le fait que nous ne prenions pas tous les événements, mais seulement une partie d'entre eux (compter par Close, par exemple), en divisant le processus en intervalles de temps égaux, est notre problème et n'a rien à voir avec Hirst.
En effet, vous avez raison. La prise en compte du temps dans ce paramètre est probablement un non-sens !
Jusqu'à présent, je me suis arrêté au calcul initial de la longueur de la courbe comme une simple différence de prix entre des points voisins de la parabole. Subjectivement, j'aime mieux ce calcul que la différence entre les échantillons High-Low jusqu'à présent. Aucune décision finale n'a encore été prise. Nous menons des expériences. Je pense qu'il faudra un certain temps d'observation pour comprendre dans quelle mesure ce mode de calcul R a le droit d'exister.
Je pense avoir réussi à reproduire le problème sur l'historique et à le réparer en même temps. Le problème a disparu dès que j'ai remplacé Lowest() ; et Highest() ; par mon propre algorithme de recherche. À propos, ces fonctions ne conviennent pas car on ne sait pas exactement ce qu'elles produisent - la valeur la plus longue/la plus basse de la fonction sur un intervalle donné (ce qui n'est pas approprié) ou un extremum (ce qui est requis), ce qui n'est pas la même chose - il y a des valeurs aux extrémités de l'intervalle et elles peuvent être plus extrêmes que les extrema mais ne sont pas des extrema - alors les échantillons peuvent être incorrects.
Bonne chance et bonne chance avec les tendances.
Je pense que je vais devoir écrire toutes les fonctions par moi-même pour être sûr que les algorithmes fonctionnent et qu'il sera plus facile de les réécrire sur VCPP. :).
Bonne chance et bonne chance avec les tendances.
Je pense que je vais devoir écrire toutes les fonctions par moi-même pour être sûr que les algorithmes fonctionnent et qu'il sera plus facile de les réécrire sur VCPP. :).
"RE Slawa - réponse à zigzag :)"
dernier poste
Pour rechercher Hai, la condition doit être au moins
if((H[k-1]<H[k])&&(H[k]>H[k+1])&&(H[k]>curHi)) pour le minimum de la même manière.
Bonne chance et lancez-vous dans les tendances.
Il ne reste plus qu'à justifier le choix d'une zone suffisante autour du High pour le prendre comme le High de l'échantillon donné. J'en déduis que ce High doit être le point maximal dans un rayon de +-30% de la longueur de l'échantillon ? Si ce n'est pas le cas, l'échantillon doit être augmenté afin de déterminer deux choses ensemble - l'extremum et la longueur de l'échantillon ? Qu'en pensez-vous ?
Vladislav, pensez-vous que vous allez corriger le code de l'indicateur Murray à la lumière des nouvelles informations ? Nous attendons la nouvelle version ;o) !