Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Comme c'est cool tout ça ! :-)
Ces études peuvent-elles y être rattachées (complétées) ou peut-on en tirer quelque chose de similaire (autosuffisant pour le filtre) pour la même connexion simple à un hibou de trading qu'un filtre trend-flat ?
Voici mon signal partie de la chouette de la tendance en utilisant les lectures de l'indicateur iVAR .
Si les études théoriques se confirment, il y aura toute une série d'indicateurs décrivant les effets chaotiques et déterministes.
La valeur prédictive de l'iVAR semble très discutable. Visuellement, il n'est pas vraiment meilleur que MA et souffre clairement de la volatilité. Strictement parlant, les indicateurs "chaotiques" ne devraient pas réagir à la volatilité, mais au processus déterministe et aux conditions initiales, et ce ne sont pas les mêmes. Autrement dit, les indicateurs chaotiques devraient souvent commencer à changer avant même que le prix ne change (prédire les changements), mais ce n'est pas le cas avec iVAR.
p.s. Mieux vaut utiliser un indicateur d'efficacité fractale polarisé. Il montre des moments beaucoup plus intéressants (imho).
Si les études théoriques se confirment, il y aura toute une série d'indicateurs décrivant les effets chaotiques et déterministes.
La valeur prédictive de l'iVAR semble très discutable. Visuellement, il n'est vraiment pas meilleur que MA et souffre clairement de la volatilité. Strictement parlant, les indicateurs "chaotiques" ne devraient pas réagir à la volatilité, mais au processus déterministe et aux conditions initiales, ce qui n'est pas la même chose. Autrement dit, les indicateurs chaotiques devraient souvent commencer à changer avant même que le prix ne change (prédire le changement), mais ce n'est pas le cas avec iVAR.
p.s. Mieux vaut utiliser un indicateur d'efficacité fractale polarisé. Il montre des moments beaucoup plus intéressants (imho).
Merci,C-4.
Je vais y regarder de plus près, je vais m'y faire...
Bonjour !
J'apprends actuellement l'analyse R/S et j'écris un programme en C# qui la met en œuvre. J'ai quelques questions à vous poser. J'espère que vous pourrez m'aider
1. dans son livre, Peters transforme la série temporelle originale
a) la différence entre le prix du premier jour et le prix du deuxième jour est-elle utilisée comme Yt ?
b) quelles doivent être les constantes a et b ?
2. et encore du livre :
Disons qu'il s'agit d'une série de 500 valeurs, je spécifie que le nombre initial n est de 20, comment puis-je ensuite augmenter le nombre n ?
Merci d'avance, j'espère votre aide.
b) Apparemment, il s'agit du deuxième livre de Peters, qui traite de l'élimination des effets indésirables de la série. La meilleure solution dans ce cas serait de trouver les coefficients analytiquement pour chaque série individuellement. Cependant, je n'ai jamais utilisé de telles transformations, et je ne peux donc pas dire exactement comment trouver ces coefficients. Mais n'attachez pas une grande importance à ces transformations, car leur signification est d'éliminer une surestimation extrêmement insignifiante de l'estimation RS sur des séries comme arch (je peux me tromper, je me souviens très vaguement). Il vaut mieux commencer par travailler avec des marches aléatoires normalement distribuées (on est déjà coincé avec cette méthode à ce stade).
a) Il est préférable d'utiliser les rendements logarithmiques plutôt que les différences de séries : ln(Pi/Pi-1).
2) Le N de Peters augmente d'une unité à chaque passage : n++. Le nombre de séries indépendantes doit être au moins égal à 2, c'est-à-dire que si vous avez une série de 500 valeurs, divisez-les par 2, et vous aurez N variant de 20 à 250 respectivement. Lorsque n couvrira la série avec un reste, par exemple n = 33, 250 / 33 = 7,5757575, prenez le nombre de barres pour lequel n sera un diviseur entier, par exemple pour n = 33 le nombre de barres sera 231. Ensuite, calculez d'abord rs pour le segment 1-231, puis pour le segment 20-250. La moyenne arithmétique des deux barres sera le RS souhaité.
P.S. En principe, je peux vous envoyer mon code en C#. Là, toutes ces conversions sont déjà faites, mais le code lui-même est inutile, car les statistiques de Peters ne montrent aucune régularité, et les résultats présentés dans son livre sont une pure profanation (voir les pages 24-26 du fil actuel).
Je suis désolé, mais je ne comprends pas bien le point 2)... si cela ne vous dérange pas d'envoyer le code....
P.S. J'ai regardé les résultats... Je ne veux pas vous déranger... mais quand même... pourquoi l'utilisation de cet algorithme n'est pas acceptable pour vous ?
Je suis désolé, mais je ne comprends pas bien le point 2)... si cela ne vous dérange pas d'envoyer le code....
1) P.S. J'ai regardé les résultats... Je ne veux pas vous déranger... mais quand même... pourquoi l'utilisation de cet algorithme n'est pas acceptable pour vous ?
2) J'ai augmenté n par un (n++)... mais il s'est avéré qu'à n = 46, et 47 le nombre de périodes est le même... et il s'avère qu'une sorte de graphique en escalier...
1) Pour moi, l'utilisation de cet algorithme n'est pas acceptable, car il ne fonctionne pas !
2) Il est difficile d'expliquer toutes les subtilités, mieux vaut voir le code, il est petit, je le donne ici :
Vous ne pouvez pas l'exécuter directement, car il est conçu pour fonctionner en conjonction avec WealthLab. Je joins les bibliothèques appropriées. Avec un peu de persistance, il est possible de comprendre les méthodes d'appel.Comme promis, je publie une étude intéressante :
Vous avez devant vous l'étude de deux segments temporels de l'indice RTS. Le premier segment (ligne verte) s'étend de 2006 à 2009, le second de 2009 à 2012. Vous pouvez constater que le RTS a fondamentalement changé depuis 2008. La première chose qui attire l'attention est que le RTS est devenu beaucoup plus efficace : sa courbe est devenue beaucoup plus proche du hasard. Le degré d'entropie et d'incertitude a augmenté. Toutefois, le degré d'entropie maximale, qui correspond à une marche aléatoire pure, n'a pas encore été atteint. Mais il faut comprendre qu'à ce stade, l'algorithme a tendance à surestimer ses relevés sur les distributions de Pareto et qu'en réalité la composante déterministe dans le RTS moderne est encore plus faible.
On s'intéresse à l'horizon temporel de 3 à 30 minutes (la période est de 10^N min, où N est porté sur l'axe des abscisses dans l'intervalle de 0,5 (10^0,5 = 3 min) à 3,5 (10^3,5 = 3162 min, ou 52 heures ou 3,7 jours)). Notez qu'il y a une composante anti-tendance hautement insignifiante mais statistiquement distinguable dans cette fourchette. Il est probable qu'elle soit encore plus grande en réalité, car nous avons gonflé les estimations sur les distributions de Pareto. Il n'existait pas avant 2009. Le marché a été extrêmement tendance sur tous les horizons temporels disponibles pour l'analyse. Qu'est-ce que c'est ? Peut-être sommes-nous en train d'observer les effets des algorithmes HFT qui n'étaient pas si largement représentés avant la crise de 2008. Ce n'est pas pour rien que les scalpers sur RTS disent depuis longtemps qu'il est presque impossible d'opérer - les robots ne permettent pas de négocier les formations habituelles.
Nous pouvons supposer que ces résultats différents des deux segments sont dus à la division par deux de l'échantillon statistique. Mais la quantité totale de données est importante et s'élève à environ 1 000 000 de barres de minutes de 2006 à 2012, ce qui donne 500 000 points de données pour chaque intervalle. Pour les petites périodes, cela représente des dizaines de milliers de sous-périodes, ce qui signifie que la réduction de la signification statistique est extrêmement faible et ne peut donner une telle dispersion des résultats (comme le montre la platitude des courbes). Toutefois, il existe une autre variante : de 2006 à 2009, le marché du RTS était plutôt de type Pareto et à queue, maintenant le marché est plus liquide et plus proche de la distribution normale. Il s'agit d'un contre-argument solide, et c'est pourquoi je travaille actuellement sur l'estimation de la volatilité afin de lisser les effets de ces distributions et de contrer efficacement le dérapage aléatoire de type Pareto.
Il s'agit plutôt de la méthode elle-même. Si votre méthode donne 0,5 sur Norm. Random exactement 0,5 et 0,47-0,48 sur les devises - cela signifie que nous devrions sérieusement comprendre votre méthodologie. En théorie, les marchés ne devraient pas se diviser en deux catégories : les tendances et les anti-tendances. A Peters, tous les marchés étudiés avaient un H supérieur à 0,5.
Avez-vous essayé de mélanger aléatoirement les données des séries ? En théorie, cela devrait détruire les corrélations et ramener les estimations de H au maximum à 0,5 (il s'agit de vérifier l'exactitude de la méthode de calcul).
En ce qui concerne l'anti-récompense - après tout, la plupart des devises majeures, pour autant que je m'en souvienne, ont un AC des retours voisins inférieur à 0, et si nous supposons que la série est un mouvement brownien généralisé, alors C ~ 2^(H-1) - 1, c'est-à-dire que H doit être inférieur à 0.5...
Quel bordel ! !! C'est n'importe quoi !
En ce moment, je travaille sur le mélange des données. C'est ce que j'ai fait au début : j'ai mélangé toutes les barres RTS, j'ai fait un test sur les barres mélangées, et j'ai fini par avoir un RS encore plus déformé ! Mais ça ne peut pas être comme ça. Si RS ne montre que le fait que la distribution est non-normale, alors l'estimation ne devrait pas changer : après tout, statistiquement, les deux distributions sont identiques. Si la RS capte des corrélations complexes, alors celles-ci devraient être rompues par le mélange des données, et la RS ne devrait pas pouvoir être distinguée de la marche aléatoire. Au lieu de cela, la troisième option tombe obstinément. Peut-être est-ce l'incomparabilité dimensionnelle totale des barres RTS à différentes périodes. Les volatilités de 2006 sont trop différentes de celles des dernières années. Par conséquent, les grandes barres de 2006 se glissant dans la fourchette modérée des dernières années font que les valeurs aberrantes semblent encore plus grandes. Mon algorithme est écrit de telle sorte qu'il devrait traiter efficacement ces valeurs aberrantes, mais apparemment, quelque chose passe à travers les défenses.
Bon, sur la base de ce qui suit, présentons le scénario le plus négatif : l'algorithme ne retient que le fait que la distribution est non-normale. Il n'y a pas de composante déterministe dans les séries du marché. Vérifions de la manière suivante : si une hausse de prix a plus de chances d'être suivie d'une hausse (et vice versa, si une baisse est suivie d'une baisse), alors le graphique sera plus plat, quelle que soit la manière dont on le tourne. Le nombre de retournements pour une période de N barres sera moindre et donc le nombre de lignes en zig-zag sera également moindre. Nous décrivons cette dépendance comme suit : nous divisons le nombre de barres par le nombre de lignes en zigzag et obtenons le nombre moyen de barres par ligne ZZ. La distance parcourue n'est pas importante, donc le type de distribution ne devrait pas jouer de rôle. Nous traçons un graphique similaire en échelle logarithmique double. Nous prenons le dernier historique EURUSD d'un million de barres comme outil de test et le testons. Générons ensuite une marche aléatoire sur les mêmes volumes EURUSD. Elle ne sera pas normalement distribuée. Comparez maintenant deux graphiques, s'ils sont identiques, cela signifie que l'algorithme ne capte que les distributions non-normales et n'est d'aucune utilité. Alors, jetons un coup d'œil :
Whoa, whoa. Nos pires craintes se sont réalisées. Les deux graphiques sont identiques. Les deux sont distribués selon la loi Pareto et ne se distinguent pas d'une marche aléatoire, mais l'un est un véritable marché et l'autre un simple générateur basé sur des volumes réels.
Une dernière vérification : nous prenons à nouveau ces deux séries et nous calculons la distance pour elles. Si l'indicateur réagit seulement à la non-normalité de la distribution, le swing de la valeur aléatoire normale devrait montrer strictement 0.5, le swing de l'eurusd réel sera supérieur à 0.5 (parce que la distribution n'est pas normale), le swing de la distribution aléatoire générée sera presque indiscernable de l'eurusd réel comme vu dans le graphique ci-dessus. Testez et regardez :
Putain de merde ! !! Tu as vu ça ? L'EURUSD aléatoire est juste un tout petit peu plus élevé que la rampe aléatoire normale. Sa pente est presque égale à 0,5. La valeur aléatoire est restée inchangée, comme prévu. Mais l'EURUSD a sérieusement sous-estimé ( !) sa fourchette ! Dans le même temps, l'indice de Hurst de l'eurusd atteint 0,53, c'est-à-dire que la monnaie est en tendance, mais nous ne voyons que le début de sa tendance. Sa tendance ne se renforce qu'après 70 jours ( !), et avant cela, c'est un marché en fort repli. Cela signifie que l'EURUSD a un horizon gigantesque, nous ne voyons que le tout début du prologue.
Apparemment, c'est la non-normalité de la distribution qui cache tous les effets déterministes. Toutefois, la principale anomalie ne réside pas tant dans l'étrange volatilité, mais dans les incréments de prix (barres) eux-mêmes. Il s'agit d'un mécanisme très complexe et profond et il n'y a aucun moyen de travailler avec lui au hasard.
Mais peut-être qu'il s'agit de conclusions erronées en raison de données et de méthodes erronées.