Le fait est que le marché n'est pas une séquence pseudo-aléatoire ou une séquence aléatoire. Il existe des modèles sur le marché. Et s'il y a des modèles, il ne s'agit plus d'une séquence aléatoire.
Les tendances et les modèles plats en sont un exemple clair. Ce sont des régularités.
Par conséquent, il est inutile de générer quelque chose dans le cadre du hasard et de le comparer avec le marché....))).
1) No :https://www.mql5.com/ru/code/8790
2) Possiblement quelque part oui : https://c.mql5.com/mql4/forum/2012/11/predict.gif
Bonjour !
J'écris ceci et je me demande comment ne pas offenser quelqu'un ou provoquer un déluge. J'espère être constructif et je ne fais que poser la question (je ne veux ni prouver ni réfuter, je veux juste un dialogue).
Si vous prenez une série de cotations sur plusieurs années et créez sur leur base un fichier de zéros et de uns : zéro - si le prix suivant est supérieur au précédent ; un si c'est l'inverse - vous obtenez une séquence pseudo-aléatoire. Appelez-le prudemment avec le préfixe "pseudo" pour le moment.
De plus, nous générons des transactions idéales sur la base de la séquence pseudo-aléatoire : si 1, nous achetons et sortons sur la barre suivante, si 0, nous vendons et sortons sur la barre suivante. Le graphique des actions qui en résulte est presque une ligne plate dirigée vers le haut (y compris le spread).
Maintenant, une question : si nous essayons de répéter notre séquence pseudo-aléatoire à l'aide de la simulation de Monte Carlo en espérant obtenir le même résultat que lors de l'étape initiale, c'est-à-dire des entrées idéales, qu'obtiendrons-nous ? Calculons : il y a 60 000 barres horaires, il y a donc 2^60 000 ( !) différentes rangées possibles de zéros/unités. Une seule d'entre elles décrit parfaitement les entrées. Il est clair que même si nous chargeons l'ordinateur avec 100 trillions de générations, nous n'obtiendrons probablement pas le résultat souhaité. À chaque fois, nos fonds propres résultants ressembleront à un drain au taux d'étalement. Et il (le résultat) est là dans la nature ! Nous l'avons dans notre histoire. En d'autres termes, nous haletons, comptons et fumons, nous ne trouvons rien et nous disons : "Ok, le problème n'est pas résolu, je vais me coucher. Cela ne vous rappelle-t-il pas le problème de la probabilité de la vie dans notre univers ? Elle semble avoir des valeurs de probabilité comparables en nombre d'ordres de grandeur.
J'ai exposé le contexte général, il y a beaucoup de choses à penser. À quelle catégorie de problèmes, pour ainsi dire, mon idée appartient-elle ?
J'ai moi-même eu une idée similaire. En imaginant une citation comme une série binaire, est-il possible de décoder le processus qui la génère ? Techniquement, une séquence pseudo-aléatoire est générée par un registre à décalage à rétroaction linéaire (RSLOS). Notre tâche de décodage consiste donc à trouver le LCLOS qui a généré notre séquence pseudo-aléatoire. Ce problème est résolu par l'algorithme de Burlecamp-Massey. J'ai essayé de décoder un relevé de prix à l'aide de cet algorithme mais cela n'a pas fonctionné, bien que cela n'ait pas pris beaucoup de temps. Il est intéressant de noter que si vous ne remplacez pas les valeurs analogiques par des valeurs binaires et que vous essayez de décoder le processus de génération de notre série de prix pseudo-aléatoires analogiques, vous pouvez utiliser le même algorithme deBurlecamp-Massey. Dans ce cas, le processus générateur sera le modèle autorégressif de Prony x[n] = SUM a[k]*x[n-k]. Outre l'algorithme de Burlecamp-Massey, l'algorithme de Levinson-Durbin serait plus robuste. Le problème du modèle AR analogique de Prony est qu'il est instable contrairement au RSLOS binaire et que ses prédictions peuvent rapidement aller à l'infini. Nous pouvons surmonter cette instabilité en supposant que notre devis pseudo-aléatoire comporte du bruit. Alors, au lieu d'un modèle AR reproduisant toutes les données historiques avec une erreur nulle, nous pouvons utiliser un modèle AR approximatif résolu par exemple par la méthode de Bourg. Il s'agit d'un problème économétrique. Il est intéressant de noter que trouver le modèle exact de Prony équivaut à adapter la somme exponentielle SUM C[k]*EXP(B[k]*k) à notre série, où B[k] peut avoir une partie réelle négative et positive (la partie positive entraîne des instabilités). Le modèle AR approximé de Burg résout le même problème en adaptant des exposants amortis. En bref, en empruntant la voie du décodage d'une série de prix, on arrive à des modèles économétriques AR.
décollera à la même vitesse que la piste
La vitesse par rapport à quoi ?
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Vous acceptez la politique du site Web et les conditions d'utilisation
Bonjour !
Je suis en train d'écrire ceci et je me demande comment ne pas offenser quelqu'un ou provoquer un déluge. J'espère être constructif et je ne fais que poser la question (je ne veux ni prouver ni réfuter, je veux juste un dialogue).
Si vous prenez une série de cotations sur plusieurs années et créez sur leur base un fichier de zéros et de uns : zéro si le prix suivant est supérieur au précédent ; un si c'est l'inverse - vous obtenez une séquence pseudo-aléatoire. Appelez-le prudemment avec le préfixe "pseudo" pour le moment.
De plus, nous générons des transactions idéales sur la base de la séquence pseudo-aléatoire : si 1, nous achetons et sortons sur la barre suivante, si 0, nous vendons et sortons sur la barre suivante. Le graphique des actions qui en résulte est presque une ligne plate dirigée vers le haut (y compris le spread).
Maintenant, une question : si nous essayons de répéter notre séquence de pseudo-équité en utilisant la simulation de Monte Carlo en espérant atteindre le même résultat que dans l'étape initiale, c'est-à-dire des entrées idéales, qu'obtiendrons-nous ? Faisons le calcul : il y a 60 000 barres horaires, il y a donc 2^60 000 ( !) différentes rangées possibles de zéros/unités. Une seule d'entre elles décrit parfaitement les entrées. Il est clair que même si nous chargeons l'ordinateur avec 100 trillions de générations, nous n'obtiendrons probablement pas le résultat souhaité. À chaque fois, nos fonds propres résultants ressembleront à un drain au taux d'étalement. Et il (le résultat) est là dans la nature ! Nous l'avons dans notre histoire. En d'autres termes, nous haletons, comptons et fumons, nous ne trouvons rien et nous disons : "Ok, le problème n'est pas résolu, je vais me coucher. Cela ne vous rappelle-t-il pas le problème de la probabilité de la vie dans notre univers ? Elle semble avoir des valeurs de probabilité comparables en nombre d'ordres de grandeur.
J'ai exposé le contexte général, il y a beaucoup de choses à penser. À quelle catégorie de problèmes, pour ainsi dire, mon idée appartient-elle ?