L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2322
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
À mon avis, pour nos objectifs, l'article n'est pas très bon, je l'ai juste choisi comme illustration d'une approche qui combine la multifractalité et la stochasticité.
En gros, multifractal = constitué de nombreuses fractales et spectre est la dimension de ces fractales de base. Mais nous pouvons jouer avec la notion de "spectre" et trouver quelque chose qui nous convienne - par exemple, une fonction montrant le degré de différence avec SB à différentes échelles.
L'échelle donne une gamme plus grande et plus petite, un spectre ou une autre méthode de détection de la non-SSB montrera toujours ce qu'elle montre, mais ne la reliera en aucune façon aux causes de la non-SSB. D'une manière générale, l'accès au contrôle de tout et n'importe quoi et le traitement de ces données offriront probablement certaines possibilités. Mais ils n'entreront pas dans le cerveau de tout le monde))))
L'échelle donne une gamme inférieure plus large, un spectre ou une autre méthode de détection de la non-SSB montrera toujours ce qu'elle montre, mais ne la reliera en aucun cas aux causes de la non-SSB. D'une manière générale, l'accès au contrôle de tout et n'importe quoi et le traitement de ces données donneront probablement quelques possibilités. MAIS il n'entrera pas dans le cerveau de tout le monde ;)))
Ils ne nous laissent pas entrer dans les serveurs des sociétés de courtage et des ECN). Ils doivent tout inventer par eux-mêmes).
https://www.mql5.com/ru/forum/325441/page15#comment_20589051
c'est-à-dire écrire et déboguer un bot ne devrait pas poser de problème
Bon article. L'approche n'est pas bien couverte, seulement des résultats et des demi-indications sur la manière de procéder, mais les résultats sont impressionnants.
Bon article. L'approche n'est pas bien divulguée, seulement des résultats et des demi-indices sur la manière de procéder, mais les résultats sont impressionnants.
Je ne suis pas entré dans le détail, mais il semble qu'au moyen d'un algorithme, un grand nombre d'extensions possibles de la série sont réalisées, parmi lesquelles celle qui, selon des paramètres donnés, correspond le mieux à la série originale est choisie. Je vois le problème dans l'ambiguïté du résultat d'une telle "prédiction" :
1) Si plusieurs paramètres sont donnés, il y aura une "prédiction" différente pour chacun d'eux. Si vous faites un compromis sur une métrique parmi plusieurs, la "prédiction" dépendra de son dispositif particulier.
2) La "prédiction" dépendra fortement de l'algorithme de construction d'un ensemble d'extensions de séries possibles.
L'idée de s'éloigner des modèles paramétriques est compréhensible et attrayante, mais elle n'est pas mise en œuvre ici (j'espère que l'on comprend pourquoi).
Je ne suis pas entré dans les détails, mais il semble qu'au moyen d'un algorithme, un grand nombre d'extensions de séries possibles sont réalisées, puis celle qui correspond le mieux à la série initiale selon les paramètres donnés est choisie. Je vois le problème dans l'ambiguïté du résultat d'une telle "prédiction" :
1) Si plusieurs paramètres sont donnés, il y aura une "prédiction" différente pour chacun d'eux. Si vous faites un compromis sur une métrique parmi plusieurs, la "prédiction" dépendra de son dispositif particulier.
2) La "prédiction" dépendra fortement de l'algorithme de construction d'un ensemble d'extensions de séries possibles.
L'idée de s'éloigner des modèles paramétriques est compréhensible et attrayante, mais elle n'est pas mise en œuvre ici (j'espère que l'on comprend pourquoi).
D'après ce que j'ai compris, les auteurs ne révèlent pas grand-chose sur l'algorithme lui-même, se contentant de maximes du genre :
Par conséquent, la méthode GenericPred utilise deux règles de base :
R1 : Essayez toujours de maintenir la valeur d'une mesure non linéaire aussi stable que possible pendant la prédiction(Fig. 3).
R2 : La nouvelle valeur doit être choisie parmi un ensemble de valeurs potentielles générées à partir d'une distribution de probabilité.
La prédiction doit être poursuivie étape par étape, car la valeur prédite à l'étape actuelle est nécessaire pour déterminer la plage de changement valide pour l'étape suivante.
Pour autant que je puisse le deviner, une composante linéaire logistique est d'abord sélectionnée, puis à chaque étape, la composante non linéaire est modélisée, le critère principal étant la stabilité d'un ensemble de caractéristiques stochastiques de la série. En général, c'est vague, mais le résultat est impressionnant.
À mon avis, l'approche est quelque peu similaire à celle utilisée dans le paquet "prophet" de R.
Je vois qu'il y a un intérêt pour ce sujet...
Autant que je m'en souvienne, il y a eu une tentative d'implémentation de cet algorithme sur R, mais les articles ne sont plus ouverts, du moins pour moi, essayer
Je vois qu'il y a un intérêt pour ce sujet...
Autant que je m'en souvienne, il y a eu une tentative d'implémentation de cet algorithme sur R, mais les articles ne sont plus ouverts, du moins pour moi, essayer
Il y a un site génial qui archive presque tout l'internet.
Voici des copies du premier de vos articles
https://web.archive.org/web/20160701000000*/https://mechanicalforex.com/2016/03/using-r-in-trading-time-series-forecasting-using-chaos-part-1.html