L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3249
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
les statistiques montrent, disons les 10 barres futures, je sors toutes les courbes de chaque instance trouvée du modèle dans le futur (comme une prévision)
Puis la moyenne de toutes les courbes
Comme ce pattern est à vendre, en moyenne, et combien de pips peuvent être vus.
J'ai vu quelque chose de similaire ici.
Cela se ressemble à l'écran, mais la longueur de la figure est très élevée, parce que M1. Il y aura probablement quelque chose d'intéressant sur les index, puisqu'il a été trouvé.
Et ce problème
semble être résolu.
Mais je le fais en python et je calcule la corrélation pour toutes les paires possibles en même temps, puis je choisis à partir de là.
La chose la plus importante ici est la vitesseIl doit y avoir un analogue en Python . Il devrait alors être rapide.
J'ai vu quelque chose de similaire ici.
Cela se ressemble à l'écran, mais la longueur de la figure est très élevée, parce que M1. Il y aura probablement quelque chose d'intéressant sur les index, puisqu'il a été trouvé.
Et ce problème
semble être résolu.
Mais il n'y a pas d'exploitation minière (excessive) là-bas, bien sûr. Même si ce n'est pas très loin.))) Je l'ai vu aussi
Je m'intéressais à l'origine à la manière de rechercher des motifs dans des tableaux multidimensionnels sans MO. Jusqu'à présent, je n'ai rien trouvé de mieux que de rassembler toutes les dimensions en une seule et de calculer par corrélation (assez rapide). Je suppose qu'il faut parfois normaliser les valeurs pour qu'elles ne soient pas trop différentes.
Il doit y avoir un analogue en Python . Il devrait alors être rapide.
C'est le cas, mais lorsque le nombre de signes (indicateurs) augmente, ce n'est toujours pas très rapide.
En 3980, ils ont implémenté les méthodes Conjugate pour les types complex, vector<complex> et matrix<complex>. Elles effectuent la conjugaison pour les nombres complexes.
Ils ont également ajouté le traitement de la sortie du modèle ONNX de type Séquence de cartes. La fonctionnalité du Runtime ONNX a été sérieusement améliorée.
C'est le cas, mais si le nombre de signes (indicateurs) augmente, ce n'est pas encore très rapide.
Je ne me souviens plus, mais la complexité de l'algorithme est certainement inférieure à O(N^2). Je pense qu'elle n'est pas supérieure à O(N*log). C'est pourquoi il n'est pas évident de constater un ralentissement notable lorsque les signes augmentent.
Le bâton est à double tranchant : plus de caractéristiques, moins d'échantillons - moins de signification statistique.
Je suppose qu'il faut parfois normaliser les valeurs pour qu'elles ne soient pas trop différentes.
Sans normalisation, c'est la pagaille.
Forum sur le trading, les systèmes de trading automatisés et les tests de stratégies de trading
L'apprentissage automatique dans le trading : théorie, modèles, pratique et algo-trading
fxsaber, 2023.09.21 16:19
Alors il faut apporter des indicateurs à quelques perroquets unifiés. Même si l'indicateur est l'incrément à différents intervalles, sinon une corrélation étrange apparaîtra.
Forum sur le trading, les systèmes de trading automatisés et les tests de stratégies de trading
L'apprentissage automatique dans le trading : théorie, modèles, pratique et algorithme de trading
Maxim Dmitrievsky, 2023.09.21 15:59
cet exemple du testeur avait une longueur de 9 (incréments de différentes périodes)
il n'est pas du tout clair ce que la corrélation montre sans normalisation. Que se passerait-il si. cette étape sautée, apparemment logique, aboutit à un bon résultat.....
Je ne me souviens plus, mais la complexité de l'algorithme est certainement inférieure à O(N^2). Je pense qu'elle n'est pas supérieure à O(N*log). C'est pourquoi il n'est pas tout à fait clair qu'il y a un ralentissement notable lorsque les signes augmentent.
Le bâton est à double tranchant : plus de caractéristiques, moins d'échantillons - moins de signification statistique.
Je compte également toutes les paires possibles à la fois. Il y a encore beaucoup de données d'entrée que je veux essayer. Ce n'est pas grave. C'est juste qu'avec STUMPY, il est possible de compter approximativement, puis d'affiner. Vous obtenez une accélération notable, en plus du parallélisme et de l'utilisation du GPU. Je vais probablement passer complètement à ce package.
C'est là que la bouillie peut sortir sans normalisation.
S'il s'agit de rendements non standard, comme celui-ci, .la corrélation n'est pas claire sans normalisation. Et si... cette étape sautée, apparemment logique, aboutit à un bon résultat....
Je l'analyserai plus tard, je ne suis pas encore prêt à le commenter, je n'ai écrit ce calcul qu'hier.
Je l'analyserai plus tard, je ne suis pas encore prêt à faire des commentaires, j'ai juste écrit ce compte à rebours hier.
Je pense que la corrélation sera influencée par les plus grands nombres en termes de valeur abs. Par exemple, un changement de volume de 10000 et 10100, et sur leur fond un changement de prix de 0,00040 et 0,00400 seront microscopiquement petits et auront peu d'effet sur la corrélation de l'ensemble. Je procéderais à une normalisation pour tester cette hypothèse.