Régression bayésienne - Est-ce que quelqu'un a fait un EA en utilisant cet algorithme ? - page 41

 
Vizard_:
C'est ainsi que, lentement, nous sommes arrivés au sujet fascinant des transformations)))) car s'il n'existe pas de distribution normale, on peut en fabriquer une.
Cela va prendre beaucoup de temps, car il faut à la fois une retransformation et... Et Box-Cox n'aime pas vraiment ça)))). C'est juste une honte que si vous n'avez pas
C'est juste dommage que si vous n'avez pas de prédicteurs normaux, cela n'aura pas beaucoup d'effet sur le résultat final...

Je voudrais d'abord voir une lueur de compréhension dans les yeux des "fidèles". Et ensuite, oui, convertir si nécessaire. La question est de savoir si les queues épaisses peuvent être converties. Ils peuvent faire une grande différence en termes de qualité.

 
Alexey Burnakov:

Je voudrais d'abord voir une lueur de compréhension dans les yeux des "fidèles". Et ensuite, oui, convertir si nécessaire. La question est de savoir si les queues épaisses peuvent être converties. Ils peuvent avoir un impact important sur la qualité.

Il y a des régressions pour les queues épaisses, de mémoire FARIMA.

Mais revenons à l'ampleur de l'augmentation.

Qu'est-ce qu'on échange ? Un incrément de 7 pips à 1 heure par rapport à la barre précédente ? Je ne le comprends pas très bien. Quelqu'un peut-il m'éclairer ?

L'incrément peut être négocié, plus précisément, la volatilité, mais par rapport à une certaine série stationnaire - c'est ce qu'on appelle la cointégration.

 
J'aimerais que quelqu'un prenne sérieusement en compte les données)
 
СанСаныч Фоменко:

Il y a des régressions pour les queues épaisses, de mémoire FARIMA.

Mais revenons à l'ampleur de l'augmentation.

Qu'est-ce qu'on échange ? Un incrément de 7 pips sur le marqueur horaire par rapport à la barre précédente ? Je ne le comprends pas très bien. Quelqu'un peut-il m'éclairer ?

L'incrément peut être négocié, plus précisément, la volatilité, mais par rapport à une certaine série stationnaire - c'est ce qu'on appelle la cointégration.

Et qu'est-ce que vous échangez si ce n'est des incréments ?
 
Комбинатор:
J'aimerais que quelqu'un prenne sérieusement en compte les données d'entrée).

J'ai pensé. Sérieusement )

D'abord, je génère autant d'entrées que je peux imaginer. Ensuite, je sélectionne les plus pertinentes pour une variable cible particulière et je mets le reste à la poubelle. Cela semble aider, mais cela dépend de la méthode de formation.

Dans l'expérience que j'ai menée, j'ai fait ce qui suit . J'ai d'abord réfléchi aux informations que le système devrait voir. Mais tout cela est subjectif. J'ai également choisi des prédicteurs informatifs avant la formation, mais cela a fonctionné :

train_set <- dat_train_final[, c(eval(inputs), eval(outputs[targets]))]
        test_set <- dat_test_final[, c(eval(inputs), eval(outputs[targets]))]
        
        input_eval <- gbm(train_set[, 109] ~ .
                       , data = train_set[, 1:108]
                       , distribution = "laplace"
                       , n.trees = 100
                       , interaction.depth = 10
                       , n.minobsinnode = 100
                       , bag.fraction = 0.9
                       , shrinkage = 0.01
                       , verbose = T
                       , n.cores = 4)
        
        best_inputs <- as.character(summary(input_eval)[[1]][1:10])
        
        train_set <- dat_train_final[, c(eval(best_inputs), eval(outputs[targets]))]
        test_set <- dat_test_final[, c(eval(best_inputs), eval(outputs[targets]))]

Je vais commenter. D'abord, j'ai fait un entraînement sur un modèle faible, sans recyclage, avec tous les prédicteurs disponibles. Il est important que le modèle n'ait pas le temps de se recycler. Puis j'ai pris les 10 plus importantes.

Non seulement cela n'a pas réduit les résultats au bruit, mais cela a également accéléré l'entraînement d'un facteur 10.

C'est une façon de voir les choses.

 
Alexey Burnakov:
Qu'est-ce que vous échangez si ce n'est des incréments ?

Tendance à laquelle on s'intéresse en tant que long et court.

Ordres dans le terminal : ACHETER, VENDRE.

 
Комбинатор:
J'aimerais que quelqu'un prenne sérieusement en compte les données d'entrée).

En y réfléchissant, je propose même un service payant pour nettoyer les ensembles de prédicteurs d'entrée des prédicteurs de bruit pour les modèles de classification. Cela laisse un ensemble qui ne génère pas de modèles surentraînés. C'est vrai, nous devrions préciser : s'il reste quelque chose. Il y a une chose paradoxale : pour le trading de tendance, toutes les nombreuses variétés de lingettes sont sans espoir.

Parmi ces ensembles que j'ai traités :

  • Réduire la liste initiale des prédicteurs par un facteur de 3 à 5.

Cela laisse 20-25 prédicteurs qui peuvent être traités dans le futur

  • à partir de cet ensemble de prédicteurs, sur chaque barre, je choisis un certain sous-ensemble par des moyens standards de R
  • il reste 10-15 prédicteurs, sur lesquels le modèle est entraîné.
  • il est possible de ne pas faire la dernière sélection des prédicteurs nombre approximatif de barres égal à la fenêtre, mais la fenêtre est à l'intérieur de 100

Résultat : le modèle n'est pas réentraîné, c'est-à-dire que l'erreur de classification en formation, AOB et hors échantillon est approximativement égale.

 
Mec, les enfants du maïs de la normalité/normalité sont certains.
 
deux fils parallèles discutant de la même chose - la sélection des prédicteurs pour le modèle
 
СанСаныч Фоменко:

Tendance à laquelle on s'intéresse en tant que long et court.

Ordres dans le terminal : ACHETER, VENDRE.

C'est la même chose ! Les augmentations sont transformées en signes + ou -. Et vous pouvez prendre ce signe pour des incréments d'une heure à l'avance.

Quelle est la question ?