L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1374

 
elibrarius:

C'est-à-dire que l'alignement est capté par la méthode suggérée par Vladimir ?

Ce n'est probablement pas tout à fait ce que je pensais que ce serait. Je ne sais pas, je ne l'ai pas utilisé, je dois lire l'aide.

Y a-t-il un endroit où l'on peut lire sur ces paramètres ?
 
elibrarius:

Ces poids peuvent être alimentés non seulement dans le booster, mais aussi dans le NS. Apparemment, la méthodologie est commune à tous les systèmes du MoD.
La première expérience consistant à diminuer l'influence des anciennes données n'a montré aucune amélioration.

Lors de l'entraînement sur 30000 lignes, le test est meilleur que lors de l'entraînement sur 80000 lignes. À 80000, il y a moins de transactions et l'erreur est plus élevée. J'ai essayé de diminuer le poids proportionnellement (de 1 pour le frais à 0,5 pour le vieux) et les résultats sont presque les mêmes.


Apparemment, il s'agit toujours de l'alignement de la dispersion, comme l'a souligné Maxim, selon la méthode indiquée par Vladimir.

Oui, je parle de la possibilité de réduire les poids pour les lignes où le partitionnement du prédicteur doit être déplacé à un niveau inférieur de l'arbre. Donner simplement des pondérations aux données les plus récentes pourrait avoir du sens, si l'on considère que le marché a changé...

 
Maxim Dmitrievsky:
Y a-t-il un endroit où l'on peut lire sur ces paramètres ?

Je n'ai pas fait attention à ce truc avant.

 

Réalisation d'un prototype du TS sur le NS. Ouverture d'un commerce selon la prévision NS, temps de prévision - 5 m. Conclusion de l'affaire en 5 minutes après l'ouverture. Il n'y a pas de suivi de l'accord.

Voici le premier résultat :

x - numéro de transaction, y - bénéfice en pips. Les commissions, etc. ne sont pas prises en compte. L'intervalle du test est de 3,5 mois.

Il n'est pas nécessaire de trader jusqu'au 60ème trade, c'est jusqu'à la clôture précédente des futures, la prévision n'est pas très possible à ce moment là. Les sauts brusques, je le soupçonne, sont des écarts interjournaliers.

Et du code Python. C'est on ne peut plus simple.

def Long(i): # сделка Long
    print('long')
    profLS.append(SD.history[i+5][c.c] - SD.history[i][c.c] )
    return i + 5

def Short(i):  # Сделка Short
    print('short')
    profLS.append(SD.history[i][c.c] - SD.history[i+5][c.c] )
    return i + 5

while i < LenHist:
    x = []
    for j in range(0, 20): #Подготовка данных для НС
        x.append((SD.history[i-j][c.c]/SD.history[i][c.c]-1)*1000)
    out = MLP.Predict([x]) # запрашиваем прогноз НС
    if out >= 3.0:
        i = Long(i)       
        tmp.append('L')
    elif out <= -3.0:
        i = Short(i)        
        tmp.append('S')
    i += 1
 
elibrarius:

Je n'ai pas fait attention à ce truc avant.

Je n'ai pas pu le trouver sur le site web de xgboost, mais il y a une section "réglage des paramètres" qui traite du compromis biais-variance.

C'est un peu similaire à ce que je pensais.

Je ne l'utilise pas, je suis juste curieux.

 
Yuriy Asaulenko:

Réalisation d'un prototype du TS sur NS. La transaction a été conclue 5 minutes après l'ouverture (temps de prédiction). Il n'y a pas de surveillance du commerce.

Voici le premier résultat :

Par x - numéro de transaction, par y - bénéfice en pips. Les commissions, etc. ne sont pas prises en compte. L'intervalle du test est de 3,5 mois.

Il n'est pas nécessaire de trader jusqu'au 60ème trade, c'est jusqu'à la clôture précédente des futures, la prévision n'est pas très possible à ce moment là. Les sauts brusques, je le soupçonne, sont des écarts interjournaliers.

Et du code Python. C'est on ne peut plus simple.

Cela semble intéressant compte tenu de la fermeture de nuit et de la non-ouverture à 10 heures ?

 
Aleksey Vyazmikin:

Cela semble intéressant, mais tenez-vous compte de la fermeture pour la nuit et de la non-ouverture à 10 heures ?

Rien n'est pris en compte. Flux continu d'histoire Fermer directement à NS. Nous ouvrons selon les prévisions de NS et ensuite nous fermons bêtement dans 5 mètres.

 
Maxim Dmitrievsky:

Je n'ai pas pu trouver un tel réglage sur le site web de xgboost, mais il y a une section "réglage des paramètres" et tout tourne autour du compromis biais-variance.

C'est un peu similaire à ce que je pensais.

Je ne l'utilise pas, je suis juste curieux.

Dans la description PDF du paquet pour la fonction xgb.train, il est dit :

weight - un vecteur indiquant le poids pour chaque ligne de l'entrée.

Et c'est tout.

L'ELM a le même. Je l'ai vu ailleurs.

 
elibrarius:

La description PDF du paquet pour la fonction xgb.train dit :

weight - un vecteur indiquant le poids pour chaque ligne de l'entrée.

C'est tout.

J'ai demandé au gars qui s'occupe du boost, il te donnera peut-être une réponse plus tard.

 
Yuriy Asaulenko:

Rien n'est comptabilisé. Flux continu d'histoire Fermer directement sur le NS. On ouvre en fonction des prévisions, dans 5 m on ferme bêtement.

J'ai obtenu de bons résultats en utilisant Si en formation, mais il s'est avéré irréel de fermer à 10h00 par arrêt sans se retirer, ce qui a fortement biaisé le résultat.