L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2106

 
Vladimir Perervenko:

Où aller ?

Pas pour minimiser l'erreur quadratique moyenne ou autre, mais pour y mettre votre poids de forme.

 
Vladimir Perervenko:

Comment ça ?

Je ne fais que prévoir le modèle 500 points à l'avance.

Il est facile de faire d'une prévision à 4 sinusoïdes (modèle), en fait, une prévision linéaire.

 
mytarmailS:

Je l'ai supprimé, je pensais que personne n'était intéressé, je peux vous envoyer le code, mais j'ai besoin de le traduire en forme lisible

Au fait, j'ai été confronté à l'instabilité de la méthode de recuit, je ne sais même pas comment l'utiliser, les résultats sont très instables, les paramètres sautent beaucoup...


J'en suis arrivé à ce que

D'abord, j'initialise aléatoirement le point de départ,

puis, lorsqu'une solution est trouvée, je la sauvegarde

Puis je recommence le burnout, mais avec les paramètres de départ de la solution trouvée, et ainsi de suite...

Veuillez m'envoyer un message.

Le recuit est instable. Utilisez rgenout. Testé, fiable.

Les modèles appliquent une fonction de perte. Rédigez la vôtre et si le modèle vous permet d'insérer votre fonction de perte, essayez-la.

 
mytarmailS:

Je fais juste une prévision à 500 points du modèle résultant

mais je pense qu'il ne faut échanger que les 1 ou 2 premiers échanges.

et doivent apprendre à trouver les paramètres

 
Maxim Dmitrievsky:

Vous pouvez utiliser 2 modèles dirigés différemment

J'ai essayé de l'enseigner séparément en utilisant ma stratégie de base - les résultats étaient moins bons, je pense que cela est dû à un échantillonnage déséquilibré - j'obtiens trop de zéros et j'en tire des leçons.

Je veux essayer une autre variante - enseigner la direction avec un modèle séparé. Il s'avérera que le premier modèle s'entraîne sur la volatilité, et le second sur son vecteur. Mais là encore, la taille de l'échantillon doit être importante.

 
Aleksey Vyazmikin:

J'ai essayé d'enseigner ma stratégie de base séparément - les résultats étaient moins bons, je pense que cela est dû à un échantillonnage déséquilibré - il y a trop de zéros et l'entraînement est basé sur eux.

Je veux essayer une autre option - enseigner la direction avec un modèle séparé. Il s'avérera que le premier modèle s'entraîne sur la volatilité, et le second sur son vecteur. Mais là encore, l'échantillon doit être important.

Pour les classes non équilibrées, vous pouvez utiliser le suréchantillonnage. J'ai fait tourner les modèles 2 et 3, il n'y a pratiquement aucune différence.
 
Maxim Dmitrievsky:
Vous pouvez utiliser le suréchantillonnage pour les classes non équilibrées. J'ai utilisé les modèles 2 et 3, il n'y a pratiquement aucune différence.

C'est-à-dire des lignes en double avec la cible "1" ? Je l'ai essayé - mon résultat n'a pratiquement pas changé avec CatBoost. Il faut probablement ajouter du bruit.

 
Aleksey Vyazmikin:

C'est-à-dire des lignes en double avec une cible "1" ? Je l'ai essayé - mon résultat n'a pratiquement pas changé avec CatBoost. Il faut probablement ajouter du bruit.

Ne pas dupliquer. Googler oversampling, par exemple SMOTE. Moi aussi, il n'apprend pas lorsque le déséquilibre est important. Après le suréchantillonnage, tout va bien.
 
Aleksey Vyazmikin:

C'est-à-dire des lignes en double avec une cible "1" ? Je l'ai essayé - mon résultat n'a pratiquement pas changé avec CatBoost. Il faut probablement ajouter du bruit.

C'est comme ça que ça devrait être. Un équilibrage par classe de SN est nécessaire. Les arbres feront très bien l'affaire.
 
Maxim Dmitrievsky:
Pas de double emploi. Googler le sur-échantillonnage, tel que SMOTE. Je n'apprends pas non plus avec un grand déséquilibre. Après le suréchantillonnage, tout va bien.

Eh bien oui, il s'agit essentiellement d'ajouter du bruit à la métrique du prédicteur. Cela pourrait affecter les limites de quantification en augmentant la sélection des zones avec des uns, mais par idée le même effet devrait être avec l'ajout de doublons, la seule chose que je suppose est que les doublons sont coupés par l'algorithme CatBoost avant que l'apprentissage commence (besoin de vérifier), alors oui - option.