L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3092

 
mytarmailS #:

vous savez, les profits et les pertes, n'est-ce pas ?

Nous prenons donc les retours de ces États lorsque le poste est ouvert.

Oui.

mytarmailS #:

Au lieu de différents paramètres TS, je prendrai simplement les échanges sur différentes sections, je pense qu'ils peuvent être mis en équation.

Je ne suis pas sûr.

Et en général, lisez l'article pour comprendre ce que vous faites, il y a des limites. Par exemple, il faut donner des réglages manifestement réussis, pas de -1000000 à +1000000. Si vous donnez tout à la suite, la moyenne des OOS sera au bas de l'échelle et il ne servira à rien de la comparer. Une fourchette très étroite de 0,95...,0,98 est également néfaste du point de vue du DR - les résultats seront très proches.

 
Forester #:

oui

pas sûr.

Et en général, lisez l'article pour comprendre ce que vous faites, il y a des limitations. Par exemple, il est nécessaire de donner des réglages manifestement réussis, pas de -1000000 à +1000000. Si vous donnez tout à la suite, la moyenne des OOS sera en bas de l'échelle et il ne servira à rien de la comparer. Une fourchette très étroite de 0,95...,0,98 n'est pas non plus souhaitable - les résultats seront très proches.

Je comprends que vous devez soumettre un TS rentable et pas n'importe quoi....


J'ai déjà décrit l'algorithme pour tester cette chose, mais il n'y a qu'une seule nuance avec les métriques


Dois-je optimiser les 4 + 1 métriques ?

 p_bo      slope       ar^2     p_loss 
 0.1666667  2.1796000 -0.2100000  0.1670000 
+

прибыль


Ou seulement

 p_bp  + прибыль


 
Mais je ne comprends pas comment ils procèdent à la validation croisée sans entraînement. Ils se contentent d'alimenter un ensemble de retours prêts à l'emploi et le mélangent ensuite à 12 000 variantes. Il devrait être entraîné sur chacun des 12 000 IS et prédit sur chaque OOS correspondant.
 
mytarmailS #:

Je comprends qu'il faut déposer une demande de CT rentable et pas n'importe quoi.


J'ai déjà décrit l'algorithme pour tester cette chose, mais il n'y a qu'une seule nuance avec les métriques.


Je dois optimiser les 4 + 1 paramètres.


Ou seulement


Je ne sais pas. Je suppose n'importe lequel d'entre eux.
 
Forester #:
Mais je ne comprends pas comment ils procèdent à la validation croisée sans entraînement. Ils se contentent d'alimenter un ensemble de retours prêts à l'emploi et le mélangent ensuite à 12 000 variantes. Il devrait être entraîné sur chacun des 12 000 IS et prédit sur chaque OOS correspondant.

C'est ainsi qu'il est formé.

Il est peut-être temps d'examiner l'ensemble.

 
mytarmailS #:

C'est ainsi qu'il est enseigné.

Où sont les hyperparamètres de la forêt/NS ? Il n'y en a pas, donc il n'y a pas d'apprentissage. Les prédicteurs ne sont pas alimentés non plus.
Je pense qu'il s'agit simplement d'évaluer la stabilité des prédictions du modèle externe.
 
Forester #:
Où sont les hyperparamètres de la forêt/NS ? Non - il ne s'agit donc pas d'un entraînement. Les prédicteurs ne sont pas alimentés non plus.
Je pense qu'il s'agit simplement d'évaluer la stabilité des prédictions du modèle externe.

La stabilité est estimée par régression linéaire, si j'ai bien compris.

Y a-t-il quelque chose dans l'article sur les forêts/NS ?
 

Je ne comprends pas très bien le concours. Profsreda, pas profsreda, il y a une tâche, et la discussion sur la justesse de la tâche est plus pertinente, et si elle est correcte, pourquoi pas ?

Je respecte les opinions de tous les participants au holivar, mais j'ai une autre))))))

Sans paramètres externes ou autres, tout est très compliqué, ou plutôt proche d'une machine à mouvement perpétuel))))) Mais avec des paramètres externes le même gros problème)

Le retour à la moyenne est le plus facile à comprendre et éternel apparemment et il est clair que sur les petits tf les erreurs sont moindres, mais les ticks de Saber donnent aussi des cygnes noirs)))))

 
mytarmailS #:

estime la stabilité au moyen d'une régression linéaire, d'après ce que j'ai compris

L'article contient-il des informations sur les forêts et les SN ?

Ou peut-être est-ce simple ? Comme Rattle ?

Nous prenons deux fichiers, le premier est grand, le second peut être plus petit, mais avec les dates les plus récentes par rapport au premier.

Nous divisons le premier fichier par échantillonnage aléatoire en trois parties : formation, test, validation dans les proportions 70/15/15.

Pour l'entraînement, nous procédons à une validation croisée, par exemple avec 5 plis. Si un pli est au minimum de 1500 barres, alors train = 7500 barres. Dans un cercle, 15 000 barres pour deux fichiers sources suffiront.

Nous exécutons le modèle formé sur le test, la validation et obtenons une erreur de classification sur chacun d'entre eux .

Ensuite, nous exécutons la fenêtre de 1500 mesures sur le deuxième fichier. Nous recueillons l'erreur de classification.

Si TOUTES les erreurs de classification obtenues se situent dans la fourchette de 5%, alors tout va bien : nous pouvons faire confiance à l'erreur de classification obtenue et il n'y a pas de réentraînement.

 
СанСаныч Фоменко #:

Et si nous restions simples ?

C'est ce que nous allons voir.


Tout d'abord, vous devriez essayer d'exécuter l'algorithme et le tester, s'il ne fonctionne pas, jetez-le et oubliez-le... 99%.

S'il fonctionne, vous pouvez vous plonger dans l'article, dans la méthode, essayer de l'améliorer, de le modifier, de le remplacer... 1%.