L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1439

 
Maxim Dmitrievsky:


réécrire de manière réaliste l'ensemble du TS sous catbust pour essayer... il y a beaucoup de tracas, aussi. Mais le fait est que l'apprentissage sur de petits ensembles de données forestières se généralise bien et fonctionne, par exemple, sur 2-5k échantillons, augmentant seulement 2 fois, sur les mêmes données, le recyclage complet. C'est un fait.

J'ai essayé des ensembles de données courts, il y a des semaines avec une erreur de 30% et la semaine suivante 60-70%. Ce qui donne une moyenne de 50%.

 
Elibrarius:

J'ai essayé des ensembles de données courts, parfois une semaine avec une erreur de 30% et la suivante de 60-70%. Ce qui donne une moyenne de 50%.

Par exemple, si je m'entraîne pendant un mois, cela fonctionne presque aussi bien pendant un an avec de nouvelles données. Je m'entraîne pendant 2-3 mois - ça ne marche plus... des conneries.

et les erreurs du modèle sont les mêmes
 
Maxim Dmitrievsky:

Par exemple, si je m'entraîne pendant un mois, cela fonctionne presque aussi bien pendant un an avec de nouvelles données. Je m'entraîne pendant 2-3 mois - ça ne marche plus... une sorte de connerie

S'agit-il de résultats sur votre système d'auto-apprentissage ?
 
elibrarius:
Est-ce que ces résultats figurent dans votre système d'auto-apprentissage ?

Oui, sur elle, avec quelques astuces. Je vais en révéler une - ajouter des échantillons intermédiaires au modèle. Par exemple, il y avait un signal pour ouvrir une transaction d'achat, tant qu'elle est ouverte, sur chaque nouvelle barre ajouter un autre échantillon avec la même marque d'achat, avec de nouvelles lectures de jetons, respectivement. Cela réduira considérablement l'erreur. Une sorte de duplication des échantillons.

Il se peut que cela ne réduise pas les erreurs sur certains modèles, mais sur le mien, c'est le cas.
 
Maxim Dmitrievsky:

Oui, sur elle, avec quelques astuces. Je vais en révéler une - ajouter des échantillons intermédiaires au modèle. Par exemple, il y avait un signal pour ouvrir une transaction d'achat, tant qu'elle est ouverte, sur chaque nouvelle barre ajouter un autre échantillon avec la même marque d'achat, avec de nouvelles lectures de jetons, respectivement. Cela réduira considérablement l'erreur. Une sorte de duplication des échantillons.

Eh bien, c'est un peu comme choisir une cible au premier passage. Le reste des cycles consiste essentiellement à apprendre avec le professeur de la première manche.
Avec cette astuce, vous testerez plus de variations.
 
elibrarius:
Eh bien, c'est une sorte de correspondance de cible au premier passage. Le reste des cycles consiste essentiellement à apprendre avec le professeur de la première manche.
Grâce à cette astuce, vous pourrez tester plus de variations.

Je ne comprends pas vraiment. Il s'agit plutôt d'une duplication d'échantillons. En général, on se contente d'alimenter les signaux d'achat et de vente sans se soucier de la façon dont le marché se comporte entre ces signaux. Si vous ajoutez des échantillons intermédiaires de soutien, le modèle classifie automatiquement mieux.

Par exemple, si j'ai effectivement 1000 échantillons-signaux, alors avec les renforts intermédiaires cela fait 5k ou plus
 
Aleksey Vyazmikin:

L'élagage doit contrôler l'exhaustivité, c'est-à-dire couper pour obtenir une couverture d'échantillon d'au moins 0,5-1%.

Quoi ? Il suffit de couper empiriquement à la bonne profondeur.

 
Maxim Dmitrievsky:

la complétude de quoi ? il suffit de couper empiriquement à la bonne profondeur

La liste doit contenir au moins un pourcentage donné d'exemples de l'échantillon, si c'est moins, vous coupez les splits. Plus les exemples sont nombreux, plus la régularité est probable - tout est simple ici.

 
Maxim Dmitrievsky:

Oui, sur elle, avec quelques astuces. Je vais en révéler une - ajouter des échantillons intermédiaires au modèle. Par exemple, il y avait un signal pour ouvrir une transaction d'achat, tant qu'elle est ouverte, sur chaque nouvelle barre ajouter un autre échantillon avec la même marque d'achat, avec de nouvelles lectures de jetons, respectivement. Cela réduira considérablement l'erreur. Une sorte de duplication des échantillons.

Peut-être que dans certains modèles, cela ne réduit pas l'erreur, mais dans le mien, cela la réduit fortement.

J'ai commencé par cette approche, mais au contraire j'ai essayé de trouver la régularité de la courbe de classification correcte du point d'entrée au point de sortie, mais mon approche nécessite beaucoup de puissance de calcul - j'ai donc dû l'abandonner. Vous avez l'inverse, c'est intéressant, il y a un potentiel de contre-tendance... Je réfléchis à la façon dont je pourrais mettre en œuvre quelque chose de similaire au MO, qui fonctionne dans mes signaux - je ne sais pas comment m'entraîner, mais il y a manifestement un certain potentiel.

 
Maxim Dmitrievsky:

Je ne comprends pas vraiment. Il s'agit plutôt d'une duplication d'échantillons. En général, vous vous contentez d'alimenter les signaux d'achat et de vente sans vous soucier de la façon dont le marché se comporte entre ces signaux. Si vous ajoutez des échantillons intermédiaires de soutien, le modèle classifie mieux.

Par exemple, si j'ai 1000 échantillons-signaux, alors avec le support intermédiaire, cela fait 5k ou plus.

J'ai également remarqué et appliqué cette méthode, mais d'après ce que j'ai compris, elle fonctionne parce que les données sont merdiques et que cette astuce permet de s'entraîner sur une série de valeurs aberrantes. Si vous ne le faites pas, le modèle s'adapte à un courtier ou même parfois cesse de fonctionner après quelques mises à jour de rechargement de données sur le même terminal.