L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1487

 
Aleksey Vyazmikin:

C'est pourquoi nous devons donner des estimations lors du tri des prédicteurs et de leurs valeurs et ne pas prendre les prédicteurs dont les valeurs (fourchettes) sont très encombrées, mais donner la préférence à ceux qui sont répartis sur l'ensemble de l'échantillon.

Tout semble toujours très bien sur le backtest)
Je suppose que vous avez besoin d'un forward uniforme? La forêt ne sait rien de l'avancée de la formation.
 
elibrarius:
Eh bien, tout semble toujours très bien sur le backtest).
Je suppose que vous avez besoin d'un uniforme avant ? La forêt ne sait rien de l'avancée de la formation.

L'évaluation doit porter sur les deux échantillons impliqués dans la formation.

 
Aleksey Vyazmikin:

L'évaluation doit porter sur les deux échantillons impliqués dans la formation.

le second est une validation ?
 

Il y aura alors un ajustement avec la parcelle de validation. Bien que cela puisse fonctionner si la validation est plus grande que la formation. Dans le NS d'Ivan Butko, la formation se fait sur une petite parcelle et la validation sur une parcelle plusieurs fois plus grande. Nous considérons habituellement la validation de 15 à 25% de toutes les données, mais dans sa vidéo, elle est d'environ 80%.

 
elibrarius:
le second est une validation ?

Oui, si cela s'applique.

En général, je pense que plus l'échantillon est grand, mieux c'est - c'est une question de robustesse des prédicteurs, pas seulement d'apprentissage.

Il pourrait être possible de prétraiter les données, afin de regrouper uniquement les plages de valeurs prédictives qui ne sont pas rares, mais qui sont fortement biaisées par l'échantillon.

Remplacez-les conventionnellement par des -1 et interdisez de faire des splits initiaux sur eux, au moins jusqu'à une profondeur de 2-3.

 
elibrarius:

Il y aura alors un ajustement avec la parcelle de validation. Bien que cela puisse fonctionner si la validation est plus grande que la formation. Dans le NS d'Ivan Butko, la formation se fait sur une petite parcelle et la validation sur une parcelle plusieurs fois plus grande. Ici, nous avons généralement considéré des variantes avec une validation de 15-25% de toutes les données, et dans sa vidéo environ 80%.

Il n'y aura pas beaucoup d'adéquation, car nous ne nous entraînons pas essentiellement sur la validation, nous prenons simplement des informations supplémentaires sur la structure du marché à partir de celle-ci également.

 
Aleksey Vyazmikin:

Oui, si cela s'applique.

En général, je pense que plus l'échantillon est grand, mieux c'est - c'est une question de robustesse des prédicteurs, pas seulement d'apprentissage.

Il pourrait être possible de prétraiter les données, afin de regrouper uniquement les plages de valeurs prédictives qui ne sont pas rares, mais qui sont très nombreuses dans l'échantillon.

Remplacez-les conventionnellement par des -1 et interdisez de faire des splits initiaux sur ces derniers, au moins sur une profondeur de 2-3.

Trop compliqué... L'algorithme standard de construction des arbres est simple et rapide.
Aleksey Vyazmikin:

Il n'y aura pas d'ajustement spécial, car nous n'apprenons pas sur la validation, nous en tirons simplement des informations supplémentaires sur la structure du marché.

La seule variante acceptable est que la validation soit équivalente ou supérieure à la formation.
Et nous en arrivons au point où nous devons simplement inclure la validation dans la parcelle de formation.
 
Graal:

Non, quel genre de svm est ce "fenêtre de Parzen", lissage à noyau, et"quasi-optimal" dans le sens où il est presque parfait (Mitchell l'avait quelque part), mais seulement très lent, chaque itération - trier l'ensemble des données vers un nouveau point et convolution avec le noyau

Je ne suis pas sûr de l'effet qu'il aura sur la non-stationnarité... et s'il est lent, il est difficile de le monter et de le corréler.

à mon avis, le principal problème est la mise à l'échelle/transformation des données, l'extraction de boucles, car même la régression non linéaire ou les SVM donnent de bons résultats si les modèles se répètent (sur la RV artificielle).

c.-à-d. que les problèmes liés à la sélection des modèles sont exagérés.
 
Maxim Dmitrievsky:

le principal problème est la mise à l'échelle/conversion des données, la mise en évidence des boucles

Oui, exactement.

 
elibrarius:
Trop compliqué... La seule variante acceptable est que la validation soit équivalente ou supérieure à la formation.
Et nous en arrivons au point où il nous suffit d'inclure la validation dans le graphe de formation.

Les algorithmes standards sont conçus pour travailler avec des phénomènes stationnaires, des systèmes fermés, donc là toute information est considérée a priori comme utile et il n'y a pas d'évaluation du point de vue du hasard, mais seulement la possibilité de l'utiliser pour la tâche (classification par cible), alors que nous avons beaucoup de bruit et j'ai proposé une façon logique de le combattre.

Et oui, je me suis éloigné de la validation en tant que telle lors de la collecte de l'herbier, laissant les critères d'évaluation des feuilles, y compris l'efficacité sur les parcelles temporelles. J'ai maintenant plus de 50 000 feuilles de toutes les variantes de l'arbre, dont seulement 200 environ sont sélectionnées comme signal et 600 (3 par feuille de signal) comme filtres, ce qui améliore considérablement les résultats (sur la plupart des périodes).

Nous devons partir du principe que tout ce que nous pouvons faire est de développer un algorithme pour la meilleure adaptation aux données, car nous ne connaissons pas l'avenir et il y a beaucoup de variations, même sur la base des valeurs prédictives disponibles. Et si nous avons de la chance, nous serons en mesure de trouver un modèle qui continuera à exister pendant un certain temps, c'est pourquoi il est important de rechercher un tel modèle avec certains critères, et la logique suggère qu'il devrait au moins être un modèle qui se produit dans l'ensemble de l'échantillon. C'est pourquoi la tâche consiste à créer un algorithme qui crée de nombreux modèles de ce type et construit des arbres à partir de ceux-ci.

Un exemple simple de perootooting dont la protection sera possible est la détection d'une partie d'un échantillon avec une certaine gamme de prix à laquelle un long flat a été fixé - lors de la formation actuelle, nous obtiendrons deux gammes de prix (ou retours des TF supérieurs) auxquels nous devrions négocier, mais à l'avenir un flat ne se produira guère à la même partie. Et avec l'approche que j'ai suggérée, avec les mêmes caractéristiques, il est plus probable que les niveaux de frappe seront considérés comme significatifs pour la génération d'événements.