L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3027

 
Pourquoi faut-il mettre les règles dans le boost ?
 
Maxim Dmitrievsky #:
Je pense qu'il suffit de générer un bot de vérification en une fois et de vérifier les règles nécessaires à l'aide d'un testeur/optimiseur

Il est préférable de faire la sélection des feuilles en python, et le modèle final - eh bien, vous pouvez le faire dans le terminal. Mais vous devrez transférer les règles dans le terminal, ce qui n'est pas si facile. C'est pourquoi il est préférable de tout faire en python - même si c'est moins précis dans un certain sens, mais le processus peut être vu du début à la fin. Ce n'est qu'une expérience pour l'instant....

 
mytarmailS #:
Pourquoi mettre des règles dans un booster ???

Je l'ai écrit, c'est une façon de les agréger. Attribuer essentiellement des pondérations et supprimer les incohérences. Identifier les meilleures instances.

Vous pouvez utiliser un arbre simple. Ou vous pouvez agréger et donner des poids vous-même. J'ai essayé toutes ces méthodes.

Avez-vous une autre idée ?

 
Aleksey Vyazmikin #:

Il est préférable de sélectionner les feuilles en Python, et le modèle final - eh bien, vous pouvez le faire dans le terminal. Mais il faudra transférer les règles dans le terminal, ce qui n'est pas évident non plus. C'est pourquoi il est préférable de tout faire en Python - même si c'est moins précis dans un certain sens, mais le processus peut être vu du début à la fin. Ce n'est qu'une expérience pour l'instant....

Cela ne coûte rien de déplacer les règles.

Les règles sont sélectionnées en python par des métriques, peut-être que je ferai un testeur pour elles.

On peut faire beaucoup de choses. Par des modèles en bois, par des modèles linéaires, par des boustings.

+ le générateur de signes par les rapprochements, l'un des plus efficaces. Mais il faudra beaucoup de temps pour compter. C'est un analogue automatique de votre quantification.

 
Aleksey Vyazmikin #:

J'ai écrit - une façon de les agréger. Attribuer essentiellement des pondérations et supprimer les incohérences. Identifier les meilleurs cas.

Vous pourriez utiliser un simple arbre. Ou bien agréger et distribuer les poids vous-même. J'ai essayé toutes ces méthodes pour les appliquer.

Avez-vous une autre idée ?

La règle des statistiques résout donc ce problème.
Fréquence, précision, taille, probabilité.... Etc.

Je ne comprends pas pourquoi il y a un coup de pouce.
 
Maxim Dmitrievsky #:

Il n'en coûte rien de déplacer les règles.

Sélection de Python par métrique, peut-être que je ferai un testeur pour eux.

Il y a beaucoup de choses que vous pouvez faire. Par des modèles en bois, par des modèles linéaires, par des boustings.

+ feature generator through collations, l'un des plus efficaces. Mais il faudra beaucoup de temps pour compter. C'est un analogue automatique de votre quantification.

Qu'est-ce qu'une "collation" ?

 
mytarmailS #:
Voici comment Statistics per Rule résout ce problème
Fréquence, précision, taille, probabilité.... Etc

Je ne comprends pas pourquoi il y a une augmentation à cet endroit.

Le modèle d'arbre permet de supprimer les incohérences et de révéler les dépendances mutuelles non linéaires. Il ne s'agit pas d'utiliser les feuilles d'un arbre, mais celles de plusieurs arbres différents.

 
Aleksey Vyazmikin #:

Modèle d'arbre pour éliminer les contradictions et révéler les dépendances mutuelles non linéaires. Il ne s'agit pas d'utiliser les feuilles d'un seul arbre, mais celles de plusieurs arbres différents.

Ces règles ne sont-elles que des caractéristiques binaires du modèle ?
 
mytarmailS #:
Ces règles ne sont que des attributs binaires du modèle ?

C'est exact.

 
Aleksey Vyazmikin #:

Qu'est-ce que la "réconciliation" ?

convolutions, noyaux convolutifs.

transformée à noyau convolutif