L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2384

 
Maxim Dmitrievsky

avez-vous pu faire un balisage manuel? cette technique devrait être plus intéressante

 
Evgeni Gavrilovi:

avez-vous pu faire un marquage manuel? cette technique devrait être plus intéressante

Je ne l'ai pas fait, cette approche ne m'intéresse pas.

 
mytarmailS:

J'ai trouvé un moyen de générer des règles qui fonctionnent à la fois sur le plateau et le test, enfin MLEEP....

mon courtier, mon formateur et le test



votre courtier vos données et le test dans 9 ans passe ! !!

Grail found !!!!!!!

Ce qui est amusant, c'est que je serai absent du forum demain, pendant environ un mois, ce qui n'est pas de chance (j'ai envie de partager mais pas le temps, quand je peux écrire ce qu'il faut faire et comment le faire ....


Pour un trading confortable, vous devez faire 200-400 de ces règles(ou patrenov si vous voulez)

Pour comprendre l'échelle, mon faible ordinateur portable peut extraire 5 à 8 règles par jour.

Je ne vois rien de mal à extraire des règles, je voulais faire un mineur visuel (très rapide) avec des curseurs pour rechercher des modèles.

mais comme d'habitude, ce n'est pas encore fini.

 
Maxim Dmitrievsky:

Je ne vois pas ce qu'il y a de mal à extraire des règles, je voulais faire un extracteur visuel (très rapide) avec des curseurs, pour rechercher des modèles.

mais, comme d'habitude, je ne l'ai pas encore fait.

Que voulez-vous produire et comment ?

 
Valeriy Yastremskiy:

Que vouliez-vous retirer et comment ?

comme les boxplots

 
Maxim Dmitrievsky:

comme les boxplots

Résultats de formation ou règles de boxplot ?

 
Maxim Dmitrievsky:

Je ne vois rien de mal à exploiter les règles.

Bien sûr que non)), et même si c'était le cas, cela ne m'affecterait en aucune façon)

Maxim Dmitrievsky:

Je voulais faire un mineur visuel (très rapide) avec des curseurs pour rechercher des modèles.

mais comme d'habitude, je ne l'ai pas encore fait.

Essayez-le, seulement le résultat sera au mieux comme le rendu de Forrest, c'est-à-dire aucun...


La sortie de Forrest est une somme de règles déclenchées, les règles ne sont pas filtrées et rejetées de quelque manière que ce soit, et les règles rejetées sont d'environ 100 %).

Les règles ne sont pas vérifiées en termes de répétabilité (il peut n'y avoir qu'une seule réponse) ou d'adéquation (est-ce que cela fonctionne) ; les règles sont simplement étendues aux données (le modèle s'adapte aux données).

Le modèle approxime un échantillon d'entraînement de manière aléatoire, en espérant que la validation croisée l'aidera, mais il ne le fera pas pour des raisons objectives (il y a trop peu d'événements importants sur le marché).


J'ai essayé une approche différente : je n'adapte pas le modèle aux données, mais je formule des hypothèses et je les vérifie.

1) Je forme des hypothèses plausibles(déjà filtrées) sous forme de règles.

2) Les hypothèses sont testées sur de petites données.

3) Les hypothèses qui ont été testées sur de petites données sont testées sur de grandes données.

En fait, il ne reste qu'une seule règle plausible sur un million.

Il est difficile pour un lecteur non averti de comprendre la différence entre ces deux approches, mais la différence entre elles est abyssale.

 
mytarmailS:

Bien sûr que non)), et même si c'était le cas, cela ne m'affecterait en rien).

Essayez-le, mais le résultat sera au mieux le même que pour Random Forest, c'est-à-dire aucun...


La sortie de Forrest est une somme de règles déclenchées, les règles ne sont pas filtrées et rejetées de quelque manière que ce soit, et les règles rejetées sont environ 100 %).

Les règles ne sont pas vérifiées en termes de répétabilité (il peut n'y avoir qu'une seule réponse) ou d'adéquation (est-ce que cela fonctionne) ; les règles sont simplement étendues aux données (le modèle est adapté aux données).

Le modèle approxime un échantillon d'entraînement de manière aléatoire, en espérant que la validation croisée l'aidera, mais il ne le fera pas pour des raisons objectives (il y a trop peu d'événements importants sur le marché).


J'ai essayé une approche différente : je n'adapte pas le modèle aux données, mais je formule des hypothèses et les vérifie.

1) Je forme des hypothèses plausibles(déjà filtrées) sous forme de règles.

2) Les hypothèses sont testées sur de petites données.

3) Les hypothèses qui ont été testées sur de petites données sont testées sur de grandes données.

En fait, il ne reste qu'une seule règle plausible sur un million.

Il est difficile pour le lecteur non averti de comprendre la différence entre ces deux approches, mais la différence entre elles est un abîme.

Montrez-moi donc les résultats du CT à titre d'exemple.

 
Maxim Dmitrievsky:

Montrez-moi donc les résultats de TC

je ne peux pas encore, je dois obtenir au moins 500 règles sales à partir desquelles je passerai les 10% finaux...

Juste pour vous donner une idée, j'ai déjà eu 2 règles sales la nuit dernière.


Je travaille sur l'accélération de la synthèse des règles, aujourd'hui j'ai trouvé comment augmenter la vitesse par 5 fois et j'ai réécrit un peu plus de code...

 
mytarmailS:

Je ne peux pas encore, j'ai besoin d'au moins 500 règles sales pour passer les derniers 10%...

Juste pour que tu comprennes, j'ai fait 2 sales règles la nuit dernière.

Je pense qu'Alexei a suggéré la puissance de calcul, il aime faire de longs calculs, peut-être que vous pouvez faire une coopérative :)

Sur R sans vectorisation sera toujours lent. Vous pouvez utiliser une base de données rapide