L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1034

 
Maxim Dmitrievsky:

a décidé de faire entrer les prédicteurs sans aucun sens et de les multiplier.

où avez-vous construit autant de prédicteurs ? quelle est leur importance ? il y a 1/3 de la forêt qui n'est pas incluse dans l'ensemble d'entraînement, et 95% ont une faible importance. Et quel est le retour d'information que le système a maintenant avec autant de prédicteurs, 3 heures pour 1 prévision ? )

Vous ne le saurez pas tant que vous ne l'aurez pas construit...

Le résultat lui-même : c'est possible avec Apache Spark

Je ne fais pas plus de 1000 prédicteurs maintenant. Mais moins de 100 prédicteurs n'est pas suffisant.

 
Roffild:

Vous ne le saurez pas tant que vous ne l'aurez pas construit...

Le résultat lui-même : c'est possible avec Apache Spark

Je ne fais pas plus de 1000 prédicteurs pour le moment. Mais moins de 100 prédicteurs, je pense que ce n'est pas suffisant.

ignorez-vous délibérément les questions ?

Je répète : comment se fait-il qu'il y ait autant de prédicteurs ?

 
Maxim Dmitrievsky:

ignorez-vous délibérément les questions ?

Je répète : comment se fait-il qu'il y ait autant de prédicteurs ?

Vous pouvez faire un milliard de prédicteurs, l'élan par incréments de un et ainsi de suite).

Mais ils ne vous donneront rien de plus.

 
Maxim Dmitrievsky:

ignorez-vous délibérément les questions ?

Je répète : comment se fait-il qu'il y ait autant de prédicteurs ?

La plupart de ces prédicteurs ont pour résultat : bool(high[0] > high[1]) et ont donc l'état 0 ou 1

Bien sûr, je génère une liste de prédicteurs avec un script.

La sélection délibérée de prédicteurs n'a aucun sens, car il est facile d'en exclure un important.

 
Roffild:

La plupart de ces prédicteurs donnent comme résultat : bool(high[0] > high[1]) et ont respectivement l'état 0 ou 1

Bien sûr, je génère une liste de prédicteurs avec un script.

Il ne sert à rien de sélectionner délibérément des prédicteurs, car il est facile d'en exclure un important.

Vous devez prendre non pas par quantité mais par transformation des quelques classes initiales jusqu'à ce que les classes deviennent bien séparables, avec un contrôle d'erreur sur les OOS.

 
forexman77:

Vous pouvez faire un milliard de prédicteurs, l'élan par incréments de un, etc.)

Mais ils ne nous donneront rien de plus.

Si le prédicteur ne veut pas faire partie de la forêt, il n'y a rien de mal à cela. Peut-être que ce prédicteur se manifestera dans une autre version de la forêt aléatoire.

Nous parlons ici d'un tableau de 7000 doubles, qui occupe peu de mémoire vive et se déplace en quelques nanosecondes. Il n'y a pas de ralentissement perceptible dans l'interprétation de 500 arbres avec 7000 prédicteurs. Si vous ne me croyez pas, installez Spark et vérifiez vous-même.

 
Maxim Dmitrievsky:

Vous devez prendre non pas par quantité mais par transformation des quelques classes initiales jusqu'à ce que les classes soient bien séparables, avec un contrôle d'erreur sur les OOS.

L'évaluation de la qualité d'une forêt est un tout autre sujet.
 
Roffild:
L'évaluation de la qualité d'une forêt est un tout autre sujet.

La question est l'efficacité de l'approche, celle que vous proposez est, pour le dire crûment, inefficace.

 
Maxim Dmitrievsky:

La question est celle de l'efficacité de l'approche. L'approche que vous proposez est, pour le dire crûment, inefficace.

L'efficacité doit encore être prouvée par des résultats pratiques. Peut-être que ma méthode d'estimation des graphiques de prix ne coïncide pas avec les indicateurs de qualité classiques, mais en fin de compte, tout est décidé par le profit.

Je répondais à la question "pourquoi avons-nous besoin de Spark ?". Je lui ai répondu. Ou allez-vous encore m'accuser d'ignorer les questions ?

 
Roffild:

L'efficacité doit encore être prouvée par des résultats pratiques. Peut-être ma méthode d'évaluation des graphiques de prix ne coïncide-t-elle pas avec les indicateurs de qualité classiques, mais en fin de compte, c'est le bénéfice qui décide de tout.

Je répondais à la question "pourquoi avons-nous besoin de Spark ?". Je lui ai répondu. Ou allez-vous encore m'accuser d'ignorer les questions ?

C'est clair depuis longtemps pour Spark, je n'ai pas demandé. Interrogé sur l'idée. Cette approche par étincelles est exactement ce qui est jeté en l'air en raison de l'inefficacité de la courbe d'apprentissage et de la capacité requise.

La même chose peut être faite par optimisation dans le nuage MT5 sans échafaudage. Je ne connais pas votre résultat et je ne sais pas s'il vous permet de faire des bénéfices, mais ce n'est pas le cas et cet algorithme échouera toujours à cause des surajustements.

IALA