L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3019
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
C'est ainsi que j'ai écrit quelle est la différence entre l'avidité et la génétique pour le bois - peut-être n'ai-je pas compris la question.
Je n'ai jamais entendu parler de l'extraction de règles à partir d'un réseau neuronal. Pouvez-vous me donner un lien ? Jusqu'à présent, quelque chose d'encombrant se dessine dans mon imagination.
Mais je pense que les réseaux neuronaux seront évidemment plus lents que les arbres en termes de vitesse d'émission de nouvelles règles.
Votre idée de séparer les "bonnes règles" des mauvaises est totalement sans issue, sans issue sur le plan méthodologique.
Pour une raison quelconque, vous pensez que les "bonnes" règles (les arbres) sont vraiment "bonnes".
Et ce n'est pas seulement l'imprécision de leur avenir, c'est le fait qu'il n'y a pas du tout de règles qui peuvent être prises selon certains critères. Il existe des règles qui produisent une VARIABILITÉ de la "bonté" qui change au fur et à mesure que la fenêtre se déplace, et il est tout à fait possible que cette règle passe de "bonne" à "mauvaise" au fur et à mesure que la fenêtre se déplace. Cette variabilité est définie par une valeur qui divise la probabilité de prédiction en classes.
Dans les algorithmes de MO, la division en classes se fait généralement en divisant par deux la probabilité de prédiction de la classe, mais c'est tout à fait incorrect. Je considère la valeur de la division en classes - elle n'est jamais 0,5 : cette valeur varie et dépend du prédicteur particulier.
Revenons à nos "bons" arbres.
Si vous avez sélectionné des arbres dont la "bonté" est proche du seuil, cela bouge. C'est pourquoi j'ai soutenu plus haut que les "bons" arbres que vous avez sélectionnés pouvaient facilement devenir de mauvais arbres.
C'est une impasse.
Yandex a écrit quelque chose de similaire https://academy.yandex.ru/handbook/ml/article/optimizaciya-v-ml
Un bon tutoriel de Yandex, pas mal écrit. Une autre section de ce tutoriel a plus à voir avec ce que je pense. Elle décrit le type général de fonction de perte utilisée dans la construction d'arbres. L'idée est que l'optimisation du prix moyen de l' erreur et la maximisation du profit sont équivalentes à l'optimisation de la somme des prix de l'erreur.
En termes de profit, il s'agit de la différence entre le profit total et le profit moyen d'une transaction. Étant donné que je résous le problème de la classification binaire (entrer/non entrer), maximiser le profit moyen dans une transaction conduira stupidement à entrer dans une ou deux transactions et à rejeter le reste.
J'essaie de comprendre s'il s'agit d'une frontière infranchissable entre l'optimisation et la MO ou non.
Beau tutoriel de Yandex, pas mal écrit. Ce que je pense a plus à voir avec une autre section du tutoriel. Elle décrit le type général de fonction de perte utilisée dans la construction d'arbres. L'idée est que l'optimisation du prix moyen de l' erreur et la maximisation du profit sont équivalentes à l'optimisation de la somme des prix de l'erreur.
Si on la traduit en termes de profit, il s'agit de la différence entre le profit total et le profit moyen d'une transaction. Puisque je résous le problème de la classification binaire (entrer/non entrer), maximiser le profit moyen dans une transaction conduira stupidement à entrer dans une ou deux transactions et à rejeter le reste.
J'essaie de comprendre s'il s'agit d'une frontière infranchissable entre l'optimisation et la MO ou non.
Qu'est-ce qui vous empêche d'écrire votre propre fonction de perte ?
C'est moi qui résume à peu près l'arbre ) Google, je l'utilise moi-même. Les dipminds sont généralement très proches de la façon dont je perçois la réalité.
Merci pour vos conseils !
Merci pour vos conseils !
C'est vous qui devez vous occuper de vos sujets, pas quelqu'un d'autre.....
Je résous des problèmes en MQL5, et nous parlions de R.
Un fait est un fait - vous dites quelque chose sans réfléchir, puis vous allez dans les buissons.
Qu'est-ce qui vous empêche d'écrire votre FUN ?
Eh bien, je n'arrive pas encore à comprendre comment mettre en œuvre la maximisation des profits dans le même bousinage, par exemple.
Je fais quelque chose, bien sûr, mais j'aimerais entendre d'autres opinions informatives sur le sujet.
Je n'ai pas encore trouvé comment mettre en œuvre la maximisation du profit dans le même bousinage, par exemple.
Je fais quelque chose, bien sûr, mais j'aimerais entendre d'autres opinions informatives sur le sujet.
Votre idée de séparer les "bonnes règles" des "mauvaises règles" est une impasse totale, une impasse méthodologique.
Vous pensez en quelque sorte que les "bonnes" règles (les arbres) sont vraiment "bonnes".
Et ce n'est pas seulement l'imprécision de leur avenir, c'est le fait qu'il n'y a pas du tout de règles qui peuvent être prises selon certains critères. Il existe des règles qui produisent une VARIABILITÉ de la "bonté" qui change au fur et à mesure que la fenêtre se déplace, et il est tout à fait possible que cette règle passe de "bonne" à "mauvaise" au fur et à mesure que la fenêtre se déplace. Cette variabilité est déterminée par une valeur qui divise la probabilité de prédiction en classes.
Dans les algorithmes de MO, la division en classes se fait généralement en divisant par deux la probabilité de prédiction de la classe, mais c'est tout à fait incorrect. Je considère la valeur de la division en classes - elle n'est jamais 0,5 : cette valeur varie et dépend du prédicteur particulier.
Revenons maintenant à vos "bons" arbres.
Si vous avez sélectionné des arbres dont la "bonté" est proche du seuil, cela bouge. C'est pourquoi j'ai affirmé plus haut que les "bons" arbres que vous avez sélectionnés peuvent facilement devenir de mauvais arbres.
C'est une impasse.
Vous émettez vous-même des hypothèses sur ce que je pense et vous les contredisez. Essayez de poser des questions au début.
Impasse ou pas, j'ai montré des résultats concrets. Montrez la même chose avec une forêt dont 50 % des feuilles classent 3 classes avec profit, deux ans après la formation. Pour autant que je me souvienne, vous avez un concept de recyclage régulier des modèles, presque une fois par semaine.
Je n'ai pas besoin d'expliquer la dérive - j'ai créé un fil de discussion séparé sur le forum, où des tentatives de résolution du problème ont lieu - si vous voulez partager des idées, rejoignez-le.
La méthode est donc prometteuse, mais il y a encore des choses à améliorer et à développer.
Je n'ai pas encore trouvé comment mettre en œuvre la maximisation du profit dans le même bousinage, par exemple.
Je fais quelque chose, bien sûr, mais j'aimerais entendre d'autres opinions informatives sur le sujet.
Je vous ai montré comment entraîner forrest à la maximisation des profits.
Il s'agit d'un simple apprentissage sans gradient par le biais d'une fonction d'aptitude, essentiellement RL.
J'ai jeté le code ici, mais cette méthode n'est pas très efficace pour les grandes tâches.
Pour ces tâches, nous devons convertir l'apprentissage sans gradient en apprentissage par gradient, c'est-à-dire en un parcours RL classique.
Regardez la première moitié de cette vidéo , elle vous explique comment l'entraîner.
Il y a un exemple avec des neurones, mais il n'est pas important de savoir s'il s'agit d'un boost ou d'autre chose.