L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3019

 
Aleksey Vyazmikin #:

C'est ainsi que j'ai écrit quelle est la différence entre l'avidité et la génétique pour le bois - peut-être n'ai-je pas compris la question.

Je n'ai jamais entendu parler de l'extraction de règles à partir d'un réseau neuronal. Pouvez-vous me donner un lien ? Jusqu'à présent, quelque chose d'encombrant se dessine dans mon imagination.

Mais je pense que les réseaux neuronaux seront évidemment plus lents que les arbres en termes de vitesse d'émission de nouvelles règles.

Votre idée de séparer les "bonnes règles" des mauvaises est totalement sans issue, sans issue sur le plan méthodologique.

Pour une raison quelconque, vous pensez que les "bonnes" règles (les arbres) sont vraiment "bonnes".

Et ce n'est pas seulement l'imprécision de leur avenir, c'est le fait qu'il n'y a pas du tout de règles qui peuvent être prises selon certains critères. Il existe des règles qui produisent une VARIABILITÉ de la "bonté" qui change au fur et à mesure que la fenêtre se déplace, et il est tout à fait possible que cette règle passe de "bonne" à "mauvaise" au fur et à mesure que la fenêtre se déplace. Cette variabilité est définie par une valeur qui divise la probabilité de prédiction en classes.

Dans les algorithmes de MO, la division en classes se fait généralement en divisant par deux la probabilité de prédiction de la classe, mais c'est tout à fait incorrect. Je considère la valeur de la division en classes - elle n'est jamais 0,5 : cette valeur varie et dépend du prédicteur particulier.

Revenons à nos "bons" arbres.

Si vous avez sélectionné des arbres dont la "bonté" est proche du seuil, cela bouge. C'est pourquoi j'ai soutenu plus haut que les "bons" arbres que vous avez sélectionnés pouvaient facilement devenir de mauvais arbres.


C'est une impasse.

 
Igor Makanu #:

Yandex a écrit quelque chose de similaire https://academy.yandex.ru/handbook/ml/article/optimizaciya-v-ml

Un bon tutoriel de Yandex, pas mal écrit. Une autre section de ce tutoriel a plus à voir avec ce que je pense. Elle décrit le type général de fonction de perte utilisée dans la construction d'arbres. L'idée est que l'optimisation du prix moyen de l' erreur et la maximisation du profit sont équivalentes à l'optimisation de la somme des prix de l'erreur.

En termes de profit, il s'agit de la différence entre le profit total et le profit moyen d'une transaction. Étant donné que je résous le problème de la classification binaire (entrer/non entrer), maximiser le profit moyen dans une transaction conduira stupidement à entrer dans une ou deux transactions et à rejeter le reste.

J'essaie de comprendre s'il s'agit d'une frontière infranchissable entre l'optimisation et la MO ou non.

Решающие деревья
Решающие деревья
  • academy.yandex.ru
Обучение древесных моделей для классификации и регрессии. Эффективное построение решающих деревьев
 
Aleksey Nikolayev #:

Beau tutoriel de Yandex, pas mal écrit. Ce que je pense a plus à voir avec une autre section du tutoriel. Elle décrit le type général de fonction de perte utilisée dans la construction d'arbres. L'idée est que l'optimisation du prix moyen de l' erreur et la maximisation du profit sont équivalentes à l'optimisation de la somme des prix de l'erreur.

Si on la traduit en termes de profit, il s'agit de la différence entre le profit total et le profit moyen d'une transaction. Puisque je résous le problème de la classification binaire (entrer/non entrer), maximiser le profit moyen dans une transaction conduira stupidement à entrer dans une ou deux transactions et à rejeter le reste.

J'essaie de comprendre s'il s'agit d'une frontière infranchissable entre l'optimisation et la MO ou non.

Qu'est-ce qui vous empêche d'écrire votre propre fonction de perte ?

 
Maxim Dmitrievsky #:
C'est moi qui résume à peu près l'arbre ) Google, je l'utilise moi-même. Les dipminds sont généralement très proches de la façon dont je perçois la réalité.


Merci pour vos conseils !

 
Aleksey Vyazmikin #:

Merci pour vos conseils !

C'est compliqué, j'ai fait une recherche sur le sujet hier soir. Les mêmes arbres tirent des règles des échelles et des couches NS. Ils extraient également des règles des réseaux de haute précision. Je publierai un article dès que j'en saurai plus. L'arbre dans l'analyse exploratoire semble d'une certaine manière trop cool maintenant sous cet angle de la recherche de règles, surpassant probablement l'optimisation génétique en termes de vitesse, avec un ensemble de données correctement préparé.
Je n'ai pas essayé moi-même, il y a peut-être des pièges.
 
mytarmailS #:
C'est vous qui devez vous occuper de vos sujets, pas quelqu'un d'autre.....
Une fois qu'il vous est monté à la tête, c'est un processus...

Pensez-y.

Je résous des problèmes en MQL5, et nous parlions de R.

Un fait est un fait - vous dites quelque chose sans réfléchir, puis vous allez dans les buissons.

 
mytarmailS #:

Qu'est-ce qui vous empêche d'écrire votre FUN ?

Eh bien, je n'arrive pas encore à comprendre comment mettre en œuvre la maximisation des profits dans le même bousinage, par exemple.

Je fais quelque chose, bien sûr, mais j'aimerais entendre d'autres opinions informatives sur le sujet.

 
Aleksey Nikolayev #:

Je n'ai pas encore trouvé comment mettre en œuvre la maximisation du profit dans le même bousinage, par exemple.

Je fais quelque chose, bien sûr, mais j'aimerais entendre d'autres opinions informatives sur le sujet.

La précision fonctionne bien avec des classes équilibrées. J'ai essayé toutes les mesures standard, il n'y a pratiquement aucune différence dans les résultats. La maximisation des profits est mise en œuvre par le biais d'un balisage avec des transactions maximalement rentables, n'est-ce pas ?)
 
СанСаныч Фоменко #:

Votre idée de séparer les "bonnes règles" des "mauvaises règles" est une impasse totale, une impasse méthodologique.

Vous pensez en quelque sorte que les "bonnes" règles (les arbres) sont vraiment "bonnes".

Et ce n'est pas seulement l'imprécision de leur avenir, c'est le fait qu'il n'y a pas du tout de règles qui peuvent être prises selon certains critères. Il existe des règles qui produisent une VARIABILITÉ de la "bonté" qui change au fur et à mesure que la fenêtre se déplace, et il est tout à fait possible que cette règle passe de "bonne" à "mauvaise" au fur et à mesure que la fenêtre se déplace. Cette variabilité est déterminée par une valeur qui divise la probabilité de prédiction en classes.

Dans les algorithmes de MO, la division en classes se fait généralement en divisant par deux la probabilité de prédiction de la classe, mais c'est tout à fait incorrect. Je considère la valeur de la division en classes - elle n'est jamais 0,5 : cette valeur varie et dépend du prédicteur particulier.

Revenons maintenant à vos "bons" arbres.

Si vous avez sélectionné des arbres dont la "bonté" est proche du seuil, cela bouge. C'est pourquoi j'ai affirmé plus haut que les "bons" arbres que vous avez sélectionnés peuvent facilement devenir de mauvais arbres.


C'est une impasse.

Vous émettez vous-même des hypothèses sur ce que je pense et vous les contredisez. Essayez de poser des questions au début.

Impasse ou pas, j'ai montré des résultats concrets. Montrez la même chose avec une forêt dont 50 % des feuilles classent 3 classes avec profit, deux ans après la formation. Pour autant que je me souvienne, vous avez un concept de recyclage régulier des modèles, presque une fois par semaine.

Je n'ai pas besoin d'expliquer la dérive - j'ai créé un fil de discussion séparé sur le forum, où des tentatives de résolution du problème ont lieu - si vous voulez partager des idées, rejoignez-le.

La méthode est donc prometteuse, mais il y a encore des choses à améliorer et à développer.

 
Aleksey Nikolayev #:

Je n'ai pas encore trouvé comment mettre en œuvre la maximisation du profit dans le même bousinage, par exemple.

Je fais quelque chose, bien sûr, mais j'aimerais entendre d'autres opinions informatives sur le sujet.

Je vous ai montré comment entraîner forrest à la maximisation des profits.

Il s'agit d'un simple apprentissage sans gradient par le biais d'une fonction d'aptitude, essentiellement RL.

J'ai jeté le code ici, mais cette méthode n'est pas très efficace pour les grandes tâches.


Pour ces tâches, nous devons convertir l'apprentissage sans gradient en apprentissage par gradient, c'est-à-dire en un parcours RL classique.

Regardez la première moitié de cette vidéo , elle vous explique comment l'entraîner.

Il y a un exemple avec des neurones, mais il n'est pas important de savoir s'il s'agit d'un boost ou d'autre chose.

Deep Learning на пальцах 13 - Reinforcement Learning
Deep Learning на пальцах 13 - Reinforcement Learning
  • 2019.05.15
  • www.youtube.com
Курс: http://dlcourse.ai