L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1240

 
Maxim Dmitrievsky:

Nous ne sommes pas là pour l'argent mais pour l'idée.) L'argent peut être gagné par des moyens beaucoup plus triviaux.

Oui, quel est l'intérêt de cette idée. Eh bien, il y a l'apprentissage automatique, mais les miracles ne se produisent pas, c'est juste un indicateur plus sophistiqué et rien de plus.

Je veux négocier des actions, des contrats à terme, mais j'aurai besoin de plus d'argent, cela signifie que ce n'est pas pour moi.

Je ne sais pas comment utiliser ces indicateurs, ils peuvent être de différents types de trading.

 
forexman77:

Oui, quel est l'intérêt de cette idée. Eh bien, il y a l'apprentissage automatique, mais il n'y a pas de miracles, c'est juste un indicateur plus sophistiqué et rien de plus.

Eh bien, ou le commerce des actions, ou le commerce des contrats à terme, mais j'ai besoin de plus d'argent là-bas, donc ce n'est pas pour moi.

J'ai beaucoup de nerfs et de forces, alors que la sortie est comme la viande d'un moustique.

Je dois garder mon cul au chaud et puis souffrir... ou chercher un taxi dans ce champ...

 

Pour faire encore plus court, imaginez que le forex est une montagne que vous devez gravir. Mais, c'est pratiquement une montagne lisse, sans rien à quoi s'accrocher.

Et des améliorations de 1 à 2 % dans le MO ne feront pratiquement rien, il n'y a pas de prédicteurs, juste du bruit et tout, le reste est du réentraînement et rien de plus.

 
Maxim Dmitrievsky:

en bref dans alglib erreur de classification et logloss... Le logloss n'a aucun sens, l'erreur de classification dans la forêt tombe à zéro dans l'échantillon de formation>0.8 et oob 0.2.

C'est pourquoi j'ai pris un petit échantillon d'entraînement pour une sorte d'erreur, mais c'est toujours petit. Je ne sais pas comment comparer avec les Python.

Plutôt une reconversion... Les arbres peuvent mémoriser complètement les données d'entrée. R peut être réduit, et il semble qu'il n'y ait rien d'autre à modifier dans Algibe. Dans xgboost, par exemple, vous pouvez limiter la profondeur des arbres.
C'est la raison pour laquelle je ne les ai pas utilisés au début, et que je suis passé aux maillages. Mais les grilles ont leurs propres problèmes.
 
Vizard_:

hilarant... Maximka c'est pourquoi il est défoncé)))) Je n'ai rien écrit. En bref, le logloss est une pénalité. Changez-le en akuarisi, c'est facile à interpréter, c'est pourquoi on l'utilise.

Logloss mona puis plier un peu et quelques pour cent de plus si vous avez de la chance pour le faire sortir. Fa montré, il y a une bible dans R...

J'en oublie toujours la moitié, puis je suis surpris après un an de la même chose. recalculer :) il y a quelques absurdités dans alglib, pas comme dans les libs sérieuses, et la forêt est faite maison.

 
Vizard_:

hilarant... Maximka c'est pour ça qu'il est défoncé)))) Je n'ai rien écrit. En bref, le logloss est une pénalité. C'est facile à interpréter, c'est pourquoi on l'utilise.

Logloss mona puis se plier un peu et plus de pourcent-paire si vous avez la chance de vous serrer sur accuarisi. J'ai montré à Fa, il y a une bible dans R... Qu'est-ce qu'il y a dans l'algib, je ne sais pas ce qui se passe dans tes paramètres...

baisser l'avidité sur le rattle...

Alglib-e n'a que r pour la régularisation
 

Je ne pense pas que l'on puisse appliquer acuracu aux marchés du tout, les classes y sont déséquilibrées dès le départ.

Si vous avez l'akurasiu 100% tout va voler à la classe majoritaire est la pire métrique. Il est préférable de regarder la matrice de confusion, vous pouvez voir comment les classes sont divisées.

 
elibrarius:
Plutôt du surentraînement... Treynes, par contre, peut complètement mémoriser les données d'entrée. R peut être réduit, et il semble qu'il n'y ait rien d'autre à modifier dans Alglib. Dans xgboost, par exemple, vous pouvez limiter la profondeur des arbres.
C'est la raison pour laquelle je ne les ai pas utilisés au début, et que je suis passé aux maillages. Mais les grilles ont leurs propres problèmes.

il n'y a que le nombre d'arbres et r oui, si r est supérieur à 0,6 il y a presque toujours une erreur de classification sur un plateau 0,0 :))) dans le test il peut y avoir des variations, généralement autour de 0,5

 
forexman77:

Je ne pense pas du tout que l'on puisse appliquer l'acuracu aux marchés, les classes y sont initialement déséquilibrées.

Si vous avez un akurasiu 100% tout volera à la classe majoritaire est la pire métrique. Je préfère voir la matrice de confusion, elle montre spécifiquement comment les classes sont divisées.

Je ne comprends pas vraiment la précision non plus. La matrice d'erreurs ou l'erreur de classification est plus claire, et je l'affiche à l'écran.
 
Vizard_:

Nspesh en essaie d'autres en python également. Cat Boost, par exemple, ce n'est pas une offre très intéressante même hors de la boîte + il mange tout à la suite + il y a un visualiseur avec un point (à mettre quand la coupe ne s'améliore pas vraiment) et ainsi de suite...

déjà configuré, demain je l'essaierai, avec juste GBM, peut-être aussi LightGbm... un xgboost est une sorte de douleur à mettre en place, prend un long moment à comprendre