L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 711

 
Alexander_K2:

Le Graal n'est pas là, il est assis à côté de moi - il regarde cette correspondance les yeux écarquillés.

J'en viens aussi progressivement à toutes sortes de densités de probabilité et autres, mais d'un autre côté, du moushhilling :) J'y suis presque, la seule chose qui reste à faire est de comprendre le coolerning plus ou moins sous ses différentes formes.

L'entropie est également utilisée et différentes distributions peuvent être définies pour les agents.

 
Maxim Dmitrievsky:

Je m'approche aussi peu à peu de toutes sortes de densités de probabilité et autres, mais un peu à l'opposé, avec le moushinlerning :) J'y suis presque, il ne reste plus qu'à comprendre le coolerning plus ou moins dans ses diverses manifestations

C'est vrai.

Il suffit de traiter les entrées - elles ne doivent pas être aléatoires, mais strictement basées sur l'intensité du trading. Pour le moment, à long terme.

Si les finances sont difficiles, juste pour le plaisir de vivre - donnez-moi un vote, et je laisserai tomber le Graal sur les probabilités afin de faire mes forces pour continuer l'épopée.

Le spectacle doit continuer !

 
Vizard_:

Ouvrez les yeux))))

ouvert))))

Bonne chance !

)))

 
Alexander_K2:

C'est vrai.

Il suffit de s'occuper des entrées - elles ne doivent pas être aléatoires, mais strictement liées à l'intensité des métiers. Pour le moment, à long terme.

Si les finances sont difficiles, juste pour le plaisir de vivre, alors ne vous inquiétez pas, je jetterai le Graal au nom des possibilités, afin d'avoir la force de poursuivre l'épopée.

Le spectacle doit continuer !

la principale chose qui serait intéressante :) il y a toujours des choses intéressantes inexplorées que l'on peut fouiller.

Je ne vois pas le sens de la rotation supervisée et non supervisée, de la simple approximation et de la recherche de caractéristiques pour des problèmes stationnaires étroits.

 
A partir de 1h 04min.

Je suis aussi pour le boosting, mais je ne suis pas tout à fait d'accord avec sa lutte contre l'overfit.

Pour lui, vaincre l'overfit = critère spécifique de partition des arbres + nombre minimum d'arbres.

Pour moi : gbm + k-fold. J'ai opté pour gbm maintenant, mais j'ai essayé d'autres paquets dans R - xgboost, catboost - ils ont des protections intégrées contre l'overfit, mais je n'ai pas eu autant de plaisir qu'avec gbm.

 

C'est le cas ?


 

Quoi qu'il en soit, voici l'essentiel, l'essentiel que tout le monde peut comprendre, je pense.


 
Renat Akhtyamov:

Contrairement aux réseaux neuronaux, j'ai montré un rendement plus élevé, ici depuis la nuit jusqu'à maintenant (bien sûr réel) :


La courbe est bien sûr intéressante et ne peut être ignorée, mais le rendement est trop faible. IMHO

 
Vladimir Gribachev:

C'est le cas ?

Oui. 1 в 1.

 
Renat Akhtyamov:

la chose la plus intéressante ici, y compris pour les DCs, est le pronostic

ne peut pas

Professeur, une fois de plus vous avez été démasqué par des gars normaux))))