L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2406
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Référence pour les métriques, je ne connais pas certaineshttps://russianblogs.com/article/7586220986/ moi-même.
Si les signes sont uniformément répartis dans un cube unitaire, la métrique de Tchebychev semble intuitivement être la plus correcte. De plus, il est peu probable que des caractéristiques arbitraires puissent être normalisées aussi bien.
Si les caractéristiques sont uniformément distribuées dans un cube unitaire, la métrique de Tchebychev semble intuitivement être la plus correcte. Par ailleurs, il est peu probable qu'il normalise aussi bien les signes arbitraires.
A expérimenté la normalisation, obtenant des pertes décentes dans les modèles, mieux sans. Donc des forêts d'arbres, pas des réseaux neuronaux.
A expérimenté la normalisation, obtenant des pertes décentes dans les modèles, mieux sans. C'est pourquoi les forêts d'arbres, et non les réseaux neuronaux.
Je suis également enclin(également grâce à vos efforts) à quelque chose comme xgboost. Mais la normalisation, ainsi que les recherches préparatoires générales sur les caractéristiques, ne font jamais de mal. J'ai également besoin d'une approche flexible pour construire une fonction objectif personnalisée.
C'est pourquoi les forêts d'arbres, et non les réseaux neuronaux.
Oui, il y a quelques années, quelqu'un dans ce fil a écrit une telle idée - il a suggéré des forêts et comparé les réseaux neuronaux aux armes nucléaires. Il a déclaré qu'ils ne devraient être utilisés que lorsque les autres méthodes ne peuvent pas aider. Mais un certain Maxim l'a boudé.
Je me demande... Avait-il raison ?
Je me penche également( grâce à votre travail) vers quelque chose comme xgboost. Mais la normalisation, ainsi que le travail de recherche préparatoire général sur les caractéristiques, ne font jamais de mal. Nous avons également besoin d'une approche flexible pour la construction de fonctions objectives personnalisées.
recommande LightGBM ou CatBoost, XGBoost est à la traîne.
Il s'avère que tout prétraitement tue alpha. C'est si vous prenez les incréments et commencez à les sécher. L'idéal serait de prendre la série originale (citations), mais vous ne pouvez pas la former en raison de sa non-stationnarité. C'est ce que montre bien l'article sur la différenciation fractionnée (grok the market memory). Plus on applique de transformations, moins il reste quelque chose.
Oui, il y a quelques années, quelqu'un dans ce fil de discussion a écrit une telle pensée - il a suggéré un échafaudage et a comparé les réseaux neuronaux aux armes nucléaires. Il a déclaré qu'elles ne devraient être utilisées que lorsque les autres méthodes ne permettent pas d'obtenir quoi que ce soit. Mais un certain Maxim l'a boudé.
Je me demande... Avait-il raison ?
Tu ferais mieux de donner des preuves, je n'ai aucune idée de ce dont il parlait.
Conclusions similaires - arbres seulement. C'est particulièrement amusant lorsque les maxima sont mis à jour et que tout bascule. Vous pouvez bien sûr fixer des maxima manuellement ou automatiquement (pour chaque fonctionnalité), mais c'est une béquille.
Oui, peu importe si ça s'avère être un non-sens.