L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1552
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Je cherche essentiellement des pièces pour le robot, j'écris des vidéos pour moi-même.
pour vous dire la vérité, je n'ai pas encore eu un seul article qui ait emprunté quelque chose de directement très utile, juste un peu de partoutOui, il est clair qu'il n'y a pas toujours quelque chose à emprunter...
Mais à propos de CatBoost - il n'est probablement pas très adapté aux séries temporelles, comme d'autres modèles - tous ne prennent pas en compte la répétabilité du modèle (feuille) sur l'historique d'échantillonnage, sa distribution sur l'échantillonnage - c'est très important.
Il est compréhensible qu'il n'y ait pas toujours quelque chose à emprunter...
Mais à propos de CatBoost - il semble qu'il ne soit pas très adapté aux séries temporelles, ainsi que d'autres modèles - tous ne prennent pas en compte la répétabilité du modèle (feuille) sur l'historique de l'échantillon, sa distribution sur l'échantillon - c'est très important.
Dans quel sens ne prend-il pas en compte ? le sous-échantillonnage de certains modèles ?
il est possible de les accumuler.
En fait, c'est très cool et pratique en soi, et ça s'améliore constamment. Ils disent qu'il a surpassé le xgboost dans presque tous les domaines. Mais la question reste ouverte : quelle est la meilleure solution pour les séries chronologiques?
En quoi ne prend-il pas en compte ? le sous-échantillonnage de certains modèles ?
il est possible de les accumuler
D'après ce que je comprends, CatBoost prend généralement une fenêtre aléatoire dans l'algorithme d'échantillonnage pour calculer la division en 64 valeurs (je ne suis pas sûr que cela s'applique aux prédicteurs catégoriels ou à tous).
Le fait est que la plupart des algorithmes ne se soucient pas de savoir si l'activation de la feuille s'est produite dans 1/10ème de l'échantillon ou si elle a été distribuée sur l'ensemble de l'échantillon - je pense que la distribution devrait se faire sur l'ensemble de l'échantillon (disons chaque 1/5ème, pas moins de 10-15%) et vous devez prendre en compte les indicateurs économiques dans les statistiques de passage - c'est ce que je fais lorsque je vérifie des feuilles séparées.
En général, il est très cool et convivial en soi, + il est amélioré en permanence. On dit qu'il a dépassé le xgboost dans presque tous les domaines. Cependant, la question reste ouverte : qu'est-ce qui est le mieux pour les séries temporelles NS ou boosting ?
Comme je l'ai déjà dit, selon l'opinion des développeurs, si les prédicteurs sont similaires les uns aux autres, dans les mêmes unités de mesure, alors NS est meilleur, mais je n'ai pas de retours, mais vous devriez essayer NS.
Comme je l'ai déjà dit, selon les développeurs, si les prédicteurs sont similaires les uns aux autres, dans les mêmes unités, alors NS est meilleur, mais je n'ai pas de récurrences juste, mais vous devriez essayer NS.
J'essaierais NS. Les récurrents précis et leurs modifications sont bons pour les incréments, je les essaierai plus tard.
Les récurrents et leurs modifications sont bons pour les incréments, je vais les essayer plus tard.
Tout est possible, vous devriez essayer.
Quant à la dernière vidéo - je ne suis pas d'accord pour dire que le code ne changera pas l'intérêt - si une personne s'essaie simplement à ses forces en python et MO, ce sera plus intéressant à regarder, et les questions pourront être sur le fond. Bien que le public puisse être difficile à comprendre, et oui, tout ne l'est pas en même temps.
En ce qui concerne les fics, ne serait-il pas préférable d'essayer différentes formules linéaires pour sélectionner les incréments plutôt que de les choisir au hasard ? Peut-être devrions-nous avoir trois retours avec un décalage de 1 à 10 et trente avec un décalage de 10 à 50.
Un peu de critique) Maxim je ne ***comprends pas.....
Astuce, vous devez voir le code pour comprendre ce que vous évoquez là. Postez donc le code de chaque vidéo sur le blog ou quelque part, juste en open source, sans aucun fichier.
Mettez des commentaires dans le code. Vous serez alors en mesure d'appliquer des morceaux de code dans la pratique et de raisonner quelque chose. Mais pour l'instant, ce ne sont que des clips vidéo avec des réflexions à voix haute).
P.S. Quelle est cette bibliothèque, qui ajuste l'échelle du graphique, ne fonctionne que dans le navigateur ?
Tout ne peut pas être fait en code...
Par exemple, le placement d'ordres en attente(certaines de leurs variantes)
Un peu de critique) Maxim je ne ***comprends pas.....
Astuce, vous devez voir le code pour comprendre ce que vous évoquez là. Postez donc le code de chaque vidéo sur le blog ou quelque part, juste en open source, sans aucun fichier.
Mettez des commentaires dans le code. Vous serez alors en mesure d'appliquer des morceaux de code dans la pratique et de raisonner quelque chose. Mais pour l'instant, ce ne sont que des clips vidéo avec des réflexions à voix haute).
P.S. Quelle est la bibliothèque qui ajuste l'échelle du graphique et qui ne fonctionne que dans le navigateur ?
Je vais être fou de répondre à tous les codes, le temps ne suffit pas.
J'ajouterai une version intermédiaire plus tard.
https://kernc.github.io/backtesting.py/