L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1211
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Mon robot est toujours à la hausse. Je ne sais pas quand il est possible de passer une commande à la fois et je ne sais pas comment l'ouvrir tout de suite. J'ai donc besoin de savoir quand le robot risque de faire pire que d'habitude... comme les risques sont limités, mon profit est purement une question de temps... et parfois il faut attendre une semaine... Et en une semaine, s'il n'y avait pas eu de tels retraits, vous auriez pu gagner beaucoup plus...
Martin et drawdown sont deux amis inséparables
Et peu importe la tendance ou le flottement, il en sera toujours ainsi.
PS
Pouvez-vous me donner un lien vers le manuel, s'il vous plaît ?
S'il vous plaît, parce que je suis trop paresseux pour lire 1200 pages, est-ce que quelqu'un ici a essayé d'implémenter l'apprentissage automatique basé sur les résultats de trading sur des EAs fermés ?
https://www.mql5.com/ru/code/22710
Martin et drawdown sont deux amis inséparables
Et peu importe la tendance/le flottement, ce sera toujours comme ça.
PS
Avez-vous un lien vers le manuel ?
Martin et drawdown sont deux amis inséparables
Et peu importe la tendance/le flottement, ce sera toujours comme ça.
PS
Avez-vous un lien vers le manuel ?
Les résultats préliminaires (puisque je n'ai pas encore fait tous les prédicteurs) sur la création de modèles déterminant les modèles rentables (1) n'étaient pas si mauvais, voici la répartition par y - profit dans l'échantillon indépendant, et par x - 1 - TP+FP et 0 - TN+FN.
L'objectif était un profit de 2000, il n'a pas été atteint jusqu'à présent, mais seulement 3 modèles sont entrés dans la zone de perte à partir de 960 ce qui n'est pas un mauvais résultat.
Le tableau de conjugaison
Le résultat financier moyen non classifié est de 1318.83, après classification 1 - 2221.04 et 0 - 1188.66, donc après classification le résultat financier moyen des modèles a augmenté de 68%, ce qui n'est pas mauvais.
Il reste cependant à voir si ce modèle peut fonctionner avec des modèles construits sur d'autres données.
Formation Logloss - étonnamment, l'échantillon de test (sur lequel le modèle est automatiquement échantillonné - pas l'échantillon de formation) et le Logloss_e indépendant (examen) convergent presque parfaitement.
Tout comme Recall.
Et la métrique de précision m'a surpris, puisque par défaut elle est habituellement utilisée pour la sélection du modèle, je n'ai eu aucun entraînement car elle a immédiatement été égale à 1 sur le premier arbre.
Mais les différentes métriques sur le test et l'examen - le résultat me surprend beaucoup - un très petit delta.
À partir des graphiques, je peux bien sûr voir que le modèle est surentraîné et que j'aurais pu arrêter la formation à 3500 arbres ou même avant, mais je n'ai pas ajusté le modèle et les données sont en fait avec les paramètres par défaut.
Une erreur quelque part, il n'y a pas de test et de piste uniformes. Ou le graal, puis le partage :D
Ce n'est pas un graal, j'ai encore 100k modèles dans ma copie et les résultats ne sont pas très bons pour eux - tous les modèles rentables n'obtiennent que 2%, mais les modèles rentables en ont trop aussi.
Je pense que c'est l'effet d'un système fermé, c'est-à-dire une sorte de stationnarité, parce que les modèles sont similaires les uns aux autres, j'ai juste réussi à bien identifier leurs caractéristiques, donc il y a un si petit écart entre les résultats.
Je termine les prédicteurs prévus et ce qui me vient à l'esprit - peut-être devrais-je supprimer immédiatement les modèles que je ne choisirais pas moi-même (gros drawdowns, forte disproportion entre les achats et les ventes, très petite distribution de probabilité, etc.), alors l'information sur les modèles manifestement mauvais diminuera, mais on insistera davantage sur le choix d'un modèle hypothétiquement bon (bien sûr, le bon modèle dans le test peut avoir de mauvais résultats sur l'échantillon test). Je ne sais donc pas si je dois couper l'échantillon ou non, qu'en pensez-vous ?
De même, je refuserai le profit nu comme objectif - je sélectionnerai les modèles en fonction d'un certain nombre de critères - hélas, cela réduira l'objectif "1", mais peut-être y aura-t-il des liens plus profonds qui permettront d'évaluer le modèle par les résultats des tests.
Pourriez-vous me conseiller, car je suis trop paresseux pour lire 1200 pages ? Quelqu'un a-t-il essayé de mettre en œuvre l'apprentissage automatique en se basant sur les résultats des transactions sur les ordres fermés des conseillers experts ?
Il n'y a pas besoin de lire ce sujet, croyez-moi, vous vous éclaircirez l'esprit, essayez de le faire tout de suite comme iciGAUCHE MARCHANDE TRENDS PRÉCÉDENTS Il s'agit d'un excellent cours d'introduction à l'utilisation de la RI dans l'algorithmique, mais en général la RI est un sujet très vaste, en fait la RI est une extension des statistiques classiques, principalement avec des heuristiques et des astuces d'ingénierie, ce n'est donc pas une science mais un chamanisme technogénique, qui d'une part est intéressant, mais d'autre part est lourd de spéculations et d'abus. Si vous vous intéressez au développement des indicateurs, vous risquez d'oublier ce que vous avez fait à l'origine, et le MO est un trou sans fond, vous risquez d'y plonger et de ne jamais en ressortir. En outre, vous devez avoir une bonne formation mathématique, au moins une licence d'ingénieur, afin de pouvoir vous occuper des indicateurs au lieu d'ennuyer les paramètres des bibliothèques et des paquets.
Ce n'est pas un graal, il y a 100k modèles de plus et le résultat n'est pas très bon pour eux - oui il coupe bien les modèles complètement non rentables - seulement 2%, mais il coupe aussi trop de modèles rentables.
Je pense que c'est l'effet d'un système fermé, c'est-à-dire une sorte de stationnarité, parce que les modèles sont similaires les uns aux autres, j'ai juste réussi à bien identifier leurs caractéristiques, donc il y a un si petit écart entre les résultats.
Je termine les prédicteurs prévus et ce qui me vient à l'esprit - peut-être devrais-je supprimer immédiatement les modèles que je ne choisirais pas moi-même (gros drawdowns, forte disproportion entre les achats et les ventes, très petite distribution de probabilité, etc.), alors l'information sur les modèles manifestement mauvais diminuera, mais on insistera davantage sur le choix d'un modèle parmi les hypothétiques bons (bien sûr, le bon modèle dans le test peut avoir de mauvais résultats sur l'échantillon test). Je ne sais donc pas si je dois couper l'échantillon ou non, qu'en pensez-vous ?
Eh bien, je vais également renoncer au profit nu comme objectif - je vais sélectionner les modèles en fonction d'un certain nombre de critères - hélas, cela réduira l'objectif "1", mais peut-être y aura-t-il des relations plus profondes, qui permettront d'évaluer le modèle par les résultats des tests.
Bien sûr, s'il y a une futilité évidente, vous pouvez la supprimer.