L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2591
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Oui, il est donc possible de le tester et de l'optimiser comme un robot habituel dans MT5, pour rechercher des paramètres externes. Il est rapidement testé sur les barres, mais il peut y avoir une certaine lenteur sur les tiques car les arbres sont évalués longtemps par eux-mêmes.
Eh bien, après avoir ajouté ML, on ne veut plus optimiser quoi que ce soit. Le vent de la suradaptation souffle de ce côté). Mais si les vitesses sont normales, vous pouvez au moins essayer pour être sûr. En général, oui, en raison de pas la meilleure intégration-vitesse, j'ai prêté peu d'attention à l'add-on commerçant sur ML, si ainsi intégré et dans le testeur conditionnellement-native, il est possible de tester et les vitesses normales, il ouvre certainement des horizons supplémentaires de possibilités.
Et en général, une meilleure vitesse (par rapport à ma solution, je pense qu'il y aura une différence normale de vitesse) est toujours bonne - à la fois lorsqu'il y a beaucoup de robots et lorsque les délais sont courts et que la vitesse est plus critique.
Dans l'espace des paramètres du modèle ? Il a une énorme dimensionnalité. Ceci n'est possible que pour des modèles très simples avec un petit nombre de prédicteurs.
Il n'est pas très clair comment il est possible de construire une surface dans l'espace d'une dimensionnalité énorme. Nous avons simplement très peu de points par rapport à cette dimension. À moins qu'il ne s'agisse d'une visualisation de réduction d'échelle dimensionnelle, comme l'ACP, etc.
Tout est mélangé.
De quels paramètres de modèle discutons-nous ?
Si le modèle est quelque chose de MO, c'est une chose, si le modèle est un EA dans un testeur, c'en est une autre.
Les modèles qui sont optimisés dans le testeur ne concernent généralement rien. Par exemple, nous prenons un démolisseur et commençons à choisir une période pour obtenir une série de résultats. S'il y a beaucoup de ces "magiciens" avec leurs propres paramètres, on n'obtient pas des surfaces lisses, mais des pics aléatoires qui pourraient coïncider dans le futur. Pourquoi ? Pour moi, la réponse est évidente : les paramètres de ces "essuyages" ne sont PAS pertinents pour la performance du modèle, c'est juste du bruit.
Par ailleurs, si les paramètres du modèle dans MO sont un ensemble de prédicteurs, alors le problème peut être posé de manière significative : le prédicteur/le non prédicteur est-il lié au RÉSULTAT de la simulation ou non. Si c'est le cas, qu'est-ce que cela a à voir avec le RÉSULTAT de la modélisation ? La situation est similaire lorsque nous choisissons des modèles : RF, neurones ou autre chose ......
C'est tout mélangé dans un tas.
Quels sont les paramètres du modèle dont nous discutons ?
Si le modèle est quelque chose de MO, c'est une chose, si le modèle est un EA dans le testeur, c'en est une autre.
Les modèles qui sont optimisés dans le testeur sont généralement à peu près nuls. Par exemple, nous prenons un démolisseur et commençons à choisir une période pour obtenir une série de résultats. S'il y a beaucoup de ces "magiciens" avec leurs propres paramètres, on n'obtient pas des surfaces lisses, mais des pics aléatoires qui peuvent coïncider dans le futur. Pourquoi ? Pour moi, la réponse est évidente : les paramètres de ces "essuyages" ne sont PAS pertinents pour la performance du modèle, c'est juste du bruit.
Par ailleurs, si les paramètres du modèle dans MO sont un ensemble de prédicteurs, alors le problème peut être posé de manière significative : le prédicteur/non prédicteur est-il lié au RÉSULTAT de la simulation ou non. Si c'est le cas, de quoi s'agit-il ? La situation est similaire si nous choisissons des modèles : RF, neuronique ou autre ......
En effet, tout cela s'additionne. Les paramètres sont des paramètres, les prédicteurs sont des prédicteurs. Dans votre exemple avec les dummies : les paramètres sont leurs périodes et les prédicteurs sont les valeurs de ces dummies. Pour une ou deux balles, il n'est pas difficile de construire la surface requise, mais pour des centaines de balles, le sens est déjà complètement perdu en raison de la dimensionnalité croissante des espaces des prédicteurs et des paramètres.
Je ne vois pas de différence fondamentale entre les modèles dans le testeur et dans les paquets MO - la différence est seulement technique (capacités du logiciel utilisé).
En effet, c'est tout un tas de choses. Les paramètres sont des paramètres, les prédicteurs sont des prédicteurs. Dans votre exemple des dummies : les paramètres sont leurs périodes, et les prédicteurs sont les valeurs de ces dummies. Pour une ou deux balles, il n'est pas difficile de construire la surface requise, mais pour des centaines de balles, le sens est déjà complètement perdu en raison de la dimensionnalité croissante des espaces des prédicteurs et des paramètres.
Je ne vois pas de différence fondamentale entre les modèles dans le testeur et dans les paquets MO - la différence est seulement technique (capacités du logiciel utilisé).
Je n'aime pas intervenir, mais juste une remarque sur les centaines ou autres MA ... il y a une limite à leur nombre raisonnable et elle n'est pas supérieure à 1,386*ln(N) (où N est toute l'histoire observée).
L'analyse des surfaces d'optimisation est également une arme à double tranchant. Et atteindre un plateau ne garantit rien, même si cela constitue un encouragement temporaire jusqu'au moment de réaliser qu'il est temps d'aller à l'usine.
Critique divine
Trying :)
J'aimerais comprendre la différence entre un "plateau" et un minimum global.