L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2588
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Mais il n'y a aucune réaction de MetaQuotes ((
Et il n'y en aura pas, car l'écart réel gâche l'image publicitaire. Tout au plus, ils suggèrent d'utiliser des caractères personnalisés.
Et elle ne le fera pas, parce que l'écart réel gâche l'image publicitaire. Tout au plus, ils proposeront d'utiliser des symboles personnalisés.
C'est une honte en fait. La simulation de l'étalement dans le temps rendrait le test plus proche de la réalité.
Et elle ne le fera pas, parce que l'écart réel gâche l'image publicitaire. Tout au plus, ils suggéreront d'utiliser des symboles personnalisés.
La publicité devrait dire que notre testeur est le plus précis, comparé aux autres plateformes.
Cela est plus susceptible d'attirer les développeurs et les utilisateurs. Les premiers tests et leur comparaison montreront que le test dans MT5 n'est pas vrai pour les prix d'ouverture.
La publicité doit dire que notre testeur est le plus précis, comparé aux autres plateformes.
Cela est plus susceptible d'attirer les développeurs et les utilisateurs. Alors les premiers tests et leur comparaison montreront que le test dans MT5 aux prix d'ouverture n'est pas vrai.
C'est une honte en fait. La modélisation de l'étalement du temps aurait rendu les essais plus proches de la réalité.
Par publicité, j'entends les données sur les symboles figurant sur les pages des sociétés de courtage. Ce sont les DC, et non les développeurs, qui sont les clients (apportent de l'argent) des méta-citations. La gratuité pour l'utilisateur final a ses inconvénients.
Par publicité, j'entends les données des symboles sur les pages du DC. Ce sont les DC, et non les développeurs, qui sont les clients (qui rapportent de l'argent) des métacitations. La gratuité pour l'utilisateur final a ses inconvénients.
Elle n'est pas possible ou coûteuse à mettre en œuvre, elle est possible dans des conditions et des prix compréhensibles, et elle est gratuite. Bien sûr, la gratuité est souvent biaisée par la négativité))). Tout comme le manque d'opportunités ou le coût élevé de la mise en œuvre)))).
https://stats.stackexchange.com/questions/31513/new-revolutionary-way-of-data-mining
Oui, c'est ce qu'il dit. Et les commentateurs - eh bien, ce sont des spécialistes des données, pas des traders. Avec leurs ensembles de données stationnaires, ils ne peuvent pas comprendre les problèmes de nos traders.
Oui, c'est ce qu'il dit. Et les commentateurs - eh bien, ce sont des spécialistes des données, pas des traders. Avec leurs ensembles de données stationnaires, ils ne peuvent pas comprendre les problèmes de nos traders.
Comme je l'ai compris...
Je l'explique de la manière la plus simple possible.
Si nous voulons présenter le TS comme un modèle, afin de vérifier s'il s'agit d'un vrai modèle, nous devons optimiser ses paramètres et si le TS gagne presque toujours à différents paramètres, alors le modèle (TS) est vrai.
Et comment l'avez-vous découvert ?
Un regard plus profond et du point de vue de l'AMO
Vous devez visualiser la recherche des paramètres pendant l'apprentissage ; si la surface d'optimisation ressemble à du bruit
le plus probable est que l'AMO a trouvé un maximum local dans le bruit et que c'est le recyclage et un modèle qui ne fonctionne pas.
Vous devez vous efforcer d'obtenir l'image suivante
Lorsque le modèle présente un "îlot" clairement prononcé de paramètres de fonctionnement, c'est-à-dire qu'il est nécessaire d'optimiser ses paramètres et si le TS gagne pratiquement toujours avec des paramètres différents, alors le modèle (TS) est vrai.
C'est comme ça que je le vois, peut-être que je me trompe, mais ...
La façon dont je l'ai compris...
Je vais l'expliquer de la manière la plus simple possible.
Si vous imaginez le CT comme un modèle - pour vérifier s'il s'agit d'un vrai modèle, nous devons optimiser ses paramètres et si le CT gagne presque toujours à différents paramètres, alors le modèle (CT) est vrai.
Et comment l'avez-vous découvert ?
Eh bien, quelque chose comme ça. Tout le monde comprend que l'overfitting est un mal et cherche des moyens de s'en protéger. Dude dit que la méthode "test on oos" n'est pas un si bon outil pour se protéger contre l'overfitting. Un exemple simple : il y a 10000 personnes, chacune d'entre elles jouant à pile ou face 10 fois. Nous avons sélectionné les personnes qui avaient tous les flips qui étaient des aigles - oh, ces gars-là savent quelque chose. Nous avons demandé à chacun d'entre eux de retourner 10 fois de plus. Maintenant, ces 3-là sont des sortes de perdants, mais ces 3-là ont encore 8 ou 9 aigles sur 10. Ooh, ils peuvent certainement faire quelque chose. Il est clair qu'une telle situation est possible uniquement grâce à des jets aléatoires (ce ne sont pas les mêmes millions de singes qui peuvent écrire Guerre et Paix par hasard). Il en va de même pour les stratégies. Il faut donc utiliser d'autres moyens, ou, s'il y en a, les utiliser à bon escient. L'alternative qu'ils ont suggérée est oui, quelque chose comme : vous feriez mieux de regarder quelque chose de moyen. Comme si la pièce était plate, elle tombera uniformément ici et là dans la moyenne. Et s'il est plus lourd quelque part, alors vous verrez cette distorsion par les résultats moyens de ces 10 000 personnes. En quelque sorte)).