Où se situe la limite entre l'ajustement et les modèles réels ? - page 32
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Nous parlons de guêpes-schmos, d'échantillons-mémoires, mais personne n'a dit un mot, et probablement personne n'a même pensé, mais est-ce que ces approches (division en Echantillon, OOS, etc.) s'appliquent à tous les CTs sans exception ? S'ils ne sont pas applicables à tous, lesquels ne sont pas applicables ? J'ai posé une question à Reshetov dans le cadre de ce sujet, mais il n'a pas jugé bon de répondre.
Essayons d'aller au fond des choses.
En termes de temps passé sur le marché pour chaque transaction unique (chaque transaction unique, car les TS peuvent mener plusieurs transactions parallèles simultanément), les TS peuvent être divisés en deux types :
1. TS avec heure inconnue de chaque transaction. Ce type comprend tous les TS, dans lesquels on ne sait pas à l'avance quand il y aura le prochain signal d'entrée dans la transaction (ou s'il y en aura un), et dans certains systèmes, on ne sait pas à l'avance quand il y aura un signal de sortie.
2. TS dont la durée maximale de négociation est connue à l'avance. Ce type comprend les systèmes dans lesquels il existe un signal d'entrée strictement périodique, par exemple sur chaque barre ou un certain jour de la semaine à une certaine heure. Il y a toujours un signal pour la sortie, car la durée de vie maximale de chaque transaction est prédéfinie. La condition de sortie d'une transaction peut être la fin de la limite de temps ou l'atteinte des stops.
Quelles pensées surgissent lorsque nous divisons le TS en de tels types ? Qu'est-ce qui en découle, dans le cadre du sujet ? Je vais écouter les opinions, puis je m'exprimerai.
A mon avis, ils peuvent être réglés de la même manière. Oui, pour les premiers, le temps passé dans un métier est flou, mais il est aussi limité. L'essentiel, comme l'a souligné Figar0, est l'analyse des résultats. Bien sûr, si le bénéfice principal d'un tel système représente plusieurs transactions qui ont été sur le marché le plus longtemps possible (selon le fait de tester), la probabilité qu'il s'agisse d'un ajustement est élevée. Si le bénéfice principal a été obtenu dans des transactions avec un temps de détention moyen (c'est-à-dire qu'il y a eu beaucoup de transactions de ce type - fiabilité stat), alors il est plus fiable. Oui, pour les systèmes dont le temps de maintien de la position est maximal, une telle analyse n'est pas nécessaire, mais l'ajustement dû à tp>>sl ou sl>>tp peut également y être superposé. Seule une augmentation significative des statistiques (nombre de transactions sur l'historique) sera utile à cet égard. En effet, pour que les statistiques sur le système soient fiables, il faut qu'il y ait beaucoup de mises en œuvre de chaque résultat du système - tant positif que négatif. Les résultats sont plus nombreux dans les systèmes où le temps de maintien en position est explicitement illimité, de sorte qu'une analyse supplémentaire est nécessaire pour éviter que des résultats rares ne faussent les résultats.
En bref, la validité statistique est importante et dans certains types de systèmes, elle peut être plus faible que dans d'autres pour le même nombre de transactions. La confirmation de la validité statistique peut nécessiter une analyse supplémentaire des résultats. Et en général, la plupart des moyens de confirmer que le système "ne convient pas", comme l'utilisation de plusieurs instruments, une zone optimale étendue, etc. - est le moyen d'augmenter la fiabilité statistique, qui est la principale preuve de la performance du système. En dehors de cela, il n'y a que du bon sens et des connaissances d'initiés :)
A mon avis, ils peuvent être montés de la même manière. Oui, pour les premiers, le temps passé dans le métier est flou, mais il est aussi limité. L'essentiel, comme l'a souligné Figar0, est l'analyse des résultats. Bien sûr, si le principal bénéfice d'un tel système réside dans plusieurs transactions qui sont restées sur le marché le plus longtemps possible, la probabilité est élevée. Si le bénéfice principal a été obtenu dans des transactions avec une durée de détention moyenne (c'est-à-dire qu'il y a eu beaucoup de transactions de ce type - validité stat), alors il est plus fiable. Oui, pour les systèmes dont le temps de maintien de la position est maximal, une telle analyse n'est pas nécessaire, mais l'ajustement dû à tp>>sl ou sl>>tp peut également y être superposé. Seule une augmentation significative des statistiques (nombre de transactions sur l'historique) sera utile à cet égard. En effet, pour que les statistiques sur le système soient fiables, il faut qu'il y ait beaucoup de mises en œuvre de chaque scénario du système - tant positif que négatif. Dans les systèmes où la durée de conservation d'une position est manifestement illimitée, les scénarios sont plus nombreux et une analyse supplémentaire est donc nécessaire pour éviter que des scénarios rares ne faussent le résultat.
D'accord. Il est possible de s'adapter aux deux types. Mais seul le deuxième type est capable de rechercher des modèles.
Pour commencer, il est nécessaire de définir clairement ce qu'est un motif. Ce que tout le monde recherche après tout. En sachant clairement comment chercher (et non ce qu'il faut chercher), il est plus facile de chercher. Ainsi, la fille rouge, quand elle va chercher le plantain, est strictement dirigée vers le bord de la route, car elle sait que c'est là que pousse le plantain - c'est un schéma, et elle n'a pas besoin de savoir, et elle ne sait pas pourquoi exactement chercher le plantain au bord de la route. C'est-à-dire qu'elle s'est entraînée, optimisée, de telle sorte qu'elle sera la jeune fille rouge la plus performante de tout le village à la recherche de plantain. Mais le plantain ne pousse pas sur toutes les routes, ce schéma ne se manifeste pas toujours, mais il ne cesse pas d'être un schéma, et le plantain des routes peut être utilisé pour récolter des herbes médicinales (lire : gagner de l'argent). De plus, ce modèle ne fonctionne pas pour la planète entière (FX), mais seulement dans certains pays et à certaines latitudes (outils FX). D'ailleurs, je ne parle volontairement pas de la période de l'année (c'est un retour en arrière des champignonnistes), car il y a du plantain en hiver sous la neige (en toute saison), juste une demoiselle rouge peu appropriée pour déneiger le bord de la route (écarts plus élevés, commissions élevées, interdictions régionales).
Extrait du wiki : La légitimité est une relation nécessaire, essentielle, constamment répétée des phénomènes du monde réel, définissant les étapes et les formes du processus de formation, le développement des phénomènes de la nature, de la société et de la culture spirituelle.Il existe des modèles généraux, spécifiques et universels.
De moi-même : Je suis d'accord avec le wiki. En outre, pour pouvoir parler de la présence/absence de régularités, il faut un fait clair de la présence d'un phénomène et du phénomène qui le suit. Des phénomènes que l'on peut mesurer, ressentir, parfois sentir, et mesurer le moment où le phénomène d'enquête se produit. Après tout, un phénomène qui a existé, existe et existera ne signifie pas qu'il y avait une cause à cela, et s'il n'y en a pas, vous ne pouvez pas exploiter ce phénomène d'investigation et identifier quand il s'est produit et prédire quand il prendra fin.
Revenons aux types de CT. Commençons par la dissection du premier type. Nous allons étudier un TS simple avec l'intersection de deux MAs. Tous les TS qui en sont dérivés ont les mêmes propriétés. Je vais rassembler mes pensées et continuer. En attendant, nous pourrions réduire ce poste.
Non, il est préférable de commencer par le deuxième type. Vous riez déjà après avoir lu le post précédent ? Je glousse moi-même.
En général, le deuxième type de CT est constitué de toutes les facettes d'une même coupe, ainsi que de la théorie des motifs fluides et de la rivière instrumentale (ceci avec la main plus légère d'Alexei).
Il y a un phénomène causal, suivi d'un phénomène d'investigation. Causes et modèles de causalité. Une fois qu'un modèle est trouvé, nous pouvons utiliser différentes variations de ce modèle. L'optimisation de ces TSs consiste à rechercher les relations de cause à effet dans les motifs. Comme les modèles ont un début et une fin dans le temps, il est facile de calculer la taille de la période d'échantillonnage nécessaire, de sorte que le nombre de transactions soit de 300 à 400 au moins. OOS (20-30%) est distribué par Sample et utilisé pour contrôler l'optimisation. Ainsi, le réel peut suivre immédiatement après l'optimisation. Le nombre de transactions est une constante, donc toutes les statistiques sont simplifiées, il est plus facile de choisir la bonne et la probabilité d'ajustement est réduite.
Si des modèles sont trouvés en utilisant cette approche, ils fonctionneront aussi bien en augmentant la taille des chiffres qu'en la diminuant - les modèles ne dépendent pas de celle-ci (à l'opposé, regardez TS par MA). Si vous ne trouvez pas de modèle, aspirez et séchez. Clairement - soit il y en a, soit il n'y en a pas.
Ce que vous dites n'est pas vrai pour tous les modèles. Pour les modèles, oui - ils ont une durée de vie bien définie, au-delà de laquelle il n'y a aucun sens à être dans un commerce. Pour les suiveurs de tendances - non. En outre, le marché a son propre temps interne et son cours peut être différent et ne pas coïncider avec le temps astronomique. C'est-à-dire que les étapes de la "vie" d'une régularité et le processus réel du marché, qui se trouve derrière elle, peuvent avoir une durée différente dans le temps, ce qui est inconnu à l'avance et peut être détecté au cours d'une transaction. Nous pouvons nous synchroniser avec eux (phases) en fonction des événements sur le graphique - c'est-à-dire des signaux. Comme un premier signal - le processus a commencé, le deuxième signal - le processus est terminé dans une version simplifiée. Bien qu'il soit possible d'identifier ses autres phases.
Maintenant sur MA, le premier type. Oui, ils sont en retard, mais ce n'est pas ce dont nous parlons maintenant. Les MAs ne montrent aucune tendance. Elle découle du fait que nous ne savons pas quand se produira le prochain croisement (le marché n'est pas une onde sinusoïdale, il n'est pas stationnaire). Nous savons également qu'à tout intervalle de temps, nous pouvons trouver une telle combinaison de MA qui produira un bénéfice.
Nous avons donc optimisé le MA et trouvé une telle combinaison de 200-100. Ok. Nous l'avons testé dans le secteur réel. Nous avons attendu le passage à niveau et sommes entrés dans le marché. Mais le marché a décidé de diminuer la taille des chiffres et il n'y a pas de signal de sortie. Nous avons vieilli et sommes morts sans l'attendre. Cela ne veut pas dire que nous avions tort d'y entrer, mais personne n'a besoin de cette "justesse". Nous ne saurons pas si nous avons optimisé correctement ou non. Et rien ne changera avec les différentes variantes d'optimisation, avec l'ajout de stops et de trailing stops, le problème restera le même. Il est impossible de retracer la relation de cause à effet entre un phénomène et un autre.
Si des régularités sont trouvées au cours de cette approche, elles fonctionneront aussi bien lorsque la taille des chiffres est augmentée que lorsqu'elle est diminuée - les régularités n'en dépendent pas (pour le contraire, regardez TS par MA). Si vous ne trouvez pas de modèle, aspirez et séchez. Clairement - soit il y en a, soit il n'y en a pas.
Prenez deux séries de chiffres. Combinez-les en un seul, par exemple en les alternant - numéro de 1, numéro de 2, etc.
Maintenant, nous allons chercher des régularités - nous trouverons sûrement, par exemple, après 1->2, après 7->5, etc.
Reprenons les mêmes ensembles, mais en décalant d'abord le 1er ensemble d'un chiffre vers la gauche, puis en les réunissant à nouveau par alternance.
Quel genre de modèles avons-nous maintenant ? Apparemment, c'est un peu différent. Même la cause et l'effet peuvent changer de place ici et là :).
Je veux modestement partager quelques informations. Je dois dire tout de suite que je suis loin de la profession de programmeur, mais ma curiosité me ronge, ainsi que tous ceux qui sont présents ici dans un but égoïste. On l'appelle différemment, mais je dirai que c'est une barre placée par son amplitude (HL) dans la bougie précédente (HL), c'est-à-dire un fading ou une correction de la tendance actuelle.La question - combien de fois la prochaine bougie après le "placé" sera de la couleur opposée à la première. Ma réponse est environ 50/50 pour le daley, avec une déviation d'environ 0,3% ... J'ai pris un autre time frame et obtenu le même ratio : 45 034 lignes (minutes), résultats positifs - 2224 avec une possibilité de 4471.horaire pour l'année 408 / 812. Daly depuis 2001 - 164 / 337.
Et encore une fois, une question : que se passe-t-il ? L'ensemble du système est-il configuré et est-il vraiment généré artificiellement ? Ou bien suis-je complètement ignorant de l'Excel :o). Je peux envoyer le "livre" à quelqu'un, peut-être le consulter... Je suis personnellement choqué... Je voulais juste rester en dehors du marché et m'occuper de quelque chose...
Ce que vous écrivez n'est pas caractéristique de tous les modèles. Pour les modèles, ils ont une durée de vie définie, au-delà de laquelle il n'est pas judicieux d'exercer un métier. Pour les suiveurs de tendances - non. En outre, le marché a son propre temps interne et son cours peut être différent et ne pas coïncider avec le temps astronomique. C'est-à-dire que les étapes de la "vie" d'une régularité et le processus réel du marché, qui se trouve derrière elle, peuvent avoir une durée différente dans le temps, ce qui est inconnu à l'avance et peut être détecté au cours d'une transaction. Nous pouvons nous synchroniser avec eux (phases) en fonction des événements sur le graphique - c'est-à-dire des signaux. Comme un premier signal - le processus a commencé, le deuxième signal - le processus est terminé dans une version simplifiée. Bien qu'il soit possible d'identifier ses autres phases.
Prenez deux séries de chiffres. Combinez-les en un seul, par exemple en les alternant - numéro de 1, numéro de 2, etc.
Maintenant, nous allons chercher des régularités - nous trouverons sûrement, par exemple, après 1->2, après 7->5, etc.
Reprenons les mêmes ensembles, mais en décalant d'abord le 1er ensemble d'un chiffre vers la gauche, puis en les réunissant à nouveau par alternance.
Quel genre de modèles avons-nous maintenant ? Apparemment, c'est un peu différent. Même la cause et l'effet peuvent être inversés ici et là :)
Je veux humblement partager quelques informations. Je dois dire tout de suite que je suis loin de la profession de logiciel, mais je suis, comme tous ceux qui sont présents ici la curiosité mange avec des buts égoïstes. On l'appelle différemment, mais je dirai que c'est une barre placée par son amplitude (HL) dans la bougie précédente (HL), c'est-à-dire un fading ou une correction de la tendance actuelle.La question - combien de fois la prochaine bougie après le "placé" sera de la couleur opposée à la première. Ma réponse est environ 50/50 pour le daley, avec une déviation d'environ 0,3% ... J'ai pris un autre time frame et obtenu le même ratio : 45 034 lignes (minutes), résultats positifs - 2224 avec une possibilité de 4471.horaire pour l'année 408 / 812. Daly depuis 2001 - 164 / 337.
Et encore une fois, une question : que se passe-t-il ? L'ensemble du système est-il configuré et est-il vraiment généré artificiellement ? Ou bien suis-je complètement ignorant de l'Excel :o). Je peux envoyer le "livre" à quelqu'un, peut-être le consulter... Je suis personnellement choqué... Je voulais juste rester en dehors du marché et m'occuper de quelque chose...
Je confirme. Quelque part dans la base de code, il y a même un script qui calcule les probabilités des modèles de chandeliers.
Cela a fonctionné sur une plage 50/50 assez large avec de petits décalages évidemment pas suffisants pour construire un TS.
J'ai obtenu une fourchette 50/50 assez large avec de petits décalages, clairement pas assez pour construire le trader.
C'est-à-dire qu'il peut miser 10 fois la poche et ensuite 5 fois le bénéfice.
Ce serait statistiquement fiable et normal. :)