Pour faire le suivi - page 33

 

Résumons le résultat intermédiaire.

La branche propose un paradigme de génération et de vérification des stratégies de trading qui est fondamentalement différent du paradigme "standard" (selon Pardo). Dans le modèle standard, la sélection de la stratégie optimale se fait en analysant les paramètres FP de la stratégie elle-même par le biais de nombreux essais sur l'historique et en sélectionnant ensuite les points FP qui optimisent la stratégie à modifier. Dans la proposition, l'analyse (" bloc d'analyse et d'intentions préliminaires ") ne change en rien, car les métiers restent en place, et seul le contexte-filtre (" bloc décisif ") change.

En principe, il est possible de réaliser quelque chose de similaire à l'optimisation ici, si la forme requise des contraintes du filtre contextuel est définie à l'avance (par exemple, tous les points du contexte FP doivent se trouver à l'intérieur d'un "parallélépipède multidimensionnel" dont les coordonnées des sommets sont modifiables). Mais ce ne serait qu'un cas particulier du regroupement que nous voulons réaliser.

Par conséquent, dans notre cas, un optimiseur n'est tout simplement pas nécessaire. Il suffit d'un seul essai avec le filtre contextuel désactivé et la sortie des coordonnées des transactions dans le FP contextuel, après quoi nous pouvons effectuer un clustering du filtre par des moyens indépendants.

J'ai la question suivante : qu'est-ce qui nous rend si confiants que le nouveau paradigme nous apportera uneplus grande robustesse de la stratégie ?

Nous supposons qu'au cours de transactions ultérieures, en situation réelle, la séquence de transactions (nous nous en tiendrons à la variante du candidat) passée par le nouveau filtre contextuel présentera un facteur de profit plutôt élevé. Qu'est-ce qui peut arriver qui ne sera pas le cas ?

Peut-être pouvons-nous essayer d'analyser la structure interne d'un "groupe de contexte rentable" par des transactions individuelles - en les numérotant, en marquant celles qui sont rentables et, disons, en regardant comment la transaction a été effectuée à l'intérieur de ce groupe sur l'historique ? S'il y a de nombreux segments de la trajectoire contenant presque uniquement des transactions non rentables au sein de ce groupe, ce n'est pas bon.

En bref, il faut au moins quelques arguments supplémentaires pour justifier l'acceptabilité du nouveau paradigme et fixer des limites à son utilisation.

 
Mathemat >>:

У меня следующий вопрос: откуда у нас такая уверенность в том, что новая парадигма обеспечит нам бо льшую робастность стратегии?

En général, il n'y a pas de certitude. Comme, toutefois, dans le cas de l'approche standard.

Je suppose que deux choses sont nécessaires pour la robustesse de cette procédure :

- La zone optimale doit être réelle. Autrement dit, nous ne devons pas avoir affaire à une fluctuation, mais à une dépendance statistiquement valable.

- Les paramètres de la PF utilisés doivent eux-mêmes être robustes. En d'autres termes, s'ils changent au fil du temps, c'est assez lentement.


C'est-à-dire qu'un travail important doit être effectué pour trouver et vérifier les bons paramètres. Ce qui n'invalide pas l'utilité et les considérations théoriques.


P.S. Par modifier les paramètres dans le temps, nous entendons bien sûr modifier leur fonction de distribution.

 
Candid >>:

- Оптимальная зона должна быть реальной. То есть мы должны иметь дело не с флуктуацией, а со статистически достоверной зависимостью.

Eh bien, oui, si les limites extérieures de la zone optimale sont identiques à celles d'un flocon de neige, vous ne pouvez compter sur rien de solide.

La zone optimale, si elle migre dans l'espace FP, ne doit pas le faire trop brusquement.

En bref, il devrait être solide. Une sorte d'hypersphère, d'hyperparallélépipède ou quelque chose de similaire, se déplaçant à faible vitesse.

 

Peut-être que ça devrait être comme ça :

1) Déterminer les points d'entrée idéaux sur l'historique en tenant compte du spread, de la maximisation du profit, du nombre de transactions, du drawdown, etc. (100% sûr, ça ne ressemblera pas à un zzz de loin)

2) En utilisant les cartes de Kohonen ou d'autres méthodes, déterminer la relation des affaires obtenues avec le contexte actuel (lectures d'indicateurs totaux ou autres)

3) Effectuer des transactions en utilisant les modèles trouvés.

 

Andrei, espérez-vous que les coordonnées dans l'espace contextuel identifié à l'étape 2 vous permettront d'entrer plus précisément ?

 
joo писал(а) >>

Peut-être que ça devrait être comme ça :

1) Déterminer les points d'entrée idéaux sur l'historique en tenant compte du spread, de la maximisation des profits, du nombre de transactions, du drawdown, etc. (100% sûr, ça ne ressemblera pas à un zzz de loin)

2) À l'aide de cartes de Kohonen ou d'autres méthodes, déterminer la relation entre les transactions reçues et le contexte actuel (lectures d'indicateurs totaux ou autres).

3) Effectuer des transactions en utilisant les modèles trouvés.

Pas d'issue (j'ai essayé moi-même)

Il existe un grand nombre de régularités de durée différente et de caractère aléatoire, et chaque point d'entrée idéal peut avoir une cause dans une ou plusieurs régularités masquées par le caractère aléatoire. En raison de la mise en évidence du contexte, nous n'obtenons qu'un ajustement à ce mélange aléatoire, plutôt que de mettre en évidence les modèles individuels et le contexte de leur utilisation. Chaque motif a son propre contexte. imho.

 

Il y a autre chose : plus le nombre de paramètres augmente, plus la dimensionnalité de la PF augmente. Ensuite, les exigences en matière de statistiques des transactions augmentent. Je pense que déjà à 3 paramètres on peut parler de statistiques uniquement pour le pipsing débridé :).

D'autre part, il est souhaitable de disposer de paramètres pour le nombre de degrés de liberté. Pour espérer qu'il n'y en ait que 2 ou 3, il faut être un optimiste totalement figé. Imho, bien sûr. Cependant, il n'y a pas encore d'indicateur du nombre de degrés de liberté.

C'est la véritable tragédie de toute approche "objective", y compris l'approche standard.

 

Les paramètres de délimitation de la zone optimale sont, d'une manière ou d'une autre, transformés en paramètres latents de la TS elle-même - peu importe comment ils sont obtenus, par l'approche standard ou par le regroupement du contexte. Ainsi, il s'avère que nous n'avons toujours pas échappé au paramétrage de TC.

À propos de 2 ou 3 paramètres : on peut espérer que si le système entre principalement dans des zones de tendance, ces paramètres seront "presque suffisants", car en période de catastrophe, le nombre de degrés de liberté du marché diminue probablement de manière significative (il devient plus simple).

Et en général, je ne me concentrerais pas sur le nombre de degrés de liberté. Nous ne cherchons pas une fonction qui explique entièrement le marché, mais seulement une TS plus ou moins robuste sur celui-ci. Il se peut qu'elle soit parfois erronée (et elle le sera sûrement !), mais nous pouvons espérer que 2 ou 3 paramètres suffiront dans la plupart des cas.

 
joo писал(а) >>

Probablement les deux. :)

Merci pour l'autre, c'est facile à faire :

Un carré de 500x500 points = un total de 250 000 points. Chaque point est dessiné par un objet "ligne de tendance" (pas un rayon, bien sûr). On utilise des lignes horizontales de longueur 1, c'est-à-dire des segments reliant des points adjacents. Pourquoi pas un objet ponctuel ? Parce qu'un objet ponctuel ne peut pas être vu sur un graphique. En fonction des valeurs des coordonnées x et y, la couleur de l'objet est calculée. Ainsi, il y a 250 000 objets sur cette case, chacun ayant sa propre couleur. Et MT4 peut le gérer sans aucun problème !

La seule limite est que MT dispose d'une pile limitée de styles graphiques. La valeur maximale est de 512. Cela signifie que vous ne pouvez pas utiliser plus de couleurs que ce nombre.

 
Mathemat писал(а) >>

J'ai la question suivante : comment pouvons-nous être si sûrs que le nouveau paradigme nous fournira une stratégieplus robuste ?

Nous partons du principe que, dans la suite de la négociation, déjà dans la vie réelle, la séquence de transactions (restons-en à la variante de Candid) qui a passé le nouveau filtre contextuel présentera un facteur de profit assez élevé. Qu'est-ce qui pourrait être le cas, que ça ne le soit pas ?

En bref, il faut au moins quelques arguments supplémentaires pour justifier l'acceptabilité du nouveau paradigme et fixer des limites à son utilisation.

Comme toujours, le critère de vérité est la pratique. En dehors d'elle, rien ne donnera ni certitude ni validité.

Je veux cependant, une fois de plus, prêter attention à ce moment. Le nouveau paradigme, comme l'appelle Alexey, n'est qu'une autre méthodologie. Une approche méthodologiquement correcte ne peut fournir un résultat positif que si elle est basée sur des points de départ corrects. (Soit dit en passant, une approche méthodologiquement incorrecte, qui est le péché de l'AT classique, ne peut fournir un résultat positif même sur un bon point de départ. Il est donc impuissant et "inapplicable" sur le marché).

Utiliser la PF conformément à sa définition et à sa fonction est, à mon avis, l'approche méthodologiquement correcte. Cependant, la méthodologie seule ne produit pas un résultat positif !

Elle doit être basée sur une paire : système d'entrée-sortie - paramétrage de la FP. C'est la bonne base. Si un seul élément de cette paire est erroné/insuffisant/dépendant, l'ensemble de la conception ne fonctionnera pas.

Par conséquent, cela n'a aucun sens de discuter de la robustesse, de l'acceptabilité, de la stabilité de ce paradigme indépendamment des mêmes propriétés du système d'entrées/sorties et des paramètres FP.

Mathemat a écrit >>

La zone optimale, si elle migre dans l'espace FP, ne doit pas le faire trop brusquement.

En bref, il devrait être solide. Une sorte d'hypersphère, d'hyperparallélépipède ou quelque chose de similaire, se déplaçant à faible vitesse.

Je dirais un hyperellipsoïde, il relie la radialité et les différentes échelles le long des axes.

Cependant, si l'amas migre le long du PF, il est fort probable que le système de paramètres du PF soit incomplet ou que les paramètres eux-mêmes ne soient pas choisis correctement. IMHO