Le filtre parfait

 

Bonjour Mesdames et Messieurs.

Je suis définitivement verte, alors ne vous moquez pas de moi.

Je vais adopter une approche scientifique. Pour ce faire, je dois recueillir des statistiques. Pour commencer, les plus simples, comme les statistiques sur les tendances, les flops, et leurs caractéristiques d'échelle. Pour ce faire, nous devons filtrer le prix avec un filtre non retardé (bidirectionnel), puis calculer le temps pendant lequel la dérivée a été dans l'angle dans une fourchette donnée.

Vous avez besoin d'un filtre parfait. Lequel conseillez-vous ?

 
J.B: Il vous faut le filtre parfait. Que recommandez-vous ?

La meilleure façon de trouver le "filtre parfait" est d'en inventer un soi-même. Parce que personne d'autre que vous ne pourra réfléchir à tous les paramètres du filtre dont vous avez besoin, aux règles de son fonctionnement, à l'évaluation des résultats, etc.

Si l'on vous propose un choix de variantes, vous devrez vous adapter aux règles de quelqu'un d'autre.

 
Peut-être qu'un zigzag vous conviendrait.
 
J.B:

Il vous faut le filtre parfait. Que recommandez-vous ?

Le filtre parfait est celui qui répond parfaitement aux exigences données.

Formaliser les exigences )

 

Tout d'abord, merci à tous ceux qui ont répondu.

sandex:

Peut-être qu'un zigzag vous conviendra.

Je prévois d'utiliser le zigzag pour obtenir des statistiques de distribution, les points d'entrée/sortie potentiels "les plus rentables", s'ils sont pris sur l'EMA rapide. Sur un prix pur, zigzag est très optimiste et antiréaliste IMHO. Par nature, le zigzag attend le seuil de changement, peu importe combien de temps et comment il s'est produit, c'est-à-dire qu'il ignore le plat et la dynamique interne. Probablement, il faudra un sujet séparé pour cela, car il y a beaucoup de questions là aussi et cela diverge de celui-ci.

Yedelkin:

La meilleure façon de trouver le "filtre parfait" est d'en inventer un soi-même. Car personne d'autre que vous, compte tenu de vos objectifs, ne sera en mesure de réfléchir à tous les paramètres du filtre dont vous avez besoin, aux règles de son fonctionnement, à l'évaluation des résultats, etc.

Si l'on vous propose un choix de variantes, vous devrez vous adapter aux règles de quelqu'un d'autre.

C'est ce que je fais, exprimer mes pensées à haute voix, qui sait, peut-être que quelqu'un sera généreux, me corrigera, ou suggérera une direction.

L'objectif est un script qui collectera les statistiques des tendances/flots, en les classant par échelle et intensité. Afin d'obtenir les statistiques de distribution des tendances et des cannelures réparties en catégories selon l'échelle (seuil de bruit) et la "raideur" (angle de tangente moyen) lorsqu'elles sont appliquées aux séries de prix.

La façon dont je vois logiquement l'énoncé du problème. La série de prix est filtrée par un filtre à double face, par exemple une SMA double décalée d'une période vers l'arrière, double pour obtenir un "lissage", puis nous calculons la différence des points voisins, nous la multiplions par un certain coefficient et nous obtenons la mesure de la pente tangente, appelons-la "D".

Ensuite, nous recherchons les zones oùD se situe dans une certaine fourchette : des valeurs faibles signifient que la situation est plate, des valeurs moyennes et élevées signifient qu'il y a une tendance, des valeurs extrêmement élevées signifient qu'il y a des cygnes noirs. Nous additionnons le temps pour chaque fourchette divisé par le temps total, multiplié par 100 et nous obtenons les statistiques en %. C'est un plan tel que je le vois, ou plutôt l'une des pensées les plus probables à ce sujet, c'est sûr que ça ne m'est pas venu à l'esprit pour la première fois et que quelqu'un l'a essayé il y a longtemps, prendra pitié du vert et dira que c'est un plan stupide, que ça ne marchera pas, etc.... Ou vice versa, ils diront que je suis sur la bonne voie. Que quelqu'un vous donne un algorithme ou un script tout fait qui fait un tel travail, je ne compte même pas dessus, la paresse ne peut pas être encouragée.

LeXpert:

Le filtre idéal est celui qui répond parfaitement aux exigences données.

Formalisez les exigences).

Paramètres :

1) Échelle (seuil de bruit).

2) Gamme de "pente".

Sortie - % de temps pendant lequel le marché reste dans cet "état".

Il est possible d'ajouter un indicateur qui peint la série de prix en fonction de la fourchette D, afin de comprendre "à l'œil" l'adéquation de la collecte des statistiques.

PS : Il semble que le double SMA soit un bon candidat pour être un "filtre idéal" dans le contexte de ce problème. Mais nous avons encore besoin d'expérimenter. Il s'agit du type de statistiques le plus simple sur le marché jusqu'à présent et la solution devrait peut-être être simple. Lorsque nous arriverons à une reconnaissance de motifs plus ornés, nous rendrons les choses plus difficiles.

 

Il est vrai que ce que les participants ont dit plus haut que ce que vous demandez ici, subjectif, et au goût et à la couleur des participants n'est pas.

Mon choix se porte également sur ZigZag (avec quelques modifications). Ce que vous avez écrit sur son incapacité à détecter les bémols est absurde. Le rapport entre la hauteur des prix entre les genoux (sorry....) et l'horizontale du temps, entre eux, vous donne également une caractéristique du marché, coupant le bruit, plus informative que la MA. Mais tout cela n'est que de l'histoire, pour les statistiques.

 
J.B......Target est un script qui collecte des statistiques sur les tendances/flots, en les ventilant par catégories d'échelle et d'intensité. Afin de superposer sur la série de prix, le résultat sera des statistiques de distribution des tendances et des cannelures, classées selon l'échelle (seuil de bruit) et la "raideur" (angle tangent moyen).

Si vous voulez les caractéristiques quantitatives de ces états sur une période de temps, et même attribuer le degré de "raideur" - puis définir ce qui est une tendance / flit + critères pour trouver des points pour déterminer l'angle + un peu différent pour l'analyse des données statistiques et de placer le travail - ils feront pour l'argent dans la meilleure forme / comme une option / ...

Pour moi, les données historiques ne sont d'aucune utilité dans le trading ... à quoi bon si hier (aujourd'hui) il y avait 25 tendances et 47 zones plates sur la paire dans l'échelle de temps m15, dont la moitié sont "vraiment bonnes" ? Si nous analysons les données sur la taille de la tendance, le plat, la scie pendant la période, cela nous permet de fixer des niveaux d'objectif, mais encore une fois, il n'y a pas d'outil universel pour détecter à temps un renversement de tendance, parce que lorsque la tendance est identifiée, elle a déjà fait une partie du chemin et monter sur la tendance est une tentative de monter dans le "train qui part" ... La question est de savoir combien de stations il lui reste à parcourir.

 
J.B:

et dire que c'est un plan stupide, que ça ne marchera pas parce que ceci et cela...

Le plan est simplement irréaliste, pas dans le sens où il est irréalisable... La prémisse de l'énoncé du problème est fausse. La notion même de "statistiques" en tant qu'outil de recherche scientifique ne correspond pas à la quantité d'informations fiables disponibles dans les données historiques du marché.
 
Wangelys:
Le plan est tout simplement irréaliste, pas dans le sens d'être irréaliste... La prémisse de l'énoncé du problème est fausse. La notion même de "statistiques" en tant qu'outil de recherche scientifique ne correspond pas à la quantité d'informations fiables disponibles dans les données historiques du marché.

Pouvez-vous clarifier ce qui a été dit ?

Je ne fais pas référence aux objectifs vagues du topicstarter, mais à une généralisation sur l'incohérence entre les statistiques et les "informations fiables". Pensez-vous que les méthodes statistiques sont mauvaises ?

En d'autres termes, la distribution de probabilité est arbitrairement non fonctionnelle, et toute généralisation d'ensembles de données, n'est pas porteuse d'informations précieuses.

Alors, bienvenue au casino ! Bienvenue au club ! Kamonochka euribatochka))))))))))

 
gunia:

Pouvez-vous clarifier ce qui a été dit ?

Je ne fais pas référence aux objectifs vagues du topicstarter, mais à une généralisation sur l'incohérence entre les statistiques et les "informations fiables". Pensez-vous que les méthodes statistiques sont mauvaises ?

En d'autres termes, la distribution de probabilité est arbitrairement non fonctionnelle, et toute généralisation d'ensembles de données, n'est pas porteuse d'informations précieuses.

Alors, bienvenue au casino ! Bienvenue au club ! Kamonochka euribatochka))))))))))

Je pensais avoir été clair ... Les méthodes statistiques sont une bonne chose, mais elles ne sont pas applicables au Forex, il y a très peu de données brutes pour les statistiques, et encore moins de données fiables. Pour être plus précis, on peut appliquer des méthodes statistiques, mais dans cette situation, ce sera l'illusion d'une démarche scientifique avec de faux résultats. Si vous n'êtes pas d'accord avec ce que je dis, vous pouvez vérifier ma justesse (ou ma fausseté)... Soit vous lisez quelque chose de sérieux sur les méthodes statistiques, soit, si c'est trop difficile, vous faites une expérience pratique tirée des "classiques du genre" avec une pièce de monnaie.
 
Wangelys:
Je pensais avoir été clair ... Les méthodes statistiques - une bonne chose, mais elles ne sont pas applicables au Forex, très peu de données brutes pour les statistiques, et la validité des données, encore moins. Pour être plus précis, on peut appliquer des méthodes statistiques, mais dans cette situation, ce sera l'illusion d'une démarche scientifique avec de faux résultats. Si vous n'êtes pas d'accord avec ce que je dis, vous pouvez vérifier ma justesse (ou ma fausseté)... Soit vous lisez quelque chose de sérieux sur les méthodes statistiques, soit, si c'est trop difficile, vous faites une expérience pratique tirée des "classiques du genre" avec une pièce de monnaie.

Je suis d'accord et pas d'accord, en même temps, ce n'est pas clair ce que vous voulez dire.

Quel type de données n'est pas suffisant ? Quel montant serait suffisant ? Prix, volume, niveau 2, etc.

Qu'est-ce qu'une donnée "fiable" ?

Veuillez nous fournir une déclaration concrète issue d'un travail "sérieux", qui prouve qu'il y a des limites à l'échantillon de données pour l'analyse statistique. Particulièrement intéressant à propos de la "fiabilité".

P.S. Je veux juste comprendre ce que vous voulez dire.