Volumes, volatilité et indice de Hearst - page 34

 
Vita:

Je ne comprends toujours pas ce que signifie une nouvelle taille de ligne. La ligne sous analyse R/S est toujours la même et sa taille ne change pas. La rangée est coupée en K morceaux. K est ce que j'appelle la taille de la règle, pas la nouvelle moyenne.

Lorsque les gens entrent dans ce genre de détails, ils doivent décrire exactement leur point de vue. Sinon, avec une probabilité proche de 100%, ils finissent par parler de choses différentes. Vous avez finalement donné un lien dans ce message vers une description assez précise de la procédure, mais il n'y a rien là-dedans sur la décomposition en morceaux. Si j'étais un fan de Hirst, je devinerais probablement de quelle procédure et de quelle source je parle. Mais je ne vais pas deviner.
La nouvelle moyenne (en espérant qu'elle se réfère à la moyenne R/S pour diviser la rangée en K morceaux) est déjà le résultat de la règle mesurant la taille K. Nous la disposons sur le plan. Il en résulte de nombreux points pour la même rangée à partir de mesures effectuées avec des règles de tailles différentes.

J'ai probablement commis une erreur en parlant de la moyenne. Je voulais parler de la série d'écarts cumulés, Z(t) dans le benchmark que vous avez suggéré. A partir de la série initiale de n points, on produit n séries de taille t = 1, 2, ...,n. Et pour chacune de ces lignes, il existe une règle - Z(t). Pour être plus clair, pour moi toute somme cumulée est presque synonyme de moyenne, jusqu'à un facteur de normalisation.

Et pas d'asymptotes.

Quant à la référence à l'asymptotique de Hearst, en effet, Wikipedia signale que

.... Jusqu'à présent, aucun code de calcul de l'asymptote de Hearst n'a été présenté.
Quel calcul d'asymptote ? Vous feriez mieux de donner une preuve que Hearst SB est 0,5 pour tout N. L'asymptote se produit précisément parce que 0,5 est une asymptote pour l'écart SB. En fait, puisque cette question est si importante pour vous, pourquoi ne pas répéter le calcul de Yuri avec "ce" calcul d'écart ?

En tout cas, je comprends, Candide, pourquoi vous avez besoin d'un ton blagueur et condescendant. Jusqu'à présent, le fil de discussion est surchargé de tout sauf de résultats et d'occasions de les vérifier. Je vous souhaite vraiment bonne chance, j'espère voir un dénouement. S'il te plaît, rends-moi heureux.

Hmm, notre discussion surcharge aussi le fil, d'où le ton. Vous semblez avoir manqué l'un des résultats de la discussion, à savoir l'accord sur le fait que le Hurst original n'est pas le meilleur indicateur pour nos objectifs. Vous vous engagez donc dans une sorte de reconstruction historique.

 

HideYourRichess:

Et d'ailleurs, je suis troublé par de vagues doutes. Vous n'avez pas utilisé le C PRNG dans vos expériences, n'est-ce pas ? Si oui, c'est une grosse erreur, vous ne pouvez pas l'utiliser pour générer des données pour Hearst.


Merci pour votre rigueur, vous avez commenté chaque point. Et j'aurais pu répondre de la même façon. J'ai toutefois décidé de me limiter à la citation citée. Je pense que c'est là que réside la différence fondamentale de nos approches.

J'ai utilisé le PRNG MQ, qui n'est qu'une coquille de celui du C. C'est-à-dire que de votre point de vue, "c'est une grosse erreur" et ce n'est pas approprié "pour générer des données pour Hearst".

Ici, la formulation même de la question me semble totalement inacceptable. Il s'avère que vous avez besoin de données spéciales pour Hearst. Il ne fonctionne pas sur les données non spéciales. Quel type d'indicateur est si sélectif ? Qu'est-ce que cela a à voir avec les mathématiques alors ?

Vita, par exemple, a suggéré à Nikolaï de calculer Hearst sur un nombre N dans le cube. Même si Vita n'a jamais admis ce que devait être le résultat, il s'est comporté comme si c'était tout à fait possible et que le résultat devait être logique. Et je le crois.

En ce qui concerne le PRNG, j'ai, si vous y avez prêté attention, effectué le calcul pour trois quantités : l'étendue, le module incrémental et la variance. Pour ce dernier point, il existe une formule strictement éprouvée : <D>=N. Cette formule était pour moi un critère de justesse des calculs. Si les calculs montraient qu'elle ne tient pas, je supposerais alors que les calculs sont faux (quelle qu'en soit la raison) et non la formule. Cependant, là encore, si l'on y prête attention, les résultats ont montré que cette formule tient pour toutes les valeurs de N. Et pour Hurst, ils ont montré exactement ce à quoi il fallait s'attendre. C'est pourquoi je n'ai personnellement aucun doute à leur sujet.

Apparemment, nous avons des notions très différentes de ce qu'est un indice de Hurst, de la manière dont il est calculé et de ce qu'il est. Il est inutile d'argumenter dans cette situation. Nous devons d'abord nous mettre d'accord sur les notions. Je vous suggère de consulter la wikipedia anglophone et de voir ce qu'elle dit à ce sujet. Vita y a fait référence quelque part plus tôt. J'ai regardé ce lien et je pense qu'il est très correct. Et simple.

 
Merci Farnsworth Candid Yurixx Avals

Candid:

Je l'ai pris comme une introduction. Il suscite la curiosité, certaines résonances apparaissent, quelque chose tombe dans le vide (dans le sens de l'absence d'association).
Mais l'introduction doit être suivie du texte principal :).
La simple division du modèle en cause et effet est tout à fait conforme à mon point de vue - seulement dans ce cas, ils méritent un titre distinct et une considération distincte. La dissociation de la similitude, de la corrélation et des autres outils de vivisection suggère plutôt un stade assez précoce dans le développement de l'idée, lorsqu'à part le sentiment d'avoir clairement saisi quelque chose et une imagerie très générale, il n'y a presque rien.
Dans l'ensemble, vous aimez plutôt le nouveau monde dessiné à grands traits, mais j'aimerais comprendre ce qu'il a à voir avec la réalité.
Il est plus correct de qualifier mon approche de l'analyse de la BP de théorie plutôt que de simple méthode - Transcending Paternals Theory (TPT, encore un titre provisoire). Elle a été développée comme un remplacement complet de la théorie du Dow et des TA basées sur celle-ci depuis fin 2008. Depuis lors, j'ai presque complètement cessé de torturer Lady MA et Sir Mc Di et leurs proches dans le testeur, ayant finalement réalisé l'impasse de l'AT en termes de développement ultérieur.

L'impasse se situe dans la discrétisation des signaux de l'AT, ce fameux et omniprésent "acheter, vendre, fumer du bambou", d'où le décalage et autres "poids" inévitables de l'AT. En outre, l'AT est pleine de contradictions internes.

Tout a commencé par la volonté de pouvoir, d'une part, écrire librement des ATS et, d'autre part, émuler le processus de décision d'un trader en direct. L'une des caractéristiques du trading manuel (je veux dire sans utiliser d'indicateurs) est la possibilité de prendre une décision immédiatement en un coup d'œil sur un graphique, c'est-à-dire sur n'importe quelle barre. J'ai alors pensé, comment puis-je enseigner à une machine idiote ce que je fais moi-même ? Par ailleurs, j'ai rencontré ici et là des opinions selon lesquelles certaines tactiques "manuelles" ne peuvent être formalisées.

Au milieu de l'année 2009, j'ai fait connaissance avec les ANN, qui étaient alors des perseptrons linéaires primitifs de Reshetov (sans vouloir vous offenser). À partir de ce moment-là, j'ai commencé à maîtriser l'ANN comme moyen de transformation non linéaire de la BP, car je sentais dans mes tripes que c'était exactement ce que je recherchais.

Ensuite, nous avons étudié les algorithmes d'optimisation en général et l'AG en particulier en tant qu'outil d'apprentissage des réseaux et en tant que possibilité potentielle de créer des systèmes auto-organisés adaptatifs avec l'IA (limitée par les objectifs du commerce bien sûr). C'est là que les contours de l'ICC commencent à se dessiner. Une théorie qui est dépourvue des contradictions de la théorie Dow et de l'AT. La théorie sur la base de laquelle il devient possible de construire un ATC avec des signaux "analogiques" pour acheter/vendre, c'est-à-dire à tout moment, en construisant un ATC adaptatif presque "en direct" absolument sans aucun réglage lié aux fonctions de trading du TS lui-même, à l'exclusion, bien sûr, des réglages liés à la maintenance du service.

Les principes de base de l'ICC, je les ai déjà exprimés à plusieurs reprises dans différents fils du forum.
Il s'agit de :
- A tout moment, il est possible de prendre des positions longues et courtes.
-Il peut y avoir à la fois des positions longues et courtes à un moment donné (chacune a ses propres objectifs).
-Chaque position possède des limites qui identifient de manière unique la décision de trade, comme le TP et le SL.
Chaque position a sa propre "durée de vie", essentiellement limitée par le paternoster de queue.


Les principales procédures d'application du CCP sont les suivantes :

-Préparation des BP pour obtenir une distribution sans queues épaisses.

-Construction d'une forme stationnaire sur les échelles relatives du motif.
-Analyse d'un ensemble de motifs provenant de différentes TF (vous pouvez utiliser différents outils, j'utilise ANN)
-Formalisation basée sur l'analyse du signal.

Yurixx :

L'idée générale de la mise en scène n'est pas répréhensible. Mais c'est un programme plutôt cool. Il ne sera pas facile à mettre en œuvre car il n'existe pas de définition formelle d'un motif, et d'autre part, des motifs identiques peuvent être constitués de nombres de points différents.
Ne pas utiliser la corrélation comme mesure de la similarité des motifs pourrait être intéressant si une méthode alternative (et efficace) est proposée. Sans cela, l'abandon de la corrélation pourrait conduire à une impasse.

и

Farnsworth :

Peu importe que l'on utilise MathCAD, MQL ou C++. Il faut que ce soit formalisé d'une manière ou d'une autre. J'ai enquêté sur les schémas et j'ai enquêté sur ZZ dans le cadre passé/futur, en vain, sans aucun lien. Pas du tout. Le 0,5 de Hearst explique tout.

Voici la théorie. Pour chacun de ces points, il existe des nuances et des détails qui n'intéressent personne. Chacun de ces éléments peut être mis en œuvre de différentes manières, mais le fait est que tout est formalisable.

Le fait de ruminer le TPP conduit inévitablement à des conclusions très intéressantes.

Avals :

imha, un motif ou une combinaison de motifs sur différents cadres n'a de sens que dans un certain contexte - la phase du marché. Un modèle n'est pas la cause d'un mouvement, mais seulement un signe probable de transition. Le contexte peut être très différent.

J'ai été influencé dans ma réflexion par un célèbre fil de discussion sur Contexte. Essentiellement, la totalité des modèles provenant de différentes TF (différents horizons) à chaque moment du temps est ce Contexte même. Le contexte de chaque moment dans le temps. L'ensemble des modèles décrit sans ambiguïté la phase actuelle du marché.


Avals :

Bien que j'utilise l'analyse technique pour prendre des décisions de trading, il existe un certain nombre de différences importantes entre ma méthode et les approches de la plupart des autres traders de ce groupe . Tout d'abord, je ne pense pas que beaucoup de traders techniques remontent plus loin que trente ans dans leurs recherches, et encore moins cent ans ou plus . Deuxièmement, je n'interprète pas toujours la même figure stéréotypée de la même manière . Je tiens également compte de la partie du cycle économique à long terme dans laquelle nous nous trouvons. Ce seul fait peut entraîner des différences très importantes entre les conclusions que je tire des graphiques et celles auxquelles parviennent les traders qui ne le font pas. Enfin, je ne considère pas les schémas graphiques classiques (tête et épaules, triangle, etc.) comme de simples formations indépendantes. J'essaie plutôt de rechercher certaines combinaisons de figures ou, en d'autres termes, des figures dans les figures. Ces combinaisons plus complexes à plusieurs chiffres peuvent fournir des signaux pour des transactions avec une plus grande probabilité de succès .
Il y a en effet des similitudes. Il s'agit de l'"accoutumance" d'un trader à un instrument de trading, qui est différente pour chacun. Mais la différence est que je ne cherche pas "j'essaie plutôt de trouver certaines combinaisons de chiffres ou, en d'autres termes, des chiffres dans les chiffres",
un ensemble de modèles qui décrit sans ambiguïté la phase actuelle du marché est toujours présent.

Candidat :

J'ai pris ça comme une introduction. ......

Mais l'introduction doit être suivie du texte principal :).....
Il n'y aura pas de texte de base (plus détaillé). Cela dépasse le cadre de ce fil de discussion. D'ailleurs, j'allais raconter à Farnsworth quelque chose d'intéressant.
En ce moment, je suis en train d'écrire un ATC sur l'ICC, des éléments de recherche théorique ont été postés dans la branche sur le verrou. J'ai posté certaines de mes découvertes théoriques dans la branche Lock.
 
Yurixx:


Merci pour votre rigueur, vous avez commenté chaque point. Et j'aurais pu répondre de la même manière. Toutefois, j'ai décidé de me limiter à la citation ci-dessus. Je pense que la différence fondamentale de nos approches y est enfouie.

J'utilisais le PRNG de MQ, qui est juste une coquille de Cish. Donc de votre point de vue "c'est une grosse erreur" et ce n'est pas approprié "pour générer des données pour Hearst".

Ici, la formulation même de la question me semble totalement inacceptable. Il s'avère que vous avez besoin de données spéciales pour Hearst. Il ne fonctionne pas sur les données non spéciales. Quel type d'indicateur est si sélectif ? Qu'est-ce que cela a à voir avec les mathématiques alors ?

Vita, par exemple, a suggéré à Nikolaï de calculer Hearst sur un nombre N dans le cube. Même si Vita n'a jamais admis ce que devait être le résultat, il s'est comporté comme si c'était tout à fait possible et que le résultat devait être logique. Et je le crois.

En ce qui concerne le PRNG, j'ai, si vous y avez prêté attention, fait un calcul pour trois quantités - la plage, le module incrémental et la variance. Pour ce dernier point, il existe une formule strictement éprouvée : <D>=N. Cette formule était pour moi un critère de justesse des calculs. Si les calculs montraient qu'elle ne tient pas, je supposerais alors que les calculs sont faux (quelle qu'en soit la raison) et non la formule. Cependant, là encore, si l'on y prête attention, les résultats ont montré que cette formule tient pour toutes les valeurs de N. Et pour Hurst, ils ont montré exactement ce à quoi il fallait s'attendre. C'est pourquoi je n'ai personnellement aucun doute à leur sujet.

Apparemment, nous avons des notions très différentes de ce qu'est un indice de Hurst, de la manière dont il est calculé et de ce qu'il est. Il n'y a aucun sens à argumenter dans cette situation. Nous devons d'abord nous mettre d'accord sur les notions. Je vous suggère de consulter la wikipedia anglophone et de voir ce qu'elle dit à ce sujet. Vita y a fait référence quelque part plus tôt. J'ai regardé ce lien et je pense qu'il est très correct. Et simple.

Vous avez mal compris mon commentaire sur le PRNG fort. Il n'est pas exactement "aléatoire", ni même "pseudo-aléatoire", de sorte qu'en attendant un ensemble de nombres "aléatoires", vous pouvez vous heurter à un ensemble désagréable de cyclicités internes du générateur lui-même. Ce qui peut affecter les résultats. Mais c'est ainsi, d'ailleurs, si la question de l'exactitude des données d'entrée n'est pas très gênante - vous ne pouvez pas y prêter attention.

Et la définition de Hearst tirée de wikipedia ne m'a pas du tout surpris.

 

Vita:

Je souhaite vivement le succès, j'espère voir un dénouement. S'il vous plaît, faites-le.

Ma réponse précédente a été écrite sous la pression du temps et dans une atmosphère plutôt nerveuse :).
Je relis maintenant mes explications sur les règles et je me suis rendu compte que je n'avais rien clarifié. Imaginez qu'une personne ait travaillé sur quelque chose pendant un jour et une autre pendant deux jours. Et vous pouvez ne pas tenir compte de ce fait lorsque vous comparez leurs résultats. En termes humains, cela s'appellerait un double standard, c'est-à-dire que vous auriez deux règles, une pour une personne et une pour l'autre.

De même, lorsque des valeurs successives de la somme cumulée s'avèrent être des membres parfaitement égaux de la même série, vous pouvez, je pense, parler de votre règle pour chacune de ces valeurs.

Mais, bien sûr, il ne me viendrait pas à l'idée d'imposer mes associations à qui que ce soit.


Et le dénouement le plus probable, hélas, est un effacement plus ou moins progressif de la discussion :)

 
Candid: Et le résultat le plus probable, hélas, est un effacement plus ou moins progressif de la discussion :)
Et il y a des sujets qui réussissent à vivre éternellement, comme celui de la pêche :)
 
Mathemat:
Et pourtant, il y a des sujets qui réussissent à vivre éternellement - par exemple, celui de la pêche :)
Apparemment, il y a des sujets qui perdurent et d'autres qui sont éternels :)
 
HideYourRichess:

Vous avez mal compris mon point de vue sur le PRNG fort. Il n'est pas exactement "aléatoire", ni même exactement "pseudo-aléatoire", de sorte que si vous attendez de lui un ensemble de nombres "aléatoires", vous risquez de vous heurter à un ensemble désagréable de cyclicités internes du générateur lui-même. Ce qui peut affecter les résultats. Mais c'est ainsi, d'ailleurs, si la question de l'exactitude des données d'entrée n'est pas très gênante - vous ne pouvez pas y prêter attention.


J'ai l'impression que vous ne lisez pas les messages. Il ne vous suffit pas que les résultats théoriques et calculés coïncident ? Ou pensez-vous qu'une telle coïncidence puisse arriver par hasard ?

Oh, allez. Pour le reste de nos désaccords, la situation est la même - nous parlons des langues différentes. En laissant de côté les détails et en revenant à l'autosimilarité, nous avons : vous pensez que l'autosimilarité est bien définie par un nombre, et que ce nombre devrait être constant, alors que le seul argument en faveur de l'autosimilarité est la similarité des graphes sur différents tf. Et tout cela me semble être une simplification injustifiée. Comment pouvons-nous parvenir à un accord ? Pouvez-vous nous donner votre définition de l'autosimilarité ?

 

à FreeLance

Спасибо за превосходную графику.

C'est là que j'ai vu le modèle.

Non, tu ne l'as pas fait ! C'était une illustration de l'effet Slutsky. J'essayais de renforcer le mot avec une forme artistique, pour montrer que 99% de l'information ne change pas quand on déplace un pas dans le MA, c'est-à-dire essentiellement "montrer" une caractéristique intégrale de la même série, grosso modo "elle-même". Et ce n'est pas la meilleure option pour construire des stratégies sur le MA.

Mais le modèle est tout à fait différent et beaucoup plus compliqué.

J'espère que vous réussirez

Merci beaucoup pour mes vœux, idem pour vous :o)

à Joo

Merci pour ces éléments de réflexion. Je vais y réfléchir.

Pour FreeLance, Joo

Merci pour les souhaits, je sens que je vais au-delà de la ligne de front :o) Il me semble que vos attentes sont un peu élevées. C'est une véritable corvée et compte tenu de ma charge de travail - la recherche pendant au moins 6 mois, voire 10 en mode optionnel.

J'ai beaucoup de choses à préparer et à déboguer, je vais commencer par le calcul du spectre singulier et cela déjà après un voyage d'affaires (2 semaines). Alors, venez de temps en temps... :o)

 
à Candid
<br / translate="no">

Et le dénouement le plus probable, hélas, est un effacement plus ou moins progressif de la discussion :)

Avec quel coefficient d'auto-similarité ? :о)