Index de Hearst - page 27

 
C-4:

Pour éviter toute confusion, référons-nous à la définition de l'EM : l'espérance mathématique est la moyenne d'une série de rendements d'une variable aléatoire.

La ME d'un échantillon = la moyenne de l'échantillon. Et le type de série dont est tiré l'échantillon n'est pas pertinent pour la définition de la ME. Mais ce n'est pas le sujet.

Pour tout le reste, nous nous comprenons.

 
C-4:

La distribution est normale, avec un MO nul et un écart-type donné. Dans ce contexte, la cohérence et la tendance sont la même chose. Quand je dis "série à tendance", cela signifie que la probabilité de coïncidence du signe de l'incrément avec le signe de ses rendements précédents est supérieure à 50%, l'anti-trendicité est le contraire, la probabilité de coïncidence du signe est inférieure à 50%. Il ne s'agit pas de ma définition, mais de ce que signifie exactement le livre.
Merci. Je vois.
 
C-4:

Malgré l'intérêt mitigé du public pour le thème énoncé, je continue à suivre le livre de Peters.

Il y a un autre point important que l'utilisation par Hirst des "rangs financiers" ne prend pas en compte. Le fait est qu'il existe une "similitude" considérable entre la dynamique de la crue du Nil et les expériences de Hirst avec le jeu de cartes, mais pas avec les "rangs financiers".
 
C-4:

L'ensemble de la série Peters est ensuite divisé en sous-périodes indépendantes. Chaque sous-période est calculée selon la méthodologie ci-dessus. Par conséquent, il existe une certaine valeur moyenne de RS, et elle doit être qualitativement différente du mouvement brownien. Comme la dispersion des particules sera directement proportionnelle au logarithme de la période, le rapport de Hurst, c'est-à-dire le rapport entre la durée et la période, doit être une constante et être égal à 0,5. En fait, la formule n'est pas parfaite et a tendance à surestimer le résultat de 0,3, c'est-à-dire que sur des séries manifestement aléatoires, Hurst indiquera 0,53, plutôt que 0,50. Et ce n'est pas dû au petit échantillon, plus nous utilisons de données, plus l'indicateur sera précis dans la fourchette de 0,53.

....

Comme vous pouvez le constater, l'indicateur présente deux problèmes principaux : lors de forts renversements, le MO sera insignifiant, tandis que le swing sera élevé, ce qui conduit à une surestimation déraisonnable de l'indicateur. Au contraire, dans une tendance clairement haussière, le MO sera la partie principale du mouvement, mais les fluctuations autour du MO seront faibles et donc le heurst sera à nouveau plus bas qu'il ne devrait l'être.

Ainsi, nous pouvons tirer une conclusion préliminaire que la méthode suggérée ne peut pas décrire de manière adéquate le mouvement des prix du marché et identifier efficacement les composantes de tendance et d'anti-tendance.

La raison en est que la volatilité et, respectivement, la cascade utilisée dans la formule ne convergent pas vers une constante. Dans ce cas, pour la fréquence d'une échéance, nous devons la diviser en "sous-périodes indépendantes", de sorte que l'asymétrie converge vers la constante. C'est-à-dire qu'il ne faut pas les prendre à l'improviste.

Mais tout de même, il est inutile de prendre la série dans son ensemble et d'en vérifier la cohérence. La moyenne de l'hôpital ne différera pas de manière significative de la SB, car parfois la série suit une tendance et parfois elle est plate. Nous devrions savoir quand il y a une tendance et quand il est plat et pourquoi. Nous devons savoir quand il y a une tendance et quand il est plat).

 
HideYourRichess:
Il existe un autre point important, qui n'est pas pris en compte lors de l'utilisation de Hearst sur les "séries financières". Le fait est qu'il existe une "similitude" significative entre la dynamique des crues du Nil et les expériences de Hirst avec un jeu de cartes, mais pas avec les "séries financières".


Pourriez-vous développer la réponse de manière plus détaillée ? Chaque année, les crues du Nil varient dans une certaine fourchette. C'est sa série de retour. Il est clair que l'inondation sera toujours une valeur positive, nous devons donc détendre cette série par rapport à son MO. On regarde ensuite la série accumulée : les maxima et les minima formeront le spread. Si le déversement chaque année est aléatoire et indépendant, alors la série résultante sera aléatoire et suivra une trajectoire en forme de cloche par rapport au temps. Si la série n'est pas aléatoire et persistante, elle sortira plus souvent de la trajectoire en forme de cloche ; si elle est anti-tendance, elle sera profondément à l'intérieur de la cloche.

Le problème principal est ici légèrement différent. Cette méthode fonctionne bien lorsque l'attente est plus ou moins stable, comme dans le cas du Nil ou de l'activité solaire. Mais cela ne fonctionne pas avec les marchés, et le mode opératoire est différent à chaque instant. Nous ne pouvons pas déduire le MO de la série du marché dans ce cas car nous ne savons pas s'il fait partie de l'écart ou de la composante stationnaire du processus. Des techniques plus "avancées" telles que la régression linéaire ne fonctionneront pas non plus, car la tendance (ligne de régression) est également non stationnaire et peut donc être le résultat d'un processus déterministe.

 
Avals:

La raison en est que la volatilité, et donc le sco utilisé dans la formule, ne converge pas vers une constante. Il est nécessaire de diviser la fréquence d'un équilibre en "sous-périodes indépendantes", de sorte que le sko converge vers la constante. C'est-à-dire qu'il ne faut pas les prendre au hasard.

La volatilité n'est qu'une mesure de la normalisation. L'écart entre les périodes est divisé par sa valeur de référence uniquement pour obtenir la même échelle pour toutes les séries possibles. De plus, le s.q.o. pour une période finie est une valeur finie. Il ne coïncidera pas avec les périodes adjacentes, mais pour sa période sera à valeur unique, et donc par rapport à la gamme obtenue de cette période sera tout à fait adéquate valeur de normalisation.

C'est pourquoi j'ai spécifiquement fait le calcul pour des sous-périodes indépendantes. C'est-à-dire que si la série est constituée de 1000 valeurs et que la période de calcul de la moyenne est de 100, on prend 10 sous-périodes consécutives de 100 valeurs, on calcule pour chacune d'elles son RS et on obtient ensuite la moyenne de ces RS.

Avals:

Mais il est toujours inutile de prendre la série dans son ensemble et d'en vérifier la cohérence. La moyenne de l'hôpital sera légèrement différente de la RS, car parfois la série suit une tendance et parfois elle est plate. Nous devons savoir quand il y a une tendance et quand il est plat et pourquoi. Nous devons savoir quand il y a une tendance et quand il est plat).

J'ai également réfléchi à cette question. J'ai spécifiquement écrit un indicateur de glissement Hearst pour cela, qui calcule sa valeur à chaque moment dans le temps. Je n'ai pas réussi à trouver de modèles qualitatifs. Cependant, les inconvénients sont nombreux, par exemple Hearst surestimera ses valeurs lors des renversements de prix et les sous-estimera lors d'une forte tendance.

 
C-4:

La volatilité n'est qu'une mesure de la normalisation. Nous divisons l'étendue d'une période par son o.c.s. uniquement pour obtenir une seule échelle pour toutes les séries possibles. De plus, le s.q.o. pour une période finie est une valeur finie. Elle ne coïncidera pas avec les périodes adjacentes, mais pour sa période sera à valeur unique et donc par rapport à la gamme obtenue de cette période sera tout à fait une valeur adéquate de normalisation.

C'est pourquoi j'ai spécifiquement fait le calcul pour des sous-périodes indépendantes. C'est-à-dire que si la série est constituée de 1000 valeurs et que la période de calcul de la moyenne est de 100, on prend 10 sous-périodes successives de 100 valeurs, on calcule pour chacune d'elles un RS différent, puis on obtient la valeur moyenne de ces RS.

Bien sûr, nous obtiendrons une certaine valeur de sko à une période donnée, mais cela ne signifie pas que la volatilité sur celle-ci convergera vers une constante. La volatilité des séries financières réelles est volatile et n'est pas caractérisée par un seul chiffre. Par conséquent, les "sous-périodes" peuvent contenir des morceaux de haute et de basse volatilité et la formule ne sera pas lue correctement. Par exemple, nous avons pris une sous-période égale à un jour de 0h à 24h. La volatilité à différents moments de la journée est stablement différente, de plusieurs fois. La valeur moyenne ne caractérise pas l'ensemble de la période et le Hurst calculé sur sa base et tenant compte de la période montrera on ne sait quoi. Toute la formule de Hurst est basée sur le fait que le bœuf ne sera pas régulièrement variable dans les sous-périodes, mais sera caractérisé par la valeur moyenne.

 
C-4:


Pourriez-vous développer la réponse de manière plus détaillée ? Chaque année, la crue du Nil varie dans une certaine fourchette. C'est sa série de retour. Il est clair que l'inondation sera toujours une valeur positive, nous devons donc détendre cette série par rapport à son MO. Ensuite, nous regardons la série accumulée : les maxima et les minima formeront le spread. Si le déversement chaque année est aléatoire et indépendant, alors la série résultante sera aléatoire et suivra une trajectoire en forme de cloche par rapport au temps. Si la série n'est pas aléatoire et persistante, elle sortira plus souvent de la trajectoire conditionnelle en forme de cloche ; s'il s'agit d'une série entêtante, elle sera profondément à l'intérieur de la cloche.

Les minima, maxima, écarts, etc. - tout est clair. Il s'agit de quelque chose d'autre.

Hurst l'a testé sur un jeu de cartes pour montrer que sa méthode fonctionne en principe. Il y avait une disposition délicate des cartes, laquelle n'est pas importante. L'essentiel est que ses expériences ont clairement défini ce qu'est un événement élémentaire.

Pour le Nil, autant que je m'en souvienne, il a également défini un événement aussi élémentaire que la marque maximale de la montée du niveau de l'eau en un an (ou bien il y avait le débit - je ne me souviens plus). Aucune autre valeur intermédiaire n'a été prise en compte. Il est clair que la "physique" du processus est toujours constante. Combien d'eau s'est accumulée dans le bassin du Nil, combien s'est écoulée par le canal. En gros, s'il s'agissait d'un tonneau, il n'y aurait rien, mais le bassin du Nil a une certaine inertie (à l'échelle de plusieurs années) dans la collecte/libération de l'eau, et c'est ce qui forme la "mémoire". Il est important de comprendre que la même chose se produit chaque année, à une certaine saison, l'eau est recueillie de l'atmosphère dans un immense bassin, s'infiltre lentement à travers les sols dans le Nil et s'écoule vers la mer.

Maintenant, si nous calculons le coefficient de Hurst pour le Nil, nous décomposons une série de ces événements homogènes élémentaires en une série, sur laquelle nous effectuons une manipulation mathématique.

Imaginons que l'événement élémentaire soit une mesure de niveau par mois, chaque premier jour. Nous avons simplement pris, et déclaré que maintenant l'événement élémentaire ne serait pas comme il se passe dans la nature, mais comme nous le voulons. Nous prenons donc ces mois, ceux qui correspondent à la saison des pluies et ceux qui correspondent à la sécheresse, et nous les découpons en séries. Et ainsi de suite. Le résultat, à mon avis, est bien prévisible.

C'est, c'est mon opinion sur tout ça.

Le problème des séries financières est exactement le même, il n'y a pas d'événement élémentaire qui caractérise le processus. Plus précisément, un découpage théorique en barres n'est pas un événement à mon avis. Qu'est-ce que ça peut me faire si, à la dernière minute, Vasya achetait et faisait bouger le prix de quelques pips, et que John vendait la minute suivante. C'est comme des gouttes d'eau qui s'infiltrent dans le Nil. Je me demande ce qui se passe dans l'agrégat.


ZS. d'ailleurs, les idées de recherche d'accumulation, de distribution, de Wyckoff, etc. - c'est juste pour comprendre que les événements élémentaires du marché ne sont pas des barres du tout.

Pour ceux qui ne comprennent pas de quoi il s'agit, les opérations statistiques ne peuvent être effectuées que sur des événements élémentaires.

C-4:


Le principal problème ici est considéré comme quelque peu différent. La méthode fonctionnera bien lorsque l'espérance mathématique (la base, ce que nous calculons) est plus ou moins stable, comme dans le cas du Nil ou de l'activité solaire. Mais cela ne fonctionne pas avec les marchés, et le mode opératoire est différent à chaque instant. Nous ne pouvons pas déduire le MO de la série du marché dans ce cas car nous ne savons pas s'il fait partie de l'écart ou de la composante stationnaire du processus. Des techniques plus "avancées" telles que la régression linéaire ne fonctionneront pas non plus, car la tendance (ligne de régression) est également non stationnaire et peut donc être le résultat d'un processus déterministe.

Probablement oui. En principe, le jeu de cartes et Neil sont tous deux des processus intrinsèquement stationnaires. Ce n'est pas un outil financier. Plus précisément, elle est stationnaire, non pas tout au long de la série, mais à certaines étapes. Et, bien sûr, cette stationnarité n'est pas déterminée par la constance du MO et de la dispersion, mais d'une autre manière.
 
Et j'ajouterais également (car j'ai moi-même fait des calculs dans l'Excel de Hearst) que le pouvoir de pronostic de ces statistiques est discutable. Oui, nous savons que le marché était tel et tel, et qui sait comment il sera dans les 100-1000 prochaines mesures ? Qu'en pensez-vous ?
 
alexeymosc:
Et j'ajouterais également (comme je l'ai moi-même calculé dans l'Excel de Hearst), que la propriété pronostique de ces statistiques est douteuse. Oui, nous savons que le marché était tel ou tel mais qui sait ce qu'il sera dans les 100-1000 prochaines barres ? Qu'en pensez-vous ?


Les problèmes de Matroskin étaient dus à son manque d'intelligence, alors que nous avons tous des problèmes dus à son excès et à sa sur-éducation.

Laissons de côté le Nil et son histoire millénaire et redescendons sur terre.

Nous avons la barre d'extrême droite et nous sommes intéressés par la prévision pour la prochaine barre. Si l'on tient compte du fait qu'il peut s'agir de M1, H1 ou D1, le problème de l'horizon est résolu.

Répondons maintenant à la question suivante : combien de barres précédentes sont nécessaires pour prévoir la suivante. J'ai lu une fois que la statistique t se transforme en statistique z lorsque le nombre d'observations est supérieur à 30. Triplons-le et obtenons 100. Pour H1, il y a 118 observations dans une semaine. Il est probable qu'une nouvelle semaine sur le H1 donnera lieu à de nouveaux problèmes. C'est tout.

Maintenant, nous faisons une prévision en une étape. Par exemple, nous traçons une ligne droite sur les 3 derniers points et la prolongeons vers l'avant.

Maintenant. Admettons que cette prédiction soit représentée par une variable aléatoire. Il s'ensuit qu'il y a une erreur dans le calcul de cette prévision. Et cette erreur est le fond du problème. Si le mo et le volu sont au moins approximativement constants, c'est une chose. Ou si elle n'est pas géniale et qu'elle peut être remplacée par une pâte à tartiner, ce n'est rien non plus. Mais le problème est l'erreur.

Et Dieu interdit que l'erreur de prédiction ressemble à ça.

Et maintenant, nous sommes confrontés à la tâche d'obtenir les caractéristiques stationnaires de l'erreur à partir de notre échantillon limité.

Je pense que oui.