Résonance stochastique - page 29

 
Yurixx:
En ce qui concerne les indicateurs TA standard, pas grand-chose. Mais elle mérite aussi qu'on s'y attarde. J'ai déjà posté les photos. Vous y trouverez des graphiques RSI pour deux périodes différentes et mes commentaires à ce sujet. Si l'on normalise l'IFR pour que sa magnitude ne dépende pas de la période de lissage, il peut être utilisé plus efficacement. Il en va de même pour certains autres indicateurs.


Il est important de savoir comment l'indicateur est "utilisé". Peut-être, il n'y a pas de tels problèmes.

Il y a eu des articles sur le sujet de l'adaptabilité des indicateurs. Le plus simple est de superposer le RSI de Bollinger. Méthode statistique simple basée sur le RMS et sans construire de distributions théoriques.

 
Mathemat:
Yurixx a écrit (a) : Et qui a dit que cette intégrale est prise par la méthode de descente de gradient ?

C'est bon, Yurixx, je ne vous attribue pas cette phrase. Et que dire de l'attitude sceptique face aux artifices... J'ai installé Maple à la maison, parfois il m'aide vraiment, y compris pour les calculs symboliques. Cependant, je ne l'ai pas utilisé depuis longtemps.

J'avais un Matcad, puis je suis passé à Matlab. Récemment installé neuroshell2. Où d'autre pourrais-je prendre le temps de tout comprendre ? Et j'aimerais... Il y a certaines choses que j'aimerais vraiment maîtriser.

C'est pourquoi, sans plaisanter, mon attitude sceptique se limite au scepticisme sur mes capacités à saisir tout ce que je veux. Toutes ces choses sont de merveilleux bagages pour l'application de méthodes déjà développées et perfectionnées, par ceux qui n'ont pas besoin d'approfondir, qui ont besoin de résultats en chiffres. Si nous parlons de nous tous ici, nous essayons de créer quelque chose de nouveau. Ce n'est guère possible sans une pénétration profonde. Mais... C'est à ça que servent les grands-pères, à creuser profondément.

 
Avals:
Yurixx:
En ce qui concerne les indicateurs TA standard, pas grand-chose. Mais elle mérite aussi qu'on s'y attarde. J'ai déjà posté les photos. Vous y trouverez des graphiques RSI pour deux périodes différentes et mes commentaires à ce sujet. Si l'on normalise l'IFR pour que sa magnitude ne dépende pas de la période de lissage, il peut être utilisé plus efficacement. Il en va de même pour certains autres indicateurs.


Il est important de savoir comment l'indicateur est "utilisé". Il n'y a peut-être pas de problème.

Il y a eu quelques articles sur l'adaptabilité des indicateurs. Le plus simple est de superposer le RSI de Bollinger. Une méthode statistique simple basée sur le RMS et sans construire de distributions théoriques.


Il existe sans aucun doute de nombreuses possibilités et méthodes différentes. Cela signifie-t-il que nous devrions refuser de faire quoi que ce soit de nouveau, en particulier les "distributions théoriques" ?
 
grasn:

à Yurixx


:-))
 
Yurixx:

J'ai une question intéressante en cours de route. Quelqu'un peut-il m'éclairer sur la raison pour laquelle une fonction de distribution aussi simple et pratique, dotée de bonnes propriétés, n'est pas utilisée en statistique ? Et si elle est utilisée, pourquoi ne fait-elle pas l'objet d'un article ? Je n'ai jamais vu personne essayer d'approximer une distribution incrémentale autre que la lognormale.

Je peux supposer que la théorie utilise des distributions dérivées des premiers principes. Et cette fonction n'est qu'une des fonctions d'approximation possibles, c'est le domaine de la phénoménologie.

J'ai la note suivante concernant l'essence de mon travail : il est nécessaire de préciser que nous parlons réellement d'espérance Ymin et Ymax. La condition "killing" de calcul de la moyenne minimale par les valeurs minimales de la série atténue cet inconvénient, mais en génère un autre - en fait, il s'agit de la probabilité d'occurrence de M valeurs minimales (maximales) de la série dans une rangée (c'est pourquoi j'utilise le mot "killing"). Avec N tendant vers l'infini, la probabilité d'un tel événement tendra vers 0. Je n'ai pas analysé les calculs en détail, mais nous devons supposer que X1 ira jusqu'à 0 et que X2 ira aussi jusqu'à l'infini. Après eux, Ymin et Ymax suivront le même chemin, le premier étant clairement visible sur la deuxième image, le second ne rentrant évidemment dans aucun graphique. Cela rend leur valeur en tant que coefficients de normalisation discutable, même s'ils tendent assez lentement.
Je pratique la normalisation depuis assez longtemps, y compris pour les prix. À mon avis, la chose la plus naturelle est d'utiliser un intervalle de confiance pour cela. C'est-à-dire F(Ymax)=1-Delta, si dans la pratique - vous faites une distribution réelle de Y avec le maximum de N disponible et pour le Delta choisi vous trouvez Ymax par tri. Je n'ai pas chronométré, mais pour un simple Y, cela ne prendra pas beaucoup de temps.
 
Yurixx:
grasn:

à Yurixx


:-))

Concis mais succinct. Pardonnez ma curiosité naturelle morbide, vous voulez toujours comprendre même ce dont vous n'avez pas besoin personnellement. :о)

 
grasn:
Yurixx:
grasn:

à Yurixx


:-))

Concis mais succinct. Pardonnez ma curiosité naturelle morbide, vous voulez toujours comprendre même ce dont vous n'avez pas besoin personnellement. :о)


C'est pourquoi je vous aime tous, les gens ! :-)
 
Yurixx:

...J'ai une question intéressante en cours de route. Quelqu'un peut-il m'éclairer sur la raison pour laquelle une fonction de distribution aussi simple et pratique, dotée de bonnes propriétés, n'est pas utilisée en statistique ? Et si elle est utilisée, pourquoi ne fait-elle pas l'objet d'un article ? Je n'ai jamais vu personne essayer d'approximer une distribution incrémentale autre que la lognormale.

Yura, je ne connais pas la réponse à cette question.

Je peux seulement supposer que la distribution que vous proposez p(X)=A*(X^a)*exp(-B*(X^b)), est un cas particulier (par exemple, la distribution exponentielle généralisée p(X)=a/(2G[1/a]*l*s)exp{-[(x-m)/l*sl*s]^a}, Bulashev, p.41), ou ceux, peu nombreux, qui ont également réussi à aller au fond des choses, ont décidé de se taire et de faucher tranquillement les choux sur la vaste Forpolye :)

Mais j'ai une contre-question !

Il y a quelque temps, j'étudiais les modèles autorégressifs d'ordre arbitraire (quand on cherche la dépendance de l'amplitude de la barre actuelle et de son signe sur la somme des actions sur elle d'un nombre arbitraire de barres précédentes). J'ai résolu ce problème si bien que je ne pouvais pas dire si la série du modèle était réelle ou non par son apparence, sauf pour une exception - la fonction de distribution (DP) de la série du modèle était loin de la réalité. Je n'ai jamais pu trouver la raison de cette divergence. Intuitivement, je pensais que la coïncidence des fonctions d'autocorrélation était suffisante pour faire correspondre la PDF de leurs premières différences. Il s'avère que ce n'était pas... Il y a quelque chose que je ne prends pas en compte dans la modélisation du comportement des séries résiduelles.

Que pensez-vous de cette question ?

 

Je vais m'interposer, Neutron. Je ne suis pas statisticien, j'ai donc dû poser la question sur mexmat.ru. Il est ici : http://lib.mexmat.ru/forum/viewtopic.php?t=9102

Question : quelles informations sur le processus stationnaire suffisent pour le reproduire correctement ? La réponse était : il faut connaître la fonction de covariance et le m.o. du processus. Je ne sais pas encore comment construire un processus avec une fonction de covariance donnée. Mais l'idée est que le processus résultant puisse être considéré comme une mise en œuvre correcte du processus simulé original. Peut-être que votre processus n'était pas stationnaire ?

P.S. Je veux une simulation plausible du processus des résidus (retours). Selon Peters, la distribution des résidus est fractale avec une précision acceptable, et le processus est stationnaire. Bien que d'autres modèles ne soient pas exclus...

 
lna01:
Yurixx:

J'ai une question intéressante en cours de route. Quelqu'un peut-il m'éclairer sur la raison pour laquelle une fonction de distribution aussi simple et pratique, dotée de bonnes propriétés, n'est pas utilisée en statistique ? Et si elle est utilisée, pourquoi ne fait-elle pas l'objet d'un article ? Je n'ai jamais vu personne essayer d'approximer une distribution de type incrémental autre que lognormale.

Je peux supposer que la théorie utilise des distributions dérivées des premiers principes. Et cette fonction n'est qu'une des fonctions d'approximation possibles, c'est le domaine de la phénoménologie.

En fait, j'ai la note suivante : il est nécessaire de préciser que nous parlons bien d'espérance Ymin et Ymax. La condition "killing" de calcul de la moyenne minimale par les valeurs minimales de la série atténue cet inconvénient, mais en génère un autre - en fait, il s'agit de la probabilité d'occurrence de M valeurs minimales (maximales) de la série dans une rangée (c'est pourquoi j'utilise le mot "killing"). Avec N tendant vers l'infini, la probabilité d'un tel événement tendra vers 0. Je n'ai pas analysé les calculs en détail, mais nous devons supposer que X1 se déplace vers 0 et que X2 se déplace également vers l'infini. Après eux, Ymin et Ymax suivront le même chemin, le premier est clairement visible dans la seconde image, le second ne rentre dans aucun diagramme. Cela rend leur valeur en tant que coefficients de rationnement douteuse, même en cas d'effort plutôt lent.
Je pratique la normalisation depuis un certain temps, y compris pour les prix. IMHO, la chose la plus naturelle à faire est d'utiliser un intervalle de confiance pour cela. C'est-à-dire F(Ymax)=1-Delta, si dans la pratique - vous faites une distribution réelle de Y avec le maximum de N disponible et pour le Delta choisi vous trouvez Ymax par tri. Je n'ai pas chronométré, mais pour un simple Y, cela ne prendra pas beaucoup de temps.



Je suis d'accord avec tous les commentaires. Et l'image du comportement des limites à N -> là est parfaitement correcte. Mais.

Il ne s'agit pas d'un calcul des limites Ymin et Ymax, mais seulement de leur évaluation statistique. L'objectif, la normalisation de la gamme, impose des exigences pas trop rigides sur la précision de la tâche. En tenant compte de cela, je pense que de telles hypothèses (incorrectes par essence) sont tout à fait acceptables. Mais s'il était nécessaire de déterminer l'heure d'appel au-delà de la frontière, il faudrait la déterminer de manière beaucoup plus précise.

Je me suis vraiment limité au cas de N fini, ce que j'ai explicitement dit. Si même vous utilisez le maximum disponible mais fini de N dans vos calculs, alors j'y ai droit. :-)) On ne sait pas ce qui lui arrivera lorsque N atteindra l'infini. Une consolation - vous et moi n'existerons plus. Et le forex aussi.

Je veux attirer votre attention sur l'objectif principal du problème. Il ne s'agit pas de calculer Ymin et Ymax en soi. Il s'agit de recalculer les données d'une série dérivée en utilisant les données de la série originale. En outre, votre méthode de recalcul de la normalisation est arbitraire, liée à l'ensemble historique sur lequel vous la faites. Lorsque vous passez en t/f, il peut passer de 2000 bars à, disons, 500000 bars. Atteindre la limite de la plage dans le premier cas ne dit rien, mais dans le second cas, cela dit beaucoup. Vous ne pouvez accuser ma méthode d'être arbitraire qu'en ayant à l'esprit une fonction de distribution modèle. Cependant, si la distribution réelle, tracée expérimentalement sur la quantité "maximale disponible" de données, est bien approximée par la distribution du modèle, alors où est l'arbitraire ?