De la théorie à la pratique - page 73

 

en quoi sko est-il meilleur que sao (écart absolu moyen) ? peut-être queles extrêmes sont décalés... quelque chose est là.


J'ai compté les déviations par rapport à une certaine échelle. sko a obtenu 12 points. soo a obtenu 6 points.

Je me demande ce que la grande différence entre sko et co pourrait signifier.
 
Vladimir:

Pourquoi s'acharner, la formule est là. Le SMR est en effet beaucoup plus fréquent, je dirais même incomparablement plus fréquent. Tout d'abord, en raison de la simplicité et de l'efficacité de calcul générées par la méthode des moindres carrés (LSM). Voici un exemple simple. Pour l'instant, je vais supposer que votre moyenne est la même qu'en MNC, arithmétique.

Il y a beaucoup, beaucoup de lignes. La grande encyclopédie soviétique par voie électronique. Besoin de calculer la fraction moyenne du nombre d'espaces dans la ligne, et l'un des indicateurs de dispersion de cette fraction, RMS ou votre écart modulo moyen par rapport à cette moyenne (brièvement je l'appellerai Cheb, puis je vous dirai pourquoi.) Chaque passage sur toutes les lignes est coûteux, les livres sont sur des ressources Internet différentes, connexion modem par paire de cuivre.Donc, pour calculer RMS une passe sera suffisante (il suffit de copier le nombre de lignes, la somme des fractions de l'espace et la somme des carrés des fractions de l'espace, à partir de ces montants compter immédiatement RMS), et pour Cheb besoin de deux (la première copie le nombre de lignes et la somme des fractions, sur eux considérer la moyenne, la seconde copie le montant des écarts absolus de la moyenne, il compte la déviation Cheb). La différence d'intensité de travail est de 2 fois.

Et donc partout où vous vous tournez, il y a un coin, si quelque chose doit être fait par des méthodes Cheb. Le problème de l'approximation d'une fonction définie dans un tableau génère des coûts de solution complètement différents. Le cas le plus simple est de remplacer la fonction par une constante. Selon le MNA, il s'agit de la moyenne arithmétique, qui est trouvée par tous en un seul passage sur le tableau des valeurs. L'approximation avec minimisation de la déviation absolue est appelée approximation uniforme, ou approximation de Chebyshev. Elle est utilisée pour trouver la moyenne médiane qui assure le minimum de la somme des écarts absolus par rapport à une constante quelconque. Réfléchissez à la manière de calculer la médiane. MQL dispose d'une fonction prête à l'emploi pour cela. Ce qu'il fait, c'est qu'il classe d'abord tous les éléments par ordre croissant. Ce n'est pas la même chose que de trouver la moyenne arithmétique.

Et ainsi de suite. En même temps, il faut être conscient que la LOC déforme les idées normales sur un phénomène. Par exemple, le niveau moyen des salaires. Les agences de statistiques en profitent pour faire état des salaires moyens. Si une entreprise compte 25 employés, dont les 5 premiers gagnent un million et les 20 autres 50 000, le salaire moyen arithmétique sera de 6/25=240 000 et la moyenne médiane sera de 50 000.


Oh, c'est vrai. Peut-être que dans le commerce, nous devrions utiliser la déviation médiane...


parce que je ne vois pas l'intérêt de l'agrafe.

Je ne vois pas l'intérêt d'utiliser sko. toutes les valeurs d'écart au carré. puis calculer la valeur médiane de l'écart au carré. puis prendre à nouveau la racine de celle-ci.

 
Максим Дмитриев:

comment le csr est meilleur que le sao (écart absolu moyen). peut-être queles extrêmes sont décalés... quelque chose est là.


J'ai calculé les écarts par rapport au mach. sko sort 12 points. soo sort 6 points.

Je me demande ce que la grande différence entre le sko et le co pourrait nous dire.
Sensibilité du RMS aux émissions. Après tout, les écarts d'émissions ont un effet au carré, ce qui équivaut à une augmentation considérable de leur poids si nous parlions de moyenne pondérée.
 
Vladimir:
Sur la sensibilité du RMS aux émissions. Après tout, les écarts d'émissions ont un effet au carré, ce qui équivaut à une augmentation considérable de leur poids si l'on parle de moyenne pondérée.

en effet. au contraire, il ne les écarte pas, mais en augmente le poids ! à cet égard, sko est pire que sao.

alors pourquoi tout le monde la prend comme référence ?

 
Yuriy Asaulenko:

nous avons vu)

Une grande déviation du sco par rapport au sao peut indiquer qu'il y a beaucoup d'émissions, ou que les valeurs des déviations sont très différentes, plutôt que d'être toutes presque identiques.


 
Максим Дмитриев:

En effet, au contraire, ils ne perdent pas de poids, mais en prennent !

En gros, toutes les statistiques sont issues de la comptabilité de l'énergie ou du travail (théorie des gaz). Ce qui n'est pas tout à fait juste, mais fera l'affaire).

L'énergie moyenne des corps serait Wcp=(M*V1^2/2 + M*V2^2/2+...)/n. C'est-à-dire que les corps, pour effectuer le travail, doivent avoir une vitesse moyenne Vcp=sqrt(Wcp)/M. Les formules sont équivalentes.

La vélocité moyenne ne vous donnera absolument rien pour ces calculs.

 
Yuriy Asaulenko:

Quelque part au début de ce fil de discussion, Alexander a écrit que le marché est autosimilaire. C'est-à-dire qu'il possède les mêmes propriétés à différentes échéances.

Pour le savoir, j'ai pris plusieurs MAs avec des périodes significativement différentes, je les ai tracées sur TF 1m, et j'ai calculé des distributions par rapport à celles-ci. Cela peut être fait assez rapidement dans le même R.

Si le marché est autosimilaire, les distributions devraient se chevaucher lors de la mise à l'échelle. Il s'est avéré que ce n'est pas le cas, les distributions diffèrent de manière significative, c'est-à-dire que le marché n'est pas autosimilaire.

Il s'ensuit que les stratégies opérant sur des échelles de temps différentes ne peuvent pas être déplacées vers une autre par la mise à l'échelle, et probablement dans certains cas, elles ne peuvent pas être déplacées du tout.

La non-similarité confirme également que les stratégies opérant sur des échelles de temps différentes sont très différentes sur le plan technique. Le scalping, l'intraday, les stratégies à court et moyen terme, et les stratégies à long terme sont toutes des techniques de trading très différentes.

Peut-être que tout cela est insignifiant, mais je n'y avais pas pensé avant.

Selon le fil de discussion, la stratégie d'Alexander consiste en "des transactions rares qui durent des heures", bien que nous n'en soyons pas certains, car nous n'avions qu'une démo devant nous.

Mes activités se situent dans une échelle de temps différente de celle de la négociation, et sans autosimilarité du marché, il s'agit d'une technique totalement différente. En bref, pas mon secteur du marché).

En d'autres termes, il est ridicule de donner des conseils aux traders de Rolls Royce alors que vous négociez vous-même des choucroutes. L'inverse est également vrai, d'ailleurs.

La question que vous avez soulevée m'intéresse. En fait, le fait qu'il n'y ait pas de chevauchement. J'ai pris les minutes de l'EURUSD pendant deux ans et j'ai décidé de voir la dépendance du nombre d'écarts N d'une moyenne rapide avec la période T1 minutes par rapport à une moyenne lente avec la période T2 minutes pour le temps total Tall en minutes sur la taille des écarts d en points à 4 chiffres 0.0001. Pour les moyennes T1 et T2, nous calculons les fréquences d'échantillonnage de leur différence dans l'intervalle semi-ouvert [d-0,5, d+0,5] et nous relions cette fréquence à d, en la désignant par N(d,T1,T2).
Ensuite, nous comptons la somme N(d,T1,T2) sur toutes les valeurs de d rencontrées et divisons N(d,T1,T2) par celle-ci. On obtient ainsi des fréquences d'échantillonnage relatives n(d,T1,T2), dont la somme pour toute paire T1,T2 est la même et égale à 1. On ne compare pas pour deux paires (T1,T2) et (T3,T4), mais on compare entre elles les écarts de la moyenne Ti par rapport au cours, qui est une moyenne avec une période de 0 minutes, ce qui réduit le nombre de calculs. En fait, donnons 5 périodes de moyennes lentes à la fois : T1 = 4 T2 = 16 T3 = 64 T4 = 256 T5 = 1024, couvrant des périodes de 4 minutes à 17 heures. La moyenne rapide de ces 5 moyennes lentes est une, T0 = 0, le cours lui-même. C'est-à-dire que nous recueillons les fréquences N(d,Ti,0). En outre, il est préférable de suivre la figure. Pour l'analyse un tableau a été fait en Excel (750 mille lignes 94 Mb) https://yadi.sk/d/97QaopiK3QbTv9 (80 Mb), qui veut - le vérifier, peut-être j'ai fait une erreur.



Figure 1. Fréquences d'écart de l'échantillon primaire dans la fourchette de -350 à +350 points.

Nous pouvons constater une symétrie, nous additionnons donc les fréquences pour les écarts de signes différents et appliquons la logarithmisation à l'axe des abscisses également. Nous augmentons également toutes les fréquences de 1 pour exclure les problèmes de calcul des logarithmes. Nous obtenons la figure 2. Après avoir calculé les sommes des fréquences des échantillons, nous les divisons par celles-ci, et nous passons ainsi aux fréquences relatives. La figure 2 montre déjà que les courbes ont tendance à être équidistantes. Prenons également en compte l'amplitude d'oscillation de chacun des SMA. En utilisant la loi de la racine carrée (formule EQC https://www.mql5.com/ru/forum/193378/page16#comment_5116118(2), l'échelle d'oscillation d'une moyenne est proportionnelle à la racine de sa période), divisez d par Ti^0,5. La figure 3 suivante montre des courbes se rapprochant encore plus. La deuxième fois que nous appliquons le ZKC directement aux oscillations elles-mêmes, leur magnitude s'avère être inversement proportionnelle au carré de la fréquence. Dans la Fig. 4 la dernière étape de réduction des distributions à la forme automodèle est effectuée.

Dites-moi, Yuri, quel genre d'autosimilarité recherchiez-vous ? Pas celui que j'ai eu ?





EUR_M1_2_Year_To_2017-02-04.zip
EUR_M1_2_Year_To_2017-02-04.zip
  • yadi.sk
View and download from Yandex.Disk
 
Vladimir:

cool, il reste un petit pas pour vous (avec vos compétences) et un grand pas pour l'humanité :

Identifier dans un cycle temporel peu profond les caractéristiques d'un cycle plus grand se formant au même moment, avec un léger décalage pour la prédiction. Et extrapoler le reste à un cycle avec une période différente. Ce serait la prévision.

Au fait, ça n'a pas marché pour moi mais je suis un lourdaud en mathématiques et je l'ai fait par corrélation et rotation affine des cycles (des cycles similaires peuvent exister à des angles différents), et là, les dépendances ne sont peut-être pas aussi clémentes. :)

Ou plutôt, quelque chose a fonctionné, mais je ne suis pas satisfait des résultats... Je peux vous donner des exemples de code et des images

 
Vladimir:

La question que vous avez soulevée m'intéresse. En fait, le fait qu'il n'y ait pas de chevauchement. J'ai pris des minutes d'EURUSD pendant deux ans et j'ai décidé de voir la dépendance du nombre d'écarts N d'une moyenne rapide avec la période T1 minutes par rapport à une moyenne lente avec la période T2 minutes pour le temps total Tall en minutes sur la taille des écarts d en points à 4 chiffres 0.0001. Pour les moyennes T1 et T2, nous calculons les fréquences d'échantillonnage de leur différence dans l'intervalle semi-ouvert [d-0,5, d+0,5] et nous relions cette fréquence à d, en la désignant par N(d,T1,T2).
Ensuite, nous comptons la somme N(d,T1,T2) sur toutes les valeurs de d rencontrées et divisons N(d,T1,T2) par celle-ci. On obtient ainsi des fréquences d'échantillonnage relatives n(d,T1,T2), dont la somme pour toute paire T1,T2 est la même et égale à 1. On ne compare pas pour deux paires (T1,T2) et (T3,T4), mais on compare entre elles les écarts de la moyenne Ti par rapport au cours, qui est une moyenne avec une période de 0 minutes, ce qui réduit le nombre de calculs. En fait, donnons 5 périodes de moyennes lentes à la fois : T1 = 4 T2 = 16 T3 = 64 T4 = 256 T5 = 1024, couvrant des périodes de 4 minutes à 17 heures. La moyenne rapide de ces 5 moyennes lentes est une, T0 = 0, le taux lui-même. C'est-à-dire
nous recueillons les fréquences N(d,Ti,0). En outre, il est préférable de suivre la figure. Pour l'analyse j'ai fait un tableau en Excel (750 mille lignes, 94 Mb) https://yadi.sk/d/97QaopiK3QbTv9,(80 Mb) qui veut - vérifier, peut-être j'ai fait une erreur.



Figure 1. Fréquences de l'échantillon primaire des écarts dans la fourchette de -350 à +350 points.

On constate une symétrie, on additionne donc les fréquences pour les écarts de signes différents et on applique le logarithme à l'axe des abscisses. Nous augmentons également toutes les fréquences de 1 pour exclure les problèmes de calcul des logarithmes. Nous obtenons la figure 2. Après avoir calculé les sommes des fréquences des échantillons, nous les divisons par celles-ci, et nous passons ainsi aux fréquences relatives. La figure 2 montre déjà que les courbes ont tendance à être équidistantes. Prenons également en compte l'amplitude d'oscillation de chacun des SMA. En utilisant la loi de la racine carrée (formule EQC https://www.mql5.com/ru/forum/193378/page16#comment_5116118(2), l'échelle d'oscillation d'une moyenne est proportionnelle à la racine de sa période), divisez d par Ti^0,5. La figure 3 suivante montre des courbes se rapprochant encore plus. La deuxième fois que nous appliquons le ZKC déjà directement aux oscillations elles-mêmes, leur magnitude est inversement proportionnelle à la fréquence. Dans la Fig. 4 la dernière étape de réduction des distributions à la forme automodèle est effectuée.

Dites-moi, Yuri, quel genre d'autosimilarité recherchiez-vous ? Pas celle que j'ai trouvée ?


Et si on faisait tout ça sur des tracés de marche aléatoire avec des baguettes de différentes périodes ?

 
Yuriy Asaulenko:

Quelque part au début de ce fil de discussion, Alexander a écrit que le marché est autosimilaire. C'est-à-dire qu'il possède les mêmes propriétés à différentes échéances.

Pour le savoir, j'ai pris plusieurs MAs avec des périodes significativement différentes, je les ai tracées sur TF 1m, et j'ai calculé des distributions par rapport à celles-ci. Cela peut être fait assez rapidement dans le même R.

Si le marché est autosimilaire, les distributions devraient se chevaucher lors de la mise à l'échelle. Il s'avère que ce n'est pas le cas, les distributions diffèrent considérablement, c'est-à-dire que le marché n'est pas autosimilaire.


Pouvez-vous me donner des photos ? Comment faire la mise à l'échelle ?