Dialogue de l'auteur. Alexander Smirnov. - page 44

 

Cela fait longtemps que le mois de mars est passé, mais je dois dire que je n'en ai pas encore fini avec les mash-ups. C'est vrai que je les utilise très différemment des simples croisements...

 

Quelqu'un a-t-il essayé les avocats qui mentent ici (l'inscription est requise sur Spider)?

 
Mathemat писал(а) >>

Cela fait longtemps que le mois de mars est passé, mais je dois dire que je n'en ai pas encore fini avec les mash-ups. Mais je les utilise très différemment des simples croisements...

oui Alexei ! les bras qui s'agitent sont le pouvoir !

Je regarde en 2008.

Parfois, il suffit de sortir deux sacs lourds et de les échanger !

du moins pas contre eux !

Regardez le Championnat 2008, les trendsetters y sont en faveur !

et les auteurs utiliseront probablement la plupart des dunks comme direction !

--

c'est pas comme si je discutais dans le fil de discussion sur les divs !

mais a clairement fait valoir que BARABANE de divergences et de convergences, c'est la direction qui compte !

( En règle générale, une divergence et une convergence ne fournissent qu'une entrée indolore avec un retour assez rapide pour faire des bénéfices,

mais ils ne garantissent pas l'entrée correcte).

C'est la direction qui est déterminante, et aucun des auteurs des entrées graphiques de divergence et autres

- comment choisir une direction !

 
Sceptic Philozoff:
Oui, si vous vous dites lâche, on vous met à l'arrière. OK, Sergey, voici une preuve (j'en ai besoin de toute façon, pour ma propre confiance) :

Supposons que nous ayons des échantillons de temps - t = 1, 2, ... N. La numérotation est inversée dans MQL4, c'est-à-dire que N est la barre actuelle, "zéro". Ces lectures correspondent à la clause Сlose(1), Сlose(2), ... Сlose(N). Essayons de construire une droite y = A*t+B passant par les cloisons par MNC. Ensuite, nous calculons A*N + B, c'est-à-dire le LRMA à la barre actuelle.

Nous calculons la somme des carrés d'erreurs :

Delta^2 = Sum( ( y(i) - Close(i) )^2 ; i = 1..N ) = Sum( ( A*i + B - Close(i) )^2 ; i = 1..N )

Nous différencions ce truc par A et B et obtenons un système d'équations pour les quotients optimaux de A et B :

Somme( ( ( A*i + B - Close(i) ) * i ) ; i = 1...N ) = 0
Sum( A*i + B - Close(i) ) ; i = 1...N ) = 0

En développant les sommes, on obtient (j'omets les plages d'indices pour simplifier la notation)

A*Sum( i^2 ) + B*Sum( i ) = Sum( i*Close(i) )
A*Sum( i ) + B*Sum( 1 ) = Sum( Close(i) )

Prival, regardez maintenant les côtés droits. La somme du côté droit de la première équation est presque LWMA, mais sans le facteur de normalisation. Dans le second, c'est la SMA, également sans elle. Voici les formules exactes de ces échelles :

LWMA = 2/(N*(N+1)) * Sum( i*Close(i) )
SMA = 1/N * Sum( Close(i) )

Maintenant, rappelez-vous ce qu'est la somme des carrés des naturels 1 à N (c'est N*(N+1)*(2*N+1)/6), substituez-la dans notre système et nous obtenons :

A * N*(N+1)*(2*N+1)/6 + C * N*(N+1)/2 = LWMA * N*(N+1)/2
A * N*(N+1)/2 + C * N = SMA * N

Simplifier :

A * (2*N+1)/3 + C = LWMA
A * (N+1)/2 + C = SMA

Je ne vais pas résoudre le système, je suis trop paresseux (c'est déjà clair ici). Je multiplie simplement la première équation par 3, et la seconde par 2, puis je soustrais la seconde de la première :

A * (2*N+1) + 3 * C - A * (N+1) - 2 * C = 3 * LWMA - 2 * SMA

À gauche, après simplification, il reste A*N + B, c'est-à-dire exactement notre régression au point N.

Quel plaisir ! Surtout en commençant par ce post.