Etiqueta de mercado ou boas maneiras em um campo minado - página 32

 
paralocus писал(а) >>

Você pode, mas não é conveniente, porque cada chamada subseqüente para Comentar() "entupirá" os resultados da saída anterior, pois será realizada usando as mesmas coordenadas gráficas que a anterior. É por isso que imprimir() é melhor;

paralocus, instale o Matkad e não se preocupe com a interface. Depurar a malha e implementá-la em seu MKL.

Você economizará muito tempo, mesmo com a adaptação ao novo ambiente.

 

Acabamos de comprá-lo ontem. Estou instalando-o agora, porque o bom MQL realmente me deixou perplexo!

Mas a grade está aprendendo em 3 épocas a julgar pelo despejo de balanças e parece estar sem falhas:

------------------------------------------------------------------------------------------------------------------------

SCALES DUMP

------------------------------------------------------------------------------------------------------------------------

2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 |-0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 | -0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 | -0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 | -0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 | -0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 | -0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 | -0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1456 | 7.3647 | 1.1477 | 0.1959 | 0.197 | -0.1281 | -0.8441 | -0.4209 | -0.1956 | -0.044 | 0.0458 | 0.7074 | -0.1706
2009.05.22 18:17:48 Nero AUDUSD,M30: W : -0.1 | 6.0564 | 1.1419 | 0.1999 | 0.2118 | -0.11 | -0.821 | -0.4656 | -0.1458 | -0.037 | 0.0564 | 0.7267 | -0.1584
2009.05.22 18:17:48 Nero AUDUSD,M30: W : 0.1164 | 3.5091 | 1.2495 | 0.3147 | 0.3362 | 0.0168 | -0.6902 | -0.8039 | -0.0126 | 0.0312 | 0.1206 | 0.8339 | -0.0615
 

É isso aí! O Matcad foi instalado. Vou conhecê-lo neste fim de semana.

Neutron, "...e ainda assim gira!" A camada única funciona, aprenda. É que eu tentei falar sobre isso na M30, e aí - você sabe o que são "padrões".

Mas no H4 - veja o que ele faz. E, curiosamente, preste atenção ao número de entradas e ao número de épocas:

Aqui D=7, 24 épocas:



E aqui D = 5, também 24 épocas:


 
Neutron >> :

Não, Petya arrancou todos os arbustos do pátio - foi-lhe pedido para encontrar a raiz quadrada :-)

E Vasily Ivanovich estava afiando seu xadrez - foi-lhe pedido que dividisse um monominante por um polinominante...

 
paralocus писал(а) >>

É isso aí! O Matcad foi instalado. Vou me familiarizar neste fim de semana.

Neutron, "...e ainda assim gira!" . É uma única camada, é o aprendizado. Eu só tentei falar sobre a M30, mas você sabe o que são "regularidades".

Mas no H4 - veja o que ele faz. E o que é interessante, preste atenção ao número de entradas e ao número de épocas:

Aqui D = 7, 24 épocas:

E aqui D = 5, também 24 épocas:

Parabéns por fazê-lo funcionar!

Na verdade, você não deve fazer barulho na M30... Se a idéia funcionar, ela funcionará também no M5. E outra pergunta, o resultado com M5 não seria maior no total do que com H4. Recentemente eu estava comparando H1 e M5 (ver linha acima) - na M5 eu reuni mais da metade do que na H1 nas mesmas 10.000 barras. E o fator tempo, como você sabe, é 12...

Nunca consegui obter um resultado razoável na M1.

 
YDzh >> :

Recentemente comparei H1 e M5 (veja acima na linha) - em M5 coletei mais da metade do que coletei em H1 nas mesmas 10.000 barras. E o fator tempo, como você sabe, é 12...

Sobre a "relação da curva" ser igual a 12, tenho grandes dúvidas: compare os "comprimentos" da curva fechada nestas TFs. Antes da experiência modelo, eu achava que eles deveriam diferir por um fator de cerca de sqrt( 12 ). Em princípio são aproximadamente assim, mas ainda existem diferenças (especialmente se os períodos são muito diferentes). A Hearst deve ter feito alguma escavação aqui. Aqui está o código (_barras - número de barras do histórico em um período raso):


extern int _grosserPeriod = PERIOD_H1;
extern int _lesserPeriod  = PERIOD_M5;
extern int _bars          = 100000;


int lesser2grosser( int sh )
{
   int dt = iTime( NULL, _lesserPeriod, sh );
   return( iBarShift( NULL, _grosserPeriod, dt, false ) );
}


double len( int from, int period )
{
   double sum = 0;
   for( int i = 0; i < from; i ++ )    
      sum += MathAbs( iClose( NULL, period, i ) - iClose( NULL, period, i + 1 ) );
   return( sum );
}


int start()
{
   double ratio = len( _bars, _lesserPeriod ) / len( lesser2grosser( _bars ), _grosserPeriod );
   double ratioSquared = ratio * ratio;
   int periodsRatio = _grosserPeriod / _lesserPeriod;
   double one = ratioSquared / periodsRatio;
   Print( "one equals " + one );
   return( 0 );
}
//+------------------------------------------------------------------+
 

Oi Alexey, não sei de que curvas você está falando? Explique, se você não se importa, por favor.

A propósito, como você está se saindo com as mentiras?

Para YDzh não gosto nada de prazos... De forma alguma. Eu os uso somente por causa da inevitabilidade deste mal para mim, neste nível de meus conhecimentos e habilidades. No entanto, tenho os resultados da minha experiência:

Minha grade tem apenas dois parâmetros externos - o número de entradas e o número de épocas de aprendizagem. A grade é de camada única, auto-aprendizagem, e trabalha em uma série de primeiras diferenças da OPEN. Então, tendo suspeitado, como diz o Neutron, "minha namorada" de ser fortemente viciada na superposição desses dois parâmetros, ontem liguei-o ao otimizador para dar uma olhada...

O otimizador arrebentou seus cérebros por cerca de uma hora e me deu apenas 8 resultados! Não foi difícil ver o melhor entre eles. Mas não há resultados para a TF 30. Isto é, não há (dentro de cem) tal número de entradas (para esta grade) e tal número de épocas de treinamento que não permitiriam que a grade falhasse. E, portanto, a questão retórica "...será ou não melhor em M5 do que em H4" deve ser considerada no contexto da Teoria Geral da Relatividade - ou seja, para quem (o quê)... será? Para minha grade não vai - definitivamente não, mas para a sua pode ser a melhor...

 

Atualmente estou trabalhando nas estatísticas de minhas duas camadas. Acontece que em quocientes, o NS ainda determina melhor o sinal do movimento esperado se os pesos forem salvos de época em época. De acordo com os resultados dos experimentos, a suposição é cerca de 20% vs. 23% correta. A diferença, naturalmente, não é grande, mas considerando que esta porcentagem vai até o 4º grau em rentabilidade de TS ... - vale muito. O efeito se torna perceptível se os pesos de época em época forem passados por w=g*th(w), onde g é um coeficiente da ordem de 0,005 em vez de 1.

 
Neutron >> :

O efeito se torna perceptível se os pesos de época em época forem passados por g*th(), onde g é um coeficiente da ordem de 0,005

Sinto em meu instinto que existem "limites" bastante certos para a mudança de pesos. mas não tenho conhecimento suficiente para formulá-lo corretamente. Ou seja, sei que neste "lugar" o peso não é tão importante quanto a posição relativa dos pesos (de um determinado neurônio) no eixo numérico, se isso pudesse ser de alguma forma sondado... então, se bem-sucedido, podemos afirmar que se a unidade neuronal com entradas D for treinável em princípio (no vetor dado), ela pode ser treinada de forma ideal na faixa de peso -/+1, ou +/-U, onde U = F(D). Então poderia surgir um paradigma de aprendizagem "biológico" completamente diferente. Minha especulação intuitiva sobre isto é parcialmente confirmada por seus resultados sobre o uso do g*th(). De fato, de época em época, você encurrala todos os pesos em uma barraca de algum valor empírico, não permitindo que eles se espalhem pela extensão do eixo numérico.

 
Estilo legal!