市场礼仪或雷区中的良好风度 - 页 24

 
Neutron писал(а)>>

这就是事实!只要不大惊小怪--汤是分开的。

至于酒吧,我只使用开盘价--不使用平均价。而我要做的是明智的Prival会做的事--改用蜱虫。然而,我将不得不在保存模式和数据收集方面大费周章。但如果它值得,为什么不呢?

.........然后,与NS的所有这些大惊小怪的事情不就都交给了一个普通的黄牛了吗。我很难相信一个人可以抓住,比如说,一个小时的趋势在tick级别。虽然,当然,这取决于有多少虱子...但我们这里的计算能力有限...

 
YDzh >> :

我没有大惊小怪 :)文献中承认抽搐的作用...它闻起来像混沌理论...关于是否值得...这值得吗?那么Prival公司在哪里建议呢?

请看这里。

 
YDzh >> :

...以及是否所有与NS有关的大惊小怪,然后去找普通的黄牛。我很难相信你能抓住,比如说,一个小时的趋势在tick级别。虽然,当然,这取决于有多少虱子...但我们这里的计算能力有限...

嗯,飞机飞了...一次。以及有多少怀疑的态度......

 
YDzh писал(а)>>

...以及是否所有与NS有关的大惊小怪,然后去找普通的黄牛。我很难相信你能抓住,比如说,一个小时的趋势在tick级别。虽然,当然,这取决于有多少虱子...但我们这里的计算能力有限...

这是个问题,你如何对待它...没有必要查看超过5-10分钟前的刻度线;有足够的条形图用于分析,最后一分钟条形图的刻度线可以被记住并计算出来。而且你不需要如此巨大的容量。

 
FION >> :

以下是如何接近...没有必要看超过5-10分钟的回档,有足够的条形图进行分析,最后一分钟条形图的回档可以被记忆和计算。而且你也不需要这么大的容量。

我对MT4的数据表示格式不满意已经有很长时间了。时间框架是在市场的最初几天就引起我注意的第一件事。即,在看MT4的时间框架时,你很快就会明白,这是有原因的!可以说是为方便而设计...-:)

所以,一旦我理解了网格,时间框架就会去追寻诱因--去他妈的。 事实上,我只需要这个终端的报价和交易界面。其余的可以扔掉,不会对存款造成任何伤害。

 
paralocus писал(а)>>

长期以来,我一直对MT4的数据格式不满意。从上市的第一天起,时间框架就一直是吸引我注意的第一件事。即,在看MT4的时间框架时,你很快就会明白,这是有原因的!可以说是为方便而设计...-:)

因此,一旦我理解了网格,时间框架将在指数之后进行。事实上,我只需要终端的报价和交易界面。其余的东西可以很容易地被扔掉,而不会对存款造成伤害。

那就别费劲了,拿一个现成的网格,有很多用java写的,比如......你为什么要在MQL4中绞尽脑汁,重新发明轮子呢?

 
YDzh >> :

所以不用麻烦了,找一个现成的网格--比如说有很多用java写的网格......为什么要用MQL4,重新发明轮子...。

只是为了了解。

 
YDzh писал(а)>>

所以不用麻烦了,找一个现成的网格--比如说有很多用java写的网格......为什么要用MQL4,重新发明轮子...。

你在开玩笑吧!- 我不知道我为什么要解析别人的糗事。我的算法更加优化--它是为某种战术目的定制的)。

paralocus 写道>>

好吧,我想就是这样了,直到天平被纠正。

for(int i = cikl; i >= 0; i--)
{
out = OUT2(i);---------------------------------------------------// Получаем вых. сигнал сетки
test = (Close[i]-Close[i+1])/Close[i+1];--------------------------// Получаем n+1-вый отсчет

d_2_out = test - out;---------------------------------------------// Ошибка на выходе сетки
d_2_in = d_2_out * (1 - out*out);--------------------------------// Ошибка на входе выходного нейрона

Correction2[0] += d_2_in * D2[0];---------------------------// Суммируем микрокоррекции
SquareCorrection2[0] += Correction2[0] * Correction2[0];----------// по каждому весу входящему в вых. нейрон
Correction2[1] += d_2_in * D2[1];---------------------------// и суммируем квадраты оных микрокоррекций
SquareCorrection2[1] += Correction2[1] * Correction2[1];
Correction2[2] += d_2_in * D2[2];
SquareCorrection2[2] += Correction2[2] * Correction2[2];

d_11_in = d_2_in * (1 - D2[1]*D2[1]);-----------------------------// Считаем ошибку на входах нейронов
d_12_in = d_2_in * (1 - D2[2]*D2[2]);-----------------------------// скрытого слоя

for (int k = 0; k < 17; k++)
{---------------------------------------------------------------// Сууммируем микрокоррекции для входов
Correction11[k] += d_11_in * D1[k];----------------------// первого нейрона
SquareCorrection11[k] += Correction11[k] * Correction11[k];
}

for (k = 0; k < 17; k++)
{---------------------------------------------------------------// Суммируем микрокоррекции для входов
Correction12[k] += d_12_in * D1[k];----------------------// второго нейрона
SquareCorrection12[k] += Correction12[k] * Correction12[k];
}
}
Paralocus ,现在取每个重量的平方之和的平方根,用这个比率除以每个总重量的修正。这就是你在每个重量上添加的东西!那是一个时代。按照你计划的训练纪元,重复这个动作,次数不限。在训练结束时,逐渐将每个历时的多重贡献减少到零。
 

先生们,请告诉我你们是如何处理飞入浅的局部低点和弯曲的初始重量。我明白,一开始它们并不影响训练,但后来它们开始非常影响结果。

 
Neutron >> :
......现在取每个重量的平方之和的平方根,并除以这个规范每个总重量的修正。这就是你在每个重量上添加的东西!那是一个时代。按照你计划的训练纪元,重复这个动作,次数不限。在训练结束时,逐渐将每个历时的多重贡献减少到零。

完成了。

for(int q = 1; q <= 1000; q++)
  {
// ----------------------------------------- ЭПОХА ---------------------------------------------------  
   for(int i = cikl; i >= 0; i--)
     {
       out  = OUT2( i);                                                   // Получаем вых. сигнал сетки
       test = (Close[ i]-Close[ i+1])/Close[ i+1];                          // Получаем n+1-вый отсчет
       
       d_2_out = test - out;                                             // Ошибка на выходе сетки         
       d_2_in  = d_2_out * (1 - out* out);                                // Ошибка на входе выходного нейрона
       
       Correction2[0]       += d_2_in * D2[0];                           // Суммируем микрокоррекции
       SquareCorrection2[0] += Correction2[0] * Correction2[0];          // по каждому весу входящему в вых. нейрон
       Correction2[1]       += d_2_in * D2[1];                           // и суммируем квадраты оных микрокоррекций
       SquareCorrection2[1] += Correction2[1] * Correction2[1];     
       Correction2[2]       += d_2_in * D2[2];
       SquareCorrection2[2] += Correction2[2] * Correction2[2];   
       
       d_11_in = d_2_in * (1 - D2[1]* D2[1]);                             // Считаем ошибку на входах нейронов
       d_12_in = d_2_in * (1 - D2[2]* D2[2]);                             // скрытого слоя
       
       for (int k = 0; k < 17; k++)
         {                                                               // Сууммируем микрокоррекции для входов
          Correction11[ k]       += d_11_in * D1[ k];                      // первого нейрона
          SquareCorrection11[ k] += Correction11[ k] * Correction11[ k];  
         }                                    
         
       for ( k = 0; k < 17; k++)
         {                                                               // Суммируем микрокоррекции для входов
          Correction12[ k]       += d_12_in * D1[ k];                      // второго нейрона
          SquareCorrection12[ k] += Correction12[ k] * Correction12[ k];
         }   
     }
// ------------------------------------- КОНЕЦ ЭПОХИ --------------------------------------------------

// ----------------------------------- КОРРЕКЦИЯ ВЕСОВ ------------------------------------------------
         for( k = 0; k < 3; k++)
             W2[ k] += Correction2[ k]/MathSqrt( SquareCorrection2[ k]);  

         for( k = 0; k < 17; k++ )
           {
             W1[0, k] += Correction11[ k]/MathSqrt( SquareCorrection11[ k]);
             W1[1, k] += Correction12[ k]/MathSqrt( SquareCorrection12[ k]);
           }        

   }                                 


我对如何减少epoch.... 的贡献乘数有点困惑。 我在训练结束时得到的输出层权重非常小,而隐藏层的权重变得很大。

提醒:W2 [0] = -0.0414 W2 [1] = 0.0188 W2 [2] = -0.0539

提醒:W1[1,0]=-27.0731 W1[1,1]=-30.2069 W1[1,2]=37.6292 W1[1,3]=30.4359 W1[1,4]=-22.7556 W1[1,5]=-37.5899