지뢰밭에서의 시장예절 또는 예의범절 - 페이지 24

 
Neutron писал(а) >>

진실이다! 그러나 소란이 필요하지 않습니다. 수프는 별도입니다.

바에 관해서는 평균가 없이 공개 가격만 사용합니다. 그리고 계획에서 나는 현명한 Halt가 굴러가는 대로 할 것입니다 - 나는 tics로 전환할 것입니다. 여기서 진실은 정보를 저장하고 수집하는 방식을 수정해야 합니다. 하지만 가치가 있다면 왜 안 될까요?

... 그리고 이 모든 소란이 국회와 함께라면 단순한 스캘퍼로 오지 않을 것입니다. 틱 수준에서 시간별 추세를 파악할 수 있다는 것이 믿기지 않습니다. 물론 틱 수에 따라 다르지만... 여기에서는 컴퓨팅 성능에 제한이 있습니다...

 
YDzh >> :

네, 소란을 피우지 않습니다 :) 진드기의 유용성은 문헌에서도 인정합니다... 혼돈 이론의 냄새가 났어요... 그럴만한 가치가 있는지는... 그럴만한 가치가 있나요? 그리고 Prival은 이것을 어디에서 조언합니까?

이봐.

 
YDzh >> :

... 그리고 이 모든 소란이 국회와 함께라면 단순한 스캘퍼로 오지 않을 것입니다. 틱 수준에서 시간별 추세를 파악할 수 있다는 것이 믿기지 않습니다. 물론 틱 수에 따라 다르지만... 여기에서는 컴퓨팅 성능에 제한이 있습니다...

글쎄, 비행기는 ... 한 번 날았다. 그리고 얼마나 많은 회의론이 있었는지 ...

 
YDzh писал(а) >>

... 그리고 이 모든 소란이 국회와 함께라면 단순한 스캘퍼로 오지 않을 것입니다. 틱 수준에서 시간별 추세를 파악할 수 있다는 것이 믿기지 않습니다. 물론 틱 수에 따라 다르지만... 여기에서는 컴퓨팅 성능에 제한이 있습니다...

접근하는 방법은 이렇다... 5~10분 전 틱을 보면 분석할 수 있는 막대는 충분하지만 마지막 순간 막대의 틱은 기억하고 계산할 수 있다. 그리고 그러한 거대한 용량은 필요하지 않습니다.

 
FION >> :

접근하는 방법은 이렇다... 5~10분 전 틱을 보면 분석할 수 있는 막대는 충분하지만 마지막 순간 막대의 틱은 기억하고 계산할 수 있다. 그리고 그러한 거대한 용량은 필요하지 않습니다.

오랫동안 저는 MT4의 데이터 표시 형식에 만족하지 못했습니다. 기간 - 시장에 처음 등장했을 때부터 내 눈을 가장 먼저 사로잡았던 것은 똑같습니다. 저것들. MT4에서 사용할 수 있는 FOP를 보면 이것이 우연이 아님을 빨리 깨닫게 됩니다! 말하자면 편의를 위해 생각한 것입니다 ... -:)

따라서 그리드를 처리하자마자 시간 프레임은 turkeys - f firebox를 따릅니다. 실제로 이 터미널에서 작동하려면 견적과 거래 인터페이스만 필요합니다. 나머지는 보증금에 해를 끼치 지 않고 안전하게 버릴 수 있습니다.

 
paralocus писал(а) >>

오랫동안 저는 MT4의 데이터 표시 형식에 만족하지 못했습니다. 기간은 시장에 출시된 첫날부터 내 눈을 가장 먼저 사로잡은 것입니다. 저것들. MT4에서 사용할 수 있는 FOP를 보면 이것이 우연이 아님을 빨리 깨닫게 됩니다! 말하자면 편의를 위해 생각한 것입니다 ... -:)

따라서 그리드를 처리하자마자 시간 프레임은 turkeys - f firebox를 따릅니다. 실제로 이 터미널에서 작동하려면 견적과 거래 인터페이스만 필요합니다. 나머지는 보증금에 해를 끼치 지 않고 안전하게 버릴 수 있습니다.

그러니 고민하지 말고 미리 만들어진 그리드를 사용하세요. 예를 들어 Java에는 많은 것들이 있습니다. MQL4에서 두뇌를 건조시키고 바퀴를 재발명하는 이유는...

 
YDzh >> :

그러니 고통받지 말고 미리 만들어진 그리드를 사용하세요. 예를 들어 자바에는 많은 것들이 있습니다... MQL4에서 두뇌를 건조시키고 바퀴를 재발명하는 이유는...

그럼 알아.

 
YDzh писал(а) >>

그러니 고민하지 말고 미리 만들어진 그리드를 사용하세요. 예를 들어 Java에는 많은 것들이 있습니다. MQL4에서 두뇌를 건조시키고 바퀴를 재발명하는 이유는...

글쎄, 당신은 농담했다! - 다른 사람의 분해 실수. 예, 내 알고리즘은 특정 작업에 대해 더 최적으로 선명해질 것입니다).

paralocus 작성 >>

그래서 모든 것이 가중치 수정에 달려있는 것 같습니다!

for(int i = cikl; i >= 0; i--)
{
out = OUT2(i);---------------------------------------------------// Получаем вых. сигнал сетки
test = (Close[i]-Close[i+1])/Close[i+1];--------------------------// Получаем n+1-вый отсчет

d_2_out = test - out;---------------------------------------------// Ошибка на выходе сетки
d_2_in = d_2_out * (1 - out*out);--------------------------------// Ошибка на входе выходного нейрона

Correction2[0] += d_2_in * D2[0];---------------------------// Суммируем микрокоррекции
SquareCorrection2[0] += Correction2[0] * Correction2[0];----------// по каждому весу входящему в вых. нейрон
Correction2[1] += d_2_in * D2[1];---------------------------// и суммируем квадраты оных микрокоррекций
SquareCorrection2[1] += Correction2[1] * Correction2[1];
Correction2[2] += d_2_in * D2[2];
SquareCorrection2[2] += Correction2[2] * Correction2[2];

d_11_in = d_2_in * (1 - D2[1]*D2[1]);-----------------------------// Считаем ошибку на входах нейронов
d_12_in = d_2_in * (1 - D2[2]*D2[2]);-----------------------------// скрытого слоя

for (int k = 0; k < 17; k++)
{---------------------------------------------------------------// Сууммируем микрокоррекции для входов
Correction11[k] += d_11_in * D1[k];----------------------// первого нейрона
SquareCorrection11[k] += Correction11[k] * Correction11[k];
}

for (k = 0; k < 17; k++)
{---------------------------------------------------------------// Суммируем микрокоррекции для входов
Correction12[k] += d_12_in * D1[k];----------------------// второго нейрона
SquareCorrection12[k] += Correction12[k] * Correction12[k];
}
}
paralocus , 이제 각 가중치에 대한 제곱합의 제곱근을 취하고 이 비율로 각 총 가중치 수정을 나눕니다. 그게 다야, 그리고 각 가중치에 추가하십시오! 이것은 한 시대입니다. 따라서 계획된 훈련 epoch 수만큼 반복해야 합니다. 훈련이 끝날 때까지 다음 에포크의 기여 배율을 0으로 점차적으로 줄입니다.
 

여러분, 얕은 지역 최솟값과 비뚤어진 초기 가중치로 비행하는 데 어떻게 어려움을 겪고 있는지 알려주십시오. 내가 알기로는 처음에는 훈련에 어떤 식으로든 영향을 미치지 않지만 나중에는 결과에 매우 강하게 영향을 미치기 시작합니다.

 
Neutron >> :
... 이제 각 가중치에 대한 제곱합의 제곱근을 취하고 이 비율로 각 총 가중치 수정을 나눕니다. 그게 다야, 그리고 각 가중치에 추가하십시오! 이것은 한 시대입니다. 따라서 훈련 에포크가 계획된 만큼 반복해야 합니다. 훈련이 끝날 때까지 다음 에포크의 기여 배율을 0으로 점차적으로 줄입니다.

만들어진:

 for ( int q = 1 ; q < = 1000 ; q + + )
   {
// ----------------------------------------- ЭПОХА ---------------------------------------------------  
   for ( int i = cikl ; i > = 0 ; i - - )
     {
       out   = OUT2 ( i ) ;                                                    // Получаем вых. сигнал сетки
       test = ( Close [ i ] - Close [ i + 1 ] ) / Close [ i + 1 ] ;                            // Получаем n+1-вый отсчет
       
       d_2_out = test - out ;                                              // Ошибка на выходе сетки         
       d_2_in   = d_2_out * ( 1 - out * out ) ;                                  // Ошибка на входе выходного нейрона
       
       Correction2 [ 0 ]        + = d_2_in * D2 [ 0 ] ;                            // Суммируем микрокоррекции
       SquareCorrection2 [ 0 ] + = Correction2 [ 0 ] * Correction2 [ 0 ] ;            // по каждому весу входящему в вых. нейрон
       Correction2 [ 1 ]        + = d_2_in * D2 [ 1 ] ;                            // и суммируем квадраты оных микрокоррекций
       SquareCorrection2 [ 1 ] + = Correction2 [ 1 ] * Correction2 [ 1 ] ;      
       Correction2 [ 2 ]        + = d_2_in * D2 [ 2 ] ;
       SquareCorrection2 [ 2 ] + = Correction2 [ 2 ] * Correction2 [ 2 ] ;    
       
       d_11_in = d_2_in * ( 1 - D2 [ 1 ] * D2 [ 1 ] ) ;                              // Считаем ошибку на входах нейронов
       d_12_in = d_2_in * ( 1 - D2 [ 2 ] * D2 [ 2 ] ) ;                              // скрытого слоя
       
       for ( int k = 0 ; k < 17 ; k + + )
         {                                                                // Сууммируем микрокоррекции для входов
          Correction11 [ k ]        + = d_11_in * D1 [ k ] ;                        // первого нейрона
          SquareCorrection11 [ k ] + = Correction11 [ k ] * Correction11 [ k ] ;   
         }                                     
         
       for ( k = 0 ; k < 17 ; k + + )
         {                                                                // Суммируем микрокоррекции для входов
          Correction12 [ k ]        + = d_12_in * D1 [ k ] ;                        // второго нейрона
          SquareCorrection12 [ k ] + = Correction12 [ k ] * Correction12 [ k ] ;
         }    
     }
// ------------------------------------- КОНЕЦ ЭПОХИ --------------------------------------------------

// ----------------------------------- КОРРЕКЦИЯ ВЕСОВ ------------------------------------------------
         for ( k = 0 ; k < 3 ; k + + )
             W2 [ k ] + = Correction2 [ k ] / MathSqrt ( SquareCorrection2 [ k ] ) ;   

         for ( k = 0 ; k < 17 ; k + + )
           {
             W1 [ 0 , k ] + = Correction11 [ k ] / MathSqrt ( SquareCorrection11 [ k ] ) ;
             W1 [ 1 , k ] + = Correction12 [ k ] / MathSqrt ( SquareCorrection12 [ k ] ) ;
           }         

   }                                  


나는 다음 epoch의 기여 승수를 줄이는 방법에 대해 조금 이해하지 못했습니다 .... 교육이 끝날 때까지 출력 레이어의 가중치는 매우 작아지고 숨겨진 레이어의 가중치는 반대로 크다.

경고: W2[0] = -0.0414 W2[1] = 0.0188 W2[2] = -0.0539

경고: W1[1,0]=-27.0731 W1[1,1]=-30.2069 W1[1,2]=37.6292 W1[1,3]=30.4359 W1[1,4]=-22.7556 W1[1,5 ]=-37.5899