Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 24

 
Neutron писал(а) >>

Gerçek bu! Ama telaşa gerek yok - çorba ayrı.

Bara gelince, sadece açık fiyatları kullanıyorum - ortalama yok. Ve planlarda, bilge Halt yuvarlandıkça yapacağım - tiklere geçeceğim. Burada gerçek, bilgi kaydetme ve toplama moduyla uğraşmak zorunda kalacak. Ama buna değerse, neden olmasın?

... ve Ulusal Meclis ile tüm bu yaygara basit bir soyguncuya gelmezse. Tik düzeyinde, diyelim ki saatlik bir trend yakalayabileceğinize inanmakta güçlük çekiyorum. Tabii ki, kaç tik olduğuna bağlı olarak... ama burada bilgi işlem gücümüz sınırlı...

 
YDzh >> :

Evet, telaşlanmıyorum :) Kenelerin faydası literatürde de biliniyor... Kaos teorisi kokuyordu... Değer mi konusuna gelince... Değer mi? Peki Prival bunu nerede tavsiye ediyor?

Buraya bak.

 
YDzh >> :

... ve Ulusal Meclis ile olan tüm bu yaygara o zaman basit bir soyguncuya mı gelecek? Kene düzeyinde, diyelim ki saatlik bir trend yakalayabileceğinize inanmak benim için zor. Tabii ki, kaç tik olduğuna bağlı olarak... ama burada bilgi işlem gücümüz sınırlı...

Şey, uçaklar uçtu... bir kez. Ve ne kadar şüphecilik vardı ...

 
YDzh писал(а) >>

... ve Ulusal Meclis ile tüm bu yaygara basit bir soyguncuya gelmezse. Tik düzeyinde, diyelim ki saatlik bir trend yakalayabileceğinize inanmakta güçlük çekiyorum. Tabii ki, kaç tik olduğuna bağlı olarak... ama burada bilgi işlem gücümüz sınırlı...

İşte nasıl yaklaşılacağı... Neden 5-10 dakikadan daha eski kenelere bakılır, analiz için yeterli çubuk vardır, ancak son dakika çubuklarının keneleri hafızaya alınabilir ve hesaplanabilir. Ve bu kadar büyük kapasiteler gerekli değildir.

 
FION >> :

İşte nasıl yaklaşılacağı... Neden 5-10 dakikadan daha eski kenelere bakılır, analiz için yeterli çubuk vardır, ancak son dakika çubuklarının keneleri hafızaya alınabilir ve hesaplanabilir. Ve bu kadar büyük kapasiteler gerekli değildir.

Uzun zamandır MT4'teki veri sunum formatlarından memnun değilim. Zaman dilimleri - aynı, piyasaya çıktığım ilk günlerden beri gözüme çarpan ilk şey. Onlar. MT4'te bulunan FOP'lara baktığınızda bunun tesadüf olmadığını hemen anlıyorsunuz! Kolaylık için düşünülmüş, tabiri caizse ... - :)

Bu nedenle, ızgara ile ilgilenir ilgilenmez, zaman dilimleri hindileri - f ateş kutusunu takip edecek. Aslında, bu terminalden çalışmak için yalnızca teklifler ve bir ticaret arayüzü gereklidir. Gerisi, depozitoya zarar vermeden güvenle atılabilir.

 
paralocus писал(а) >>

Uzun zamandır MT4'teki veri sunum formatlarından memnun değilim. Zaman dilimleri - aynı, piyasaya çıktığım ilk günlerden beri gözüme çarpan ilk şey. Onlar. MT4'te bulunan FOP'lara baktığınızda bunun tesadüf olmadığını hemen anlıyorsunuz! Kolaylık için düşünülmüş, tabiri caizse ... - :)

Bu nedenle, ızgara ile ilgilenir ilgilenmez, zaman dilimleri hindileri - f ateş kutusunu takip edecek. Aslında, bu terminalden çalışmak için yalnızca teklifler ve bir ticaret arayüzü gereklidir. Gerisi, depozitoya zarar vermeden güvenle atılabilir.

Bu yüzden acı çekmeyin, hazır bir ızgara alın - birçoğu var, örneğin java'da... Neden beyninizi MQL4'te kurutun ve tekerleği yeniden icat edin...

 
YDzh >> :

Bu yüzden acı çekmeyin, hazır bir ızgara alın - birçoğu var, örneğin java'da... Neden beyninizi MQL4'te kurutun ve tekerleği yeniden icat edin...

Sonra bilmek.

 
YDzh писал(а) >>

Bu yüzden acı çekmeyin, hazır bir ızgara alın - birçoğu var, örneğin java'da... Neden beyninizi MQL4'te kurutun ve tekerleği yeniden icat edin...

Şaka yapıyordun! - Başkalarının hatalarını söküp atmak. Evet ve algoritmam belirli bir görev için daha optimum şekilde keskinleştirilecek).

paralocus yazdı >>

Yani, her şey ağırlıkların düzeltilmesine bağlı gibi görünüyor!

for(int i = cikl; i >= 0; i--)
{
out = OUT2(i);---------------------------------------------------// Получаем вых. сигнал сетки
test = (Close[i]-Close[i+1])/Close[i+1];--------------------------// Получаем n+1-вый отсчет

d_2_out = test - out;---------------------------------------------// Ошибка на выходе сетки
d_2_in = d_2_out * (1 - out*out);--------------------------------// Ошибка на входе выходного нейрона

Correction2[0] += d_2_in * D2[0];---------------------------// Суммируем микрокоррекции
SquareCorrection2[0] += Correction2[0] * Correction2[0];----------// по каждому весу входящему в вых. нейрон
Correction2[1] += d_2_in * D2[1];---------------------------// и суммируем квадраты оных микрокоррекций
SquareCorrection2[1] += Correction2[1] * Correction2[1];
Correction2[2] += d_2_in * D2[2];
SquareCorrection2[2] += Correction2[2] * Correction2[2];

d_11_in = d_2_in * (1 - D2[1]*D2[1]);-----------------------------// Считаем ошибку на входах нейронов
d_12_in = d_2_in * (1 - D2[2]*D2[2]);-----------------------------// скрытого слоя

for (int k = 0; k < 17; k++)
{---------------------------------------------------------------// Сууммируем микрокоррекции для входов
Correction11[k] += d_11_in * D1[k];----------------------// первого нейрона
SquareCorrection11[k] += Correction11[k] * Correction11[k];
}

for (k = 0; k < 17; k++)
{---------------------------------------------------------------// Суммируем микрокоррекции для входов
Correction12[k] += d_12_in * D1[k];----------------------// второго нейрона
SquareCorrection12[k] += Correction12[k] * Correction12[k];
}
}
paralocus , şimdi her ağırlık için kareler toplamının karekökünü alın ve her toplam ağırlık düzeltmesini bu orana bölün. İşte bu ve her ağırlığa ekleyin! Bu bir dönem. Bu nedenle, planlanan eğitim dönemlerinin sayısı kadar tekrarlamanız gerekir. Eğitimin sonunda bir sonraki dönemin katkı çarpanını kademeli olarak sıfıra indirmek.
 

Beyler, sığ yerel minimumlara uçmakla ve çarpık başlangıç ağırlıklarıyla nasıl mücadele ettiğinizi bize anlatın. Anladığım kadarıyla, başlangıçta eğitimi hiçbir şekilde etkilemiyorlar, ancak daha sonra sonucunu çok güçlü bir şekilde etkilemeye başlıyorlar.

 
Neutron >> :
... şimdi her ağırlık için kareler toplamının karekökünü alın ve her toplam ağırlık düzeltmesini bu orana bölün. İşte bu ve her ağırlığa ekleyin! Bu bir dönem. Bu nedenle, planladığınız eğitim dönemleri kadar tekrarlamanız gerekir. Eğitimin sonunda bir sonraki dönemin katkı çarpanını kademeli olarak sıfıra indirmek.

Yapılmış:

 for ( int q = 1 ; q < = 1000 ; q + + )
   {
// ----------------------------------------- ЭПОХА ---------------------------------------------------  
   for ( int i = cikl ; i > = 0 ; i - - )
     {
       out   = OUT2 ( i ) ;                                                    // Получаем вых. сигнал сетки
       test = ( Close [ i ] - Close [ i + 1 ] ) / Close [ i + 1 ] ;                            // Получаем n+1-вый отсчет
       
       d_2_out = test - out ;                                              // Ошибка на выходе сетки         
       d_2_in   = d_2_out * ( 1 - out * out ) ;                                  // Ошибка на входе выходного нейрона
       
       Correction2 [ 0 ]        + = d_2_in * D2 [ 0 ] ;                            // Суммируем микрокоррекции
       SquareCorrection2 [ 0 ] + = Correction2 [ 0 ] * Correction2 [ 0 ] ;            // по каждому весу входящему в вых. нейрон
       Correction2 [ 1 ]        + = d_2_in * D2 [ 1 ] ;                            // и суммируем квадраты оных микрокоррекций
       SquareCorrection2 [ 1 ] + = Correction2 [ 1 ] * Correction2 [ 1 ] ;      
       Correction2 [ 2 ]        + = d_2_in * D2 [ 2 ] ;
       SquareCorrection2 [ 2 ] + = Correction2 [ 2 ] * Correction2 [ 2 ] ;    
       
       d_11_in = d_2_in * ( 1 - D2 [ 1 ] * D2 [ 1 ] ) ;                              // Считаем ошибку на входах нейронов
       d_12_in = d_2_in * ( 1 - D2 [ 2 ] * D2 [ 2 ] ) ;                              // скрытого слоя
       
       for ( int k = 0 ; k < 17 ; k + + )
         {                                                                // Сууммируем микрокоррекции для входов
          Correction11 [ k ]        + = d_11_in * D1 [ k ] ;                        // первого нейрона
          SquareCorrection11 [ k ] + = Correction11 [ k ] * Correction11 [ k ] ;   
         }                                     
         
       for ( k = 0 ; k < 17 ; k + + )
         {                                                                // Суммируем микрокоррекции для входов
          Correction12 [ k ]        + = d_12_in * D1 [ k ] ;                        // второго нейрона
          SquareCorrection12 [ k ] + = Correction12 [ k ] * Correction12 [ k ] ;
         }    
     }
// ------------------------------------- КОНЕЦ ЭПОХИ --------------------------------------------------

// ----------------------------------- КОРРЕКЦИЯ ВЕСОВ ------------------------------------------------
         for ( k = 0 ; k < 3 ; k + + )
             W2 [ k ] + = Correction2 [ k ] / MathSqrt ( SquareCorrection2 [ k ] ) ;   

         for ( k = 0 ; k < 17 ; k + + )
           {
             W1 [ 0 , k ] + = Correction11 [ k ] / MathSqrt ( SquareCorrection11 [ k ] ) ;
             W1 [ 1 , k ] + = Correction12 [ k ] / MathSqrt ( SquareCorrection12 [ k ] ) ;
           }         

   }                                  


Bir sonraki çağın katkı çarpanını nasıl azaltacağımı biraz anlamadım .... daha sonra eğitimin sonunda, çıktı katmanının ağırlıkları çok küçülür ve gizli olanın ağırlıkları, aksine büyüktür.

Uyarı: W2[0] = -0.0414 W2[1] = 0.0188 W2[2] = -0.0539

Uyarı: W1[1,0]=-27.0731 W1[1,1]=-30.2069 W1[1,2]=37.6292 W1[1,3]=30.4359 W1[1,4]=-22.7556 W1[1,5 ]=-37.5899