Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 80

 
gpwr писал(а) >>

Ve neden istatistiksel yayılma mavi dairelerin yanına çizilmiş? Ağırlıklar sıfırdan başlıyorsa, istatistiksel bir yayılma olmamalıdır.

Gerçek şu ki, aynı eğitim örneği için değil, her döngüde sırayla bir sayım kaydırarak istatistik topluyorum. Bu nedenle, öğrenme çıktıları eşleşmemektedir. Neden yaptığımı hatırlamıyorum ama özü değiştirmiyor. Görünüşe göre, bu şekilde piyasadaki süreçlerin yarı durağanlığını yakalamak ve öğrenme oranına etkilerini yansıtmak istedim.

Aynı eğitim setinde (soldaki şekil) 10'dan fazla deneyin ortalaması alındığında sonuçların nasıl göründüğü aşağıda açıklanmıştır:

Sıfır başlatmalı ağırlıklar için istatistiksel bir yayılma olmadığı görülebilir.

Pirinç. sağda 12 girişli, gizli katmanda 5 nöron ve çıkışta 1 nöron ve 120 örneklik bir eğitim seti ile bir ağ mimarisi için inşa edilmiştir, yani. davanızı çoğaltır. İstatistikler, 50 bağımsız sayısal deneyden toplandı. Ayrıca her şey düzgün çalışıyor.

Standart sapmalarına göre normalleştirilmiş EURUSD1h açılış fiyatları kullanıldıysa, ortalamaları sıfıra eşit değildir. Yoksa ortadakini mi aldın?

Hayır, açılış fiyatlarındaki ilk farkı girdi olarak kullandım (bağlamdan anlaşıldığını düşündüm). Ortalamanın sıfır olduğu açıktır. Bir sonraki farkın genliğini ve işaretini tahmin etti.

Teoreme gelince, beğendim. Ancak, özel bir durum olarak ağlarımızla bir ilişkisi var!

Sonsuzluğa meyleden eğitim örneğinin uzunluğu için dejenere bir durum kanıtladınız. Aslında, bu durumda, sıfır MO ile CV'yi temsil eden girdi verilerinin vektörü için sıfır ağırlık alacağız - entegre CV için yarın için en iyi tahmin bugünün mevcut değeridir! Ancak, eğitilen ağırlıklar hatanın karesini en aza indirerek dengeye gelme eğiliminde olduğundan, kişinin yalnızca sonlu uzunlukta bir eğitim örneği alması gerekir. Bu ifadeyi doğrulayan bir örnek olarak, SLAE (aynı NS) durumunu ele alalım. Bu durumda, ağırlıklar benzersiz olarak tanımlanır, eğitim setindeki öğrenme hatası aynı şekilde sıfıra eşittir (bilinmeyenlerin sayısı denklemlerin sayısına eşittir) ve ağırlıklar (bilinmeyenlerin katsayıları) açıkça eşit değildir. sıfıra.

 

Bu tasarım benim için bir şey çalışmıyor:


 
Ve neden apsis ölçeğinde +/-1 aralığı görüyorsunuz? Sonuçta +/-N olmalı... Belki limitleri zor koydunuz +/-1 ve şimdi hiçbir şey görmüyorsunuz ama her şey resimdeki gibi.
 

Bunun için mi yalan söylüyorlar. Menzil sınırlarını hiç belirtmedim. Ve şimdi -N'den +N'ye zor ayarladım:


Bunların Matkadovskie hataları olduğundan şüpheleniyorum. Zaten yeni bir tane aldım, ancak bugün posta çalışmıyor. Sadece yarın alabilirim.

 
paralocus писал(а) >>

Bunun için mi yalan söylüyorlar. Menzil sınırlarını hiç belirtmedim. Ve şimdi -N'den +N'ye zor ayarladım:

Bunların Matkadovskie hataları olduğundan şüpheleniyorum. Zaten yeni bir tane aldım, ancak bugün posta çalışmıyor. Sadece yarın alabilirim.

Ajurda her şeye sahibim:

Siz, vektörün değerlerini gösterin. Mesela, F=... orada ne var?

 
 

Ah-ah-ah. Ne yapacağınızı biliyorsunuz - döngüdeki farkınızı bir tam sayıya yuvarlayın: dif[i]=trunc(K*(Open[i]-Open[i-1])). Belki de orijinal alıntıda 4. işaretiniz yoktur. Tabloda kotirin kendisinin nasıl göründüğüne bakın.

 

Evet yaptı...

Garip, ama neden bir kotirde dört haneli yok?


 

Nereden, nereden ... Matkad ayarlarında sayıların temsilini üçüncü ondalık basamağa kadar bir doğrulukla ayarladığınız gerçeğinden.

Rağmen, hayır. Hepsi aynı, sorun kaynak kodunda. Orijinal verilere bakın.

 
Bunun nedeni veri türlerindeki farklılıktır. trunc(), alıntının ilk farkının değerini bir tamsayı türüne dönüştürür.