Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 25
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Beyler, sığ yerel minimumlara uçmakla ve çarpık başlangıç ağırlıklarıyla nasıl mücadele ettiğinizi bize anlatın. Anladığım kadarıyla, başlangıçta eğitimi hiçbir şekilde etkilemiyorlar, ancak daha sonra sonucunu çok güçlü bir şekilde etkilemeye başlıyorlar.
Ağı her adımda yeniden eğitmeyi bir kural haline getirdim. Böyle bir ortamda ağın bazen "orada olmadığı" açıktır, ancak bir sonraki adımda olması gereken yerdedir. Benim fikrim, ağın "yanlış" öğrenme olasılığının belirgin şekilde 1'den az olduğu ve genel olarak büyük bir yeniden eğitim örneğinde "çılgın çocukların" katkısının minimum olduğu gerçeğine dayanmaktadır.
Bir sonraki çağın katkı çarpanını nasıl azaltacağımı biraz anlamadım .... daha sonra eğitimin sonunda, çıktı katmanının ağırlıkları çok küçülür ve gizli olanın ağırlıkları, aksine büyüktür.
Uyarı: W2[0] = -0.0414 W2[1] = 0.0188 W2[2] = -0.0539
Uyarı: W1[1,0]=-27.0731 W1[1,1]=-30.2069 W1[1,2]=37.6292 W1[1,3]=30.4359 W1[1,4]=-22.7556 W1[1,5 ]=-37.5899Burada kendin düşünmek zorundasın. Yalnızca beklenen fiyat artışlarının (+/-1) işaretlerini tahmin ediyorum. Bu, ticaretin özelliklerinden kaynaklanmaktadır (yukarıdaki Ticaretin Temel Denklemine bakınız) ve aynı anda genliği ve işareti tahmin etme girişiminin görevi önemli ölçüde karmaşık hale getirmesi gerçeğidir (NN mimarisi ve eğitim dönemlerinin sayısı artar). Burada, Grid her adımda yeniden eğitilmese bile, bir ev bilgisayarının hiçbir kapasitesi yeterli olmayabilir! Bu nedenle, geleneksel olarak, VR'nin mutlak değerlerini tahmin ederken, bazılarından daha az olana kadar her çağda öğrenme hatasını kontrol ederler. Bu süreç bir araya gelmeyebilir - Izgara sonsuz bir döngüde asılı kalacaktır ve onu komadan çıkarmak için mekanizmalara ihtiyaç vardır. Bunu denediğimde, öğrenme hatasındaki azalma oranını kontrol ettim ve koşul karşılanırsa tüm ağırlıkları rastgele seçtim, yani. pratik olarak yeniden başladı. Aynı zamanda, eğitim için gereken yaklaşık dönem sayısını ve her dönemin ağırlığının (her ağırlığın düzeltilmesinden önceki katsayı) 1-j/N yasasına göre azaldığını bulmak gerekiyordu. burada j 1 ile N arasında değişir. Genlik tahminini bıraktıktan sonra, ağ hızlı ve verimli bir şekilde eğitildi, böylece öğrenme hatasını izlemeden sabit sayıda eğitim dönemi başlatmak mümkün oldu.
Yine de, tahminden tahmine geçerken, dönem sayısını azaltmak için, Ağ ağırlıklarının değerlerini rastgele hale getirmeden kaydettim. Bu durumda, bazen sonsuz artışlarında veya sıfıra eğiliminde kendini gösteren bazı ağırlıkların "yapışması" etkisi gözlendi. Bununla böyle mücadele ettim: yeni bir tahminle, operatör olarak tüm ağırlıkları etkiledim - th (). Etkili bir şekilde yardımcı oldu.
... eğitim hatası izleme olmadan sabit sayıda eğitim dönemi.
Sorun çözüldü!
nötron için
Şimdi tüm iki katmanımı daha kompakt bir biçimde yeniden yazıyorum. Her şeyi iki veya üç fonksiyonun matris işlemlerine indirgemek istiyorum. Bitirdiğimde yayınlayacağım.
Aynı zamanda genlik tahminini "keseceğim". Aslında - işaret fazlasıyla yeterli.
Burada kendin düşünmek zorundasın.
Genlikteki hatayı hesaplamaktan işaretteki hatayı hesaplamaya nasıl geçeceğinizi mi düşündünüz?
Yani, burada mı?
Numara. genel konuştum. Belli ki kendi yoluna gideceksin...
Bir kaç sorum var burada gereksiz bir abartıdan kaçınmak için PM yoluyla sormak istiyorum.
Hayran olmadığını biliyorum...
bana izin verecek misin?
Sen sor!
Toda boş zamanlarınızda kişisel olarak bakın - :)
Ağı her adımda yeniden eğitmeyi bir kural haline getirdim. Böyle bir ortamda ağın bazen "orada olmadığı" açıktır, ancak bir sonraki adımda olması gereken yerdedir. Benim fikrim, ağın "yanlış" öğrenme olasılığının belirgin şekilde 1'den az olduğu ve genel olarak büyük bir yeniden eğitim örneğinde "çılgın çocukların" katkısının minimum olduğu gerçeğine dayanmaktadır.
"Her adımda yeniden eğitim" in ne anlama geldiğini tam olarak anlamıyorum?