Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 42

 
Neutron >> :

Neyse ki Matkad, sayma sürecini herhangi bir adımda görselleştirmenizi sağlar. Deney.

Bu konuda birkaç söz söyleyebilir miyim? Grafiklerim ancak tüm hesaplamaların tamamlanmasından sonra oluşturulur.

 

Ben de:-(

Demek istediğim, ilgilendiğiniz herhangi bir bilgiyi görüntüleyebilir ve daha fazla analiz için uygun bir formda sunabilirsiniz.

 
Tüm eğitim vektörü boyunca ağın yalnızca n + 1. örneği tanımayı öğrendiğini bir yere yazdınız. Eğitim örneğinin konumunun N çağları boyunca değişmediği anlaşılmalı mı? Aslında tam da bunu yaptım (bir sürü farklı fonksiyonun olduğu listede), yani tüm vektör boyunca hata TEST-OUT olarak hesaplandı, burada TEST n + 1-th sayısıydı. Şimdi, bu uygulamada TEST, bir geri sayım, sonraki ve son (en büyük) girdidir. Onlar. tüm sektör boyunca d+1'den n+1'e kayar. Belki burada bir hata var?
 

Şimdi, bekle.

NN girişine d uzunluğunda bir veri vektörü besliyoruz; burada d, grid bilgi girişlerinin sayısıdır (ofset sayılmaz). Ağın ÇIKIŞINDA, eğitimi için d + 1 sayımı gönderiyoruz. Bu adımdaki ağırlıklar rastgeledir. Her vektörün düzeltilmesi için bu aşamada bir deltamız var. Hatırlayın (hiçbir şeyi düzeltmeyin). Bir sayımı hareket ettirip prosedürü tekrarlıyoruz. Düzeltmeleri ve karelerini ayrı ayrı ekliyoruz. Bunu P kez yapıyoruz (ağırlıkları ayarlamadan). Son olarak, tüm ağırlıkları ilk kez ayarladığımızda, bu İLK antrenman dönemidir. Şimdi, aynı veriler üzerinde yeniden başlıyoruz, ancak bulunan ağırlıklarla başlıyoruz. Sonunda ağırlıkları ayarlıyoruz, bu İKİNCİ eğitim dönemi. Bunu 100 kez yapıyoruz (örneğin), bu 100 eğitim dönemi. Her şey. Ağ tahmin için hazır. En son okumayla birlikte tüm veri vektörünü içine koyuyoruz ve bir tahmin alıyoruz. Gerçek (tahmin edici olmayan) bir sayımın gelmesinden sonra, ağırlıkların rastgeleleştirilmesiyle ağı yeniden eğitiriz.

 
O zaman hata yok.
 

İlginç bir tartışma. :) Nötron, bu arada soruma hala cevap vermedin, peki ya başlangıç ağırlıkları? Sadece ağı nasıl yeniden eğittiğinizden bahsettiniz. Ancak bu olmadan bile, en az bir kez antrenman yaparsanız, ağda bir hata olur ve hatta somut olur. Tahminlerdeki tutarsızlık çok büyük olabilir, backprop ile olan deneyimimden bahsediyorum. :) Aslında, ben sadece bu soruyla ilgileniyorum, grid tekniğindeki diğer her şey ana şey değil. Ağ komiteleri, buna nasıl bakıyorsunuz ve hiç gerekli mi, belki bir şekilde başlangıçta ağırlıkları ayarlayabilirsiniz, böylece eğitim başlangıcında şebeke küresel minimuma yakın olur, böylece komitelere ihtiyaç kalmaz?

 
paralocus писал(а) >>
O zaman hata yok.

Çağdan çağa geçiyorum, böyle bir "ön yükleyici" yardımıyla her ağırlığa basıyorum:

Bu, ağırlıkların doygunluk bölgesine yayılmasını önler ve eğitim sürecinde onları +/-5 aralığında tutar.

kayıtlı yazdı >>

Bu arada Neutron, soruma hala cevap vermedin, peki ya ilk ağırlıklar? Sadece ağı nasıl yeniden eğittiğinizden bahsettiniz. Ancak bu olmadan bile, en az bir kez antrenman yaparsanız, ağda bir hata olur ve hatta somut olur. Tahminlerdeki tutarsızlık çok büyük olabilir, backprop ile olan deneyimimden bahsediyorum. :) Aslında, ben sadece bu soruyla ilgileniyorum, grid tekniğindeki diğer her şey ana şey değil. Ağ komiteleri, buna nasıl bakıyorsunuz ve hiç gerekli mi, belki bir şekilde başlangıçta ağırlıkları ayarlayabilirsiniz, böylece eğitim başlangıcında şebeke küresel minimuma yakın olur, böylece komitelere ihtiyaç kalmaz?

Başlangıç ağırlıklarını +/-1 aralığında rafa dağıtılmış rastgele bir değerle rastgele seçerim. Bunu her sayımda yapıyorum. Ortalama olarak her adımda yeniden eğitilen ızgara, tam olarak global minimumu bulur ve bu, bir kez ve her zaman eğitilen ızgaraya kıyasla her adımda yeniden eğitimin avantajıdır. Orada yanlışlıkla yerel bir deliğe tırmanabilir ve tüm tahminleri yeterli olmayacaktır. Bu durumda, ağırlıklar için başlangıç noktasını optimize etmenin yollarını aramak gerçekten önemlidir. Bu sorunu çözmedim.

Ağlar komitesine gelince, bu yararlı bir şeydir, ancak kaynak yoğundur. Gizli katmandaki nöron sayısındaki basit bir artışın aslında bir taahhüt olduğu, ancak eğitimde klasik versiyondan daha fazla kaynak yoğun olduğu ve aynı zamanda entegre doğrusal olmama özelliğinden dolayı daha güçlü olduğu gösterilebilir. üye yap. Burada denemeniz gerekiyor.

 
Neutron >> :

Çağdan çağa geçiyorum, böyle bir "önyükleyici" yardımıyla her ağırlığa basıyorum:

Bu, ağırlıkların doygunluk bölgesine yayılmasını önler ve eğitim sürecinde onları +/-5 aralığında tutar.

Ben sadece [-1; 1]'den değil, [-0.9; 0.9]'dan normalleştirirken aralığı sıkıştırıyorum, etki aynı, doygunluk yok. Başka bir şeyden bahsediyorum, ağırlıkları ayarlama sürecindeki ilk ağırlıklar, sözde vadi işlevi nedeniyle optimal değerlere ulaşmayabilir. Dürüst olmak gerekirse bununla mücadele ediyorum. Ve siz de büyük olasılıkla bu sorunu çözmediniz, bu nedenle kanıt temeli modelleme için kötü olmasa bile backprop kullanarak piyasada değerli bir şey elde etmek zor.

 
Neutron >> :

Başlangıç ağırlıklarını +/-1 aralığında rafa dağıtılmış rastgele bir değerle rastgele seçerim. Bunu her sayımda yapıyorum. Ortalama olarak her adımda yeniden eğitilen ızgara, tam olarak global minimumu bulur ve bu, bir kez ve her zaman eğitilen ızgaraya kıyasla her adımda yeniden eğitimin avantajıdır. Orada yanlışlıkla yerel bir deliğe tırmanabilir ve tüm tahminleri yeterli olmayacaktır. Bu durumda, ağırlıklar için başlangıç noktasını optimize etmenin yollarını aramak gerçekten önemlidir. Bu sorunu çözmedim.

Ağlar komitesine gelince, bu yararlı bir şeydir, ancak kaynak yoğundur. Gizli katmandaki nöron sayısındaki basit bir artışın aslında bir taahhüt olduğu, ancak eğitimde klasik versiyondan daha fazla kaynak yoğun olduğu ve aynı zamanda entegre doğrusal olmama özelliğinden dolayı daha güçlü olduğu gösterilebilir. üye yap. Burada denemeniz gerekiyor.

Bu şey tüm ahududuları bozar. :) Bu arada, gözlemlerimin bir sonucu olarak, ızgaranın hızlı bir şekilde eğitildiği ağırlıkların en iyi rastgeleleştirilmesi [-0.07; +0.07]. neden bilmiyorum. :)

 
registred писал(а) >>

Ben sadece [-1; 1]'den değil, [-0.9; 0.9]'dan normalleştirirken aralığı sıkıştırıyorum, etki aynı, doygunluk yok. Başka bir şeyden bahsediyorum, ağırlıkları ayarlama sürecindeki ilk ağırlıklar, sözde vadi işlevi nedeniyle optimal değerlere ulaşmayabilir. Dürüst olmak gerekirse bununla mücadele ediyorum. Ve siz de büyük olasılıkla bu sorunu çözmediniz, bu nedenle kanıt tabanı modelleme için kötü olmasa bile backprop kullanarak piyasada değerli bir şey elde etmek zor.

Burada kasa - Tanrı kurtarır! Sıkıştırma prosedürü karmaşık değildir, NN eğitimi acı çekmez - etkili bir yöntem.

Optimal değerlerin uygulanamayan başarısına gelince, bu bizim sanal gerçeklik için saf bir blöftür. Bir sinüzoid tahmin ederseniz anlarım! - evet, optimal değerler var. Ve piyasa gevezeliği koşullarında bunlar nelerdir? Şimdi optimum burada ve bir sonraki adımda (ki bunu tahmin edersiniz), oradadır ... ve onu tüm gücünüzle "burada" aradınız. Kısacası, kesin lokalizasyon sorunu yoktur ve her adımda yeniden eğitim verilerek tatmin edici bir şekilde çözülür.