Bir komut dosyası şeklinde sinir ağı - sayfa 10

 

Lütfen gösterimi S[j] = Sum(i)(y[i]*w[i,j] - t[j]) formülüne yazın. Anladığım kadarıyla:

t[j] - eşik ağırlığı (-1'e eşit sinyalle çarpılır)

y[i]*w[i,j] - girdinin kendi ağırlığıyla çarpımı

S[j] - lojistik işlevi uygulamadan önceki sonuç

Toplam(i) nedir?

 
sergeev писал (а) >>

Lütfen gösterimi S[j] = Sum(i)(y[i]*w[i,j] - t[j]) formülüne yazın. Anladığım kadarıyla:

t[j] - eşik ağırlığı (-1'e eşit sinyalle çarpılır)

y[i]*w[i,j] - girdinin kendi ağırlığıyla çarpımı

S[j] - lojistik işlevi uygulamadan önceki sonuç

Sum(i) nedir?

Sum[i], i'nin üzerindeki toplamdır. Formül yazmayı bilmiyorum.


t[j] - nöron eşik değeri

y[i]*w[i,j] - önceki çıkış. katmanla çarpılmış bağlama ağırlığı

S[j] - lojistik işlevi uygulamadan önce ağırlıklı toplam

 
TheXpert писал (а) >>

Sum[i], i'nin üzerindeki toplamdır. Formül yazmayı bilmiyorum.

Prensip olarak, hemen bunun miktar olduğunu düşündüm.

-------------

Gerçek şu ki, eşik her giriş değerine değil, sigmoid'e beslenmeden önce toplam miktarın sonunda eklenir. Yani, bu, her girdi için ayrı ayrı değil, bir bütün olarak çıktının tamamı için eşiktir.

Böyle bir formül:

S[j]=Topla{y[i]*w[i,j]} - t[j]

Yuri gibi

 for ( i = 0 ; i < NUM_INP ; i ++ ) // входной слой
    { 
        sum = 0 ;
        for ( j = 0 ; j < NUM_INP ; j ++ ) sum += ipl_W [ i , j ] * Input [ j ] ;
        ipl_Out [ i ] = Sigmoid ( sum + ipl_Threshold [ i ]) ;
    }

ve prensipte buna katılıyorum, çünkü literatürde böyle bir kayıt gördüm.

 
sergeev писал (а) >>

Prensip olarak, hemen bunun miktar olduğunu düşündüm.

-------------

Gerçek şu ki, eşik her giriş değerine değil, sigmoid'e beslenmeden önce toplam miktarın sonunda eklenir.

formül bu

S[j]=Topla{y[i]*w[i,j]} - t[j]

Yuri gibi

ve prensipte buna katılıyorum, çünkü literatürde böyle bir kayıt gördüm.



Ah tabii haklısın parantezleri yanlış yerleştirmişim.

 

2 TheXpert

Yazılarınızdan, Millet Meclisi konusunda bilgili bir insan olduğunuzu anladım. Yeni başlayanlara, çalışma prensibini tanımak için NN'de analiz etmeye nereden başlayacağını tavsiye edebilir misiniz?

Ve ağlarda geri bildirim kullanmak iyi bir şey mi? Uygulamanızda ne kadar etkili oldu?

 
sergeev писал (а) >>

2 TheXpert

Yazılarınızdan, Millet Meclisi konusunda bilgili bir insan olduğunuzu anladım. Yeni başlayanlara, çalışma prensibini tanımak için NN'de analiz etmeye nereden başlayacağını tavsiye edebilir misiniz?

Ve ağlarda geri bildirim kullanmak iyi bir şey mi? Uygulamanızda ne kadar etkili oldu?


Dürüst olmak gerekirse, ne diyeceğimi bile bilmiyorum. Üniversitede NN üzerine 2 dersimiz vardı, temellerden başladık: temel bir nöron modeli, ağların sınıflandırılması, öğrenme yöntemleri vb., ardından algılayıcı, doğrusal ve doğrusal olmayan, ardından Kohonen, Hopfield, Hamming, devridaim, tekrarlayan ağlar .. ..



Tekrarlayan ağlara gelince, pratikte kullanmadım, IMHO, artı ve eksi aynı zamanda önceki durumlarına bağlı olmasıdır, yani. tanım gereği değiş tokuş için uygun.

AMA, yine, IMHO, sürgülü pencere ilkesi üzerinde eğitilirse, geri bildirim olmadan bir algılayıcı ile benzer sonuçların elde edilebileceğine inanıyorum. Bunun da artısı var - kayan pencere yöntemi, alınan tahminin istikrarını / stokastikliğini (bkz.

 
Ağın boyutunun ve "katmanının" kalıp (kalıp) sayısına bağımlılığı nedir?
 
Andy_Kon писал (а) >>
Ağın boyutunun ve "katmanının" kalıp (kalıp) sayısına bağımlılığı nedir?

Simon Haykin, 282. sayfadaki "Neural Networks" adlı kitabında, TEK gizli katmanla NN'nin evrenselliği hakkında bir teorem verir. İşte sonuç:

Ama "ağ boyutu" tabirine ne anlam yükledin anlamadım. Gizli katmanlardaki nöronların sayısı mı yoksa NN girişlerinin sayısı mı?

Girdi sayısı ise, girdi sayısı ile eğitim örneğinin büyüklüğünün (desen sayısı) çarpımı NN ağırlıklarının karesine eşit olmalıdır.

Bu, gizli katmanlardaki nöronların sayısıysa, sayıları görevin karmaşıklığına göre belirlenir ve deneysel olarak bulunur.

 

boyut ve katmanlama

1. Boyut - katman(lar)daki nöron sayısı.

2. "Katman" - katman sayısı.

3. Bundan sonraki soru, katmanlardaki nöronları katmandan katmana değiştirmek?

4. Katman sayısı, boyut ve şablon (kalıp) sayısı ile ilgili eğitim döngülerinin sayısı - (optimal)?
 

"Katmanlardaki nöronları değiştirmek" nedir, NN'nin eğitimi sırasında bir nöronun (nöronların) sinaptik ağırlıklarını değiştirme veya NN'nin optimal mimarisini arama sırasında katmanlardaki nöron sayısını kademeli olarak değiştirerek arama sürecidir. optimizasyon?

Eğitim döngülerinin sayısı, minimum genelleme hatasının elde edilmesiyle belirlenir ve doğrudan katman sayısına (ve diğer şeylere) bağlı değildir, ancak doğrusal olmayan bir şekilde nöronların sayısına ve sayısına bağlıdır. katmanlar. NN tarafından global minimumunu aramak için oluşturulan çok boyutlu özellik yüzeyinin "sağlamlığına" bağlıdır. Ağ düzgün çalışıyorsa, 50-100 dönem geri yayılım eğitimi yeterlidir. Doğru, bunu yapmak için biraz nefes almanız gerekiyor.