NN için giriş değerleri nasıl doğru bir şekilde oluşturulur. - sayfa 9

 
sergeev писал (а) >> yazdı. 3. Ağın yeniden eğitimi konusu

Fazla takma sorusu çok zor bir sorudur ve buna kesin bir cevap yoktur. Fazla uydurmayı önlemek için bazen çapraz doğrulama kullanılır, ancak eğitim süresi çok kısaysa her zaman bundan kurtarmaz. Genel olarak, aşırı antrenmana karşı en iyi kontrol OOS veya gerçektir.

 
TheXpert писал (а) >>

Mdya, bu akşam okuyacağım bir şeyler olacak, büyük ihtimalle yakında kod doğuracağım :)

Eee. Bu fikre neden “çabuk” inanmak ve ardından kodlama için oturmak istemediklerini gerçekten anlamıyorum.

Konuya geri dönersek, "doğru" girdileri zaten bulduğumuz, bunların normalleştirildiği ve yalnızca "şampiyonluk" için zamanında olduğu ortaya çıkıyor. Her şey (araçlar anlamında, girdiler anlamında değil) zaten icat edildi. Bu bağlamda - Neurosolutions veya Neuroshel 2 (ve diğer birçok program). En azından hem girdilerin "yanlış" olduğundan hem de "normalleştirmenin" onları daha da çarpıttığından emin olmak hızlı olacaktır.

Evet. Bir argüman var - tüm programlar eski, algoritmalar yosunla kaplı, ama ... belki girdiler aynı değil :)

'

İşte, güncel değil, "ağ" "Polynominal Net (GMDH)" (NeuroShell 2'den) tarafından "sabitlendim" - 15 saatlik eğitim / öğretim ve piyasa formülü hazır :)

 
sergeev писал (а) >> yazdı. 9. Tekrarlayan ağlar

Tekrarlayan ağlar hakkında iyi olan şey, orada "öğretmen" olmamasıdır. Yani, bu şekilde çok önemli bir değişkeni hariç tutuyoruz - bunlar ağın "öğretmenleri". Ağın eğitileceği çıktı verilerinde de hata yapılabileceğinden, bu hariç tutularak yalnızca girdi arayışına odaklanılabilir.

 
LeoV писал (а) >>
Çapraz doğrulama, örneğin bir ağın 2007 segmentinde eğitilmesi ve 2007 segmentinde elde edilen en iyi sonucun 2008 segmentinde "kontrol edilmesi" ve eğer bu sonucun öncekinden daha iyi olması (ayrıca "test edildi"). 2008) sonra bu ağ kaldı. Vb. Ancak örneğin, 2007 için bu sonuç en iyi olmayabilir, ancak ağ 2008 için test edildiğinden önemli değil. Böylece, aşırı eğitimden (ağ için) veya yeniden optimizasyondan (TS için) kaçınmak mümkündür.

Bu ileri test, EMNIP :), bence Khaikin'i de okumalısın.

Genel olarak, son gönderilerinizden tek bir bilgilendirici yok, belki sonunda gerçekten yararlı düşünceleri ifade etmeye başlayacaksınız?

 
TheXpert писал (а) >>

Bu ileri test, EMNIP :), bence Khaikin'i de okumalısın.

Genel olarak, son gönderilerinizden tek bir bilgilendirici yok, belki sonunda gerçekten yararlı düşünceleri ifade etmeye başlayacaksınız?

İşte bu, üzgünüm, üzgünüm, bir daha yapmayacağım. Bir şey gitti.....))))

 
LeoV писал (а) >>

Tekrarlayan ağlar hakkında iyi olan şey, orada "öğretmen" olmamasıdır. Yani, bu şekilde çok önemli bir değişkeni hariç tutuyoruz - bunlar ağın "öğretmenleri". Ağın eğitileceği çıktı verilerinde de hata yapılabileceğinden, bu hariç tutularak yalnızca girdi arayışına odaklanılabilir.

Ne??? Oo Tekrarlayan ağların öğretmeni yok mu? Tekrarlayan ağlar, geribildirimin varlığında MLP'den farklıdır, ancak bir öğretmenin yokluğunda değil. Elman ve Jordan modelleri hakkında RTFM.

 
TheXpert писал (а) >>

Bu ileri test, EMNIP :)

Son not, üzgünüm. İleriye dönük testler farklıdır. Ama belki kötü açıkladım? Ama tekrar okudum - her şey açık görünüyor. Sadece anlamıyorsun...

 
TheXpert писал (а) >>

Ne??? Oo Tekrarlayan ağların öğretmeni yok mu? Tekrarlayan ağlar, geribildirimin varlığında MLP'den farklıdır, ancak bir öğretmenin yokluğunda değil. Elman ve Jordan modelleri hakkında RTFM.

Eh, varsa, o zaman var! Karşı değilim )))

 
SergNF писал (а) >>

Eee. Bu fikre neden “çabuk” inanmak ve ardından kodlama için oturmak istemediklerini gerçekten anlamıyorum.

Konuya geri dönersek, "doğru" girdileri zaten bulduğumuz, bunların normalleştirildiği ve yalnızca "şampiyonluk" için zamanında olduğu ortaya çıkıyor. Her şey (girdiler anlamında değil, araçlar anlamında) zaten icat edilmiştir. Bu bağlamda - Neurosolutions veya Neuroshel 2 (ve diğer birçok program). En azından hem girdilerin "yanlış" olduğundan hem de "normalleştirmenin" onları daha da çarpıttığından emin olmak hızlı olacaktır.

Evet. Bir argüman var - tüm programlar eski, algoritmalar yosunla kaplı, ama ... belki girdiler aynı değil :)

'

İşte, güncel değil, "ağ" "Polynominal Net (GMDH)" (NeuroShell 2'den) tarafından "sabitlendim" - 15 saatlik eğitim / öğretim ve piyasa formülü hazır :)

Sobsno ve ben yapıyoruz, ancak kendi yazılımım olduğu için onu kullanıyorum.

Peki ya kod - Neurosolutions veya Neuroshell 2, kodu MQL4'e taşıyor mu? Burada yaşayanlar için belki de benim için faydalı olacağını düşündüğüm birkaç fonksiyon yazacağım. Üstelik yüz satır kod yazmak bir saat sürüyor.

 
LeoV писал (а) >>

Son not, üzgünüm. İleriye dönük testler farklıdır. Ama belki kötü açıkladım? Ama tekrar okudum - her şey açık görünüyor. Sadece anlamıyorsun...

Önemli değil, yanılıyorsam özür dilerim.