Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 629

 
Yuri Asaulenko :

Maxim, MT optimizer'de ağı eğitmenize gerek yok. NN eğitmeni ve optimize edici, tamamen farklı optimallik kriterlerine sahip tamamen farklı algoritmalardır.

Daha önce çizdiğiniz NN yapısını hala kullanıyorsanız, piyasa için çok basit, çok zayıf. Zaten 15-20-15-10-5-1 yapısına geldiğimde başarılı olduğumu yazmıştım. Ve bu sadece bir tür anlaşma için. Yine de, kesinlikle her şeyi Khaikin'in tarif ettiği yöntemlerle yaptı, yani yeni bir şey değil, zil ve ıslık yok.

Daha basit yapılar iyi eğitilmedi.

ve katman sayısını, katmandaki nöron sayısını almaya çalışmadınız mı? Örneğin 15-200-1 veya 15-20-20-1?

Yuri Asaulenko :

PS Aslında, eğitim için çok fazla veri yok, ama çok fazla. Küçük bir örneklem boyutunda, Ulusal Meclis mantıklı hiçbir şeyi vurgulamayacak.

Ne kadar veri alıyorsunuz? Eğitim için 86.000 satır aldım.

 
elibrarius :

1) ama katman sayısını, katmandaki nöron sayısını almaya çalışmadınız mı? Örneğin 15-200-1 veya 15-200-20-1?

2) Ne kadar veri alıyorsunuz? Eğitim için 86.000 satır aldım.

1. Denemedim. İlk katmanda 20 adet yeterlidir. Katman ve katmanlardaki nöronlar artmaya gitti.

2. N dönemler arasında ara karıştırma ile eğitimde yaklaşık 12000 sıra vardı. Birkaç çağdan sonra, eğitim verileri daha önce eğitime katılmamış olanlarla değiştirildi.

 
Alexey Terentev :

Elbette, saldırı için özür dilerim ama mesajınızı tekrar okudunuz. Oldukça belirsiz görünüyor.
Genel olarak haklısınız, ancak yalnızca sinir ağının ilk katmanıyla ilgili olarak. Geri bildirim, ikinci ve sonraki katmanlara, hatta ağın paralel katmanlarına giderse, ifadeniz etkisini kaybeder.
Bu durumda Maxim , ağı derinleştirmeyi ve gizli katmanlara geri bildirim sağlamayı düşünmelidir.

Ve gelince:

Aynısı. MLP uzun süredir alakalı değil, derin öğrenme uzun süredir trend. Ve bir ağ, heterojen verileri işleme konusunda oldukça yeteneklidir, asıl şey mimaridir.

Katılıyorum, derinliği bulduğum tüm çan ve ıslıklarla nasıl birleştireceğim :) optimize edicide öğrenmesi biraz uzun olacak. devam eden bir ticaret var

Optimize edici için 30'dan fazla ağırlığın artık bir seçenek olmadığını düşünüyorum

+ buradaki birçok kişi, tüm bunlarla çalışmanın genellikle harika olduğu bir bulut olduğunu unutuyor, ancak och'a ihtiyacınız var. iyi kod optimizasyonu

 
Maksim Dmitrievski :

Katılıyorum, derinliği bulduğum tüm çan ve ıslıklarla nasıl birleştireceğim :) optimize edicide öğrenmesi biraz uzun olacak. devam eden bir ticaret var

Optimize edici için 30'dan fazla ağırlığın artık bir seçenek olmadığını düşünüyorum

+ buradaki birçok kişi, tüm bunlarla çalışmanın genellikle harika olduğu bir bulut olduğunu unutuyor, ancak och'a ihtiyacınız var. iyi kod optimizasyonu

Giriş katmanını çoğaltmayı deneyin.

 
Alexey Terentev :


Aynısı. MLP uzun süredir alakalı değil, derin öğrenme uzun süredir trend. Ve bir ağ, heterojen verileri işleme konusunda oldukça yeteneklidir, asıl şey mimaridir.
MLP sorunu çözebilirse, ilgili olup olmaması ne fark eder? Üstelik MLP ile kendinizi zorlamanıza gerek yok - her şeye sahipler ve neredeyse her yerdeler.
 
Alexey Terentev :

Giriş katmanını çoğaltmayı deneyin.

tema ve ağırlıkları yerlerde karıştırın :)
 
Yuri Asaulenko :
MLP sorunu çözebilirse, ilgili olup olmaması ne fark eder? Üstelik MLP ile kendinizi zorlamanıza gerek yok - her şeye sahipler ve neredeyse her yerdeler.

Pekala, sana bir şey önermiyorum. Derin öğrenme MLP ile başlar.
Sadece ağ içindeki verileri temsil etmeye gelince, hareketi ve dönüşümleri, aktivasyon, tekrarlayan katmanlar, düzenlileştirme, katman kombinasyonları vb. ile ilgili sorular doğal olarak ortaya çıkar. Şimdi bu derin öğrenmedir.

Derin öğrenme ekinde de her şey ve her yerde var. =)
 
Yuri Asaulenko :
MLP sorunu çözebilirse, ilgili olup olmaması ne fark eder? Üstelik MLP ile kendinizi zorlamanıza gerek yok - her şeye sahipler ve neredeyse her yerdeler.
Sadece derin olan çok daha hızlı öğrenebilir, diğer her şey eşitse .. 10 saat değil 5 dakika, örneğin :)
 
Alexey Terentev :

Pekala, sana bir şey önermiyorum. Derin öğrenme MLP ile başlar.
Sadece ağ içindeki verileri temsil etmeye gelince, hareketi ve dönüşümleri, aktivasyon, tekrarlayan katmanlar, düzenlileştirme, katman kombinasyonları vb. ile ilgili sorular doğal olarak ortaya çıkar. Şimdi bu derin öğrenmedir.

Bunu anlıyorum, ama başka bir şeyden bahsediyorum. İki boru ile ilgili problem için daha yüksek matematiğe gerek yoktur, aritmetik yeterlidir. Aritmetiğin alakalı olup olmadığı başka bir sorudur.

Yani, önce soruna karar vermeniz ve ardından çözüm yöntemlerini seçmeniz gerekir.

DM - DL'nin büyük ve karmaşık görevlerine gelince, MLP elbette orada uzun zaman geçmiş bir aşamadır.

 
Maksim Dmitrievski :
Sadece derin olan çok daha hızlı öğrenebilir, diğer her şey eşitse .. 10 saat değil 5 dakika, örneğin :)
Söylemeyeceğim ama bana öyle geliyor ki bunlar birer yanılsama. Sadece genel sebeplerden dolayı.