Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2827
Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
h ttps:// youtu.be/4yrp71kAZxU
Peki bu kadar ilginç olan ne?
Nöronları eğitirken, yerel bir yerde sıkışıp kalmadığından ne kadar eminsiniz?
Nöronikte, gruplara ayırmak aşağıdakilerden kaçınmaya yardımcı olur
Diğer optimizasyon algoritmalarında, birkaç kez çalıştırmak veya gruplara ayırmak da yararlıdır, örneğin
artı gradyan adımını ayarlama ve diğer hileler.
Sistemin ne kadar hayatta kalabileceğini görmek için hiperparametreleri değiştirerek optimumun çevresini keşfetmeye devam etmelisiniz.nöronikte, gruplara ayırma, aşağıdakilerden kaçınmaya yardımcı olur
diğer optimizasyon algoritmalarında olduğu gibi, birkaç kez çalıştırmak veya gruplara ayırmak da yararlıdır.
artı gradyan adımını ve diğer hileleri ayarlamak.
Yine de sistemin ne kadar hayatta kalabileceğini görmek için hiperparametreleri değiştirerek optimumun komşuluğunu keşfetmeniz gerekir.Sormaya utanıyorum, yığınlar nedir?
Hayır, demek istediğim nöronun bir yerde takılıp kalmadığından nasıl emin olabiliyorsunuz? Sıkışmaya karşı direnç açısından test ediliyor mu?
Sormaya utanıyorum, parti nedir?
Hayır, yani nöronun bir yere takılıp kalmadığından nasıl emin olabiliyorsunuz? Takılmaya karşı direnci test ediliyor mu?
Örneğin erken durdurma yoluyla yeni veriler üzerinde test edilir.
Eğitim verilerinde hata düştüğünde ve yeni verilerde büyümeye başladığında. Yeni verilerde büyümeye başlamadığı sürece, henüz takılmadığı anlamına gelir.
gruplar eğitim için veri paketleridir: tüm veri kümesini bir kerede eğitmek gerekli değildir, verileri paketlere bölebilir ve her iterasyonda eğitebilirsiniz.
Her bir paketteki optimum değerler farklı olacağından, ortalama hepsi için optimumdan daha az bir şey olacaktır.
Prensipte optimumun ne olduğuna karar vermek biraz zordur. Ve eğer örnek kaydırılmışsa, ne yapmalı? Kaydırılmış bir alt örnekte bu global optimum nasıl bulunur?
Eğer soru prensipte optimizasyon algoritmalarıyla ilgiliyse, sormakta haklısınız. Ancak o zaman örnekleri kaydırmaya başlarsınız ki bu da bu sorudan daha fazla sorun yaratır.
Eğer teoriden pratiğe biraz geçerseniz :)
yeni veriler üzerinde, örneğin erken durdurma yoluyla test edilir.
eğitim verilerinde hata düştüğünde ve yeni verilerde büyümeye başladığında. Yeni verilerde büyümeye başlamadığı sürece, henüz takılıp kalmadığımız anlamına gelir
yığınlar eğitim için veri paketleridir: tüm veri kümesini bir kerede eğitmek gerekli değildir, verileri paketlere bölebilir ve her yinelemede eğitebilirsiniz.
Her bir paketin optimumu farklı olacağından, ortalama, hepsi için optimalden daha az bir şey olacaktır.
Prensipte optimumun ne olduğuna karar vermek biraz zor. Ve eğer örnek kaydırılmışsa, ne yapmalı? Kaydırılmış bir alt örnekte bu global optimum nasıl bulunur?
Eğer soru prensip olarak optimizasyon algoritmalarıyla ilgiliyse, sormakta haklısınız. Ancak o zaman örnekleri değiştirmeye başlarsınız ki bu da bu sorudan daha fazla sorun yaratır.
teoriden pratiğe biraz geçerseniz :)
ah, ilk cevabınızı doğru anlamışım. sıkışma direncini kontrol etmenin bir yolu yok.
"Eğitimde hata düşer ve yenilerde artmaya başlar" dediğiniz şey bir sıkışma testi değil, sadece eğitimi durdurmak için bir kriterdir.
benim sorum buradaki insanların nöronları eğitmek için kullandıkları optimizasyon algoritmaları ile ilgili, ikinci aşama olan yeni veriler üzerinde nöronların kararlılığını artırmakla ilgili değil. yani, ilk aşama burada hiç tartışılmadı henüz))))
İlk cevabınızı doğru anlamışım. Parazit direncini test etmenin bir yolu yok.
"Eğitilenlerde hatanın düşmesi ve yenilerde artmaya başlaması" hakkında söyledikleriniz bir sıkışma testi değil, sadece eğitimi durdurmak için bir kriterdir.
Benim sorum, buradaki insanların nöronları eğitmek için kullandıkları optimizasyon algoritmaları ile ilgili, ikinci aşama olan yeni veriler üzerinde nöronların kararlılığını artırmakla ilgili değil. aslında, ilk aşama burada hiç tartışılmadı henüz))))
Şey, bir bakıma, evet, tartışılmadı. Nöronlarda en popüler olan Adam optimizasyon algoritmasıdır. Belki bunu da bir şekilde test edebilirsiniz
İşte, hiç tartışılmadı.
Pratikte bu, nöronun yetersiz eğitileceği anlamına gelir, yani yeni verilerdeki hata, daha reçel dirençli bir AO kullanıldığında olduğundan daha erken büyümeye başlayacaktır.