Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2827

 
mytarmailS #:
h ttps:// youtu.be/4yrp71kAZxU
.

Peki bu kadar ilginç olan ne?

 
Nöronları eğitirken, yerel bir yerde sıkışıp kalmadığından ne kadar eminsiniz?
 
Andrey Dik #:
Nöronları eğitirken, yerel bir yerde sıkışıp kalmadığından ne kadar eminsiniz?

Nöronikte, gruplara ayırmak aşağıdakilerden kaçınmaya yardımcı olur

Diğer optimizasyon algoritmalarında, birkaç kez çalıştırmak veya gruplara ayırmak da yararlıdır, örneğin

artı gradyan adımını ayarlama ve diğer hileler.

Sistemin ne kadar hayatta kalabileceğini görmek için hiperparametreleri değiştirerek optimumun çevresini keşfetmeye devam etmelisiniz.
 
Partilere bölmek için optimizasyon algoritması????? )
 
Maxim Dmitrievsky #:

nöronikte, gruplara ayırma, aşağıdakilerden kaçınmaya yardımcı olur

diğer optimizasyon algoritmalarında olduğu gibi, birkaç kez çalıştırmak veya gruplara ayırmak da yararlıdır.

artı gradyan adımını ve diğer hileleri ayarlamak.

Yine de sistemin ne kadar hayatta kalabileceğini görmek için hiperparametreleri değiştirerek optimumun komşuluğunu keşfetmeniz gerekir.

Sormaya utanıyorum, yığınlar nedir?

Hayır, demek istediğim nöronun bir yerde takılıp kalmadığından nasıl emin olabiliyorsunuz? Sıkışmaya karşı direnç açısından test ediliyor mu?

 
Andrey Dik #:

Sormaya utanıyorum, parti nedir?

Hayır, yani nöronun bir yere takılıp kalmadığından nasıl emin olabiliyorsunuz? Takılmaya karşı direnci test ediliyor mu?

Örneğin erken durdurma yoluyla yeni veriler üzerinde test edilir.

Eğitim verilerinde hata düştüğünde ve yeni verilerde büyümeye başladığında. Yeni verilerde büyümeye başlamadığı sürece, henüz takılmadığı anlamına gelir.

gruplar eğitim için veri paketleridir: tüm veri kümesini bir kerede eğitmek gerekli değildir, verileri paketlere bölebilir ve her iterasyonda eğitebilirsiniz.

Her bir paketteki optimum değerler farklı olacağından, ortalama hepsi için optimumdan daha az bir şey olacaktır.

Prensipte optimumun ne olduğuna karar vermek biraz zordur. Ve eğer örnek kaydırılmışsa, ne yapmalı? Kaydırılmış bir alt örnekte bu global optimum nasıl bulunur?

Eğer soru prensipte optimizasyon algoritmalarıyla ilgiliyse, sormakta haklısınız. Ancak o zaman örnekleri kaydırmaya başlarsınız ki bu da bu sorudan daha fazla sorun yaratır.

Eğer teoriden pratiğe biraz geçerseniz :)

 
Maxim Dmitrievsky #:

yeni veriler üzerinde, örneğin erken durdurma yoluyla test edilir.

eğitim verilerinde hata düştüğünde ve yeni verilerde büyümeye başladığında. Yeni verilerde büyümeye başlamadığı sürece, henüz takılıp kalmadığımız anlamına gelir

yığınlar eğitim için veri paketleridir: tüm veri kümesini bir kerede eğitmek gerekli değildir, verileri paketlere bölebilir ve her yinelemede eğitebilirsiniz.

Her bir paketin optimumu farklı olacağından, ortalama, hepsi için optimalden daha az bir şey olacaktır.

Prensipte optimumun ne olduğuna karar vermek biraz zor. Ve eğer örnek kaydırılmışsa, ne yapmalı? Kaydırılmış bir alt örnekte bu global optimum nasıl bulunur?

Eğer soru prensip olarak optimizasyon algoritmalarıyla ilgiliyse, sormakta haklısınız. Ancak o zaman örnekleri değiştirmeye başlarsınız ki bu da bu sorudan daha fazla sorun yaratır.

teoriden pratiğe biraz geçerseniz :)

ah, ilk cevabınızı doğru anlamışım. sıkışma direncini kontrol etmenin bir yolu yok.

"Eğitimde hata düşer ve yenilerde artmaya başlar" dediğiniz şey bir sıkışma testi değil, sadece eğitimi durdurmak için bir kriterdir.

benim sorum buradaki insanların nöronları eğitmek için kullandıkları optimizasyon algoritmaları ile ilgili, ikinci aşama olan yeni veriler üzerinde nöronların kararlılığını artırmakla ilgili değil. yani, ilk aşama burada hiç tartışılmadı henüz))))

 
Andrey Dik #:

İlk cevabınızı doğru anlamışım. Parazit direncini test etmenin bir yolu yok.

"Eğitilenlerde hatanın düşmesi ve yenilerde artmaya başlaması" hakkında söyledikleriniz bir sıkışma testi değil, sadece eğitimi durdurmak için bir kriterdir.

Benim sorum, buradaki insanların nöronları eğitmek için kullandıkları optimizasyon algoritmaları ile ilgili, ikinci aşama olan yeni veriler üzerinde nöronların kararlılığını artırmakla ilgili değil. aslında, ilk aşama burada hiç tartışılmadı henüz))))

Sanki evet, tartışılmamış gibi. Nöronlarda en popüler olan Adam optimizasyon algoritmasıdır. Belki bunu da bir şekilde test edebilirsiniz
 
Maxim Dmitrievsky #:
Şey, bir bakıma, evet, tartışılmadı. Nöronlarda en popüler olan Adam optimizasyon algoritmasıdır. Belki bunu da bir şekilde test edebilirsiniz

İşte, hiç tartışılmadı.

Pratikte bu, nöronun yetersiz eğitileceği anlamına gelir, yani yeni verilerdeki hata, daha reçel dirençli bir AO kullanıldığında olduğundan daha erken büyümeye başlayacaktır.