Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2292

 
Rorschach :

Partiyi hesaplamak için ikinci bir ağ çıkışı yapın. Veya ağ güvenini çok çarpan olarak kullanın.

ortalama alma ve ızgaralar her zaman parti büyüklüğü ile ilgili değildir

 
Maksim Dmitrievski :

artışlarla bir gürültü

1 seferlik artışlarla 24 dönemlik döngüleri nasıl buluyorsunuz?

Kolayca. Artışlara geçiş farklılaşmadır. Frekansların genliklerinin oranı değişir, ancak hiçbir yerde kaybolmazlar. Daha da iyisi, yavaş döngüler hızlı olanları tıkamaz, vuruşlarla filtreleme yapmaya gerek yoktur.

 
Maksim Dmitrievski :

artışlarla bir gürültü

1 seferlik artışlarla 24 dönemlik döngüleri nasıl buluyorsunuz?

pencere 48

 
Alexey Mavrin :

Meslektaşlarım, bana deneyimlerimden anlatın.

Kendime bir soru sordum - öğrenme sürecinde girdi katmanının (girdiler normalleştirildi) ağırlıklarını izlemek mantıklı mı? Girdilerin önemini değerlendirmek için gerçekten bir şey veriyor mu?

kütüphaneyi şuradan kullanıyorum   Dmitry Gizlyk   deneyler için.

R veya Python'a veri yükleyerek her türlü iyi göstergeyi hesaplayabileceğinizi biliyorum. Ancak henüz onlara ulaşmadı ve video kartındaki çözümünün neredeyse "uçması" uygun.

Genel olarak, girdilerin ağırlıklarını izlemek basitlik açısından mantıklı mı, yoksa her durumda, önce girdi verilerinin ayrıntılı bir analizini yapmalısınız?

Girdilerin ön analizi için iskele kullanabilirsiniz.

 
Maksim Dmitrievski :

tanımaların etkisini ağırlıklar aracılığıyla değerlendirmek mümkündür.

Anlaşıldı, ağırlık ne kadar büyükse, etki de o kadar büyük olur. Ve daha fazla bilgi alınabilir mi?

Örneğin, problemin daha iyi bir çözümü olmadığını veya dışbükey olmadığını anlamak için (eğer terimi karıştırmıyorsam). belki bir şekilde ağırlıklar sonsuza gidecek veya belki aynı ağ hatalarıyla ağırlıklar tutarsız bir şekilde değişebilir (yani belirli bir girdide çok küçüktür ve daha sonra başka bir öğrenme yaklaşımında (yeniden başlayarak) tam tersine, çok büyük) vb.

Şimdilik, iki sınıfın asimetrik olarak dağıtıldığı (birinin %60'ından fazlası) ve ızgaraların vakaların %100'ünde bir sınıf vererek "yandığı" bir görevle pratik olarak mücadele ediyorum.

Girilen verileri farklı şekillerde filtrelerim ve yeni verileri seçerim. soru, "kötü" girdileri filtrelemede yardımcı olabilir; bu girdiler, girdileri tamamen atmak veya farklı şekilde filtrelemek için.

 
Rorschach :

Girdilerin ön analizi için iskele kullanabilirsiniz.

Evet, biliyorum, R'de yaptım, uzun süre ileri geri gitmek için fazla tembelim. ve MT5'teki Alglib, buna normalde pervaz olmadan izin veriyor mu?

Ancak, girdilerin ağırlıklarına bakarsanız, birkaç öğrenme döneminin hemen harekete geçeceğini düşündüm.

 
Alexey Mavrin :

Anlaşıldı, ağırlık ne kadar büyükse, etki de o kadar büyük olur. Ve daha fazla bilgi alınabilir mi?

Örneğin, problemin daha iyi bir çözümü olmadığını veya dışbükey olmadığını anlamak için (eğer terimi karıştırmıyorsam). belki bir şekilde ağırlıklar sonsuza gidecek veya belki aynı ağ hatalarıyla ağırlıklar tutarsız bir şekilde değişebilir (yani belirli bir girdide çok küçüktür ve daha sonra başka bir öğrenme yaklaşımında (yeniden başlayarak) tam tersine, çok büyük) vb.

Şimdilik, iki sınıfın asimetrik olarak dağıtıldığı (birinin %60'ından fazlası) ve ızgaraların vakaların %100'ünde bir sınıf vererek "yandığı" bir görevle pratik olarak mücadele ediyorum.

Girilen verileri farklı şekillerde filtrelerim ve yeni verileri seçerim. soru, "kötü" girdileri filtrelemede yardımcı olabilir; bu girdiler, girdileri tamamen atmak veya farklı şekilde filtrelemek için.

mümkün olan çok şey var, soda demeyeceğim çünkü. özel var hisse.

sınıflar NS için dengeli olmalıdır. Eksik örnekleri ekleyin

 
Alexey Mavrin :

Evet, biliyorum, R'de yaptım, uzun süre ileri geri gitmek için fazla tembelim. ve MT5'teki Alglib, buna normalde pervaz olmadan izin veriyor mu?

Python öğrensen iyi olur.

Alexey Mavrin :

Şimdilik, iki sınıfın asimetrik olarak dağıtıldığı (birinin %60'ından fazlası) ve ızgaraların vakaların %100'ünde bir sınıf vererek "yandığı" bir görevle pratik olarak mücadele ediyorum.

Nadir bir sınıfın daha fazla puan alması için sınıfları dengeleyin veya metriği yeniden yapın

 
Rorschach :

Kolayca. Artışlara geçiş farklılaşmadır. Frekansların genliklerinin oranı değişir, ancak hiçbir yerde kaybolmazlar. Daha da iyisi, yavaş döngüler hızlı olanları tıkamaz, vuruşlarla filtreleme yapmaya gerek yoktur.

o zaman neden bulamadığınız garip, çünkü kolay

 
Maksim Dmitrievski :

o zaman neden bulamadığınız garip, çünkü kolay

sinüzoidler üzerinde deney yapana kadar anlamayacaksınız