Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3092

 
mytarmailS #:

Bilirsiniz, kar ve zarar, değil mi?

Bu yüzden pozisyon açık olduğunda bu eyaletlerden geri dönüşler alıyoruz.

Evet.

mytarmailS #:

Farklı TS ayarları yerine sadece farklı bölümlerde ticaret yapacağım, bence eşitlenebilir.

Emin değilim.

Ve genel olarak. ne yaptığınızı anlamak için makaleyi okuyun, sınırlamalar var. Örneğin, -1000000 ila +1000000 değil, açıkça başarılı ayarları vermek gerekir. Her şeyi arka arkaya verirseniz, ortalama OOS en altta olacaktır ve bununla karşılaştırmanın bir anlamı yoktur. 0,95...,0,98 gibi çok dar bir aralık da DR açısından kötüdür - sonuçlar çok yakın olacaktır.

 
Forester #:

Evet.

emin değilim.

Ve genel olarak. ne yaptığınızı anlamak için makaleyi okuyun, sınırlamalar var. Örneğin, -1000000 ila +1000000 değil, açıkça başarılı ayarları vermek gerekir. Her şeyi arka arkaya verirseniz, ortalama OOS en altta olacaktır ve bununla karşılaştırmanın bir anlamı yoktur. 0.95...,0.98 gibi çok dar bir aralık da kötüdür - sonuçlar çok yakın olacaktır.

Sadece herhangi bir şey değil.... karlı bir TS göndermeniz gerektiğini anlıyorum.


Bu şeyi test etmek için algoritmayı zaten özetledim, ancak metriklerle ilgili tek bir nüans var


4+1 metriğin tümünü optimize etmeli miyim?

 p_bo      slope       ar^2     p_loss 
 0.1666667  2.1796000 -0.2100000  0.1670000 
+

прибыль


Ya da sadece

 p_bp  + прибыль


 
Ancak eğitim olmadan çapraz doğrulamayı nasıl yaptıklarını anlamıyorum. Sadece hazır bir getiri setini besliyorlar ve ardından 12000 varyant üzerinde karıştırıyorlar. Bu 12000 IS'nin her biri üzerinde eğitilmeli ve karşılık gelen her bir OOS üzerinde tahmin edilmelidir.
 
mytarmailS #:

Kârlı bir TC dosyalamanız gerektiğini anlıyorum, herhangi bir şey değil.


Bu şeyi test etmek için algoritmayı zaten özetledim, ancak metriklerle ilgili tek bir nüans var.


4+1 metriğin tümünü optimize etmem gerekiyor


Ya da sadece


Bilmiyorum. Sanırım herhangi biri.
 
Forester #:
Ancak eğitim olmadan çapraz doğrulamayı nasıl yaptıklarını anlamıyorum. Sadece hazır bir getiri setini besliyorlar ve ardından 12000 varyant üzerinde karıştırıyorlar. Her bir 12000 IS üzerinde eğitilmeli ve karşılık gelen her bir OOS üzerinde tahmin edilmelidir.

Bu şekilde eğitilir.

Belki de pakete bakmanın zamanı gelmiştir.

 
mytarmailS #:

Bu şekilde öğretiliyor.

Orman/NS hiperparametreleri nerede? Yok, bu yüzden eğitilmiyor. Tahmin ediciler de beslenmiyor.
Sanırım sadece harici model tahminlerinin kararlılığını değerlendiriyor.
 
Forester #:
Orman/NS hiperparametreleri nerede? Hayır - yani eğitim değil. Tahmin ediciler de beslenmiyor.
Sanırım sadece harici model tahminlerinin kararlılığını değerlendiriyor.

Anladığım kadarıyla doğrusal regresyon yoluyla istikrarı tahmin ediyor.

Makalede ormanlar/NS hakkında bir şey var mı?
 

Yarışma hakkında biraz anlamıyorum. Profsreda, profsreda değil, bir görev var ve görevin doğruluğunun tartışılması daha alakalı ve doğruysa neden olmasın?

Holivar'ın tüm katılımcılarının görüşlerine saygı duyuyorum ama benim başka))))))

Harici veya diğer parametreler olmadan her şey çok karmaşıktır veya daha ziyade sürekli hareket makinesine yakındır))))) Ancak harici parametrelerle aynı büyük sorun)

Ortalamaya dönüş anlaşılması en kolay ve ebedi olanıdır ve küçük tf'lerde hataların daha az olduğu açıktır, ancak Saber keneleri de siyah kuğular verir)))))

 
mytarmailS #:

Anladığım kadarıyla doğrusal regresyon yoluyla kararlılığı tahmin ediyor

Makalede ormanlar/NS hakkında bir şey var mı?

Ya da belki basittir? Rattle gibi mi?

İki dosya alıyoruz, birincisi büyük, ikincisi daha küçük olabilir, ancak birincisine göre en son tarihlerle.

İlk dosyayı rastgele örnekleme ile üç bölüme ayırıyoruz: 70/15/15 oranlarında eğitim, test, doğrulama.

Eğitimde, örneğin 5 kat ile çapraz doğrulama ile öğretiyoruz. Eğer bir kat minimum 1500 çubuk ise, o zaman train = 7500 çubuktur. Bir daire içinde iki kaynak dosya için 15000 çubuk yeterli olacaktır.

Eğitilen modeli test, doğrulama üzerinde çalıştırırız ve her birinde bir sınıflandırma hatası alır ız.

Sonra ikinci dosya üzerinde 1500 bar penceresini çalıştırıyoruz. Sınıflandırma hatasını toplayın.

Elde edilen TÜM sınıflandırma hataları %5 kanalına giriyorsa, her şey yolundadır: elde edilen sınıflandırma hatasına güvenebiliriz ve yeniden eğitime gerek yoktur.

 
СанСаныч Фоменко #:

Basit tutmaya ne dersiniz?

Göreceğiz.


Öncelikle algoritmayı çalıştırmayı ve test etmeyi denemelisiniz, eğer çalışmazsa o zaman atın ve unutun... %99.

Çalışırsa, makaleyi inceleyebilir, yöntemi inceleyebilir, %1'ini geliştirmeye / değiştirmeye / değiştirmeye çalışabilirsiniz.