Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3356

 
Maxim Dmitrievsky #:
Birinin en azından ipucunu Google'da aratacağını umuyordum.

Eğitiminizde olasılık eğrileri olsa bile, hangi yeni verilerden bahsedebilirsiniz. Bousting ve Forrest bu konuda büyük günah işliyor. Busting aşırı güven, Forrest ise az güven demektir. Tabii ki eşiği kullanmayı planlıyorsanız.

Eşiği artırdığınızda, işlemlerin kalitesinin traine üzerinde bile iyileşmediğini gözlemledim. O zaman modelin geri dönüş olasılığı nedir? Hiçbir şey :)

Sanych'in resminde kendine güvenen bir patlama var, kenar sütun aykırı değerlerinden görebilirsiniz. Çukur daha düzgün olmalıdır. Bu bir aşırı eğitim modelidir.

Modelin sonucunu 0.05 adımlı "olasılık" aralıklarında gösterir. CatBoost, sınıf ayrımını oldukça doğru bir şekilde 0,5'e koyuyor (magnetta 1, aqua 0).

Yüzgeç sonucunun 0,35'ten itibaren pozitif olduğunu görebilirsiniz - yeşil eğri kırmızı eğrinin üzerinde yükselir.

Kalibre etmek istediğiniz şey bu mu - sınıf ayrımı noktasını gelir yaratma noktasına kaydırmak?

 
Aleksey Vyazmikin #:

Kalibre etmek istediğiniz şey tam olarak bu mu - sınıfsal bölünme noktasını gelir yaratma noktasına kaydırmak?

Hayır.
 
La. 30 kere sorabilirsin ama Google'da aratamazsın.
 
Maxim Dmitrievsky #:
Hayır.

O zaman amaç ne?

 

Sanırım herkes kalibrasyon hakkında bir şeyler duymuştur, ancak tam da örnek temsil edici olmadığı için pratikte bir faydası yoktur.

Bence tek tek yaprakların olasılıksal tahmini, modelin yapraklarının toplamını yeniden ağırlıklandırmaktan daha makul bir sonuç verir.

 
Aleksey Vyazmikin #:

Sanırım herkes kalibrasyonu duymuştur, ancak örnek temsil edici olmadığı için pratik bir faydası yoktur.

Bence tek tek yaprakların olasılıksal tahmini, modelin yapraklarının toplamının yeniden ağırlıklandırılmasından daha makul bir sonuç verir.

Herkes her şeyi duydu ama kimse hiçbir şeye yanıt vermedi. Açıklanmayan diğer nüanslardan bahsetmiyorum bile, sadece durumun böyle olduğu tahmin ediliyor.

Ve eğer zayıf (düşük beklentili), ancak OOS modelinde kararlı bir modeliniz varsa, kalibre etmenin de bir anlamı yok mu? Ve eğer düşünürseniz.
 
Maxim Dmitrievsky #:
Herkes her şeyi duydu ama kimse hiçbir şeye cevap vermedi. Açıklanmayan, ancak sadece bunun olduğu tahmin edilen diğer nüanslardan bahsetmiyorum bile.

Ve eğer zayıf (düşük beklentili) ancak OOS modelinde istikrarlı bir modeliniz varsa, onu da kalibre etmenin bir anlamı yok mu? Ve eğer düşünürseniz.

Şimdi, her aralık için EMA gibi bir ağırlık ile sabit kalibrasyon fikrini buldum. O zaman en azından piyasa oynaklığına ve model eskimesine adaptasyonun bir etkisi olacaktır.

Bazı ayrı veriler üzerinde statik kalibrasyonda herhangi bir anlam görmüyorum. Tahmin edicilerimde istatistiksel göstergelerin istikrarı konusunu araştırdım ve bu tür göstergeler çok az ve model bu tür düzensiz tahmin edicilerle dolu. Bu yüzden böyle bir şeyin uygulanabileceği bir kararlılık arıyorum.....

Yukarıdaki ekran görüntüsünde modeli kesit olarak gösterdim - kenarlardaki Recall'ın genellikle ne kadar düşük olduğunu görebilirsiniz, bu da zaten aynı ağırlıklandırma için eşit istatistiksel ölçülerden bahsetmiyor ve çoğu zaman teoride bile bu "olasılık" aralığında istikrar hakkında konuşmak için yeterli olmayacaklar. Dolayısıyla bu açıdan da toplamın kalibre edilmesi şüpheli bir fikir gibi görünüyor.

Yapraklardaki değerlerin yeniden ağırlıklandırılması fikriyle daha çok ilgileniyorum, ancak bu konuda daha önce yazmıştım, ancak burada herhangi bir geri bildirim almadım - bu yüzden hepsi kendi başıma....

 
Yine bazı yeni tanımlar.
Son kez söylüyorum: sınıflandırıcı yanlış olasılıklar ürettiği için kalibre edilmiştir. Orijinal halleriyle anlamsızdırlar. Aş artık bunu.
 
Catbusta'nın açık bir kodu vardır - tam olarak ne verildiğini bilmek için ona bakabilirsiniz.