Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3354

 
Aleksey Vyazmikin #:

Model olasılıkları, eğitim örneğindeki istatistikler tarafından verilir.

Buna göre, temsili bir örneklem olmadan bunlar doğru değildir, bu yüzden bunu aşın :)

Ya modelin nelerden oluştuğunu bulun ve yaprakları kendi geliştirdiğiniz algoritmaya göre yeniden ağırlıklandırın....

Modelin olasılıkları sigmoid tarafından verilir, bu değil. Basitlik uğruna, dışarıda ne olursa olsun pisti ve şaftı alırsınız. Ve orada bile, bir takılma yaşarsınız.
 
Maxim Dmitrievsky #:
Modelin olasılıkları sigmoid ile verilir, bununla değil.

Peki, fonksiyona hangi sayıyı koyuyorsunuz, nereden geliyor?

 
Aleksey Vyazmikin #:

Evet, peki, fonksiyona hangi sayıyı koyuyorsunuz, nereden geliyor?

Bir soruya soruyla mı cevap vereceksin? Kesin cevabı biliyorum, eğer bir şey varsa.
 
Modellerin çıktısında elde ettiğiniz şey sınıf olasılıkları değildir. Bir benzetme yapacak olursak, regresyon tek bir değer verir. Bir sınıflandırıcı aynı prensiple çalışır, bir sigmoidden geçirilmiş ham bir değer verir, bir olasılık değil.

Olasılık nasıl elde edilir?
 
Maxim Dmitrievsky #:
Sınıflandırıcının doğru olasılıkları verdiğini nasıl anladınız? Sadece bir aralıktaki değerleri değil. Size yazılanları okuyor musunuz?

Eğer 0,8'lik bir eşik belirlerseniz, işlemlerin %80'i karlı olacak mı? Peki ya 0,51 ise?

Yapmayacağınız neredeyse kesin. Şuna bir bakın.

Birçok kez kontrol ettim. Bu TC'nin temelidir.

Tekrar ediyorum, eğer değilse, yeniden eğitilir.

 
Maxim Dmitrievsky #:
Modellerin çıktısında elde ettiğiniz şey sınıf olasılıkları değildir. Bir benzerlik, tek bir değer veren regresyondur. Sınıflandırıcı da aynı prensiple çalışır, bir sigmoidden geçirilmiş ham bir değer verir, bir olasılık değil.

Olasılık nasıl elde edilir?

Sigmoidden geçerek sınıfı elde ederiz, sınıfın olasılığını değil.

 
СанСаныч Фоменко #:

Sigmoidden geçerek bir sınıf elde ederiz, sınıfın olasılığını değil.

Olasılık olarak adlandırılan ama aslında öyle olmayan bir değer elde ederiz.
 
СанСаныч Фоменко #:

Birçok kez kontrol ettim. TC'nin temeli bu.

Tekrar ediyorum, eğer değilse, yeniden eğitilir.

Sizin sözünüze inanmıyorum, bunun için testler var.
 
Maxim Dmitrievsky #:
Bir soruya soruyla mı cevap vereceksiniz? Kesin cevabı biliyorum, eğer varsa.
Maxim Dmitrievsky #:
Modellerin çıktısında elde ettiğiniz şey sınıfların olasılıkları değildir. Bir benzetme, tek bir değer veren regresyondur. Bir sınıflandırıcı aynı prensiple çalışır, bir sigmoidden geçirilmiş ham bir değer verir, bir olasılık değil.

Olasılık nasıl elde edilir?

CB model yapraklarında değerin nasıl elde edildiğini biliyor musunuz, yeniden üretebilir misiniz?

Mesele şu ki, olasılıklar tarih tarafından tahmin edilir, ancak yalnızca temsili bir örneğe sahip bir teori böyle olmaya devam edeceklerini garanti edebilir. Bizim böyle bir örneklemimiz yok. Dolayısıyla, bu yönde yapılacak herhangi bir düzeltme yeni veriler üzerinde doğruluk sağlamayacaktır. Düzeltme, yapraklarda döküntü olması nedeniyle ilgili olabilir ve sigmoid sınıflandırma noktasını fazla veya az tahmin ederek düzeltilmesi gereken şey budur.

Ya da yine, bunun neyle ilgili olduğu açık değil.

Eğer akıllıca bir şey bulduysanız, lütfen paylaşın :)

 
Aleksey Vyazmikin #:

CB model yapraklarındaki değerin nasıl elde edildiğini biliyor musunuz, yeniden üretebilir misiniz?

Mesele şu ki, geçmiş olasılıklar tahmin edilir, ancak yalnızca temsili bir örnekleme sahip bir teori bunların böyle olmaya devam edeceğini garanti edebilir. Bizim böyle bir örneklemimiz yok. Bu nedenle, bu yöndeki herhangi bir ayarlama yeni veriler üzerinde doğruluk sağlamayacaktır. Düzeltme, enkazın yaprakların içine girmesi nedeniyle söz konusu olabilir ve sigmoid sınıflandırma noktasının bağımlılığı ya da küçümsenmesi yoluyla düzeltilmesi gereken de budur.

Ya da yine ne hakkında konuştuğumuz belli değil.

Akıllıca bir şey bulduysanız paylaşın :)

Birinin en azından ipucunu google'da aratacağını umuyordum.

Eğitiminizde olasılık eğrileri olsa bile, hangi yeni verilerden bahsedebiliriz. Ve bousting ve forrest bununla çok günah işliyor. Bousting aşırı güven, Forrest ise az güven. Tabii ki eşiği kullanmayı planlıyorsanız.

Eşiği artırdığınızda, işlemlerin kalitesinin traine üzerinde bile iyileşmediğini gözlemledim. O zaman modelin geri dönüş olasılığı nedir? Hiçbir şey :)

Sanych'in resminde, kendine güvenen patlama, kenar sütun aykırı değerlerinden görebilirsiniz. Oluk daha düzgün olmalıdır. Bu bir aşırı uyum modelidir.