Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1194

 
Ve sonra, öğrenme algoritması, mantık kelimesini 0,5 oranında parçalamak için keskinleştirilir - bu nedenle, birikimin oradaki ana şey olması mantıklı görünüyor.
 
Alexey Vyazmikin :
Ve sonra, öğrenme algoritması, mantık kelimesini 0,5 oranında parçalamak için keskinleştirilir - bu nedenle, birikimin oradaki ana şey olması mantıklı görünüyor.

logloss'a bakmak genellikle neredeyse işe yaramaz, bu sınıflara ayırma açısından anlamsız bir ölçümdür

 
Maksim Dmitrievski :

bir olayın olasılığı ne kadar yüksekse, sinyal o kadar doğru, hatta tanımdan geliyor gibi görünüyor :) 2 tümsek gürültülü verilerde olmayacak, ancak model en azından uç değerleri yeterince yakalamalı, aksi takdirde asla emin olamaz girdiler hakkında hiç

Her şeyin o kadar basit olmadığını düşünüyorum, öğrenme fonksiyonunu hesaba katmanız gerekiyor ... çünkü olasılık genellikle göstergelerinden sonra hesaplanıyor (model algoritmasında, yani).

Şimdiye kadar, gerçekler bana bulaşmış modelin kendinden emin olmadığını, ancak henüz merkezde bir başarısızlıkla karşılaşmadığını söylüyor ...

Maksim Dmitrievski :

logloss'a bakmak genellikle neredeyse işe yaramaz, bu sınıflara ayırma açısından anlamsız bir ölçümdür

Gradyan iniş takip eder...
 
Alexey Vyazmikin :

Her şeyin o kadar basit olmadığını düşünüyorum, öğrenme işlevini hesaba katmanız gerekiyor ... çünkü olasılık genellikle göstergelerinden sonra hesaplanır.

Şimdiye kadar, gerçekler bana bulaşmış modelin kendinden emin olmadığını, ancak henüz merkezde bir başarısızlıkla karşılaşmadığını söylüyor ...

Terminolojiyi anlamıyorum, öğrenme işlevi nedir? Sonunda softmax var mı?

Başarısızlığı bilmiyorum, ancak belirsiz bir model yeni veriler üzerinde doğru şekilde çalışmayacak ve bir olasılık eşiği belirlerseniz lekeli bir model onu sürükleyecektir.

 
Maksim Dmitrievski :

Terminolojiyi anlamıyorum, öğrenme işlevi nedir? Sonunda softmax var mı?

Burada model, mantıksal ifadeye göre değerlendirilir ve tüm gradyan artırma eylemleri bu işlevin performansını iyileştirmeyi amaçlar. Modelin kendisi, lojistik fonksiyon aracılığıyla dönüştürülmesi gereken değerleri üretir. Bu nedenle, olasılıkla bu yöntemde her şeyin o kadar basit olmadığını kabul ediyorum ...

 
Alexey Vyazmikin :

Burada model, mantıksal ifadeye göre değerlendirilir ve tüm gradyan artırma eylemleri bu işlevin performansını iyileştirmeyi amaçlar. Modelin kendisi, lojistik fonksiyon aracılığıyla dönüştürülmesi gereken değerleri üretir. Bu nedenle, bir olasılıkla bu yöntemde her şeyin o kadar basit olmadığını kabul ediyorum ...

min ve max fonksiyonları var, logitin kenarlarında aşık olacaklar .. eğer orada değillerse, o zaman bu içliktir ya da şeytan ne olduğunu bilir (Giyimdeyken her zaman buna sahibim, örneğin birkaç nöron var veya ağaçlar) ve büyük bir sınıflandırma hatası ve mantık

 
Maksim Dmitrievski :

min ve max fonksiyonları var, logitin kenarlarında aşık olacaklar .. eğer orada değillerse, o zaman bu içliktir ya da şeytan ne olduğunu bilir (Giyimdeyken her zaman buna sahibim, örneğin birkaç nöron var veya ağaçlar) ve büyük bir sınıflandırma hatası ve mantık

Burada, https://en.wikipedia.org/wiki/Logit modelini veren bu katsayılar hakkında - doğrusal bir dağılım yoktur.

Bana öyle geliyor ki, özellikle 1. sınıfa odaklanırsanız ve sınıflandırmaya giren doğru sınıflandırılmış hedeflerin büyük bir yüzdesini alırsanız ve ancak o zaman modelleri birleştirebilir ve uygulama alanlarını sınırlayabilirsiniz.

Logit - Wikipedia
Logit - Wikipedia
  • en.wikipedia.org
In deep learning, the term logits layer is popularly used for the last neuron layer of neural network for classification task which produces raw prediction values as real numbers ranging from [3]. If p is a probability, then is the corresponding odds; the logit of the probability is the logarithm of the odds, i.e. logit ⁡ ( p ) = log ⁡...
 
Alexey Vyazmikin :

Burada, https://en.wikipedia.org/wiki/Logit modelini veren bu katsayılar hakkında - doğrusal bir dağılım yoktur.

Bana öyle geliyor ki, özellikle 1. sınıfa odaklanırsanız ve sınıflandırmaya giren doğru sınıflandırılmış hedeflerin büyük bir yüzdesini alırsanız ve ancak o zaman modelleri birleştirebilir ve uygulama alanlarını sınırlayabilirsiniz.

Kısacası.

kırmızı çarpık bence az çok normal görünüyor

ve alt eğitim hiç bir şey değil ... 0,5 bölgesinde

modeli çalıştırma sürecinde Bayes, koşullu olasılıklar tarafından önyargı çıkarılabilir. Tam olarak nasıl - Henüz çözemedim, ancak sezgisel olarak bunda bilinmeyen bir güç hissediliyor

Bayes modelleri yeniden eğitilebilir .. ya sık sık yeniden eğitmemek için modele bir Bayes ipucu koyarsanız .. gelmedi mi?

 
Maksim Dmitrievski :

Kısacası.

kırmızı çarpık, bence az çok normal görünüyor

ve alt eğitim hiç bir şey değil ... 0,5 bölgesinde

modeli çalıştırma sürecinde Bayes, koşullu olasılıklar tarafından önyargı çıkarılabilir. Tam olarak nasıl - Henüz çözemedim, ancak sezgisel olarak bunda bilinmeyen bir güç hissediliyor

Bayes modelleri yeniden eğitilebilir.. Ya sık sık yeniden eğitmemek için modele bir Bayes ipucu koyarsanız .. Henüz düşünmedim

Evet, ben de kırmızıyı daha çok seviyorum - normal bir dağılım gibi ve hepsi bu, ama şimdiye kadar 512 modelde bu dağılım gözle kaybediyor ... yakında 100.000 mertebesinde birçok model olacak - bakalım ne gösterecekler . .. bazen teori ve pratik bir araya gelmez - uyum sağlamanız gerekir, aksi takdirde dişlerinizi böyle rafa koyabilirsiniz ...

Catboost sadece Bayes'tir ve yeniden eğitimi destekler, ancak bilmiyorum - durmadan ağaç ekleyerek - uygun görünüyor ...

 
Maksim Dmitrievski :

Tüm yapıyı yeniden düzenlemeden ağaç eklemek bir şekilde garip .. veya belki normları söylemek zor .. normların küçük bir perspektifi için, öyle görünüyor ki, sadece mb'nin merkezini değiştirmek için

Ve başka nasıl daha fazlasını öğrenebilirsiniz - artırmada, anladığım kadarıyla, tek seçenek bu. Elbette, modelin son üçte birini - ağaçların üçte birini - atabilir ve yeni veriler gönderildiğinde ne olduğunu görebilirsiniz. Ancak, yaprakları önemsiz "olasılıklarla" sıfırlamayı düşünüyorum - tabiri caizse gürültüyü temizlemek. Genel olarak, toplulukların modellerden toplanmasını otomatikleştirmeyi düşünüyorum, bu yüzden modelde iyi bir tahmin yeteneği buldum - üzerindeki sınıflandırmayı öldürdüm (örneğin, 0,7 ila 0,8 arasında) ve boşluklara koydum. diğer modeller arasındaki kombinasyonlar.