Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2315

 
Maksim Dmitrievski :
Gerçek şu ki, bunu bu şekilde açıklıyorlar, Napolyonlara durke'de sormak daha kolay

kuantum fiziğinde tahmin yok, belirsizlikler, kuyu veya olasılıklar var)))

 
Valeriy Yastremskiy :

kuantum fiziğinde tahmin yok, belirsizlikler, kuyu veya olasılıklar var)))

kapsam etkilenmiş gibi görünüyor, ancak hiç açıklanmadı. Bunun yerine, kadının şirketinden bir çeşit yulaf lapası başladı.

 
Maksim Dmitrievski :

kapsam etkilenmiş gibi görünüyor, ancak hiç açıklanmadı. Bunun yerine, kadının şirketinden bir çeşit yulaf lapası başladı.

AI ve AI hakkındaki günümüzün saçmalıklarının yüzde yüzden birinden daha azı bilime düşecek ....

Kabul ediyorum?

 
Valeriy Yastremskiy :

AI ve AI hakkındaki günümüzün saçmalıklarından yüzde yüzden azı bilime düşecek ....

Kabul ediyorum?

hangi bilime bağlı)

yeniden eğitimin ilginç püf noktaları var, ancak bunları açıklamadılar ve bununla ilgili başka nerede okuyacağımı henüz bulamadım
 
Maksim Dmitrievski :

hangi bilime bağlı)

yeniden eğitimin ilginç püf noktaları var, ancak bunları açıklamadılar ve bununla ilgili başka nerede okuyacağımı henüz bulamadım

bilim, kullanılan bilgidir. bilimin adı ne olursa olsun) bilginin ara sonuçları kalmayacak)))

 
Maksim Dmitrievski :

belirsizlik tahmini ilginç bir şey


Orada bir makaleye bağlantı var - ilk bakışta sadece sıradan Bayes artı normal dağılımlar.

Uncertainty in Gradient Boosting via Ensembles
  • arxiv.org
For many practical, high-risk applications, it is essential to quantify uncertainty in a model's predictions to avoid costly mistakes. While predictive uncertainty is widely studied for neural networks, the topic seems to be under-explored for models based on gradient boosting. However, gradient boosting often achieves state-of-the-art results on tabular data. This work examines a probabilistic ensemble-based framework for deriving uncertainty estimates in the predictions of gradient boosting classification and regression models. We conducted experiments on a range of synthetic and real datasets and investigated the applicability of ensemble approaches to gradient boosting models that are themselves ensembles of decision trees. Our analysis shows that ensembles of gradient boosting models successfully detect anomaly inputs while having limited ability to improve the predicted total uncertainty. Importantly, we also propose a concept of a \emph{virtual} ensemble to get the...
 
Alexey Nikolaev :

Orada bir makaleye bağlantı var - ilk bakışta sadece sıradan Bayes artı normal dağılımlar.

sadece sınıflandırma sonuçlarının daha iyi olması için hangi düğmeye basacağımı bulana kadar

regresyon için sadece bir örnek

Önem örneklemesinin varsayılan olarak maksimum gradyan için kullanıldığını fark ettim (yeni bir özellik gibi)

yoksa sadece varsayılan olarak yerleşik mi ve hiçbir şey yapılması gerekmiyor mu?

bu arada, catboost yeniden eğitim açısından çok havalı .. onu yeniden eğitmeye zorlamak çok zor. Veri kümesi g ... ise, o zaman zayıf öğrenecek ve tüm seçenekleri hatırlamayacaktır.
 

başka bir video izliyorum


 
Valeriy Yastremskiy :

bilim, kullanılan bilgidir. bilimin adı ne olursa olsun) bilginin ara sonuçları kalmayacak)))

peki, orada olduğu gibi, bilgiyle her şey yolunda, sadece uygulama alanlarına bakmanız gerekiyor

artırma algoritmasının kendisi çok havalı kalır. Stüdyosu olan daha normal hoparlörler olsaydı
 
Maksim Dmitrievski :

peki, orada olduğu gibi, bilgiyle her şey yolunda, sadece uygulama alanlarına bakmanız gerekiyor

artırma algoritmasının kendisi çok havalı kalır. Stüdyosu olan daha normal hoparlörler olsaydı

sofistlik her şeydir))) ara bilgi olmadan, bilgi olmaz) ara bir aşamada, her şey olabilir, genellikle değişim zamanları Güvenlik Konseyi'ne benzer)))