Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1194
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Ve sonra, öğrenme algoritması, mantık kelimesini 0,5 oranında parçalamak için keskinleştirilir - bu nedenle, birikimin oradaki ana şey olması mantıklı görünüyor.
logloss'a bakmak genellikle neredeyse işe yaramaz, bu sınıflara ayırma açısından anlamsız bir ölçümdür
bir olayın olasılığı ne kadar yüksekse, sinyal o kadar doğru, hatta tanımdan geliyor gibi görünüyor :) 2 tümsek gürültülü verilerde olmayacak, ancak model en azından uç değerleri yeterince yakalamalı, aksi takdirde asla emin olamaz girdiler hakkında hiç
Her şeyin o kadar basit olmadığını düşünüyorum, öğrenme fonksiyonunu hesaba katmanız gerekiyor ... çünkü olasılık genellikle göstergelerinden sonra hesaplanıyor (model algoritmasında, yani).
Şimdiye kadar, gerçekler bana bulaşmış modelin kendinden emin olmadığını, ancak henüz merkezde bir başarısızlıkla karşılaşmadığını söylüyor ...
logloss'a bakmak genellikle neredeyse işe yaramaz, bu sınıflara ayırma açısından anlamsız bir ölçümdür
Her şeyin o kadar basit olmadığını düşünüyorum, öğrenme işlevini hesaba katmanız gerekiyor ... çünkü olasılık genellikle göstergelerinden sonra hesaplanır.
Şimdiye kadar, gerçekler bana bulaşmış modelin kendinden emin olmadığını, ancak henüz merkezde bir başarısızlıkla karşılaşmadığını söylüyor ...
Terminolojiyi anlamıyorum, öğrenme işlevi nedir? Sonunda softmax var mı?
Başarısızlığı bilmiyorum, ancak belirsiz bir model yeni veriler üzerinde doğru şekilde çalışmayacak ve bir olasılık eşiği belirlerseniz lekeli bir model onu sürükleyecektir.
Terminolojiyi anlamıyorum, öğrenme işlevi nedir? Sonunda softmax var mı?
Burada model, mantıksal ifadeye göre değerlendirilir ve tüm gradyan artırma eylemleri bu işlevin performansını iyileştirmeyi amaçlar. Modelin kendisi, lojistik fonksiyon aracılığıyla dönüştürülmesi gereken değerleri üretir. Bu nedenle, olasılıkla bu yöntemde her şeyin o kadar basit olmadığını kabul ediyorum ...
Burada model, mantıksal ifadeye göre değerlendirilir ve tüm gradyan artırma eylemleri bu işlevin performansını iyileştirmeyi amaçlar. Modelin kendisi, lojistik fonksiyon aracılığıyla dönüştürülmesi gereken değerleri üretir. Bu nedenle, bir olasılıkla bu yöntemde her şeyin o kadar basit olmadığını kabul ediyorum ...
min ve max fonksiyonları var, logitin kenarlarında aşık olacaklar .. eğer orada değillerse, o zaman bu içliktir ya da şeytan ne olduğunu bilir (Giyimdeyken her zaman buna sahibim, örneğin birkaç nöron var veya ağaçlar) ve büyük bir sınıflandırma hatası ve mantık
min ve max fonksiyonları var, logitin kenarlarında aşık olacaklar .. eğer orada değillerse, o zaman bu içliktir ya da şeytan ne olduğunu bilir (Giyimdeyken her zaman buna sahibim, örneğin birkaç nöron var veya ağaçlar) ve büyük bir sınıflandırma hatası ve mantık
Burada, https://en.wikipedia.org/wiki/Logit modelini veren bu katsayılar hakkında - doğrusal bir dağılım yoktur.
Bana öyle geliyor ki, özellikle 1. sınıfa odaklanırsanız ve sınıflandırmaya giren doğru sınıflandırılmış hedeflerin büyük bir yüzdesini alırsanız ve ancak o zaman modelleri birleştirebilir ve uygulama alanlarını sınırlayabilirsiniz.
Burada, https://en.wikipedia.org/wiki/Logit modelini veren bu katsayılar hakkında - doğrusal bir dağılım yoktur.
Bana öyle geliyor ki, özellikle 1. sınıfa odaklanırsanız ve sınıflandırmaya giren doğru sınıflandırılmış hedeflerin büyük bir yüzdesini alırsanız ve ancak o zaman modelleri birleştirebilir ve uygulama alanlarını sınırlayabilirsiniz.
Kısacası.
kırmızı çarpık bence az çok normal görünüyor
ve alt eğitim hiç bir şey değil ... 0,5 bölgesinde
modeli çalıştırma sürecinde Bayes, koşullu olasılıklar tarafından önyargı çıkarılabilir. Tam olarak nasıl - Henüz çözemedim, ancak sezgisel olarak bunda bilinmeyen bir güç hissediliyor
Bayes modelleri yeniden eğitilebilir .. ya sık sık yeniden eğitmemek için modele bir Bayes ipucu koyarsanız .. gelmedi mi?
Kısacası.
kırmızı çarpık, bence az çok normal görünüyor
ve alt eğitim hiç bir şey değil ... 0,5 bölgesinde
modeli çalıştırma sürecinde Bayes, koşullu olasılıklar tarafından önyargı çıkarılabilir. Tam olarak nasıl - Henüz çözemedim, ancak sezgisel olarak bunda bilinmeyen bir güç hissediliyor
Bayes modelleri yeniden eğitilebilir.. Ya sık sık yeniden eğitmemek için modele bir Bayes ipucu koyarsanız .. Henüz düşünmedim
Evet, ben de kırmızıyı daha çok seviyorum - normal bir dağılım gibi ve hepsi bu, ama şimdiye kadar 512 modelde bu dağılım gözle kaybediyor ... yakında 100.000 mertebesinde birçok model olacak - bakalım ne gösterecekler . .. bazen teori ve pratik bir araya gelmez - uyum sağlamanız gerekir, aksi takdirde dişlerinizi böyle rafa koyabilirsiniz ...
Catboost sadece Bayes'tir ve yeniden eğitimi destekler, ancak bilmiyorum - durmadan ağaç ekleyerek - uygun görünüyor ...
Tüm yapıyı yeniden düzenlemeden ağaç eklemek bir şekilde garip .. veya belki normları söylemek zor .. normların küçük bir perspektifi için, öyle görünüyor ki, sadece mb'nin merkezini değiştirmek için
Ve başka nasıl daha fazlasını öğrenebilirsiniz - artırmada, anladığım kadarıyla, tek seçenek bu. Elbette, modelin son üçte birini - ağaçların üçte birini - atabilir ve yeni veriler gönderildiğinde ne olduğunu görebilirsiniz. Ancak, yaprakları önemsiz "olasılıklarla" sıfırlamayı düşünüyorum - tabiri caizse gürültüyü temizlemek. Genel olarak, toplulukların modellerden toplanmasını otomatikleştirmeyi düşünüyorum, bu yüzden modelde iyi bir tahmin yeteneği buldum - üzerindeki sınıflandırmayı öldürdüm (örneğin, 0,7 ila 0,8 arasında) ve boşluklara koydum. diğer modeller arasındaki kombinasyonlar.