Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3022

 
Maxim Dmitrievsky #:
Böyle bir gelişmeye ihtiyacımız yok, Lexus'larla dolu bir garaja ihtiyacımız var.

Pazarın ne olduğunu anlamadan bir paket makarna bile olmaz.

 
mytarmailS #:

Pazarın ne olduğunu anlamadan bir paket makarna bile olmaz.

FF, Lexus'ların olduğu bir garaj, başka nasıl açıklayabilirim bilmiyorum.
 
Maxim Dmitrievsky #:
FF, Lexus'un olduğu bir garaj. Başka nasıl açıklayabilirim bilmiyorum.

Sana açıklamak zorunda değilim. Ben koca adamım.

Senin bir fikrin var, benim başka.

Benim fikrim benim deneyimim, bunu kelimelerle değiştiremezsin.

 
mytarmailS #:

Açıklamama gerek yok. Ben büyük bir çocuğum.

Senin bir fikrin var, benim başka.

Benim fikrim benim deneyimim, kelimeler bunu değiştiremez.

Üzücü olan şu ki, bu bir görüş değil, bir gerçek.
FF yerine kel bir şeytan çizebilir ve bunu uygun hale getirebilirsiniz.
 
Maxim Dmitrievsky #:
Üzücü olan şu ki, bu bir görüş değil, bir gerçek.
FF yerine kel bir şeytan çizebilir ve ona uyacak şekilde ayarlayabilirsiniz

Şu anda ne tür bir saçmalık söylediğinin farkında bile değilsin))))

Sanki mt'deki optimize edici bir optimize edici değilmiş ve FF'yi optimize etmiyormuş gibi

 
mytarmailS #:

şu anda söylediğin saçmalıkların farkında bile değilsin).

Sanki mt'deki optimize edici bir optimize edici değilmiş ve FF'yi optimize etmiyormuş gibi.

Bunun Mt ile ne alakası var? Hiç üretim optimizasyonu diye bir şey duydunuz mu? Birbirine bağlı gerçek süreçleriniz olduğunda, ancak verimliliği artırmanız gerektiğinde.

Bitmiş bir model için sl/tp optimizasyonu ile aynı şey.

Ve FF kullanarak bir çöp yığınından kel bir şeytan yaratıyorsunuz.

Gerçekten, bitirelim, bu saçmalık, sanki bir okul çocuğuyla konuşuyormuşum gibi.
 

R için TORCH kitabı nihayet çıktı.

Geleceğin DL sihirbazları varsa, bunun için gidin.

 
Rorschach #:

Bu yaklaşımı denediniz mi? (sayfanın yaklaşık yarısındaki Model Yorumlama bölümüne bakın)

Bağlantı için teşekkürler - sonunda python'da deney yapmaya başladığımda çok faydalı olacak!

Anladığım kadarıyla bu kitabın yeni bir sunum tarzı mı? Başka bir materyal var mı?

Soruyu cevaplamak gerekirse - yaprak ayıklama yaparken doğrudan hiçbir şey kullanılmadı.

Karar ağaçlarından oluşan bir ormanla çalışmadım, bu nedenle önerildiği gibi prensipte bir dizi teknik kullanmadım. Bununla birlikte, benzer bir şey kullandım, örneğin belirli bir yaprağın hata varyansının tahmini, topluluktaki bir yaprağın ağırlığını belirlemek için kullanıldı.

Tahmin edicilerin bölünme tahmini üzerindeki önemi CatBoost'ta da mevcuttur, ancak gradyan bousting'de ağaçlar bağımlı ve sıralı olduğu için göstergelere ilişkin anlayışınızı ayarlamanız gerekir. Metriğin kendisi ağaç yapısını değerlendirdiği için oldukça tartışmalıdır ve açgözlü prensibi tüm veriler için iyi çalışmaz. Bununla birlikte, CatBoost modelleri için tahmin edicileri seçmek üzere 8 örnek aralığında yüz modelden alınan puanların ortalamasını kullandım - ortalama olarak bu yöntem eğitim sonuçlarını iyileştirdi. Deney bu başlıkta ayrıntılı olarak yayınlanmıştır.

Önerilen versiyonda frekans korelasyonunu denemedim - ikili tahmin edicileri ve yaprakları gruplamak için kendi yöntemimi icat ettim, bu da çok benzer ikili tahmin edicileri ve yaprakları atmaya izin veriyor. Algoritmam optimal olmadığı için python uygulamasının daha hızlı çalışması gerektiğini düşünüyorum - anlamak için karşılaştırılmalıdır.

Çok değişmiş tahmincileri seçme fikri meşgul görünüyor, denemeliyim. Ama aslında yukarıda anlattığım deneyde, bunu sadece son eğitim için bu tür tahmin edicileri almayarak yaptım. Bir değişkenin tarihsel davranışına dayalı olarak değişme eğiliminin nasıl tespit edileceğini ve dalgalanmaların tahmin edicinin olasılık dağılımının ortalama aralığındaki bir değişikliğe geri döndürülemez bir şekilde kaydığı anı anlamak daha iyi olacaktır. Kağıt üzerinde fikirlerimiz var - bunları kodlamamız gerekiyor.

Her bir tahmin edicinin belirli bir satır için çözüme katkısını görselleştirme olarak değerlendirmek eğlencelidir, ancak çok sayıda model tahmin edicisi için çok az faydası vardır. Bununla birlikte, benzer bir şey yaptım - burada bir küme gönderdim - burada lith yanıtının renkle önemini ve modeldeki kaç yaprağın her satırı tahmin etmek için kullanıldığını vurguladım. Yaprakların çoğunun modelde aktif hale gelmediği, yani desenlerin hiç oluşmadığı ortaya çıktı - çok az insan bunu düşünüyor bile.

Burada dile getirilen herhangi bir fikri kaçırdım mı? Evet ise, lütfen özellikle yazın - onları açıklayacağım ya da açıklamayacağım.

Sinir ağlarında kullanılmak üzere kategorik özelliklerin kodlanması fikrini anlamadım - geçmiş materyale bir atıf var.

 
Slava #:

Anladım. Kayıp fonksiyonları vektörlerle olduğu gibi matrislerle de çalışır. Bu yerde bitirmedik (eksen parametresini eklemedik)

Yani, örneğinizde bunu satır satır çözmeniz gerekir.

İlginiz için teşekkür ederiz

Tamam, anladım. Ancak vektörlerle, özellikle de LOSS_BCE ile ilgili bir sorun var:

double bce(const vector &truth, vector &pred)
{
   double sum = 0;
   pred.Clip(DBL_EPSILON, 1 - DBL_EPSILON);
   const int n = (int)truth.Size();
   for(int i = 0; i < n; ++i)
   {
      sum += truth[i] * MathLog(pred[i]) + (1 - truth[i]) * MathLog(1 - pred[i]);
   }
   return sum / -n;
}

void OnStart()
{
   vector actual_values = {0, 1, 0, 0, 0, 0};
   vector predicted_values = {.5, .7, .2, .3, .5, .6};     // 0.53984624 - keras (correct answer)
   Print(actual_values.Loss(predicted_values, LOSS_BCE));  // 0.6798329317196582 - mql5 API
   Print(bce(actual_values, predicted_values));            // 0.5398464220309535 - custom
}

Yine API sonucu beklenen sonuçla eşleşmiyor.

 
Aleksey Vyazmikin #:

Bağlantı için teşekkürler - sonunda python'da denemeler yapmaya başladığımda çok faydalı olacak!

Anladığım kadarıyla bu kitabın yeni bir sunum tarzı mı? Başka materyal var mı?

Soruyu yanıtlamak gerekirse - yaprak seçimi yapılırken hiçbir şey doğrudan kullanılmadı.

Karar ağaçlarından oluşan bir ormanla çalışmadım, bu nedenle prensipte önerildiği gibi bir dizi teknik kullanmadım. Bununla birlikte, benzer bir şey kullandım, örneğin, topluluktaki bir yaprağın ağırlığını belirlemek için belirli bir yaprağın hata varyansının tahminini kullandım.

Tahmin edicilerin bölünme tahmini üzerindeki önemi CatBoost'ta da mevcuttur, ancak gradyan bousting'de ağaçlar bağımlı ve sıralı olduğundan göstergelere ilişkin anlayışınızı ayarlamanız gerekir. Ağaç yapısını değerlendirdiği ve açgözlülük ilkesi tüm veriler için iyi çalışmadığı için metriğin kendisi oldukça tartışmalıdır. Bununla birlikte, CatBoost modelleri için tahmin edicileri seçmek üzere 8 örnek aralığında yüz modelden alınan puanların ortalamasını kullandım - ortalama olarak bu yöntem eğitim sonuçlarını iyileştirdi. Deney bu başlıkta ayrıntılı olarak yayınlanmıştır.

Önerilen versiyonda frekans korelasyonunu denemedim - ikili tahmin edicileri ve yaprakları gruplamak için kendi yöntemimi icat ettim, bu da çok benzer ikili tahmin edicileri ve yaprakları atmaya izin veriyor. Algoritmam optimal olmadığı için python uygulamasının daha hızlı çalışması gerektiğini düşünüyorum - anlamak için karşılaştırılmalıdır.

Yüksek oranda değişen tahmin edicileri seçme fikri meşgul görünüyor, bunu denemeliyim. Ama aslında yukarıda anlattığım deneyde, bunu sadece son eğitim için bu tür tahmin edicileri almayarak yaptım. Bir değişkenin tarihsel davranışına dayalı olarak değişme eğiliminin nasıl tespit edileceğini ve dalgalanmaların tahmin edicinin olasılık dağılımının ortalama aralığındaki bir değişikliğe geri döndürülemez bir şekilde kaydığı anı anlamak daha iyi olacaktır. Kağıt üzerinde fikirlerim var - onları kodlamam gerekiyor.

Her bir tahmin edicinin belirli bir satır için çözüme katkısını görselleştirme şeklinde değerlendirmek eğlencelidir, ancak çok sayıda model tahmin edicisi için çok az faydası vardır. Bununla birlikte, benzer bir şey yaptım - burada başlıkta bir kümesini yayınladım - burada lith yanıtının renge göre önemini ve modeldeki kaç yaprağın her satırı tahmin etmek için kullanıldığını vurguladım. Yaprakların çoğunun modelde aktifleşmeyi bıraktığı, yani desenlerin hiç oluşmadığı ortaya çıktı - çok az insan bunu düşünüyor bile.

Orada dile getirilen herhangi bir fikri kaçırdım mı? Varsa, lütfen özellikle yazın - onları açıklayacağım ya da açıklamayacağım.

Sinir ağlarında kullanılmak üzere kategorik özelliklerin kodlanması fikrini anlamadım - geçmiş materyallere bir referans var.

Bu kolayca otomatikleştirilir ve insan müdahalesi olmadan çalışır

Son makalede benzer bir algoritma göstermiştim.

Özünde, model hatalarını filtrelemek ve onları ayrı bir sınıfa koymak "ticaret yapmayın", taneleri samandan ayırmayı öğrenen ikinci model aracılığıyla daha iyi.

ve sadece taneler ilk modelde kalır.

Ağaç kurallarında olduğu gibi, ama yandan. Ancak kurallar soyulmalı ve birbirleriyle karşılaştırılmalıdır ve orada çıktı rafine edilmiş bir TC'dir.

Örneğin, samandan tahıl seçmenin ilk iterasyonu (dikey noktalı çizginin solunda - OOS):

Ve işte 10: