Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1334

 
Alexey Vyazmikin :

MGUA'ya baktım, özellikle hangi kitaba atıfta bulunduğunu bilmiyorum ama o başlığı aramıyorum. Anladığım kadarıyla bu şey CatBoost'ta kullanılıyor

--l2-yaprak-reg

l2-yaprak düzenleyici

L2 düzenlileştirme katsayısı. Yaprak değeri hesaplaması için kullanılır.

Herhangi bir pozitif değere izin verilir.

3

CPU ve GPU


Yoksa başka bir şeyden mi bahsediyoruz? Bu yöntem, örneğin belirli alanlardaki kalıpları tanımlamak için tahmin edicileri oluştururken de kullanılabilir.

Peki, bu Tikhonov'un düzenlemesi, ama sıcaklık nerede?

 
Maksim Dmitrievski :

Peki, bu Tikhonov'un düzenlemesi, ama sıcaklık nerede?

Ama anlam aynı gibi görünüyor, değil mi? Sadece algoritmanın içinde ne olduğunu bilmiyorum...

-- torbalama -sıcaklık

Bayes önyüklemesinin ayarlarını tanımlar. Sınıflandırma ve regresyon modlarında varsayılan olarak kullanılır.

Nesnelere rastgele ağırlıklar atamak için Bayes önyüklemesini kullanın.

Bu parametrenin değeri olarak ayarlanırsa, ağırlıklar üstel dağılımdan örneklenir.   "1" . Bu parametrenin değeri olarak ayarlanırsa tüm ağırlıklar 1'e eşittir.   "0" .

olası değerler aralıktadır   . Değer ne kadar yüksek olursa, torbalama o kadar agresif olur.

1
 
Alexey Vyazmikin :

Ama anlam aynı gibi görünüyor, değil mi? Sadece algoritmanın içinde ne olduğunu bilmiyorum...

-- torbalama sıcaklığı

Bayes önyüklemesinin ayarlarını tanımlar. Sınıflandırma ve regresyon modlarında varsayılan olarak kullanılır.

Nesnelere rastgele ağırlıklar atamak için Bayes önyüklemesini kullanın.

Bu parametrenin değeri olarak ayarlanırsa, ağırlıklar üstel dağılımdan örneklenir.   "1" . Bu parametrenin değeri olarak ayarlanırsa tüm ağırlıklar 1'e eşittir.   "0" .

olası değerler aralıktadır   . Değer ne kadar yüksek olursa, torbalama o kadar agresif olur.

1

o farklı tabii

pek çok özellik olduğunda, muhtemelen

modeli biraz değiştirecek, saf ince ayar artık yok

detaylar okunmalı, genel olarak anlaşılabilir ama pencereye kadar değil

 

Bu arada, daha önce bahsettiğim dersleri, genel olarak XGboost'a ihtiyacı olan python'da örneklerle buldum. Orada veya sonraki derslerde, düzenlileştirme de tartışılmaktadır.


 
Maksim Dmitrievski :

o farklı tabii

pek çok özellik olduğunda, muhtemelen

modeli biraz değiştirecek, saf ince ayar artık yok

Bakalım yayılma ne olacak - bugün veya yarın başka bir 100k model daha olacak, bu parametreyi numaralandırmada kullanıp kullanmamaya karar vereceğim...

 
Alexey Vyazmikin :

Bakalım yayılma ne olacak - bugün veya yarın başka bir 100k model daha olacak, bu parametreyi numaralandırmada kullanıp kullanmamaya karar vereceğim...

Parametreler açısından neden normal talimat yok? Henüz katb kullanmıyorum, başka bir şey hakkında okuyorum

 
Maksim Dmitrievski :

Parametreler açısından neden normal talimat yok? Henüz katb kullanmıyorum, başka bir şey hakkında okuyorum

Eh, tek şey ayarlar ve kısa bir açıklama ile açıklamaları olan iyi bilinen bir video.

 
Alexey Vyazmikin :

Yakından bakarsanız, bir örnekteki modellerin finansal sonuçlarının çok farklı olabileceğini görebilirsiniz - 5000'den 1500'e, yani. önemli ölçüde, bu da Seed'in modeller üzerinde hala bir etkisi olduğu anlamına gelir. Seçilen modellerin benzer olduğunu varsayacağım (kontrol edeceğim), ancak biraz farklı kâr bölümlerine sahipler, ancak neredeyse herkesin modelin ortasında bir dairesi var, bu şaşırtıcı - aynı hata yapıyorlar bölümler (yeni verilerde bir anormallik?).

İçinde belirli bir och olan bir kutunuz var. tepelik manzara. Oraya çok fazla top atıyoruz (bu tohum) ve görevimiz topların çoğunun en derin boşluklara düşmesini sağlamak. Bu eğitim olacak ve bu prensibe göre Moskova Bölgesi'nde eğitim düzenleniyor.

1. Kutuyu hafifçe sallarsak, topların çoğu düştükleri boşlukları terk edemez - öğrenme gerçekleşmez.

2. Kutuyu kuvvetlice sallarsak, bazı topların çarpma ve yalnızca en derin boşluklarda kalma şansı olur, ancak daha sığ olanlar doldurulmamış kalacaktır, çünkü Oradan toplar çıkacak. Tam öğrenme olmayacak.

3. Kutuyu orta kuvvetle sallarsak, sadece derin ve orta boşluklar doldurulur, ancak geri kalan toplar hiçbir şey bulamaz ve kutunun etrafında rastgele zıplamaya devam eder. Eğitim 1 ve 2'den daha iyidir, ancak buzdan da değildir.

Antrenman yöntemlerinde her zaman ayarlar vardır - en etkili eğitimi almak için kutuyu tam olarak nasıl ve ne zaman sallayacağınız.

Farklı "tohumlar" bir araya gelmezse, o zaman ya öğrenme algoritmasında bir sorun var - böyle sallanmıyorsunuz ya da kutumuzda yakalayabileceğiniz derin çöküntüler yok.

 
Yuri Asaulenko :

İçinde belirli bir och olan bir kutunuz var. tepelik manzara. Oraya çok fazla top atıyoruz (bu tohum) ve görevimiz topların çoğunun en derin boşluklara düşmesini sağlamak. Bu eğitim olacak ve bu prensibe göre Moskova Bölgesi'nde eğitim düzenleniyor.

1. Kutuyu hafifçe sallarsak, topların çoğu düştükleri boşlukları terk edemez - öğrenme gerçekleşmez.

2. Kutuyu kuvvetlice sallarsak, bazı topların çarpma ve yalnızca en derin boşluklarda kalma şansı olur, ancak daha sığ olanlar doldurulmamış kalacaktır, çünkü Oradan toplar çıkacak. Tam öğrenme olmayacak.

3. Kutuyu orta kuvvetle sallarsak, sadece derin ve orta boşluklar doldurulur, ancak geri kalan toplar hiçbir şey bulamaz ve kutunun etrafında rastgele zıplamaya devam eder. Eğitim 1 ve 2'den daha iyidir, ancak buzdan da değildir.

Antrenman yöntemlerinde her zaman ayarlar vardır - en etkili eğitimi almak için kutuyu tam olarak nasıl ve ne zaman sallayacağınız.

Farklı "tohumlar" bir araya gelmezse, o zaman ya öğrenme algoritmasında bir sorun var - böyle sallanmıyorsunuz ya da kutumuzda yakalayabileceğiniz derin çöküntüler yok.

veya bir ayakkabı kutusu)

balonlarla iyi bir açıklama

iyi bir kutu kendini sallar

 
Yuri Asaulenko :

İçinde belirli bir och olan bir kutunuz var. tepelik manzara. Oraya çok fazla top atıyoruz (bu tohum) ve görevimiz topların çoğunun en derin boşluklara düşmesini sağlamak. Bu eğitim olacak ve bu prensibe göre Moskova Bölgesi'nde eğitim düzenleniyor.

1. Kutuyu hafifçe sallarsak, topların çoğu düştükleri boşlukları terk edemez - öğrenme gerçekleşmez.

2. Kutuyu kuvvetlice sallarsak, bazı topların çarpma ve yalnızca en derin boşluklarda kalma şansı olur, ancak daha sığ olanlar doldurulmamış kalacaktır, çünkü Oradan toplar çıkacak. Tam öğrenme olmayacak.

3. Kutuyu orta kuvvetle sallarsak, sadece derin ve orta boşluklar doldurulur, ancak geri kalan toplar hiçbir şey bulamaz ve kutunun etrafında rastgele zıplamaya devam eder. Eğitim 1 ve 2'den daha iyidir, ancak buzdan da değildir.

Antrenman yöntemlerinde her zaman ayarlar vardır - en etkili eğitimi almak için kutuyu tam olarak nasıl ve ne zaman sallayacağınız.

Farklı "tohumlar" bir araya gelmezse, o zaman ya öğrenme algoritmasında bir sorun var - böyle sallanmıyorsunuz ya da kutumuzda yakalayabileceğiniz derin çöküntüler yok.

Bu iyi bir soyutlamadır, eğer derin çukurlar ile, eğitimin durduğu, doğrulamalara minimum hata ile yanıtları kastediyorsak, bu, doğrulama kümesinin boyutunda bir artışla daha iyi sonuçlar elde ettiği gerçeğini de açıklayabilir ve bu, olmak. soyut kabartmanın boyutunda ve buna bağlı olarak depresyon sayısındaki resmi bir artışın sonucu.