Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3341

 
Maxim Dmitrievsky #:

AB gerçekten C'nin mi yoksa bir dizi başka harfin miortaya çıkmasına neden olur?

İşte soru bu, görünürde bir ilişki var...
Bunun sadece bir ilişki mi yoksa AB'nin gerçekten C'ye neden olup olmadığı nasıl anlaşılır?

 
Maxim Dmitrievsky #:

Sonuçta, google'dan yasaklanmadınız, değil mi? İstatistiksel çıkarımın nedensel çıkarımdan nasıl farklı olduğunu okuyabiliyorsunuz, değil mi?

Maxim Dmitrievsky #:
Sadede gelelim: İlişkisel ve nedensel çıkarım arasındaki fark nedir?

Yazar, doğrusal regresyonun uygulanabilirlik sınırlarını belirtme zahmetine girmiştir. Eksi puan.

Meta öğrenciler bir model topluluğu değildir, eksi bir nokta.

Kitabın başka hangi bölümüne katılmıyorsunuz ya da daha doğrusu kitaptan başka neyi anlamadınız?

Elbette siz en büyük gurusunuz ve insanlara puan verebilirsiniz, ancak ben yapamam, bir kez daha özel olarak yanıt vermenizi bekleyerek özel olarak yazıyorum.


Kitabın başka hangi bölümüne katılmıyorsunuz ya da daha doğrusu kitaptan başka neyi anlamadınız?

Hiçbir yerde katılmadığımı yazmadım.

İyi bilinen kavramlar için yeni etiketlere karşıyım

Hepsi orada ve bilinen şeylerinüzerine sis koymak çok yararsız.

Yazar, doğrusal regresyonun uygulanabilirliğinin sınırlarını belirtme zahmetine girmiştir. Eksi bir puan.

Metinde göremedim:

1. doğrusal regresyon durağan rastgele süreçlere uygulanabilir

2. Doğrusal regresyonun uydurulmasından elde edilen artık normal dağılımlı olmalıdır.

Eğer örneklerinde durum böyle değilse ve bunun tersi belirtilmemişse, o zaman tüm akıl yürütmelerinin bir önemi kalmaz.

Kitaptaki neden-sonuç ilişkisine dair tüm akıl yürütmeler olağan "yanlış korelasyon" akıl yürütmeleridir


Meta Öğrenicilerbir modeller topluluğu değildir, eksi puan.

Kitabın metnine göre,"Meta öğrenciler" geleneksel modellere uymanın/tahmin etmenin sonucu/sonucudur. Yazar en sıradan kavramları bir kez daha yeni etiketlerle etiketlememiş olsaydı, düşüncelerimi daha doğru ifade etme fırsatım olabilirdi.

Bu yüzden açıklığa kavuşturacağım.

Modeller topluluğu eski ve köklü bir fikirdir. Girdi, daha düşük seviyeli modellerin çıktısıdır, çıktı ise bir sinyaldir. Daha düşük seviyeli modellerin sonuçlarını birleştirmenin - "meta öğrenicileri" birleştirmenin - birçok yöntemi vardır. Yazar, fitting sonuçlarını birleştirmenin üç varyantını ele almaktadır; ikinci ve üçüncü varyantlar gradyan bousting modelinin sonuçlarını birleştirmektedir. Üçüncü varyantta, birinci seviyenin çıktıları, ikinci seviyenin çıktılarına göre birleştirilir.

İşte bu anlaşılmaz metin tüm bunların anlamı, yeniliğidir:

def ps_predict(df, t): 
    return g.predict_proba(df[X])[:, t]
    
    
x_cate_train = (ps_predict(train,1)*mx0.predict(train[X]) +
                ps_predict(train,0)*mx1.predict(train[X]))

x_cate_test = test.assign(cate=(ps_predict(test,1)*mx0.predict(test[X]) +
                                ps_predict(test,0)*mx1.predict(test[X])))
 
mytarmailS #:

Asıl soru da bu, görünüşte bir ilişki var...
Bunun sadece bir ilişki mi yoksa gerçekten AB'nin C'ye neden olup olmadığını nasıl anlarsınız?

Bu çizgilerin hemen bilinip bilinmediği ya da her seferinde bir harfin görünüp görünmediği açık değildir. Bu harflerin ortaya çıkmasına ne sebep oluyor? Eğer bu sadece bir dizi örüntü ise, görev çok resmi görünmüyor. Dize uzunluğu neden seçildi ve tüm bunlar. Belki de veriler doğru biçimde temsil edilmemiştir.

Kitabı okuyun, belki cevabı bulursunuz.

 

Sanych, kozul karmaşık bir konudur, sadece herkes bir bakışta anlayamaz. Eğer bir şeyi anlamıyorsanız, bu orada yanlış yazılmış bir şey olduğu anlamına gelmez.

Eğer istemiyorsanız acı çekmeyin. Aksi takdirde boncuklarla ilgili kıssadaki gibi olur.

 
Maxim Dmitrievsky #:

Sanych, kozul karmaşık bir konu, sadece herkes bir bakışta anlayamaz. Eğer bir şeyi anlamıyorsanız, bu orada yanlış yazılmış bir şey olduğu anlamına gelmez.

İstemiyorsanız acı çekmeyin.

Kozul - bu bir reklam hamlesidir ve tüm kitap matematiksel istatistiğin en olağan hükümlerinin alışılmadık yeniliğinin reklamından başka bir şey değildir. Ancak matematiksel istatistik gerçekten zor bir konudur.

İşte yüzlerce sayfalık metnin sonucu:

To the code at last! First, we have the first stage, which is exactly the same as the T-Learner.

from sklearn.linear_model import LogisticRegression

np.random.seed(123)

# first stage models
m0 = LGBMRegressor(max_depth=2, min_child_samples=30)
m1 = LGBMRegressor(max_depth=2, min_child_samples=30)

# propensity score model
g = LogisticRegression(solver="lbfgs", penalty='none') 

m0.fit(train.query(f"{T}==0")[X], train.query(f"{T}==0")[y])
m1.fit(train.query(f"{T}==1")[X], train.query(f"{T}==1")[y])
                       
g.fit(train[X], train[T]);
Now, we impute the treatment effect and fit the second stage models on them.

d_train = np.where(train[T]==0,
                   m1.predict(train[X]) - train[y],
                   train[y] - m0.predict(train[X]))

# second stage
mx0 = LGBMRegressor(max_depth=2, min_child_samples=30)
mx1 = LGBMRegressor(max_depth=2, min_child_samples=30)

mx0.fit(train.query(f"{T}==0")[X], d_train[train[T]==0])
mx1.fit(train.query(f"{T}==1")[X], d_train[train[T]==1]);
Finally, we make corrected predictions using the propensity score model.

def ps_predict(df, t): 
    return g.predict_proba(df[X])[:, t]
    
    
x_cate_train = (ps_predict(train,1)*mx0.predict(train[X]) +
                ps_predict(train,0)*mx1.predict(train[X]))

x_cate_test = test.assign(cate=(ps_predict(test,1)*mx0.predict(test[X]) +
                                ps_predict(test,0)*mx1.predict(test[X])))

Programlamadan anladığım kadarıyla, verilen kod çalışan kod DEĞİL: nereden geldiği belli olmayan fonksiyonlar, sonuçlar hiçbir şeye atanmamış, fonksiyon argümanları sıfırdan.

 
"...onu ayaklarıyla çiğnemesinler ve dönüp seni yıkmasınlar diye"
 

Maxim esaslı bir tartışma yapmaktan aciz.

Forumda verdiğim kitaptaki kodun kopyasını anlayan biri var mı?

Ben kendim birkaç modelin sonuçlarını birleştirmek için farklı yaklaşımlar uyguluyorum, biliyorum ama daha fazlasını uygulamıyorum, ancak belki de kodun anlaşılmazlığı nedeniyle benzer bir şey görmedim.

 
😀😀😀

İnkâr aşaması, yani sürprizden sonraki aşama sona ermeye başladı mı? Uzun zaman alıyor. Kabullenme aşaması ne zaman başlayacak?
 

Kitapların ekinde, tüm bu cajuela'nın tamamen yararsızlığından bahseden harika bir bölüm:

"

Tahmin Ölçütleri Nedensel Modeller İçin Neden Tehlikelidir".

ve bölümün sonuç kısmı:

Başka bir deyişle, rastgele bir veri kümesi üzerindeki tahmin performansı, bir modelin nedensel çıkarım için ne kadar iyi olduğu konusundaki tercihimizi tercüme etmez .


Yandex çeviri

Nedensel modeller için tahmin performansı neden tehlikelidir?

Başka bir deyişle, rastgele bir veri kümesi üzerindeki tahmin performansı, bir modelin nedensel çıkarım için ne kadar iyi olduğu konusundaki tercihimizi değiştirmez


Yani yazar için en önemli şey nedensel çıkarımın kendisidir ve bunu kullanmaya çalışmak tüm yapının güzelliğini bozar.

Hile!

 
Bu sadece aşırı eğitimli modeller aracılığıyla, çok sayıda karıştırıcı ile nedensel çıkarımın karmaşık olduğunu söylüyor. Bu konuda birkaç kez yazdım. Ve bu son derece doğal . Optimist insanlar bile bu kadar basit şeyler hakkında tartışıyor. Tabii eğer okursanız ve bağlamından koparmazsanız.

Ama saçmalayanlarla herhangi bir şeyi tartışmak hiç de komik değil. Çok dar görüşlüsünüz. Öğretmenin kim olduğunu bilmeseniz ve topluluk ile staking'i karıştırsanız bile.

Matstat'ı kozul'dan bile ayırt edemiyorsunuz, sizin için her şey aynı (cehaletten dolayı).

Zaman açısından genel olarak MO ile ne kadar zamandır ilgileniyorsunuz? Tamamen boş bir ilgi. Kendiniz bir sınıflandırıcı yazabilir veya Pytorch gibi bir yapıcıdan rastgele bir mimariye sahip bir NS oluşturabilir misiniz? Ya da en azından kendi test cihazınızı? Bu karanlıkla kaplı bir gizem.

Yani, kitabın yazarına neye karşı çıkabilirsiniz? Örneğin neden o değil de siz dinlenmelisiniz)?