Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3081

 

Bu makale, önemsiz sonuçların reklam tanıtımının mükemmel bir örneğidir.

"Ned ensel Etkileri" başlığı geri kalmışlığımızı yüzümüze vuruyor, çünkü çeşitli sinüsleri incelerken bunun Nedensel Etkilerinin giriş verilerinin sinüs girişine beslenip sonuç alınmasının bir sonucu olduğunu fark etmemiştik.

Yazar RF'yi alıyor, girişe giriş verisi veriyor ve sonuç olarak bir hata alıyor.

Herkesin MO'da tamamen yeni bir yönle uğraştığımızı anlamasını sağlamak için, girdi verilerine (tahmin edicilere) ortak değişkenler, RF algoritmasına meta öğrenici ve tüm sürece Nedensel Etkiler denir.

Nedensel Etk iler savunucuları, bazen Rusça'da ortak değişkenlerin yalnızca hedef değişken üzerinde değil, aynı zamanda komşu tahmin ediciler üzerinde de etkisi olan tahmin ediciler olduğunun farkında değildir, yani belirsizliği önlemek için terim daha kesin bir şekilde kullanılmalıdır.

RF algoritmasını bir "meta öğrenici" olarak adlandırmak, Nedensel Etkileri'ndeki bir başka tanıtım gösterisidir, çünkü bu algoritma kesinlikle bir öğrenici DEĞİLDİR. Ancak makine öğreniminde reklamcılık açısından bakıldığında öğreniciler olmalı ve "meta" ve basta'nın önemi için.

Makale, temel algoritma olarak RF seçimini biraz ayrıntılı olarak gerekçelendiriyor ve özellikleRF yerine herhangi bir (?) MO algoritmasının kullanılabileceğini belirtiyor. Bu düşüncenin bir genellemesi olarak, sıkıntı, yani tatsız, iğrenç, can sık ıcı terimi kullanılmaktadır. Metin olarak ise, muhtemelen "gürültünün bir fonksiyonu" olarak çevrilmelidir, yani RF algoritması bir "gürültü fonksiyonudur". Ama kulağa ne kadar karmaşık ve güzel geliyor ve en önemlisi, daha önce RF 'nin bazı hatalarla kurallar ürettiğini düşünen okuyucu bundan hoşlanıyor.

Devam edebiliriz, ancak yukarıdakiler tüm bu Nedensel Etkileri saf reklama yönlendirmek için yeterlidir, bu arada çok başarılı, gerçek saçmalık satıldığında ve Stanford Üniversitesi'nde profesör olarak yer aldığında, yeni gelişmiş trendlere ayak uydurmak isteyen takipçileri var.

Peki, ME'deki sözde en yeni ileri trendin yazarı kim? Referansların sayısına bakılırsa, Victor Chernozhukov adında, profil eğitimi olmayan, 90'ların başında bir ziraat enstitüsünden mezun olmuş bir adam. O zamanı çok iyi hatırlıyorum, milyonlarca Çernozhukov, eğitim ve gerçeklerle bulanık olmayan bilincin çığlıkları altında her türlü saçmalığa koştu ve hareket etti. ve birçoğu milyarder ve üst düzey politikacı oldu.


Bugün tüm dünya reklam yasalarına göre yaşıyor, tüm alanlar MO'nun bu kupayı geçeceğini düşünüyor. Ama hayır.

 
СанСаныч Фоменко #:

Bu makale, önemsiz sonuçların reklam tanıtımının mükemmel bir örneğidir.

"Ned ensel Etkiler" adı bile geri kalmışlığımızı yüzümüze vuruyor, çünkü çeşitli sinüsleri incelerken bunun Nedensel Etkilerin sinüs girdisine girdi verip sonuç almanın bir sonucu olduğunu fark etmemişiz.

Yazar RF alır, giriş verilerini verir ve sonuç olarak bir hata alır.

Herkesin MO'da tamamen yeni bir yönle uğraştığımızı fark etmesini sağlamak için, girdi verilerine (tahmin ediciler) ortak değişkenler, RF algoritmasına meta öğrenici ve tüm sürece Nedensel Etkiler denir.

Nedensel Etkilerin savunucuları, bazen Rusça'da ortak değişkenlerin sadece hedef değişken üzerinde değil, aynı zamanda komşu yordayıcılar üzerinde de etkisi olan yordayıcılar olduğunun farkında değildir, yani belirsizliği önlemek için bu terim daha kesin bir şekilde kullanılmalıdır.

RF algoritmasını bir "meta öğrenici" olarak adlandırmak, Nedensel Etkiler'deki bir başka tanıtım gösterisidir, çünkü bu algoritma kurallar üretir kesinlikle bir öğrenici DEĞİLDİR. Ancak makine öğreniminde reklamcılık açısından bakıldığında, öğrenciler olmalı ve "meta" ve basta'nın önemi için.

Makale, temel algoritma olarak RF 'nin seçilmesini biraz ayrıntılı olarak gerekçelendirmekte ve özellikleRF yerine herhangi bir (?) MO algoritmasının kullanılabileceğini belirtmektedir. Bu düşüncenin bir genellemesi olarak nuisance, yani nahoş, iğrenç, can sık ıcı terimi kullanılmaktadır. Metin olarak ise, muhtemelen "gürültünün bir fonksiyonu" olarak çevrilmelidir, yani RF algoritması bir "gürültü fonksiyonudur". Ama kulağa ne kadar karmaşık ve güzel geliyor ve en önemlisi, daha önce RF 'nin bazı hatalarla kurallar ürettiğini düşünen okuyucu bundan hoşlanıyor.

Devam etmek mümkün, ancak yukarıdakiler tüm bu Nedensel Etkileri tamamen reklama yönlendirmek için yeterli, bu arada çok başarılı, gerçek saçmalık satıldığında ve Stanford Üniversitesi'nde profesörlük yeri aldığında, yeni gelişmiş trendlere ayak uydurmak isteyen takipçileri var.

Peki, ME'deki sözde en yeni trendin yazarı kim? Referansların sayısına bakılırsa, 90'lı yılların başında bir tarım enstitüsünden mezun olan ve hiçbir profil eğitimi olmayan Victor Chernozhukov. O dönemi çok iyi hatırlıyorum, milyonlarca Çernozhukov, eğitim ve gerçeklerle bulandırılmamış bilinç çığlıkları altında her türlü saçmalığa koşuyor ve hareket ediyordu. Ve birçoğu milyarder ve üst düzey politikacı oldu.


Bugün tüm dünya reklam yasalarına göre yaşıyor, tüm alanlar MO'nun bu kupayı geçeceğini düşünüyor. Ama hayır.

Analiz için teşekkürler, çünkü okumadım. Aynı konudaki video yeterliydi.
 
СанСаныч Фоменко #:

Bu makale, önemsiz sonuçların reklam tanıtımının mükemmel bir örneğidir.

"Ned ensel Etkiler" adı bile geri kalmışlığımızı yüzümüze vuruyor, çünkü çeşitli sinüsleri incelerken bunun Nedensel Etkilerin sinüs girdisine girdi verip sonuç almanın bir sonucu olduğunu fark etmemişiz.

Yazar RF alır, giriş verilerini verir ve sonuç olarak bir hata alır.

Herkesin MO'da tamamen yeni bir yönle uğraştığımızı fark etmesini sağlamak için, girdi verilerine (tahmin ediciler) ortak değişkenler, RF algoritmasına meta öğrenici ve tüm sürece Nedensel Etkiler denir.

Nedensel Etkilerin savunucuları, bazen Rusça'da ortak değişkenlerin sadece hedef değişken üzerinde değil, aynı zamanda komşu yordayıcılar üzerinde de etkisi olan yordayıcılar olduğunun farkında değildir, yani belirsizliği önlemek için bu terim daha kesin bir şekilde kullanılmalıdır.

RF algoritmasını bir "meta öğrenici" olarak adlandırmak, Nedensel Etkiler'deki bir başka tanıtım gösterisidir, çünkü bu algoritma kurallar üretir kesinlikle bir öğrenici DEĞİLDİR. Ancak makine öğreniminde reklamcılık açısından bakıldığında, öğrenciler olmalı ve "meta" ve basta'nın önemi için.

Makale, temel algoritma olarak RF 'nin seçilmesini biraz ayrıntılı olarak gerekçelendirmekte ve özellikleRF yerine herhangi bir (?) MO algoritmasının kullanılabileceğini belirtmektedir. Bu düşüncenin bir genellemesi olarak, nuisance, yani nahoş, iğrenç, can sık ıcı terimi kullanılmaktadır. Metin olarak ise, muhtemelen "gürültünün bir fonksiyonu" olarak çevrilmelidir, yani RF algoritması bir "gürültü fonksiyonudur". Ama kulağa ne kadar karmaşık ve güzel geliyor ve en önemlisi, daha önce RF 'nin bazı hatalarla kurallar ürettiğini düşünen okuyucu bundan hoşlanıyor.

Devam etmek mümkün, ancak yukarıdakiler tüm bu Nedensel Etkileri tamamen reklama yönlendirmek için yeterli, bu arada çok başarılı, gerçek saçmalık satıldığında ve Stanford Üniversitesi'nde profesörlük yeri aldığında, yeni gelişmiş trendlere ayak uydurmak isteyen takipçileri var.

Peki, ME'deki sözde en yeni trendin yazarı kim? Referansların sayısına bakılırsa, 90'lı yılların başında bir tarım enstitüsünden mezun olan ve hiçbir profil eğitimi olmayan Victor Chernozhukov. O dönemi çok iyi hatırlıyorum, milyonlarca Çernozhukov, eğitim ve gerçeklerle bulandırılmamış bilinç çığlıkları altında her türlü saçmalığa koşuyor ve hareket ediyordu. Ve birçoğu milyarder ve üst düzey politikacı oldu.


Bugün tüm dünya reklam yasalarına göre yaşıyor, tüm alanlar MO'nun bu kupayı geçeceğini düşünüyor. Ama hayır.

Bu, yeni bilgiler kaseye girmediğinde, profesyonel beceriksizliğinizin sadece özeti. Ya da çeviri ile ilgili sorunlar. Sadece sempati duyabilirim :)

 
Maxim Dmitrievsky #:

Yeni bilgiler artık hiçbir şekilde kaseye girmediğinde bu sadece küfrünüzün zirvesidir. Ya da çeviri sorunları. Sadece sempati duyabilirim :)

tüm terimler çarpıtılmış, temel bilgiler tanınmayacak kadar çarpıtılmıştır.

Avama çarpıtılmamış bilgileri aktarabilir misiniz?

 
СанСаныч Фоменко #:

...

Makale, temel algoritma olarak RF'nin seçimini biraz ayrıntılı olarak gerekçelendirmekte ve özellikle RF yerine herhangi bir (?) MO algoritmasının kullanılabileceğini belirtmektedir. Bu düşüncenin bir genellemesi olarak, nuisance, yani nahoş, iğrenç, can sıkıcı terimi kullanılmaktadır. Metin olarak ise, muhtemelen "gürültünün bir fonksiyonu" olarak çevrilmelidir, yani RF algoritması bir "gürültü fonksiyonudur". Ama kulağa ne kadar karmaşık ve güzel geliyor ve en önemlisi, daha önce RF'nin bazı hatalarla kurallar ürettiğini düşünen okuyucu bundan hoşlanıyor.

...

Okuyordum ve tüm bunların pratik bir uygulamasını arıyordum - yani bir tane bulamadınız mı?

Bana öyle geldi ki makale, toplam örnek alanının eğitimin gerçekleştiği örnekten sapmasının ölçümünü değerlendirmek için bir araç vermeyi amaçlıyor. Buna göre, bu araca sahip olarak örneklemin anormal kısımlarını tespit etmek mümkündür. Sizce var mı yok mu?

 
Aleksey Vyazmikin #:

Avama katıksız bilgi aktarabilir misiniz?

Anlayabiliyorum.

 
СанСаныч Фоменко #:

oral seks yapacağımı sandım ..... Oh, hayır.

Ve ben de aynı fikirdeyim.))

Bu derin sözler tüm bu konuyu açıklıyor
 
Aleksey Vyazmikin #:

Tüm bunların pratik bir uygulamasını okudum ve aradım - yani bir tane bulamadınız mı?

Bana öyle geldi ki makale, toplam örnek alanının eğitimin yapıldığı örnekten sapmasının ölçümünü değerlendirmek için bir araç vermelidir. Buna göre, bu araca sahip olarak numunenin anormal kısımlarını tespit etmek mümkündür. Sizce var mı yok mu?

Bu makalede yer almamaktadır.

Çapraz doğrulama da dahil olmak üzere orijinal tahmin edicilerin farklı bölümleriyle olağan uydurmayı açıklar. Kelimelerle kamufle edilmiş bir rutin.

 
СанСаныч Фоменко #:

Makalede yazmıyor.

Çapraz doğrulama da dahil olmak üzere orijinal tahmin edicilerin farklı bölümleri ile olağan uydurma açıklanmaktadır. Kelimelerle kamufle edilmiş bir rutin.

Uzman görüşü için teşekkürler.

 
Maxim Dmitrievsky #:


ve rahatsız edici fonksiyonlar(veya parametreler) gürültü fonksiyonları değil, belirli bir görev için hedef fonksiyonlar olmayan yardımcı fonksiyonlardır


Makalede bu "yardımcı" işlevlerin bir görünümüne bağlantı alabilir miyim?

Aynı zamanda temel fonksiyon olarak adlandırılan ve çalışma sonucunda bir çok bilgiyi hesaplayan RF'nin kullanılma nedenleri oldukça detaylı bir şekilde anlatılmış:

Aşağıdaki bileşenlere sahip bir liste olan randomForest sınıfından bir nesne:

çağrı

randomForest' e yapılan orijinal çağrı

tip

regresyon, sınıflandırma veya denetimsiz yöntemlerden biri.

öngörülen

torba dışı örneklere dayalı olarak giriş verilerinin tahmin edilen değerleri.

ÖNEM

nclass + 2 (sınıflandırma için) veya iki (regresyon için) sütunlu bir matris. Sınıflandırma için, ilk nclass sütunları doğrulukta ortalama azalma olarak hesaplanan sınıfa özgü ölçümlerdir. nclass + 1 sütunu, tüm sınıflar için doğruluktaki ortalama azalmadır. Son sütun Gini endeksindeki ortalama düşüştür. Regresyon için, ilk sütun doğruluktaki ortalama azalma, ikincisi ise MSE'deki ortalama azalmadır. importance=FALSE ise , son hesaplama yine de bir vektör olarak döndürülür.

önemSD

Permütasyon tabanlı önem ölçüsünün "standart hataları". Sınıflandırma için, önem matrisinin ilk nclass + 1 sütunlarına karşılık gelen bir p x nclass + 1 matris . Regresyon için, p uzunluğunda bir vektör .

localImp

i,j] elemanı i'inci değişkenin j'inci vaka üzerindeki önemi olan vaka bazında önem ölçütlerini içeren p'ye n matris. localImp=FALSE ise NULL.

ntree

yetiştirilen ağaç sayısı.

mtry

Her düğümde bölme için örneklenen tahminci sayısı.

orman

(tüm ormanı içeren bir liste; randomForest denetimsiz modda çalıştırılırsa veya keep.forest=FALSE ise NULL .

err.rate

(sadece sınıflandırma) giriş verisi üzerindeki tahminin vektör hata oranları, i-inci eleman i-inciye kadar olan tüm ağaçlar için (OOB) hata oranıdır.

karışıklık

(yalnızca sınıflandırma) tahminin karışıklık matrisi (OOB verilerine dayalı).

oylar

(yalnızca sınıflandırma) her girdi veri noktası için bir satır ve her sınıf için bir sütun içeren ve rastgele ormandan gelen (OOB) 'oyların' kesrini veya sayısını veren bir matris.

oob.times

'torba dışı' olan (ve dolayısıyla OOB hata tahmininin hesaplanmasında kullanılan) vaka sayısı.

yakınlık

randomForest çağrıldığında proximity=TRUE ise , girdi arasındaki yakınlık ölçümlerinin bir matrisi (veri noktası çiftlerinin aynı terminal düğümlerinde bulunma sıklığına göre).

mse

(yalnızca regresyon) ortalama kare hataları vektörü: karesel artıkların toplamının n' ye bölümü.

rsq

(sadece regresyon) "pseudo R-squared": 1 - mse / Var(y).

test

Test kümesi verilirse (xtest veya ek olarak ytest argümanları aracılığıyla), bu bileşen test kümesi için karşılık gelen tahmin edilen, err.rate , confusion, votes ( sınıflandırma için) veya tahmin edilen, mse ve rsq ( regresyon için) değerlerini içeren bir listedir. Eğer proximity=TRUE ise, test kümesi arasındaki yakınlığın yanı sıra test ve eğitim verileri arasındaki yakınlığı da içeren proximity adında bir bileşen daha vardır.


Yazarın yukarıdaki listeden tam olarak ne kullandığı bilinmemektedir, ancak RF kullanırken sınıflandırma veya regresyon hatalarını belirlemek için başka hiçbir kaynak yoktur ve bunlara gerek yoktur.

RF tarafından üretilen hatalar, farklı girdi verileri kombinasyonları için farklı olacaktır. Yazarın incelediği ve hata varyansı ve nasıl hesaplandığı bilinmeyen belirli bir yanlılık hakkında sonuçlara vardığı şey budur.