Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 162

 
San Sanych Fomenko :

Okuduğunuz için teşekkürler.

Yazarın fazla iyimser olduğunu düşünüyorum.

Yeniden eğitim sorunu prensipte çözülemez.

...

Teoride, örneğin gerekli tüm faktörler önceden biliniyorsa ve bunlara bilgi erişimi varsa, Laplace'ın evrensel determinizmi açısından karar verilebilir. Ancak pratikte, böyle bir "çözülebilirlik" birçok soruna sahiptir (tüm faktörler bilinmemektedir ve hepsi mevcut değildir ve mevcut olanlar genellikle ölçülemez derecede gürültülüdür).

San Sanych Fomenko :


...

İlk önce gürültünün girdi tahmin edicilerini temizlemezseniz, yani. Hedef değişkenle "ilgili değil" , o zaman "pürüzlendirme" yöntemi çalışmaz, tıpkı tahmin edicilerin "önem" kavramını kullanan diğer yöntemler gibi çalışmaz.

Sizce bu ve ayrıca jPrediction ile olan deneyimlerimin onayına dayanarak, olması gerektiği gibi mi görünüyor?

Ancak sorun şu ki, her deneyim yukarıdaki ifadeyi doğrulamaz. Her şey, hangi belirli makine öğrenimi yöntemlerinin kullanıldığına bağlıdır.

Örneğin, Viktor Tsaregorodtsev BackPropagation ile sinir ağları üzerine araştırma yaptı ve sonuçlara dayanarak, " Bir sinir ağının boyutunu küçültmek, genelleme yeteneklerinde bir artışa yol açmaz " makalesinde tamamen zıt sonuçlara vardı, alıntı yapıyorum:

"Bu, gürültünün, bilgilendirici olmayan özelliklerin ve gereksiz nöronların hariç tutulmasının pratikte zorunlu ve yararlı olduğu görüşüne aykırıdır."

Onlar. İstisnasız tüm makine öğrenimi yöntemleri için herhangi bir genel sonuç çıkarmanın tamamen yararsız olduğu ortaya çıktı (herkese aynı fırçayla davranmak). Bazı yöntemler için, bu tür "sonuçlar" doğru olurken, diğerleri için açıkça hatalı oldukları ortaya çıkabilir.

 
Yuri Reshetov :

jPrediction'daki modellerin karmaşıklığı, tahmin edicilerin sayısında kademeli bir artış anlamına gelir. Gerçekten de, jPrediction'da, gizli katmandaki nöronların sayısı 2^(2*n+1)'dir, burada n, tahmin edicilerin sayısıdır . Buna göre, tahmin edici sayısındaki artışla modelin karmaşıklığı (gizli katmandaki nöron sayısı) artar.


Eğer 100 öngörücü varsa, o zaman formülünüze göre, gizli katmandaki nöronların sayısı bir yerde evrendeki atomların sayısına yaklaşacaktır (200 tahmin edici hakkında düşünmekten korkuyorum). Görünüşe göre ilahi kaynaklara sahipsin - bilgi işlem ve zaman.

 
Andrey Dik :

SS az önce çok talihsiz bir örnek verdi, cehaletinde ısrar etmeye devam ederken ...

"Diğer güçler" ne anlama geliyor? Aynı kuvvetler topa ve tüye etki eder - yerçekimi kuvveti (ağırlık) ve rüzgar akışının kuvveti vücudun yarısına dağılır.

...

Andrey, bu konunun fizik problemlerine değil, makine öğrenimine ayrıldığını hatırlatırım.

Nazik olun, bu başlıkta hoş karşılanmayan soyut konulara burada su basmayın.

Fizik bilgisi hakkında övünmek için can atıyorsanız, o zaman ona ayrılmış ayrı bir dal başlatın.

Özellikle de yüzünüzde akıllı bir yüzle metafora meydan okumaya, kendinizi kasten aptal bir pozisyona sokmaya çalıştığınız için.

 
Yuri Reshetov :

Andrey, bu konunun fizik problemlerine değil, makine öğrenimine ayrıldığını hatırlatırım.

Nazik olun, bu başlıkta hoş karşılanmayan soyut konulara burada su basmayın.

Fizik bilgisi hakkında övünmek için can atıyorsanız, o zaman ona ayrılmış ayrı bir dal başlatın.

Özellikle de yüzünüzde akıllı bir yüzle metafora meydan okumaya, kendinizi kasten aptal bir pozisyona sokmaya çalıştığınız için.

Peki, yanlış örneklere dayalı metaforların bir değeri olduğunu düşünüyorsanız, o zaman gelecekte müdahale etmeyeceğim.

Afedersiniz. Ve sen SS özür dilerim.

 
sibirqk :

Eğer 100 öngörücü varsa, o zaman formülünüze göre, gizli katmandaki nöronların sayısı bir yerde evrendeki atomların sayısına yaklaşacaktır (200 tahmin edici hakkında düşünmekten korkuyorum). Görünüşe göre ilahi kaynaklarınız var - bilgi işlem ve zaman.

Evet, en az 10.000 tahminci. Hepsinin bilgilendirici olduğu gerçeği değil. Onlar. jPrediction, aralarında en bilgilendirici olanlardan bazılarını bularak modelleri yavaş yavaş karmaşıklaştıracaktır. Ve genelleme yeteneği azalmaya başlar başlamaz duracaktır.

İlahi kaynaklara ulaşmaz. Oldukça yeterli ve her zamanki kişisel.

 
Andrey Dik :

Eh, yanlış örneklere dayalı metaforların bir değeri olduğunu düşünüyorsanız, o zaman geleceğe karışmayacağım.

Afedersiniz. Ve sen SS özür dilerim.

Retorikteki başarısı ne olursa olsun, metaforların retorik dışında bir değeri yoktur. Onlarda kusur bulmak da kötü huydur.

Özürler elbette kabul edilir.

 
Yuri Reshetov :
Retorikteki başarısı ne olursa olsun, metaforların retorik dışında bir değeri yoktur. Onlarda kusur bulmak da kötü huydur.

Söylenen bir şeyin değeri yoksa küfürdür. SS'nin gevezelik etmek istediğini sanmıyorum, sadece onun başına geldi.

Ve o zaman metaforlar verilir, yıllar, karşılaştırma yardımı ile erişilebilir bir dilde bazı fikirleri iletmek ister. Yani bazı örnekler bir politikacı için iyi olacak ve diğer örnekler bir nükleer fizikçi için net olacak ve bir politikacı ile bir nükleer bilim adamının birbirini anlaması için karşılaştırmalara - metaforlara başvuruyorlar. Bu nedenle, metaforların çok özel bir amacı vardır - muhatapların anlaşılmasını kolaylaştırmak.

Tamam, çoktan gittik.

 
Andrey Dik :

Söylenen bir şeyin değeri yoksa küfürdür. SS'nin gevezelik etmek istediğini sanmıyorum, sadece onun başına geldi.

Sadece çok iyi olmayan bir metafor verdi. Ne olmuş? Bunun için onu duvara yaslamak mı?

Hepimiz insanız ve hepimiz bazen hata yaparız.

Başka bir komposto, bu nedenle çok fazla sel olması, konunun bilgi içeriğini aşırı derecede azaltıyor. Ve bu comme il faut değil.

 
Yuri Reshetov :

Teoride, örneğin gerekli tüm faktörler önceden biliniyorsa ve bunlara bilgi erişimi varsa, Laplace'ın evrensel determinizmi açısından karar verilebilir. Ancak pratikte, böyle bir "çözülebilirlik" birçok soruna sahiptir (tüm faktörler bilinmemektedir ve hepsi mevcut değildir ve mevcut olanlar genellikle ölçülemez derecede gürültülüdür).

Sizce bu, jPrediction ile olan deneyimlerime dayanarak, olması gerektiği gibi görünüyor mu?

Ancak sorun şu ki, her deneyim yukarıdaki ifadeyi doğrulamaz. Her şey, hangi belirli makine öğrenimi yöntemlerinin kullanıldığına bağlıdır.

Örneğin, Viktor Tsaregorodtsev BackPropagation ile sinir ağları üzerine araştırma yaptı ve sonuçlara dayanarak, " Bir sinir ağının boyutunu küçültmek, genelleme yeteneklerinde bir artışa yol açmaz " makalesinde tamamen zıt sonuçlara vardı, alıntı yapıyorum:

"Bu, gürültünün, bilgilendirici olmayan özelliklerin ve gereksiz nöronların hariç tutulmasının pratikte zorunlu ve yararlı olduğu görüşüne aykırıdır."

Onlar. İstisnasız tüm makine öğrenimi yöntemleri için herhangi bir genel sonuç çıkarmanın tamamen yararsız olduğu ortaya çıktı (herkese aynı fırçayla davranmak). Bazı yöntemler için, bu tür "sonuçlar" doğru olurken, diğerleri için açıkça hatalı oldukları ortaya çıkabilir.

Rastgele orman algoritmaları yazarının ilk yayınlarına bakarsanız, o zaman yazar oldukça ciddi bir şekilde rf'nin aşırıya kaçmaya eğilimli olmadığını belirtti ve birçok örnek verdi. Randomforest paketinin kendisi, en ufak bir fazlalık şüphesini bile ortadan kaldıracak şekilde oluşturulmuştur.

Bununla birlikte, en yeniden eğitilebilir algoritma rastgele ormandır. Şahsen yandı.

Sadece aşağıdaki yöntemle elde edilen rakamlara inanıyorum.

Zaman içinde birbiri ardına gelen iki dosyayı alıyoruz.

İlk dosya rastgele üç bölüme ayrılmıştır: eğitim, test ve doğrulama.

  • Öğrenme kısmında öğretiyoruz, bu da sırayla parçadaki algoritmayı öğreniyor ve parça üzerinde değerlendiriyor - GLE örneği - örneklem dışı olarak adlandırılır. Bir öğrenme hatası alıyoruz. Çapraz doğrulama algoritmalarını kullanarak OOV için bir parça elde ederiz, yani. o her zaman farklıdır.
  • ilk dosyanın test ve doğrulama kısmında eğitilmiş modeli kontrol ediyoruz.
  • önceden eğitilmiş modeli uygulama hatası alıyoruz. Bu üç hata yakın olmalıdır.

İlkinin gerisinde yer alan ikinci dosyaya geçiyoruz.

Eğitilen modeli bu ikinci dosya üzerinde uyguluyoruz. Ortaya çıkan hata, mevcut 3 hatadan çok farklı OLMAMALIDIR.

SONUÇ OLARAK BİRBİRİNDEN ÇOK FARKLI OLMAYAN DÖRT HATA DEĞERİMİZ VARDIR.

Benim için bu, yeniden eğitimin olmadığının tek kanıtı. Ayrıca test cihazında bu dörde yakın bir hata alırsak işlem yapabiliriz.

Ben sadece buna inanıyorum.

Makine öğrenimi hakkındaki yayınların büyük çoğunluğu, ikinci dosyanın herhangi bir analogu üzerinde test edilmemiştir. Nedeni banal. Algoritmalar zaman serilerine UYGULANMAZ. Ve bir numaralı dosyanın rastgele bölünmesinin oldukça yeterli olduğu ortaya çıktı. Ve bu, örneğin el yazısı metni tanırken geçerlidir.

 

Metaforlarım ve analojilerim hakkında.

Uygulamalı matematikten mezun oldum. Ve öğretmenlerim, tüm sınıf arkadaşlarım gibi, herhangi bir matematiksel araçta ustalaşabileceğime inanıyordu. Aynı zamanda, öğretmenler ana sorunu gelecekteki faaliyetlerimizde gördüler - bu, belirli bir aracın belirli bir pratik göreve uygulanabilirliği sorununun çözümüdür. Hayatım boyunca yaptığım şey bu, ama herhangi bir araçta ustalaşmak için .... R'de yüzlerce veya binlerce var, ne olmuş?

Bana yöneltilen tüm bu troller...

Trole itiraz etmek, sadece onu beslemek için.

Tabii ki dalı temizlerdim, muhteşem bir daldı