Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3145

 
Aleksey Nikolayev noktası arama algoritmalarının bir zaman serisinin değişim noktası tespiti ile benzerliği olabilir. Her iki durumda da genellikle tek bir örneğin maksimum düzeyde farklı iki alt örneğe bölünmesi aranır.

Ekliyorum. Boş, zaman neredeyse boş bir özelliktir

 
Maxim Dmitrievsky #:
Bunu anlıyorum, nedensel ormana da bakabilirsiniz. Bu arada, üzerinde çalışmadım, eğer birisi bunu çözerse, bununla ilgili deneyleri okumak ilginç olurdu
Sanych'in yaklaşımını anlamıyorum :) RMS hatasına bakıyor. Ya da kayan bir pencerede RMS.

Hayır. Benim sko'm "tahmin yeteneği" sapmalarıdır. Modelin kendisinin tahmini ile ilgisi yok

 
СанСаныч Фоменко #:

Hayır. Benim skorum "tahmin kabiliyetindeki" sapmalarla ilgili. Modelin kendisinin değerlendirilmesiyle hiçbir ilgisi yoktur.

Sadece sizin değil, herhangi bir MOSH çalışanının :)
Çapraz doğrulama yaygındır.
Bazı nedenlerden dolayı farklı bir şey yaptığınızı düşünüyorsunuz.

MO aracılığıyla tahmin yaparsanız, karşılaştırılabilir tahminler elde edersiniz. Çünkü iyi çalışıyor, ev yapımı tahminlerden daha kötü değil.

Benim sonucum sizin açıklamanıza dayanıyor.
 

Benzer bir bilgilendirici özellik seçme deneyi sırasında tüm yolları denedim. Hiç de zor olmadı. Korelasyon, karşılıklı bilgi ve knn'den başlayarak, OLS ve SVM'den orman, bousting ve sinir ağlarına (derin olanlara dokunmadım) kadar. En iyisinin bousting olduğu ortaya çıktı. OLS ikinci sırada.

Gerekçe çok basit: eğer bousting bir bölünme ile tek bir ağaca indirgenirse, karşılıklı bilgi, örnek veya permütasyon entropisi ve kısmen OLS'yi değerlendirmek mümkündür.
 
СанСаныч Фоменко #:

Hayır. Benim skorum "tahmin kabiliyetindeki" sapmalarla ilgili. Modelin kendisinin değerlendirilmesiyle hiçbir ilgisi yok

Modelin parametrelerinin adımdan adıma çok fazla atlaması mümkün mü? Yani, her adımda iyi bir "tahmin gücüne" rağmen, istenen bağımlılık çok farklı şekilde düzenlenmiştir ve sürekli değişmektedir. Eğer öyleyse, bu bir tür aşırı eğitim olabilir.

 
Maxim Dmitrievsky #:
Bunu anlıyorum, nedensel ormana da bakabilirsiniz. Bu arada, üzerinde çalışmadım, ama anlayan biri varsa, onunla yapılan deneyleri okumak ilginç olurdu

Aynı rastgele orman gibi görünüyor, ancak nedensel bir yorumu var. Yani siz, aramızda ormanların ve şimdi de nedensel ormanların popülerleştiricisi olarak kartları elinizde tutuyorsunuz).

Yine de, nedenselliğin ticaret için uygulanmasını henüz anlamıyorum. Hızlı bir Google araması doğrudan uygulamalar bulmaya yardımcı olmadı, sadece dolaylı olanlar - hisse senetlerinin Forex üzerindeki etkisini incelemek gibi.

 
Aleksey Nikolayev #:

Aynı rastgele orman gibi görünüyor, ancak nedensel bir yorumu var. Yani, aramızda ormanların ve nedensel yorumlamanın popülerleştiricisi olarak kartlar sizin elinizde).

Yine de, nedenselliğin ticaret için uygulanmasını henüz anlamıyorum. Hızlı bir googling doğrudan uygulamalar bulmaya yardımcı olmadı, sadece dolaylı olanlar - hisse senetlerinin Forex üzerindeki etkisini incelemek gibi.

Bilinmeyenle uğraşırken çok fazla zihinsel çaba gerekiyor :) google'da böyle bir şey yok, yakın zamana kadar net genel kılavuzlar da yoktu.
 
Aleksey Nikolayev #:

Adımdan adıma modelin parametrelerinin çok fazla sıçrama yapması mümkün mü? Yani, her adımda iyi bir "öngörülebilirliğe" rağmen, istenen bağımlılık çok farklı bir şekilde düzenlenmiştir ve sürekli değişmektedir. Eğer öyleyse, bu bir tür aşırı eğitim olabilir.

Benim durumumda sorunuza cevap vermek imkansız: model her adımda yeniden eğitiliyor ve doğal olarak özellik seti farklı adımlarda farklı olabilir.

Sınıflandırma hatası %20 ile %10 arasında değişiyor. 25 hiç gerçekleşmedi.

 
Maxim Dmitrievsky #:

Benzer bir bilgilendirici özellik seçme deneyi sırasında tüm yolları denedim. Hiç de zor olmadı. Korelasyon, karşılıklı bilgi ve knn'den başlayarak, OLS ve SVM'den orman, bousting ve sinir ağlarına (derin olanlara dokunmadım) kadar. En iyisinin bousting olduğu ortaya çıktı. OLS ikinci sırada.

Mantık çok basittir: eğer bousting bir bölünme ile tek bir ağaca indirgenirse, karşılıklı bilgi, örnek veya permütasyon entropisi ve kısmen OLS'yi değerlendirmek mümkündür.

Yukarıdaki algoritmaların hiçbiri tahmin gücü VERMEMEKTEDİR, ne de algoritmanın bir özelliği ne sıklıkla kullandığını gösteren önemi aptalca hesaplayan yüzlerce MO algoritması: Bir MO algoritmasına saçmalıklar verilirse, herhangi bir MO algoritması bu saçmalıkların önemini hesaplayacaktır.

 
СанСаныч Фоменко #:

Yukarıdaki algoritmaların hiçbiri tahmin gücü sağlamadığı gibi, bir özelliğin algoritma tarafından ne sıklıkla kullanıldığını gösteren önemi aptalca hesaplayan yüzlerce MO algoritması da sağlamaz: Eğer bir MO algoritmasına saçma sapan şeyler yüklerseniz, herhangi bir MO algoritması bu saçma sapan şeylerin önemini hesaplayacaktır.

Sınıflandırma/regresyon hatası verir. Bence bu kadar garip oyun yeter, dönüp dolaşıp aynı yere geliyorsunuz :) Ve çıkmak için böyle bir kapı var.