Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1239

 
Maksim Dmitrievski :

Daha az dersim var. 0.14\0.4 hatası

testte %14'ten %40'a mı?

 
Kâse :

testte %14'ten %40'a mı?

peki, antrenman 14 test 40

 
Sihirbaz_ :

doğruluk ve sınıflandırma hatası iki farklı şeydir. doğruluk duyurusu. ve numune yüzdesi (test dizisi).

Pekala, prensipte açık - trene fazla uyuyor ... Testte bu veri setinde 0,6 doğruluk (örneklemin %20'si) işe yarayacak ...

şimdiye kadar sınıflandırma hatası .. orada yeniden yapmak uzun))

%20 alglib, %80 OOB eğitimim var ve aynısını burada da yaptım

python ile yaptım böyle çıktı

puan ( X ,   y ,   sample_weight=Yok ) [kaynak]

Verilen test verileri ve etiketlerdeki ortalama doğruluğu döndürür.


kısacası nifigayı anlamadım sadece bugün pythonda anladım yarın alırım Eğer test et ve eğit %50 ise bu şekilde


 
Sihirbaz_ :

Bu konuda bir veri setim var (doğruluk) -
tren(numunenin %80'i) = 0.619
test(%20 örnek) = 0.612 FOS(yeni verilere ayarlama)

Hafifçe dürtülmüş, alnında daha az. Öyleyse yapın ve% 20 ovmayın)))

%50 yeterli değil, 300 gözlem hiçbir şey ifade etmiyor.

Ne öğretildi?
 
elibrarius :
%20'de öğretmek yeni bir şey))

çocuksu bir şekilde) orada, öyle görünüyor ki, hata pek değişmedi, çünkü öyle yaptı, güçlü düzenleme daha kısa

 
Maksim Dmitrievski :

çocuksu bir şekilde) orada, öyle görünüyor ki, hata pek değişmedi, çünkü öyle yaptı, güçlü düzenleme daha kısa

Peki nasıl değişmedi? %14 ve %40 çok büyük bir fark.
Bu bir sihirbaz gibi 60 ila 60 - evet!

 
Sihirbaz_ :

Doka ve Toxic ile aynı şeyi yaptım, python ve p'de yok ... Söylemeyeceğim ...

En azından ormanlar veya ağlar?
 
elibrarius :

Peki nasıl değişmedi? %14 ve %40 çok büyük bir fark.
Bu bir sihirbaz gibi 60 ila 60 - evet!

peki, şimdi python'da bulunan tüm modellere göz atacağız .. peki, koşma anlamında .. sadece yarın .. hayır, hayır

belki biraz ön işleme gereklidir
 

Forex'te para kazanamayacağınızı anlamadınız)

Bu mazoşizme girmektense programcı olup iyi maaşlı bir iş bulmak daha kolaydır.

 

kısacası alglib'de sınıflandırma hatası ve logloss..Logloss'a göre hiç bir şey net değil ormanın yakınındaki trende sınıflandırma hatası bir eğitim numunesi>0.8 ve oob 0.2 ile sıfıra düşüyor

sınıflandırma için her türlü rmse çok iyi değil. Uygun

bu nedenle, eğitim örneği en azından bir miktar hata olacak şekilde küçük yapılmıştır, ancak yine de küçüktür. Python ile karşılaştırmayı bilmiyorum