Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1239
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Daha az dersim var. 0.14\0.4 hatası
testte %14'ten %40'a mı?
testte %14'ten %40'a mı?
peki, antrenman 14 test 40
doğruluk ve sınıflandırma hatası iki farklı şeydir. doğruluk duyurusu. ve numune yüzdesi (test dizisi).
Pekala, prensipte açık - trene fazla uyuyor ... Testte bu veri setinde 0,6 doğruluk (örneklemin %20'si) işe yarayacak ...
şimdiye kadar sınıflandırma hatası .. orada yeniden yapmak uzun))
%20 alglib, %80 OOB eğitimim var ve aynısını burada da yaptım
python ile yaptım böyle çıktı
puan ( X , y , sample_weight=Yok ) [kaynak]Verilen test verileri ve etiketlerdeki ortalama doğruluğu döndürür.
kısacası nifigayı anlamadım sadece bugün pythonda anladım yarın alırım Eğer test et ve eğit %50 ise bu şekilde
Bu konuda bir veri setim var (doğruluk) -
tren(numunenin %80'i) = 0.619
test(%20 örnek) = 0.612 FOS(yeni verilere ayarlama)
Hafifçe dürtülmüş, alnında daha az. Öyleyse yapın ve% 20 ovmayın)))
%50 yeterli değil, 300 gözlem hiçbir şey ifade etmiyor.
%20'de öğretmek yeni bir şey))
çocuksu bir şekilde) orada, öyle görünüyor ki, hata pek değişmedi, çünkü öyle yaptı, güçlü düzenleme daha kısa
çocuksu bir şekilde) orada, öyle görünüyor ki, hata pek değişmedi, çünkü öyle yaptı, güçlü düzenleme daha kısa
Peki nasıl değişmedi? %14 ve %40 çok büyük bir fark.
Bu bir sihirbaz gibi 60 ila 60 - evet!
Doka ve Toxic ile aynı şeyi yaptım, python ve p'de yok ... Söylemeyeceğim ...
Peki nasıl değişmedi? %14 ve %40 çok büyük bir fark.
Bu bir sihirbaz gibi 60 ila 60 - evet!
peki, şimdi python'da bulunan tüm modellere göz atacağız .. peki, koşma anlamında .. sadece yarın .. hayır, hayır
belki biraz ön işleme gereklidirForex'te para kazanamayacağınızı anlamadınız)
Bu mazoşizme girmektense programcı olup iyi maaşlı bir iş bulmak daha kolaydır.
kısacası alglib'de sınıflandırma hatası ve logloss..Logloss'a göre hiç bir şey net değil ormanın yakınındaki trende sınıflandırma hatası bir eğitim numunesi>0.8 ve oob 0.2 ile sıfıra düşüyor
sınıflandırma için her türlü rmse çok iyi değil. Uygun
bu nedenle, eğitim örneği en azından bir miktar hata olacak şekilde küçük yapılmıştır, ancak yine de küçüktür. Python ile karşılaştırmayı bilmiyorum