Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1854
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
nasıl yani, borsada OI arşivi yok ya da ne? bazı ücretli hizmetler var, belki satıyorlar
Farklı hata algılama yöntemlerinin davranışında garip bir özellik buldum. Regresyon modeli. Denetimli öğrenme y = 0 veya 1 . Titanik veriler.
oob RMSEr AvgEr AvgRelEr Train RMSEr AvgEr AvgRelEr 0.409762 0.333394 0.431368 0.406325 0.330199 0.430042 0.384805 0.293965 0.377680 0.380747 0.289936 0.377605 0.383891 0.286546 0.356373 0.370912 0.275152 0.358349 0.370671 0.261466 0.321370 0.353781 0.250322 0.326013 0.380332 0.259588 0.299060 0.337633 0.227993 0.296931 0.388428 0.248587 0.245976 0.309293 0.191325 0.249176 0.401764 0.237416 0.195562 0.273932 0.150077 0.195456
Train'e göre, her şey olması gerektiği gibi, ne kadar çok öğrenirsek, tüm yöntemler için o kadar az hata olur.
OOB'ye göre, RMSE hatası 0.370671'e ulaşır ve ardından yeniden eğitimin başladığını gösteren büyümeye başlar. Ancak AvgEr ve AvgRelEr daha da düşmeye devam ediyor. Bana tüm hataların eşzamanlı olarak davranması gerektiği gibi geldi, yani. RMSE ile birlikte büyümeye başlamalıydı.
Hesaplama formülleri:
Hesaplamalar çok benzer (kare alma (Sqr) ve mutlak değer (fabs) işareti kaldırır), ancak eğrilerin davranışı farklıdır...
Sınıflandırma modeliyle eğitimi tekrarladım, RMSE'nin 0.370671'e ulaştığı noktada da bir minimumu var.
Bu tür bir hata davranışıyla karşılaşan var mı? Bu nasıl açıklanabilir?
Farklı hata algılama yöntemlerinin davranışında garip bir özellik buldum. Regresyon modeli. Denetimli öğrenme y = 0 veya 1 . Titanik veriler.
Train'e göre, her şey olması gerektiği gibi, ne kadar çok öğrenirsek, tüm yöntemler için o kadar az hata olur.
OOB'ye göre, RMSE hatası 0.370671'e ulaşır ve ardından yeniden eğitimin başladığını gösteren büyümeye başlar. Ancak AvgEr ve AvgRelEr daha da düşmeye devam ediyor. Bana tüm hataların eşzamanlı olarak davranması gerektiği gibi geldi, yani. RMSE ile birlikte büyümeye başlamalıydı.
Hesaplama formülleri:
Hesaplamalar çok benzer (kare alma (Sqr) ve mutlak değer (fabs) işareti kaldırır), ancak eğrilerin davranışı farklıdır...
Sınıflandırma modeliyle eğitimi tekrarladım, RMSE'nin 0.370671'e ulaştığı noktada da bir minimumu var.
Bu tür bir hata davranışıyla karşılaşan var mı? Bu nasıl açıklanabilir?
Ancak bu aslında, optimizasyon sırasında hatanın önce azaldığı ve dolayısıyla büyümeye başladığı bir konudur. Tamamen teoride, yeniden eğitimin hata büyümesinin başlamasıyla başladığını varsayarsak, o zaman aslında eğitimin hata büyümeye başladığı anda veya ondan hemen önce durdurulması gerekir. Tanımın kendisiyle ilgili. Bunu hangi değerlendirme yöntemlerinin uygulayacağı başka bir sorudur, ancak yeniden eğitimin başladığının bir işareti olarak hatanın büyümeye başlaması dahicedir . Ayakta alkışlıyorum... Alay etmeden :-) Şimdi bunu hayata geçirmeme neyin izin vereceğini düşüneceğim...
Bu, aşırı antrenmanı belirlemek için iyi bilinen bir yöntem, sanırım yaklaşık 50 yıl, yani. sinir ağlarının ve ağaçların ortaya çıkışının en başından beri. Örneğin, V. Perervenko'nun makalelerine bakın.
Bu durumda hataların farklı davranışları bana açık değil. Yeniden eğitimin başlangıcı RMSE tarafından belirlenebilir, ancak başkaları tarafından belirlenemez.
Bu, aşırı antrenmanı belirlemek için iyi bilinen bir yöntem, sanırım yaklaşık 50 yıl, yani. sinir ağlarının ve ağaçların ortaya çıkışının en başından beri. Örneğin, V. Perervenko'nun makalelerine bakın.
Bu durumda hataların farklı davranışları bana açık değil. Yeniden eğitimin başlangıcı RMSE tarafından belirlenebilir, ancak başkaları tarafından belirlenemez.
Farklı hata algılama yöntemlerinin davranışında garip bir özellik buldum. Regresyon modeli. Denetimli öğrenme y = 0 veya 1 . Titanik veriler.
Train'e göre, her şey olması gerektiği gibi, ne kadar çok öğrenirsek, tüm yöntemler için o kadar az hata olur.
OOB'ye göre, RMSE hatası 0.370671'e ulaşır ve ardından yeniden eğitimin başladığını gösteren büyümeye başlar. Ancak AvgEr ve AvgRelEr daha da düşmeye devam ediyor. Bana tüm hataların eşzamanlı olarak davranması gerektiği gibi geldi, yani. RMSE ile birlikte büyümeye başlamalıydı.
Hesaplama formülleri:
Hesaplamalar çok benzer (kare alma (Sqr) ve mutlak değer (fabs) işareti kaldırır), ancak eğrilerin davranışı farklıdır...
Sınıflandırma modeliyle eğitimi tekrarladım, RMSE'nin 0.370671'e ulaştığı noktada da bir minimumu var.
Bu tür bir hata davranışıyla karşılaşan var mı? Bu nasıl açıklanabilir?
SMA ve EMA gibi, AvrEr daha geç - anladığım kadarıyla - bir sayı oyunu.
Arşivin olmadığı tek nokta bu. Geliştiricilere, geçmişten alınabilmeleri için OI'yi kopyaya dahil etmeleri uzun zamandır önerilmiştir. Ama bazı sınırlamalar var gibi görünüyor. Bir seçenek olarak, bana danışmanı yapan arkadaşa sorabilirim. Her zaman yazıyor, ama tüm enstrümanlarda değil. Sadece göstergenin eğrisi nedeniyle yazmayı bıraktım :-(
Misha senin için video kaydettim birazdan yükleyeceğim
Misha senin için video kaydettim birazdan yükleyeceğim