Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 487

 
Ivan Negreshniy :

Teoride, rastgele ormanlarda küçük bir hata olmalıdır, çünkü karar ağaçlarında oluşturulduklarında, tüm değişkenler kullanılır ve sinir ağlarında olduğu gibi bellek kullanımında - nöronların sayısında - herhangi bir kısıtlama yoktur. Burada, seviyeyi sınırlama, ağaçları budama veya torbalama gibi sonucu "bulanıklaştırmak" için yalnızca bireysel işlemleri kullanabilirsiniz. Alglib'in MQ uygulamasında kırpma olup olmadığını bilmiyorum, torbalama var

bu değişken 1'den küçük yapılırsa hata artmalıdır.


öyle, ancak hata yukarıda açıklandığı gibi hala ortalama olarak gösterildi .. şimdi normal

 2017.09 . 27 18 : 34 : 34.076 RF sample (EURUSD,H1)   Info= 1   Error= 0.2893400000000008
2017.09 . 27 18 : 34 : 34.077 RF sample (EURUSD,H1)   Тест 1 >> 1 * 6 = 6 // 7*2=14 // 1*5=5 // 5*5=25 // 3*8=24 // 1*8=8 // 9*6=55 // 8*8=64 // 2*2=4 // 9*4=37 // 
2017.09 . 27 18 : 34 : 34.077 RF sample (EURUSD,H1)   Тест 2 >> 4.3 * 8.7 = 36.34 ( 37.41 ) // 2.0*6.3=12.18(12.60) // 7.1*5.7=42.39(40.47) // 2.1*1.6=3.96(3.36) // 8.9*2.5=26.57(22.25) // 

Bu arada, r'de o.1 oranında bir azalma olsa bile, hata çok iyidir. büyük ölçüde artar. Üst r 0,9 alt 0,8

 2017.09 . 27 18 : 36 : 11.298 RF sample (EURUSD,H1)   Info= 1   Error= 0.5431000000000188
2017.09 . 27 18 : 36 : 11.299 RF sample (EURUSD,H1)   Тест 1 >> 3 * 7 = 21 // 6*1=7 // 8*3=24 // 2*1=2 // 4*5=20 // 7*5=34 // 7*7=49 // 1*9=10 // 6*9=55 // 7*7=49 // 
2017.09 . 27 18 : 36 : 11.300 RF sample (EURUSD,H1)   Тест 2 >> 6.0 * 6.3 = 37.00 ( 37.80 ) // 2.7*8.4=23.85(22.68) // 5.6*6.2=36.71(34.72) // 7.3*6.6=48.66(48.18) // 7.4*2.8=20.74(20.72) // 

r = 0.66'da (RF'nin klasik versiyonunda olduğu gibi)

 2017.09 . 27 18 : 37 : 44.484 RF sample (EURUSD,H1)   Info= 1   Error= 0.7935200000000080
2017.09 . 27 18 : 37 : 44.485 RF sample (EURUSD,H1)   Тест 1 >> 2 * 1 = 3 // 6*1=7 // 2*6=13 // 5*9=45 // 7*8=57 // 2*6=13 // 7*5=35 // 3*3=9 // 8*4=33 // 6*1=7 // 
2017.09 . 27 18 : 37 : 44.485 RF sample (EURUSD,H1)   Тест 2 >> 4.1 * 9.9 = 40.11 ( 40.59 ) // 7.6*3.2=24.40(24.32) // 6.8*8.3=55.62(56.44) // 1.9*5.6=11.64(10.64) // 9.3*7.8=71.33(72.54) // 

Ve sonuçlar gösteriyor ki Tablo. çarpma zaten kötü bir şekilde çözüyor

 
Ivan Negreshniy :

Teoride, rastgele ormanlarda küçük bir hata olmalıdır, çünkü karar ağaçlarında oluşturulduklarında, tüm değişkenler kullanılır ve sinir ağlarında olduğu gibi bellek kullanımında - nöronların sayısında - herhangi bir kısıtlama yoktur. Burada, seviyeyi sınırlama, ağaçları budama veya torbalama gibi sonucu "bulanıklaştırmak" için yalnızca bireysel işlemleri kullanabilirsiniz. Alglib'in MQ uygulamasında kırpma olup olmadığını bilmiyorum, torbalama var

bu değişken 1'den küçük yapılırsa hata artmalıdır.

hatanın @Maxim Dmitrievsky kadar küçük olması için
И тоже очень маленькая ошибка: 2017.09 . 27 16 : 26 : 12.267   RF sample (EURUSD,H1)   Info= 1   Error= 0.0000000000000020
500000000000000 için 1 yanlış işlem yapmanız gerekir ki bu hiçbir enstrümanda mümkün değildir.

Samimi olarak.
 
Andrey Kisselev :
hatanın @Maxim Dmitrievsky kadar küçük olması için
500000000000000 için 1 yanlış işlem yapmanız gerekir ki bu hiçbir enstrümanda mümkün değildir.

Samimi olarak.

Ve burada anlaşmalar var, size her karar ağacının pratik olarak tüm kalıpları hatırladığını ve örneğin %100'ü ile eğitim setinde hiç hata olmayabileceğini anlatıyorum, yani. R=1.

Evet, bu bir fazlalık, ancak algoritma böyle çalışıyor, bu yüzden rastgele ormanlarda her türlü hileyi kullanıyorlar.

 
Ivan Negreshniy :

Ve burada anlaşmalar var, size her karar ağacının pratikte tüm kalıpları hatırladığı ve örneğin %100'ünde hiç hata olmayabileceği gerçeğini anlatıyorum, yani. R=1.


bunun için modeli değerlendirmek için çantadan dışarı bakmanız gerekir, ancak daha sonra r = 0.66 max set evet

 
Ivan Negreshniy :

Ve burada anlaşmalar var, size her karar ağacının pratikte tüm kalıpları hatırladığını ve %100 bir örneklemle hiç hata olmayabileceğini anlatıyorum, yani. R=1.

Ormanın nasıl çalıştığına girmedim. ama sözlerinize dayanarak, her ağacın daha sonra tekrarlanamayacak bir tür deseni hatırladığını anlıyorum. aynı zamanda, buna göre (tekrar olmadığı için), artı olarak çalışma olasılığının ne olduğunu söyleyemeyiz ve bir aksiyom olarak, olasılığını 0,5 olarak almak yerine 1 olarak alıyoruz, çünkü esasen bilinmiyor. dolayısıyla ormanın pratikte yanılmadığını anlıyoruz (sözlerinden).

Samimi olarak.
 
Maksim Dmitrievski :

bunun için modeli değerlendirmek için çantadan dışarı bakmanız gerekir, ancak daha sonra r = 0.66 max set evet

Muhtemelen seçmek gerekiyor, ancak bir torbalama tahmin için çok güçlü bir teknoloji değil - IMHO
 
Ivan Negreshniy :
Muhtemelen seçmek gerekiyor, ancak bir torbalama tahmin için çok güçlü bir teknoloji değil - IMHO

peki şimdiye kadar neyle zenginler.. :) o zaman normal bir lib'i diplerning ile bağlasam izlerim

ama hız!

 
Maksim Dmitrievski :

öyle, ancak hata yukarıda açıklandığı gibi hala ortalama olarak gösterildi .. şimdi normal

Bu arada, r'de o.1 oranında bir azalma olsa bile, hata çok iyidir. büyük ölçüde artar. Üst r 0,9 alt 0,8

r = 0.66'da (RF'nin klasik versiyonunda olduğu gibi)

Ve sonuçlar gösteriyor ki Tablo. çarpma zaten kötü bir şekilde çözüyor

NS sinyali için eşiği yükselttiğimde, gerekli giriş verilerinin miktarını artırarak bunu telafi ettim, sonuç olarak hata azaldı, ancak giriş için daha az seçenek vardı.






Samimi olarak.
 
Andrey Kisselev :
Ormanın nasıl çalıştığına girmedim. ama sözlerinize dayanarak, her ağacın daha sonra tekrarlanamayacak bir tür deseni hatırladığını anlıyorum. aynı zamanda, buna göre (tekrar olmadığı için), artı olarak çalışma olasılığının ne olduğunu söyleyemeyiz ve bir aksiyom olarak, olasılığını 0,5 olarak almak yerine 1 olarak alıyoruz, çünkü esasen bilinmiyor. dolayısıyla ormanın pratikte yanılmadığını anlıyoruz (sözlerinden).

Samimi olarak.
R=1, her ağacın tüm eğitim modellerini hatırladığı anlamına gelir ve 0.66, yalnızca %66 olduğu anlamına gelir ve her ağaç, geri dönüşlü kalıpları seçer, yani. aynı desenler ormanın birçok ağacında tekrarlanabilir.
 
Andrey Kisselev :
NS sinyali için eşiği yükselttiğimde, gerekli giriş verilerinin miktarını artırarak bunu telafi ettim, sonuç olarak hata azaldı, ancak giriş için daha az seçenek vardı.




Samimi olarak.

Eh, burada soru zaten doğru özelliklerde ve hedefte, çarpım tablosundan daha basit görünse de, orada bile hata küçük değil