Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 15
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Tahmin ediciler oluşturmak için temel olarak standart göstergeler kullanıyorum. Şimdiye kadar, bunu kendim deniyorum, bu forum konusundaki fikirleri deniyorum.
Bunu son haftalardır yapıyorum, şimdi en iyi sonuç şu şekilde elde ediliyor: (birçok hesaplama, daha hızlı hale getirmek için bu yaklaşımı genel olarak D1 zaman diliminde inceliyorum, sonra daha küçük bir TF'ye geçeceğim)
1) mt5'ten csv'ye dışa aktarma: ohlc, zaman, göstergeler, tümü son 10 bar için. Son zamanlarda sadece en yeni çubuktan zaman almaya başladım, kalan çubukların süresinin hesaplandığını ve bu nedenle yeni bilgi taşımadığını düşünüyorum. Birkaç yüz "birincil" tahmin edici ortaya çıkıyor. Gerekli öğrenme sonucu - "1" veya "0" - bir sonraki çubuk için fiyat artışı veya düşüşü. Zigzaglarla her şey benim için istikrarsız ve zor çıkıyor, şimdi kapanış fiyatlarıyla çalışmakta daha iyiyim. Tam model eğitim algoritmasını sıfırdan çalıştığımda, zikzaklar ve trend tahmini yapmak mümkün olacak.
2) Mevcut verilerle R'de çeşitli matematiksel işlemler yapıyorum - toplama, deltalar, min, maks, vb. Halihazırda binden fazla tahminci var.
3) Açıkçası, ikinci adımdan sonra gereğinden fazla çöp var. Ana bileşenlerle ilgili makaledeki yönteme göre filtreliyorum http://www.r-bloggers.com/principal-components-regression-pt-2-y-aware-methods/ , SanSanych bunun hakkında daha önce burada yazdı . PCR modelinin kendisini eğitmiyorum, şimdilik tahmin edicilerin ön taraması için böyle bir fonksiyonda durdum:
srcTable - tahmin ediciler içeren tablo, son sütun istenen öğrenme sonucu olmalıdır. pruneSig -1'de bırakılmalıdır.
Sonuç olarak, işlev, tablodan bazı yararlı bilgiler taşıyan sütunların adlarını içeren bir liste döndürür. Veya yararlı bir şey bulunamazsa boş bir liste. Makalede bu yöntemin özellikle önemli olmadığı belirtiliyor, ancak oldukça yeterli olduğu ortaya çıkıyor, çöpleri çok iyi filtreliyor. Ayrıca, sonuçların listesi önem sırasına göre en yararlıdan en az yararlıya doğru sıralanacaktır.
4) İşlev boş bir liste döndürdüyse - ikinci adıma tekrar geçiyorum, mevcut veriler üzerinde tekrar farklı matematiksel kombinasyonlar oluşturuyorum, ardından eleme için üçüncü adım. Yani 3-4 kez tekrarlamanız gerekiyor. Her yinelemede veri miktarı artar, bu nedenle oluşturulan yeni veri miktarını bir şekilde sınırlamak daha iyidir. Bu işlevi bırakma için değiştirebilirsiniz, böylece liste boşsa yüz veya iki en iyi sonucu döndürür ve yalnızca bunlardan yeni tahminciler oluşturulabilir.
5) Ayrıca, makaleye göre, ana bileşenlerin modelini eğitmeniz gerekiyor. Bununla ilgili sorunlarım var, şimdiye kadar eğitilmiş model için en iyi r-kare = 0.1, bu yeterli değil, yazdıkları makalede en az 0.95 gerekli. Ancak, elde edilen tahmin ediciler üzerinde, R'den başka bir model eğitebilirsiniz ve sonuç daha iyi olacaktır. Bir nöronla en fazla deneyime sahibim, onunla yapılan bir ön testte en iyi sonuç yaklaşık %37'lik bir hata ile çıkıyor. PCE modeli, teorik olarak, yeniden eğitim vb. olmadan daha kararlı olmalıdır, ancak şimdiye kadar bunun için tahmin edicileri toplamak mümkün olmamıştır.
Tebrikler, sonuçları yayınladığınız için teşekkürler.
Umarım bu yazınız takdir edilecektir - eğer karar vermediyseniz, İŞLEMİN TEMEL SORUNUNU ÇÖZMEYE YAKLAŞIYORSUNUZ, BU AŞIRI DEĞİLDİR.
Diğer her şey takip edecek.
Bir kez daha tebrikler, iyi şanslar!
Tahmin ediciler oluşturmak için temel olarak standart göstergeler kullanıyorum. Şimdiye kadar, bunu kendim deniyorum, bu forum konusundaki fikirleri deniyorum.
Bunu son haftalardır yapıyorum, şimdi en iyi sonuç şu şekilde elde ediliyor: (birçok hesaplama, daha hızlı hale getirmek için bu yaklaşımı genel olarak D1 zaman diliminde inceliyorum, sonra daha küçük bir TF'ye geçeceğim)
1) mt5'ten csv'ye dışa aktarma: ohlc, zaman, göstergeler, tümü son 10 bar için. Son zamanlarda sadece en yeni çubuktan zaman almaya başladım, kalan çubukların süresinin hesaplandığını ve bu nedenle yeni bilgi taşımadığını düşünüyorum. Birkaç yüz "birincil" tahmin edici ortaya çıkıyor. Gerekli öğrenme sonucu - "1" veya "0" - bir sonraki çubuk için fiyat artışı veya düşüşü. Zigzaglarla her şey benim için istikrarsız ve zor çıkıyor, şimdi kapanış fiyatlarıyla çalışmakta daha iyiyim. Tam model eğitim algoritmasını sıfırdan çalıştığımda, zikzaklar ve trend tahmini yapmak mümkün olacak.
2) Mevcut verilerle R'de çeşitli matematiksel işlemler yapıyorum - toplama, deltalar, min, maks, vb. Halihazırda binden fazla tahminci var.
3) Açıkçası, ikinci adımdan sonra gereğinden fazla çöp var. Ana bileşenlerle ilgili makaledeki yönteme göre filtreliyorum http://www.r-bloggers.com/principal-components-regression-pt-2-y-aware-methods/ , SanSanych bunun hakkında daha önce burada yazdı . PCR modelinin kendisini eğitmiyorum, şimdilik tahmin edicilerin ön taraması için böyle bir fonksiyonda durdum:
srcTable - tahmin ediciler içeren tablo, son sütun istenen öğrenme sonucu olmalıdır. pruneSig -1'de bırakılmalıdır.
Sonuç olarak, işlev, tablodan bazı yararlı bilgiler taşıyan sütunların adlarını içeren bir liste döndürür. Veya yararlı bir şey bulunamazsa boş bir liste. Makalede bu yöntemin özellikle önemli olmadığı belirtiliyor, ancak oldukça yeterli olduğu ortaya çıkıyor, çöpleri çok iyi filtreliyor. Ayrıca, sonuçların listesi önem derecesine göre daha faydalıdan daha az faydalıya doğru sıralanacaktır.
4) İşlev boş bir liste döndürdüyse - ikinci adıma tekrar geçiyorum, mevcut veriler üzerinde tekrar farklı matematiksel kombinasyonlar oluşturuyorum, ardından eleme için üçüncü adım. Yani 3-4 kez tekrarlamanız gerekiyor. Veri miktarı her yinelemede artar, bu nedenle oluşturulan yeni veri miktarını bir şekilde sınırlamak daha iyidir. Bu işlevi bırakma için değiştirebilirsiniz, böylece liste boşsa yüz veya iki en iyi sonucu döndürür ve yalnızca bunlardan yeni tahminciler oluşturulabilir.
5) Ayrıca, makaleye göre, ana bileşenlerin modelini eğitmeniz gerekiyor. Bununla ilgili sorunlarım var, şimdiye kadar eğitilmiş model için en iyi r-kare = 0.1, bu yeterli değil, yazdıkları makalede en az 0.95 gerekli. Ancak, elde edilen tahmin ediciler üzerinde, R'den başka bir model eğitebilirsiniz ve sonuç daha iyi olacaktır. Bir nöronla en fazla deneyime sahibim, onunla yapılan bir ön testte en iyi sonuç yaklaşık %37'lik bir hata ile çıkıyor. PCE modeli, teorik olarak, yeniden eğitim vb. olmadan daha kararlı olmalıdır, ancak şimdiye kadar bunun için tahmin edicileri toplamak mümkün olmamıştır.
Ön testte %30 hata varsa, bu zaten oldukça karlı bir modeldir, üzerinde mt5 için bir danışman yapın ve strateji test cihazında kontrol edin.
Bu kursu izlemeye başladım, Python'da Pandas çerçevesine çok dikkat ediliyor. İlk dersler, veri analizine değil, tam da bu çerçeveye ilişkin bir öğretici gibidir. Ancak sunucular, diğer birçok gereksiz eğitimde olduğu gibi tipik "Ben bir Forex gurusuyum, şimdi gözlerinizi açacağım ve milyonlar kazanacaksınız" olmadan yeterli görünüyorlar, bu da sonuna kadar yeterli şeylerin söyleneceğine dair umut veriyor. Ancak bu kursun forex için değil, hisse senedi ticareti için tasarlandığını da dikkate almakta fayda var, bu iki alandaki eğitim modellerinin süreçleri benzer mi bilmiyorum.
Tahmin ediciler oluşturmak için temel olarak standart göstergeler kullanıyorum.
...
2) Mevcut verilerle R'de çeşitli matematiksel işlemler yapıyorum - toplama, deltalar, min, maks, vb. Halihazırda binden fazla tahminci var.
3) Açıkçası, ikinci adımdan sonra gereğinden fazla çöp var. Ana bileşenlerle ilgili makaledeki yönteme göre filtreliyorum http://www.r-bloggers.com/principal-components-regression-pt-2-y-aware-methods/ , SanSanych bunun hakkında daha önce burada yazdı .
...
Sonuç olarak, işlev, tablodan bazı yararlı bilgiler taşıyan sütunların adlarını içeren bir liste döndürür. Veya yararlı bir şey bulunamazsa boş bir liste. Makalede bu yöntemin özellikle önemli olmadığı belirtiliyor, ancak oldukça yeterli olduğu ortaya çıkıyor, çöpleri çok iyi filtreliyor. Ayrıca, sonuçların listesi önem sırasına göre en yararlıdan en az yararlıya doğru sıralanacaktır.
Hesaplamanın TAMAMEN rastgele olduğu hissini bırakmaz! Tahminciler çöp. Belki aralarında bir elmas belirir, çünkü Hayat "çorbadan" doğabilir!
Bu yaklaşımla, hesaplamaların yetkin bir optimizasyonu olduğu ortaya çıktı. Kaba kuvvet olmadığında, ancak daha makul algoritmalar olduğunda. Ama girişte aynı çöp.
Görünüşe göre bir saniyede herhangi bir hesaplama yapan harika bir bilgisayar olsaydı, o zaman hiçbir eğitime gerek kalmazdı. Ancak aynı zamanda, karlı bir TS elde etmede niteliksel bir değişiklik olmayacaktır. Ne yazık ki.
Bir meslektaşım makine öğrenimi üzerine bir kursun bağlantısını attı, lütfen bakın, bunu nasıl değerlendirirsiniz? Kurs ücretsizdir, ancak bir nedenden dolayı Python'a lanet olsun ((
https://www.udacity.com/course/machine-learning-for-trading--ud501
Burada her şey daha iyi gösteriliyor.
İyi şanlar
Hesaplamanın TAMAMEN rastgele olduğu hissini bırakmaz! Tahminciler çöp. Belki aralarında bir elmas belirir, çünkü Hayat "çorbadan" doğabilir!
.... Ne yazık ki.
Kesinlikle yanılıyorsunuz!
Bir örnekle açıklayayım.
Kod tabanını alıyoruz. Hepsi çöp ya da değerli bir şey var. Sonuçta, büyük olasılıkla, çok sayıda insanın deneyimi var.
Şimdi, kesinlik için, trendlerin ticaretini yapacağımızı varsayalım. Kod tabanındaki mevcut göstergelerden hangileri trend ticareti için faydalı olacaktır? Adından mı yoksa sezgisel olarak mı yargılayalım? Ve denemek için pratik olarak ne kadar alabilirsin? 10, 20, 100? Kombinasyon göz önüne alındığında, 100'ün ömür boyu test edici olduğunu düşünüyorum.
Ancak en önemli şey sadece test edilen göstergelerin sayısı değildir. Ana şey, danışmanın gelecekte çalışıp çalışmayacağıdır. Ve danışman gelecekte yalnızca bir durumda çalışacaktır - yeniden eğitilmemişse (fazla takılmamışsa). Mekanik ticaret sistemleri inşa etmedeki temel sorun, aşırı uyum sorunudur. Kaç kişi bu sorunu aşmayı başardı?
Bence Dr.Trader tahmincilerini bir el fenerinden toplamadı, ancak bir fikri vardı - şu anda bu kadar çok tahminci üretme fikri ilginç değil.
İlginç tamamen farklı.
Dikkat etmemiş olmanız ilginç.
Binlerce tahmin edicisinden Dr.Trader , Uzman Danışmanların yeniden eğitilmesine (fazla donatılmasına) yol açmayacak olanları seçebilir.
Aşırı donanımlı Uzman Danışmanların geliştirilmesine yol açmayacak tahmin edicileri nasıl seçeceğini bilmekle kalmıyor, aynı zamanda bunun yapıldığı kodu da yayınladı.
Kesinlikle yanılıyorsunuz!
Bir örnekle açıklayayım.
Kod tabanını alıyoruz. Hepsi çöp ya da değerli bir şey var. Sonuçta, büyük olasılıkla, çok sayıda insanın deneyimi var.
Tabii ki çöp! Pekala, tüm kod tabanını tahmin edici olarak alın ...
Binlerce tahmin edicisinden Dr.Trader , Uzman Danışmanların yeniden eğitilmesine (fazla donatılmasına) yol açmayacak olanları seçebilir.
Aşırı donanımlı Uzman Danışmanların geliştirilmesine yol açmayacak tahmin edicileri nasıl seçeceğini bilmekle kalmıyor, aynı zamanda bunun yapıldığı kodu da yayınladı.
Ve elmaslardan bahsetmemek için büyük bir çöp yığınından tek bir taş bulunmadığı ortaya çıktı. Evet dedim.
Yoksa burada falanca bir göstergenin çöp olmadığını haklı çıkarabilecek biri var mı? Ve bu öngörücünün göreceli önemini göstermek için sayılarla?
Evet, birçok yönden rastgele bir eylem alıyorum, katılıyorum. Ancak sadece bir göstergeyi alıp onun üzerinde bir danışman yapamazsınız, onunla çabucak kırmızıya dönersiniz. Göstergeler %100 çöp değildir, ancak tek başlarına fiyat hareketini tahmin etmek için yeterli bilgi taşımazlar. Ancak araştırmamda, göstergeleri birleştirerek tahmin etme yeteneklerini artırabileceğiniz, yani gerçekten çöpten bir elmas toplayabileceğiniz belirlendi. Sorun şu ki, binlerce olası kombinasyon var, ancak yalnızca düzinelerce kullanışlı ve hangi göstergelerin başlangıçta diğerlerinden daha iyi olduğunu hala bilmiyorum. Şimdiye kadar, bu sorun daha önce yazdığım gibi kaba kuvvet ve uzun hesaplamalar kullanılarak çözülüyor. Zamanla, hangi göstergelerin genellikle nihai tahmin edicilere düştüğüne dair istatistikler toplayacağım, sadece onlarla çalışmak mümkün olacak, her şey daha hızlı gidecek.
Alınan tahminciler üzerinde bir Uzman Danışman yapmaya başladım, sonuç gerçekten test cihazında görünecek. Doğru tahmin edilen çubukların %60'ı ile bile hala kırmızıda olabileceğinizi söylüyorlar, çünkü doğru tahmin edilen çubuklar için fiyat, yanlış olanlardan daha kısa bir mesafe kat edebilir. Eğer öyleyse, çubukların yüzdesini değil, modelin karlılığını değerlendirmek için nöronu eğitmek için kendi uygunluk fonksiyonunuzu yaratmanız gerekir.
Evet, birçok yönden rastgele bir eylem alıyorum, katılıyorum. Ancak sadece bir göstergeyi alıp onun üzerinde bir danışman yapamazsınız, onunla çabucak kırmızıya dönersiniz. Göstergeler %100 çöp değildir, ancak tek başlarına fiyat hareketini tahmin etmek için yeterli bilgi taşımazlar. Ancak araştırmamda, göstergeleri birleştirerek tahmin etme yeteneklerini artırabileceğiniz, yani gerçekten çöpten bir elmas toplayabileceğiniz belirlendi. Sorun şu ki, binlerce olası kombinasyon var, ancak yalnızca düzinelerce kullanışlı ve hangi göstergelerin başlangıçta diğerlerinden daha iyi olduğunu hala bilmiyorum. Şimdiye kadar, bu sorun daha önce yazdığım gibi kaba kuvvet ve uzun hesaplamalar kullanılarak çözülüyor. Zamanla, hangi göstergelerin genellikle nihai tahmin edicilere düştüğüne dair istatistikler toplayacağım, sadece onlarla çalışmak mümkün olacak, her şey daha hızlı gidecek.
Tek bir sanal gerçeklikte ilişkiler bulmak istiyorsunuz. Evet ve bu sanal gerçeklikte herhangi bir zamanda bulunması gereken ilişkiler.
Bu iki durum (kalın harflerle vurgulanmıştır) en hafif tabirle tuhaf görünmektedir.
Makine öğrenimi yöntemleri, resimlerdeki nesneleri (bir köpek, portakal vb.) tanımayı öğrenmiştir. Onlar. İnsan veya bazı hayvan türlerinin tanıyabileceklerini tanımayı öğrendiler. Bir İnsan veya bir hayvan VR fiyatını gördüğünde hiçbir şeyin farkında değildir. Onlar. Bir şekilde kendi Millet Meclisinde karşılaştırma yapamıyorlar. Ancak, bir İnsan aynı anda birkaç VR'ye baktığında, çıplak gözle bile benzerlikler görür. Ve bu benzerlikler gerçekten tanınır. Bu nedenle, makine öğrenmesi yöntemlerini teşvik etmek mantıklı olan bir nesnenin farkındalığı üzerinedir.
Önce kendimizi anlıyoruz, sonra algoritmaları deniyoruz . Sanırım ne demek istediğimi anladınız.
Bir zamanlar EURGBP bir gecede çok güzeldi (karlı). NS'niz onu tanımaz. Gecenin serinliğinin nedenlerini anlayanlar karları kesti. Sonra birdenbire havalı hale geldiği tarihi bulmak için EURGBP tarihinin bu parçalarına algoritmalar koydular. Bu serinlikten önceki verilerle statüyü bozmamak için. keşfetmeye başladı. Ve birçoğu bundan iyi para kazandı - sadece forumları okuyun.
Şimdi ALTIN/GÜMÜŞ'ün şimdi havalı olduğunu hayal edin. Böyle bir çift yok, ancak takas edebilirsiniz. Ancak kendinizi tek bir VR ile sınırladınız. Ve farklı BP'ler arasındaki ilişkileri aramak mantıklıdır. Sonra böyle bir "ALTIN/GÜMÜŞ" ortaya çıkabilir. Peki, haftanın aralıkları, gün vb. da büyük rol oynar. İnsanların davranışı günün saatine ve haftanın gününe bağlıdır. Bu bilinçli bir veridir, o yüzden orayı kazmak zorundasınız, IMHO.
Tek bir sanal gerçeklikte ilişkiler bulmak istiyorsunuz. Evet ve bu sanal gerçeklikte herhangi bir zamanda bulunması gereken ilişkiler.
...
Önce kendimizi anlıyoruz, sonra algoritmaları deniyoruz . Sanırım ne demek istediğimi anladın.
...
Ancak kendinizi tek bir BP ile sınırladınız. Ve farklı BP'ler arasındaki ilişkileri aramak mantıklıdır. Sonra böyle bir "ALTIN/GÜMÜŞ" ortaya çıkabilir. Peki, haftanın aralıkları, gün vb. da büyük rol oynar. İnsanların davranışı günün saatine ve haftanın gününe bağlıdır. Bu bilinçli bir veridir, o yüzden orayı kazmak zorundasınız, IMHO.
Hala koşullu "geleceğin" bir anda "geçmişe" bağımlılığını bulmaya çalışıyoruz. kürek çekmek. Ancak bu, bunu bir satır kombinasyonu için yapmaya çalışmayacağımız anlamına gelmez.
Tanıma hakkında. Burada portakallar için gerekçeleriniz geçerlidir. Bir uzman bile birkaç çeşit portakalı ayırt edebilir.
Finansal VR için, bir düzenliliği - yani, VR'nin mevcut tüm süre boyunca tek tip davranışını ayırt etmek gerekir. Evet, bazen bir şey görünür gibi görünüyor. Ancak bu bilgi çok belirsizdir ve bağımlılık parametreleri hiç iyi tanımlanmamıştır. Burada bir bilgisayar yardımı olmadan yapamazsınız. Gerçi gözle bağımlılık bulan ve kodlayan yoktur demiyorum.
Dr. Trader'a, önce çok fazla çöp toplamaya ve ardından değerli girdileri çıkarmaya çalışmasına katılıyorum. Bu girdilerin değeri, model eğitilerek ve doğrulanarak test edilir. Gürültü değilse, doğrulama bir artı olacaktır. Tüm makine öğrenimi kursu bu. )
Bunun gibi ham girdiler denedim:
> names(sampleA)
[1] "lag_diff_2" "lag_diff_3" "lag_diff_4" "lag_diff_6" "lag_diff_8" "lag_diff_11" "lag_diff_16"
[8] "lag_diff_23" "lag_diff_32" "lag_diff_45" "lag_diff_64" "lag_diff_91" "lag_diff_128" "lag_diff_181"
[15] "lag_diff_256" "lag_diff_362" "lag_diff_512" "lag_diff_724" "lag_mean_diff_2" "lag_mean_diff_3" "lag_mean_diff_4"
[22] "lag_mean_diff_6" "lag_mean_diff_8" "lag_mean_diff_11" "lag_mean_diff_16" "lag_mean_diff_23" "lag_mean_diff_32" "lag_mean_diff_45"
[29] "lag_mean_diff_64" "lag_mean_diff_91" "lag_mean_diff_128" "lag_mean_diff_181" "lag_mean_diff_256" "lag_mean_diff_362" "lag_mean_diff_512"
[36] "lag_mean_diff_724" "lag_max_diff_2" "lag_max_diff_3" "lag_max_diff_4" "lag_max_diff_6" "lag_max_diff_8" "lag_max_diff_11"
[43] "lag_max_diff_16" "lag_max_diff_23" "lag_max_diff_32" "lag_max_diff_45" "lag_max_diff_64" "lag_max_diff_91" "lag_max_diff_128"
[50] "lag_max_diff_181" "lag_max_diff_256" "lag_max_diff_362" "lag_max_diff_512" "lag_max_diff_724" "lag_min_diff_2" "lag_min_diff_3"
[57] "lag_min_diff_4" "lag_min_diff_6" "lag_min_diff_8" "lag_min_diff_11" "lag_min_diff_16" "lag_min_diff_23" "lag_min_diff_32"
[64] "lag_min_diff_45" "lag_min_diff_64" "lag_min_diff_91" "lag_min_diff_128" "lag_min_diff_181" "lag_min_diff_256" "lag_min_diff_362"
[71] "lag_min_diff_512" "lag_min_diff_724" "lag_sd_2" "lag_sd_3" "lag_sd_4" "lag_sd_6" "lag_sd_8"
[78] "lag_sd_11" "lag_sd_16" "lag_sd_23" "lag_sd_32" "lag_sd_45" "lag_sd_64" "lag_sd_91"
[85] "lag_sd_128" "lag_sd_181" "lag_sd_256" "lag_sd_362" "lag_sd_512" "lag_sd_724" "lag_range_2"
[92] "lag_range_3" "lag_range_4" "lag_range_6" "lag_range_8" "lag_range_11" "lag_range_16" "lag_range_23"
[99] "lag_range_32" "lag_range_45" "lag_range_64" "lag_range_91" "lag_range_128" "lag_range_181" "lag_range_256"
[106] "lag_range_362" "lag_range_512" "lag_range_724" "symbol" "month" "day" "week_day"
[113] "hour" "minute" "future_lag_2" "future_lag_3" "future_lag_4" "future_lag_6" "future_lag_8"
[120] "future_lag_11" "future_lag_16" "future_lag_23" "future_lag_32" "future_lag_45" "future_lag_64" "future_lag_91"
[127] "future_lag_128" "future_lag_181" "future_lag_256" "future_lag_362" "future_lag_512" "future_lag_724"
Zaman ve her türlü fiyat hareketi metriği var. Ardından bir de tarama yaptı. Bak ne oldu.
Bu, EA'nın eğitilmiş makineden R'ye sinyalleri alan kısmıdır. Seçilen girişler burada gösterilir. Ve bu arada, ilk etapta anlaşmanın açıldığı saat. Demek istediğim, zaman çok önemli!
Bu, 1999.02'den 2016.06'ya kadar tüm tarih için EA testidir:
Çarpık çıktı, ancak belirtilen girişlerde, makine hala gürültü DEĞİL, bağımlılıkları öğreniyor.
Bu nedenle, siyah içindeyiz. En azından deneylerin sonuçlarını iyileştiriyoruz.