Makale danışmanı. Herkes için test. - sayfa 4

 
Reshetov :


Uzman Danışman, alım satım sinyallerinden gelecekteki bir kısa pozisyon olasılığını hesaplayacak şekilde iyileştirildi. Buna göre, olasılık 0,5'ten büyükse kısa olanı açarız, yoksa uzun olanı açarız.



Alımları ve geyiği sabit yaptı, yani. artık sinyalleri açmıyor. MM'yi vidalayabilmek için bu gereklidir.

Aşağıdaki resim ortaya çıkıyor: ilk 136 işlem optimizasyon, gerisi OOS.


Bu konu tüccarlar için ilgi çekici olmadığından ve buraya sadece konuşmacıların kimliğini tartışmak için geldiği için, danışmanın değiştirilmiş kodunu eklemiyorum.


Yuri, onları dinleme. Lütfen değiştirilmiş Uzman Danışmanı yayınlayın.
 
Andru80 :
Yuri, onları dinleme. Lütfen değiştirilmiş Uzman Danışmanı yayınlayın.

Bir makale olacak, bir danışman olacak. Bakalım neymiş... Biraz tecrübe ve testlerle fikri değerlendirmeye gerek yok. Bekleyelim.
 
Figar0 :

Bir makale olacak, bir danışman olacak. Bakalım neymiş... Biraz tecrübe ve testlerle fikri değerlendirmeye gerek yok. Bekleyelim.

Danışmanı makaleden önce yayınlıyorum, böylece herkes onu test edebilir ve konuşabilir (gerçi büyük olasılıkla kişiliğimi yeniden tartışmaya başlayacaklar mı?).


Mesele Expert Advisor'da bile değil, ona eklediğim anti- fit algoritmasında.

Artık uzun süre başarılı ileri testler aramanıza ve test sonuçlarını derinlemesine incelemenize gerek yok, ancak sonuçların en üst sıralarına gitmeniz gerekiyor, orada bir yerde olmalılar, olmaları oldukça olası. en üst satırda.

Test sonuçları ve optimizasyon sonuçları çok farklı olabilir çünkü. antifitting yalnızca optimizasyon sırasında etkinleştirilir ve diğer zamanlarda devre dışı bırakılır.

İşte test sonuçlarının en üst satırının bir grafiği (ilk 404 işlem optimizasyondur, gerisi ileriye dönük bir testtir):


Expert Advisor ekteki dosyada ekli (derlenmiş olduğu makalenin yayınlanmasından önce kodunu makalede açacağım).

Giriş parametreleri:

x0, x1, x2, x3, x4, x5, x6, x7 - 1'lik artışlarla 0 ila 100 arasında ayarlanabilir.

sl - kaybı durdur ve puan al. Örneğin, beş basamaklı H1'deki EURUSD için, 50'lik artışlarla 100'den 1000'e kadar alabilirsiniz (dört basamak için tüm sayılardan bir sıfırı kaldırın). Optimize edildi.

lot - lot cinsinden hacim, optimizasyon için en az 1 lot ayarlamanız gerekir. Optimize edilmemiş.

mn - sihirli sayı. Optimize edilmemiş.

d - parti büyüklüğündeki ondalık basamak sayısı. Onlar. 0.01'e izin veriliyorsa, d = 2 olarak ayarlayın. Optimize edilmedi.

Kâr faktörüne göre optimizasyon, optimizasyon sonuçlarının da bu parametreye göre sıralanması.

Her ihtimale karşı, ZIP arşivinde dosyayı, sahip olduğum gibi danışmanın ayarlarıyla birlikte gönderirim.

Dosyalar:
rnn_v3_1.ex4  7 kb
rnn_v3.zip  1 kb
 

İlginç sonuç!

Yura , danışmanın atıldığı analizde kullanılan enstrümanın verileri mi?

 
Neutron :

İlginç sonuç!

Yura , danışmanın atıldığı analizde kullanılan enstrümanın verileri mi?

Evet, yani diğer araçlar analiz edilmez. TA sadece açılış fiyatları üzerinden gerçekleştirilir.


Prensip olarak, girdiler o kadar zor değil, dahil. Tüm bu ekonominin hesaplandığı kod parçalarını gösterebilirim:


   // Считываем показания индикаторов
   double a1 = input ( 9 , 0 );
   double a2 = input ( 9 , 1 );
   double a3 = input ( 9 , 2 );

   // Вычисляем вероятность торгового сигнала для короткой позиции
   double result = getProbability(a1, a2, a3);

   ...

// Показания индикаторов , должны быть в диапазоне от 0 до 1
// p - период индикатора
// shift - смещение вглубь истории в периодах индикатора
double input ( int p, int shift) { 
   return ( iRSI ( Symbol (), 0 , p, PRICE_OPEN , p * shift) / 100.0 );
}
 

Teşekkür ederim.

Anti-fitting... NN'nin klasiklerini hatırlayacak olursak, anti-fitting, ileriye dönük tahmin hatasının minimumunu bulmaya gelir. Bu, her birinde NN yeniden eğitimi ile yüz veya iki bağımsız çalışma hakkında istatistik toplayarak uygulanabilir. Bu anlaşılabilir bir durumdur, ancak ilk VR'nin sonlu uzunluğu ve durağan olmaması nedeniyle uygulanması çok zordur.

Başka bir yol, eğitim setinin optimal uzunluğu için bir tahmin elde etmektir. Bildiğim kadarıyla, henüz kimse bu sorunu genel bir biçimde çözemedi ...

Başardın mı?

 
Neutron :

Başka bir yol, eğitim setinin optimal uzunluğu için bir tahmin elde etmektir. Bildiğim kadarıyla, henüz kimse bu sorunu genel bir biçimde çözemedi ...

Çözmeye gerek yok. Belirli bir vaka için yeterli uzunlukta eğitim örneği bulması yeterlidir, bu çok basit bir şekilde yapılır.

Evet ve bu bir anti-fit değil. Bu ikinci seviye bir uyumdur. n'inci seviye bir uyum için, test edilecek n+1 numune, son kontrol olmalıdır.

Reshetov'un asla sahip olmadığı ikincisidir.

 

Ne kadar basit!

Eğrinin her noktası için istatistik toplamanız gerekir. Ve fiyat aralığı bir ayda özelliklerini tamamen değiştirirse nereden alınır?

 

Hayır, hiçbir şey net değil.

Yuri'nin durumunda, NN, tarihin belirttiğim bölümündeki ağırlıkları basitçe sıralayarak eğitilir ... değil mi? Eğer öyleyse, o zaman sadece her yinelemede ticaretin sonucu analiz edilir. Ve şu ifade : "...Artık uzun süre ileriye dönük başarılı testler aramanıza ve test sonuçlarının derinlerine inmenize gerek yok, ancak sonuçların en üst satırlarını gözden geçirmeniz gerekiyor, orada bir yerde olmalılar. , en üst sıralarda olmaları oldukça olası ... " , doğru değil - başarılı forvetler her yerde olabilir ve her yere bakmanız gerekir.

 
Neutron :

Teşekkür ederim.

Anti-fitting... NN'nin klasiklerini hatırlayacak olursak, anti-fitting, ileriye dönük tahmin hatasının minimumunu bulmaya gelir. Bu, her birinde NN yeniden eğitimi ile yüz veya iki bağımsız çalışma hakkında istatistik toplayarak uygulanabilir. Bu anlaşılabilir bir durumdur, ancak ilk VR'nin sonlu uzunluğu ve durağan olmaması nedeniyle uygulanması çok zordur.

Başka bir yol, eğitim setinin optimal uzunluğu için bir tahmin elde etmektir. Bildiğim kadarıyla, henüz kimse bu sorunu genel bir biçimde çözemedi ...

Başardın mı?

Ticaret sistemlerine gelince, burada yalnızca geçmişe uyum sağlamak mümkündür. Sinir ağlarında aynı anda iki kötü şey vardır: uydurma ve yeniden eğitim. Ayrıca, yeniden eğitim durağan veriler üzerinde de gerçekleşir.

Ancak sinir ağları ile, yeterli girdilerle, bir tür sinir ağı paketiyle veya kendi kendine yapılan bir ızgara ile uğraşırken, Leonid Velichkovsky tarafından dile getirilen yöntemi kullanırsak, biraz daha kolaydır: eğitim örneklerini iki örneğe böleriz. : eğitim ve test ve öğrenme sürecinde sonuçları her iki örnekte de hesaplıyoruz ve ızgarayı yalnızca eğitimde eğitiyoruz. Test numunesinde sonuçların iyileştirilmesi durur durmaz, yani. gelişmeye devam etmezse, ağ yeterince eğitilir ve bu durmalıdır. Onlar. bu şekilde, ağı en uygun şekilde eğitiriz - daha iyi olmayacak, daha da kötüye gitmesi kolay. Ağın tam olarak ne kadar yeniden eğitildiği veya ayarlandığı, bu durumda gerçekten umursamıyoruz çünkü. test örneğinde bir ekstremum var.

Terminalde yerleşik bir genetik algoritma ile bu çok daha zordur, çünkü ileri bölümlerdeki sonuçları hesaplayamıyoruz ve optimizasyonu zamanında durduramıyoruz. Bu nedenle, manuel olarak göstergelere göre sıralanan optimizasyon sonuçlarında ileriye bakmanız gerekir.

Biraz farklı bir yoldan gittim:

1. Sinir ağının yeniden eğitilmesinin nedenini buldu ve ortadan kaldırdı. Onlar. eğitim örnekleri durağansa ve çelişki içermiyorsa, o zaman algoritmam fazla sığmaz, ancak örnek sayısı enterpolasyon için yeterli değilse kolayca eksik olabilir.

2. Montajı daha zordu. Ancak sorunun da çözülebilir olduğu ortaya çıktı, çünkü. uyum esas olarak eğitimin kalitesine bağlıdır, yani. ödül ve ceza sisteminin yeterliliği, aksi takdirde algoritma en az dirençli yolu izleyecek ve aslında yeterli bir şekilde değil, kendisi için daha kolay bir şekilde öğrenecektir. Bu yüzden ona karşı en az dirençli olan bu yolları ortadan kaldırdım, yani. genetik algoritmayı, pip sayısına göre değil, sonuçların olasılıklarının hesaplanmasının kalitesine göre değerlendirmeye zorladı.

3. Durağan olmama. Bunun üstesinden gelmek mümkün değildi, çünkü. algoritmaya değil, yalnızca piyasaya bağlıdır. Tahminlerin kalitesine gerçek bir engel olan tek şey budur. Ancak, eğitimin diğer eksiklikleri giderilirse etkisi, artık kazanmaya müdahale edecek kadar büyük değildir.