Sinir ağının girişine ne beslenmeli? Fikirleriniz... - sayfa 54

 



Bu fikir: Bildiğiniz gibi, SL ve TP genellikle antrenman/optimizasyon sırasında ayarlanmaz. Eğitim için zordur ve optimize ederken - geri ve ileri sonuçlar genellikle onlarsız olduğundan daha kötüdür.


Ve görev, NS'ye hem kar hem de zararda zamanında çıkmayı öğretmektir. Ancak pratikte, duraklar olmadan geri ve ileri giderken, NS genellikle aşırı oturmaya başlar veya dipte kapanır, çünkü yeni veriler konusunda becerileri yoktur - ne zaman çıkılacağı.






Peki ya düşüşü araçlarla girersek? NS'nin burnunu, ağır bir düşüş göreceği ve buna tepki vereceği çalışmasının çevrimiçi sonucuna sokacağız. Örneğin, bir sayının NS'nin çalışmasını değeri ne kadar fazlaysa o kadar etkilediği bilinmektedir. Normal çalışmada giriş düşüş değeri sıfır veya sıfıra yakın olacaktır, ancak pozisyon kötüye gittiğinde - değer artacak ve ağırlıkların tamsayı yapısını "kabusa çevirmeye" başlayacaktır, bunun sonucunda optimize edici ağırlıkları bu girdiye tepki verecek şekilde seçecektir.








Sonunda, ya onu geçersiz kılacak, böylece ona müdahale etmeyecek, bu durumda özellik çalışmayacak ya da bir şekilde çalışmasına tepki vermeyi öğrenecektir. Tüm hesap verilerinin de bir durum olarak atıldığı takviye ile eğitim notları: bakiye, düşüş vb. Ancak MLP ile böyle bir şey yapmadım. İlginç bir şey varsa, sizegeri yazacağım.

 
Ivan Butko takviye ile eğitim notları: bakiye, düşüş vb. Ancak MLP ile böyle bir şey yapmadım. İlginç bir şey varsa, sizegeri yazacağım.
Fikir ilginç. Denedim, (diğerlerinin yanı sıra) [0;1] aralığına normalize edilmiş mevcut deponun %'si cinsinden düşüşü girdim. Sonra konuyu hızlıca araştırmak için çok derin buldum, bu yüzden başka görevlere geçtim.
 
Ivan Butko #:

Eğer düşüşü araçlarla girersek ne olur?

Bu bir martingale olacaktır. düşüşten gelen geri bildirim onu üretir ve bunun katı bir formülle veya bir nöronik katmanla nasıl gerçekleştirildiği önemli değildir.

 
Maxim Kuznetsov #:

Martingale martingale olacaktır. geri çekilme ile geri bildirim onu üretir ve bağlantının katı bir formülle veya bir nöronik katmanla nasıl uygulandığı önemli değildir.

Deneylerimde bunun tam tersi oldu - ağ en ufak bir düşüşte alım satım faaliyetini bastırmaya çalıştı, alım satım eksikliği için ceza vermek zorunda kaldım.
 
Ivan Butko #:
MLP için, bu 3 nöron ile.

Kaç tahminci var? Modelde sonucu gerçekten kaç tahminci etkiliyor?

Diğer araçlarda da benzer sonuçlar alıyor musunuz?

Eğitimi nasıl durduruyorsunuz - hangi kritere göre veya tam arama ile?

 
Aleksey Vyazmikin #:

Kaç tane tahmin edici var? Modeldeki sonucu gerçekten kaç tahmin edici etkiliyor?

Diğer enstrümanlarda da benzer sonuçlar alıyor musunuz?

Eğitimi nasıl durdurursunuz - hangi kritere göre veya tam bir arama ile?




ZigZag olduğunda, 1 ila 3 giriş arasında. Koridordaki fiyat pozisyonu olduğunda, yine 1 ila 3 giriş arasında. Sadece euro, pound ve frangı kontrol ettim.

Euro ve poundda her şey iyi, frankta fiyat pozisyonu daha iyi davranıyor, görünüşe göre çiftin düzlüğü nedeniyle. Eğitim, hatanın ters yayılımı yoluyla durmazsam, NeuroPro'da hata sayısı yerine ZeroStep'in birkaç görünümünden sonra kendini durdurur.
Orada hangi kriterin ayarlandığını bilmiyorum. Ve eğer bir optimizatörse, durana kadar tam zamanlı çalıştırıyorum. Bazen ikinci kez çalıştırırım. Roman Poshtar makalelerinde on kez çalıştırıyor, ben henüz böyle olaylara ulaşmadım.

 







İki özellik uyguladım Hepsi uydurma ile ilgili, bu yüzden doğaüstü bir şey yok Birincisidinamik ağırlık, aralık hareketliliği, giriş numarasını yapay birişlevden geçirme.





Hepsi aynı öze sahip. Kendime pinterest'te bir fikir çizdim, fikrin varyasyonları


Yani, girdi değerinin ne olduğuna bağlı olarak, farklı bir ağırlıkla çarpılır. Böyle bir şey MT optimizatöründe nöron başına daha fazla değer tüketir, ancak daha esnektir.






Ve bazen girdi verilerinin potansiyelini ortaya çıkararak aynı sayıda ağırlığa sahip standart MLP'de görünmeyen kümeler üretir. İkinci özellik sinyal yükseltme/zayıflatmadır.



Bir önceki çipteki kaydırıcıdan (bir sayı aralığındaki ayrı bir bölüm kutup değiştirdiğinde) farklıdır, çünkü sayıları yalnızca kutuplarında çevirir. Örneğin, [0..1] aralığından 0.9 girişine bir sayı gelirse, sistem bunu 0.1'e çevirir.



Eğer aralık [-1..1] ve sayı -0.3 ise, ters çevrilecek ve negatif bölgeye -0.7'ye yükseltilecektir. Bu özellik, geleneksel bir MLP'de sürekli olarak sadece zayıflayan sinyali yükseltmeniz gerekiyorsa gereklidir (ağırlıkların özellikleri nedeniyle - hepsi - 0'dan azdır). Elbette, özellikle ilk özellikle ilgili olarak -2 ila 2 veya -10 ila 10 aralığını ağırlık olarak ayarlamak mümkündür - ancak öncelikle, parametrelerle sınırlı olan ve Optimiser için hiçbir şey olmayan tek bir boolean (doğru-yanlış) ile sayıyı tersine çevirmenin daha kolay olduğu Optimiser için daha pahalıdır ve bu yeni sayıyı 0-l'nin altındaki standart ağırlıkla çarpın, böylece girişle gerekli düzeltmeyi yapın. İkinci olarak, 0.01 ve altındaki giriş sayısını böyle bir aralıkla yükseltmek imkansızdır. Sistem için hala etkisiz olacaktır. Peki ya stratejinin anahtarı ise?

İsteğe bağlı olarak optimize edici, girdiye zayıflatma veya güçlendirme uygulayıp uygulamayacağını da seçer.




Uygulamadaki tüm bu özellikler, benim öznel görüşüme göre, Optimiser tarafından sağlanan sınırlı formdaki girdi verilerinin potansiyelini daha iyi ve daha hızlı bir şekilde ortaya çıkarmaktadır.
Ayrıca, standart ağırlık şemasında (tümü ile ve statik) girdi verilerinin ortaya çıkarılmasına izin vermeyen yeni kümeler sunar.

 

Özellik


Şaşırtıcı bir şekilde, bariz bir MLP hatası buldum - sadece alım satımları tarihe uydurmakla kalmıyor, pozisyonları da özellikle tarihe uyduruyor





Bu hususlara dayanarak, bir ayna modülü ekledim - verileri girişe yalnızca yansıtılmış olarak yeniden gönderiyorum: her değer -1 ile çarpılıyor. Ancak bunu yalnızca pozisyonlardan birinde sinyal yoksa yapıyorum. Yani, ilk çalıştırmadan sonra NS'nin çıktısı açılış eşiğinden büyükse - lütfen rahatça açın.

Ve eğer eşik değerinden küçükse - o zaman NS'nin işlem yapmak istemediği grafikteki tersine çevrilmiş desene karşılık gelip gelmediğini görmek için onu yansıtırım. Ve eğer yeni değer eşik değerinden yüksekse - o zaman OUT'u bu değere, ancak ters işaretle yeniden yazarım.


Sonuç olarak, NS tek ve aynı tür pozisyondan "saklanamaz" ve grafiğe bağlı olarak hem AL hem de SAT açmak zorunda olduğu gerçeğine katlanmak zorundadır.




Şimdi "eğimde" SAT'lar kaybolmuyor ve AL'lar yükselişte kaybolmuyor Pratikte, daha az set var, aşırı "havalı" olanlar gitti ve "iyi" olanlar kaldı. Sübjektif olarak, aşırı optimize edildiğinde, geri ve ileride dengenin dibe gitmekten daha sık dalgalandığı görülüyor.

Bu zaten iyi. Bence böyle bir özellik NS'nin zorunlu bir özelliği olmalı.

 
Ivan Butko #:




Pratikte, daha az set var, aşırı "havalı" olanlar gitti ve "iyi" olanlar kaldı. Sübjektif olarak, geri ve ileride, aşırı optimize edildiğinde, denge dibe gitmek yerine daha sık uçuyor gibi görünüyor.

Bu zaten iyi. Bence bu özellik NS'nin zorunlu bir özelliği olmalı.

Fikri doğru anladıysam, bu koşullar altında ağ temelde yalnızca ayna kalıplarını aramaya çalışır.

Muhtemelen, daha az işlem vardır, çünkü gerçek ayna desenleri yok gibi görünmektedir, satış ve alış için farklı desenler vardır - bunu gözlerinizle iyi görebilirsiniz.

İki yön için iki ağı eğitmeyi deneyebilirsiniz ve her iki yöndeki işlem sayısı yaklaşık olarak eşit olmalıdır. İşlem sayısında güçlü bir fark olması durumunda - ff'nin nihai değerine cezalar veya azalan bir katsayı uygulayın.

 
Andrey Dik #:

Eğer fikri doğru anladıysam, ağ esasen bu koşullar altında sadece ayna kalıplarını aramaya çalışıyor.

Muhtemelen, daha az işlem var, çünkü gerçek ayna kalıpları yok gibi görünüyor, satmak ve satın almak için farklı kalıplar var - bunu gözlerinizle görebilirsiniz.

İki yön için iki ağı eğitmeyi deneyebilirsiniz ve her iki yöndeki işlem sayısı yaklaşık olarak eşit olmalıdır. İşlem sayısında güçlü bir fark olması durumunda - ff'nin nihai değerine cezalar veya azalan bir katsayı uygulayın.








Ticaretin temel paradigmalarına geldik: 1) Kalıplar alış ve satış için aynıdır, sadece ayna gibidir 2) Alış ve satış için kalıplar farklıdır Evet, gerçekten de, kanıt olmadığı sürece, bazı inançlara veya gerçeklere güvenebilirsiniz.



Bu durumda, yukarıda da söylediğim gibi, bilinen tüm TS'lerde AL ve SAT koşullarının aynı, ayna gibi olduğu gerçeğine güveniyorum. Bu hem tükenen (%99,9....) TS'ler hem de başarılı olanlar için geçerlidir. Başarılı olanların altını çiziyorum.


Anlaşma türlerinden birinin herhangi bir ayrımcılığının ileri ve geri işlemleri olumsuz etkilemesi de bence ikinci pozisyona karşı oynuyor.



Örneğin, aralıkla ilgili numaram - eğer yansıtılmamışsa, ancak farklıysa (yani -1'den 0'a ve 0'dan 1'e farklı ağırlıklara sahip tamamen farklı alanlar olacaktır) - o zaman optimizasyon ve eğitimin kendisi hem optimizasyon döneminde - korkunç ve sıkışık hem de ileri ve geri - korkunç ve sıkışık görünecektir. Ve yansıtılmışsa - o zaman yumuşak geçişlerin gerçekleşmesi daha olasıdır.


Ayrıca ikinci seçeneğe karşı, yukarıda belirtildiği gibi, 2020'de öğretirseniz - o zaman 2021'de dökülür.
Ve bunlar, Yeni Yıldan başlayarak yön olarak zıt iki yıldır. Dolayısıyla, aynası olmayan bir NS veya ayrı olarak eğitilen BUY için ayrı bir NS'nin 2021'de tüm optimizasyon setlerine dökülmesi garanti edilir. Onlara birbiri ardına basarsınız, hepsi zirve yapar.



Hepsi AL'ı öğrendi ve 2021'de yapabildikleri her yerde AL'ı açıyorlar, bundan nasıl çıkacaklarını bilmiyorlar ve sadece biraz SAT ve sonra - nerede olduğu belli değil. Ama bu varyantı reddetmiyorum ve elime gelen her şeyi test ediyorum )) Çünkü her gün yeni bir şey ortaya çıkıyor