Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 376

 
elibrarius :

Bir doğrulama sitesi ile erken durdurma yöntemiyle ALGLIB eğitiminde bulundu:

Erken durdurma kullanarak sinir ağı eğitimi (temel algoritma - düzenlileştirmeli L-BFGS).
...
Doğrulama seti hatası uzun süre artarsa algoritma durur
yeterli veya adım boyutu yeterince küçüktür (burada görevler vardır
doğrulama seti sonsuza kadar azalabilir). Her durumda çözüm
döndürülen minimum doğrulama seti hatasına karşılık gelir.


Bana bir şeyler yanlış geliyor, çünkü gerçek ticarette çubuklar kendi sıralarına göre gidecek ve bir saat ve bir gün önce olanlarla karıştırılmadan gidecek.
Ve pazarın "karakteri" değişirse, yeni NN modellerini yeniden öğrenmek veya aramak gerekir.


Ağınızda 500'den fazla bağlantınız var mı? Birkaç nöron varsa L-BFGS'nin LM'den daha az etkili olduğunu yazıyorlar.
 
Maksim Dmitrievski :

Ağınızda 500'den fazla bağlantınız var mı? Birkaç nöron varsa L-BFGS'nin LM'den daha az etkili olduğunu yazıyorlar.
Şimdiye kadar, daha az, zamandan tasarruf etmek için - geliştirme aşaması, her şeyi bitirir bitirmez, tahmin edicileri ve ağ şemalarını aramak için zaten sonuna kadar zorlanacağım
 
elibrarius :
Şimdiye kadar, daha az, zamandan tasarruf etmek için - geliştirme aşaması, her şeyi bitirir bitirmez, tahmin edicileri ve ağ şemalarını aramak için zaten sonuna kadar zorlanacağım


Belki tam olarak anladığında bir makale yaz? :) Alglib nöronu hakkında iyi makale yok, tercüme edilmesi zor bir makale var

NS'nin açıklaması gibi bir makale (çünkü Alglib için normal bir referans bile bulamadım) ve botta eğitim / yeniden eğitim, otomatik optimizasyon örneği. Bu benim, sadece çalışmak için yeterli bilgi olmadığını fark ettim. Bunun için de para ödüyorlar gibi görünüyor) boşuna değil zaman harcıyorlar

 
Maksim Dmitrievski :


Belki tam olarak anladığında bir makale yaz? :) Alglib nöronu hakkında iyi makale yok, tercüme edilmesi zor bir makale var

NS açıklaması gibi bir yazı (çünkü Alglib için normal bir referans bile bulamadım) ve botta eğitim/yeniden eğitim, otomatik optimizasyon örneği. Bu benim, sadece çalışmak için yeterli bilgi olmadığını fark ettim. Görünüşe göre onlar da ödüyor) boşuna vakit harcamak

Muhtemel değil - bir makale için zamanın% 100'ünü bulamayacağım ... ayrıca, kendim Ulusal Meclis'i yeni anlamaya başlıyorum, akıllı / yeni bir şey söyleyemem.

https://www.mql5.com/ru/articles/2279'u temel aldım. 8 saat çalışma durumuna getirildi. Sanırım çoğu programcı daha fazla zaman almayacak.

Ve şimdi sonuçlandırmak, ek yapmak bir hafta sürüyor. seçenekler, testler vb.
Нейросеть: Самооптимизирующийся советник
Нейросеть: Самооптимизирующийся советник
  • 2016.10.03
  • Jose Miguel Soriano
  • www.mql5.com
Возможно ли создать советник, который согласно командам кода автоматически оптимизировал бы критерии открытия и закрытия позиций с определенной периодичностью? Что произойдет, если реализовать в советнике нейросеть (многослойный персептрон), которая, будучи модулем, анализировала бы историю и оценивала стратегию? Можно дать коду команду на ежемесячную (еженедельную, ежедневную или ежечасную) оптимизацию нейросети с последующим продолжением работы. Таким образом возможно создать самооптимизирующийся советник.
 
elibrarius :
Muhtemel değil - bir makale için zamanın% 100'ünü bulamayacağım ... ayrıca, kendim Ulusal Meclis'i yeni anlamaya başlıyorum, akıllı / yeni bir şey söyleyemem.

https://www.mql5.com/ru/articles/2279'u temel aldım. 8 saat çalışma durumuna getirildi. Sanırım çoğu programcı daha fazla zaman almayacak.

Ve şimdi sonuçlandırmak, ek yapmak bir hafta sürüyor. seçenekler, testler vb.


Hala Bayes sınıflandırıcısı + genetiğine bakıyorum, iyi sonuçlar. Izgaralarla, kafamda bir şekilde çamurlu, birçok nüans

evet, aynı makaleden bahsediyorum, programcıdan çok tüccar olmama rağmen bana sindirilebilir gelmedi)

 
Sonuçların karıştırılmasıyla ilgili durum belirsizliğini koruyor:

Karıştırılmamış veriler üzerinde erken durdurma eğitimi:

Eğitimde ortalama hata (%80) segmenti =0.535 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6
Doğrulama (%20) alanında ortalama hata =0.298 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6
Tam site (eğitim + doğrulama):
Ortalama Öğrenme Hatası=0.497 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6
Testte ortalama hata (%20) bölümü =0.132 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6

Doğrulama sitesinde bir düzenleme yapılmış gibi görünüyor. Test bir genellikle başarılı, ancak eğitimde değildi ve karşılaştırılmadı, görünüşe göre sadece bir tesadüf.
Topluluklar aynı işlevi görüyor ve orada bölme 2/3 ve her iki bölüm arasında her şey karışık, aynısını yapmaya çalışacağım ...
Karıştırıldı:

Eğitim (%60) segmentinde ortalama hata =0.477 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6
Doğrulama sitesinde ortalama hata (%40) =0.472 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6
Tam site (eğitim + doğrulama):
Ortalama Öğrenme Hatası=0.475 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6
Test alanında ortalama hata (%20) alanı =0.279 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6

Karıştırma nedeniyle, eğitim ve doğrulama alanlarında hata düzeltildi.
Ve testte daha da kötüleşti.

Verileri karıştırmak ve daha sonra bunları eğitim ve doğrulamaya bölmek bana yanlış geliyor çünkü gerçek ticarette çubuklar kendi sıralarına göre gidecek ve bir saat, bir gün veya bir hafta öncekilerle karıştırılmamış. Benzer şekilde, doğrulama bölümünün başlangıçta, sonra ortada ve sonra sonda olduğu çapraz doğrulama algoritmaları için.
Ve pazarın "karakteri" değişirse, yeni NN modellerini yeniden öğrenmeniz veya aramanız gerekir.

Ve son bölümde karıştırıp doğrulamazsanız, bu bölüme sığmaktan nasıl kaçınılır?
 
elibrarius :
4 parsel elde edilir mi? Eğitim/doğrulama/test1/test2 ?

Kaç eğitim/onaylama döngüsü yapılmalıdır? Bu konuda hiçbir bilgi görmedim ... Toplamda 1 döngü? - ve bundan hemen sonra, tahmin ediciler kümesindeki veya ağ şemasındaki bir şeyi onaylıyor veya değiştiriyoruz? Daha doğrusu, N eğitim döngüsü için bize en iyilerinden biri gösterilecektir.


Test bölümü2 bir karardır: eğer eşleşmezse, tercihen bir dizi tahmin edici ile baştan başlarız.


not.

Bu arada, hala bir testçi var, DONANIM'ın nihai kararı.

 
elibrarius :
Sonuçların karıştırılmasıyla ilgili durum belirsizliğini koruyor:

Karıştırılmamış veriler üzerinde erken durdurma eğitimi:

Eğitimde ortalama hata (%80) segmenti =0.535 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6
Doğrulama (%20) alanında ortalama hata =0.298 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6
Tam site (eğitim + doğrulama):
Ortalama Öğrenme Hatası=0.497 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6
Testte ortalama hata (%20) bölümü =0.132 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6

Doğrulama sitesinde bir düzenleme yapılmış gibi görünüyor. Test bir genellikle başarılı, ancak eğitimde değildi ve karşılaştırılmadı, görünüşe göre sadece bir tesadüf.
Topluluklar aynı işlevi görüyor ve orada bölme 2/3 ve her iki bölüm arasında her şey karışık, aynısını yapmaya çalışacağım ...
Karıştırıldı:

Eğitim (%60) segmentinde ortalama hata =0.477 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6
Doğrulama sitesinde ortalama hata (%40) =0.472 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6
Tam site (eğitim + doğrulama):
Ortalama Öğrenme Hatası=0.475 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6
Test alanında ortalama hata (%20) alanı =0.279 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6

Karıştırma nedeniyle, eğitim ve doğrulama alanlarında hata düzeltildi.
Ve testte daha da kötüleşti.

Verileri karıştırmak ve daha sonra bunları eğitim ve doğrulamaya bölmek bana yanlış geliyor çünkü gerçek ticarette çubuklar kendi sıralarına göre gidecek ve bir saat, bir gün veya bir hafta öncekilerle karıştırılmamış. Benzer şekilde, doğrulama bölümünün başlangıçta, sonra ortada ve sonra sonda olduğu çapraz doğrulama algoritmaları için.
Ve pazarın "karakteri" değişirse, yeni NN modellerini yeniden öğrenmeniz veya aramanız gerekir.

Ve son bölümde karıştırıp doğrulamazsanız, bu bölüme sığmaktan nasıl kaçınılır?


1. Benim görüşüme göre, sizden hiçbir şey öğrenilmiyor - sadece hedef değişkenle ilgisi olmayan tahmin edicilerin rastgele bir sonucu.


2. Karıştırma.

NS'yi bilmiyorum.

Ancak diğer birçok ML algoritmasında eğitim tam olarak bir satırda yapılır. Her tahmin edicinin BİR değeri alınır ve ona hedef değişken atanır. Yani karıştırma önemsizdir. Komşuları dikkate alan MO algoritmaları vardır.

Ama her durumda, bakış açılarımız örtüşüyor ve başlangıçta her zaman test2 üzerinde karıştırmadan test yapıyorum.


not.

Tekrar.

İki farklı örnekteki hata sizinkiyle aynıysa, bu, sisteminizin yalnızca bir aykırı değer için umutsuz olduğu anlamına gelir.

 

İnternet denen dipsiz bir çöplükte dolaşırken böyle bir kağıt parçasına rastladım.

Artificial Neural Networks architectures for stock price prediction:comparisons and applications

başka bir deyişle - stok tahmini için NN mimarileri - karşılaştırma ve uygulama

Dosyalar:
 
elibrarius :
Sonuçların karıştırılmasıyla ilgili durum belirsizliğini koruyor:


Verileri karıştırmak ve daha sonra bunları eğitim ve doğrulamaya bölmek bana yanlış geliyor çünkü gerçek ticarette çubuklar kendi sıralarına göre gidecek ve bir saat, bir gün veya bir hafta öncekilerle karıştırılmamış. Benzer şekilde, doğrulama bölümünün başlangıçta, sonra ortada ve sonra sonda olduğu çapraz doğrulama algoritmaları için.
Ve pazarın "karakteri" değişirse, yeni NN modellerini yeniden öğrenmek veya aramak gerekir.

Ve son bölümde karıştırıp doğrulamazsanız, bu bölüme sığmaktan nasıl kaçınılır?

Tren/test/geçerli olarak böldükten sonra, treni karıştır . Diğer setleri karıştırmayın.
Bu, sinir ağlarına göre sınıflandırma için geçerlidir. Ayrıca, derin sinir ağlarını eğitirken, sinir ağını beslemeden önce her bir mini parti karıştırılır.

İyi şanlar