Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 82

 
Neutron >> :

Burada tam bir anlayışa sahip değilim.

Açıklamaya göre ( Ezhov Alexander Alexandrovich , Shumsky Sergey Alexandrovich "Nörobilgisayar" ), genelleme hatasının en aza indirildiği bir optimal uzunluk vardır Popt=w^2/d, burada d NN girişinin boyutudur, w ise NN'nin tüm yapılandırılabilir parametrelerinin sayısı. Dolayısıyla, bu bakış açısından, sinir ağının P<Popt'u eğitim örneğini "hatırlıyorsa" sinir ağı aşırı eğitilmiştir. P>Popt varyantı da iyi değil, çünkü daha uzun bir süre boyunca, okumalar arasındaki korelasyonlarda bir azalmaya eşdeğer olan piyasa eğiliminde bir değişiklik olasılığı daha yüksektir.

Öte yandan, NN, fazla tahmin edilen sayıda eğitim döneminde "sürüklenebilir" ve sonuç olarak, genelleme hatası yeniden büyümeye başlayacak veya sürüklenmeyecektir ... Genel olarak, burada sayısal işlem yapmanız gerekir. kendi içinde çok kaynak gerektiren bir dizi istatistikle deneyler! Ancak, yapılması gerekiyor. Durumu önemli ölçüde kolaylaştırın, eğitim vektörünün optimal uzunluğu için yukarıdaki koşulların kanıtı. gpwr, tamir etme arzunuz var mı?

çizelgelerinize bakmak


sonra birkaç soru ortaya çıkıyor. Anladığım kadarıyla, daireler içindeki kırmızı çizgi, ağırlıkların farklı rastgele başlangıç değerlerine sahip birkaç istatistiksel deneydeki ortalama öğrenme hatasıdır. Daireler içeren mavi çizgi, eğitilmemiş verilerdeki ortalama tahmin hatasıdır. Doğru şekilde? İnce çizgiler yayılma aralığını gösterir. Şimdi sorular

1. Alttaki ince mavi çizgi, alttaki ince kırmızı çizgiyle eşleşiyor mu? Başka bir deyişle, örneklem dışı tahminin doğruluğu, en küçük öğrenme hatasıyla istatistiksel deneyler için gelişiyor mu?

2. Öğrenme hatasının yayılımı sıfıra daralmadığı için öğrenmenin global minimuma ulaşmadığı anlamına gelir.

Şimdi bu soru beni çok üzüyor: Eğitimsiz örnekler üzerindeki tahminlerin daha doğru olacağı umuduyla küresel minimuma ulaşan bir öğrenme algoritması aramaya değer mi? Sistemimi çalıştırıyorum ve eğitimini nerede durdurduğuma bağlı olarak tahminlerinin ne kadar tutarsız olduğunu görüyorum. Aynı dönem sayısını 1000 olarak ayarlasanız bile, aynı eğitim örneklerinde farklı çalıştırmalarda tahminler farklıdır. Tahminlerin yarısı - fiyat artacak, diğer yarısı - düşecek. Ben bunu sevmedim. Çok uzun süre antrenman yaparsanız, ağ küresel minimuma yaklaşır ve farklı koşularda tahminleri aynıdır.

Optimum örnek sayısına gelince, bunu düşüneceğim. Bu basit değil. Pazarın istatistiklerini ve dağılımının ne kadar hızlı değiştiğini bilmeniz gerekir. Numune sayısındaki artış, ağın dokunaçlı bir ineği tespit ettiği ve bunu belirleme sürecinde ineği bir kaplumbağaya çevirdiği durumuna yol açacaktır. Sonuç olarak, ağ, önünde toynakları olan boynuzlu bir kaplumbağa olduğu sonucuna varıyor. Bununla birlikte, örnek sayısı azaltılırsa, örneğin ağın yalnızca bir ineğin boynuzlarını hissetmesine izin verilirse, o zaman birçok seçenek olacaktır: bir inek, bir geyik, bir keçi, bir geyik, vb.

 
gpwr писал(а) >>

Numune sayısındaki artış, ağın dokunaçlı bir ineği tespit ettiği ve bunu belirleme sürecinde ineği bir kaplumbağaya çevirdiği durumuna yol açacaktır. Sonuç olarak, ağ, önünde toynakları olan boynuzlu bir kaplumbağa olduğu sonucuna varıyor. Bununla birlikte, örnek sayısı azaltılırsa, örneğin ağın yalnızca bir ineğin boynuzlarını hissetmesine izin verilirse, o zaman birçok seçenek olacaktır: bir inek, bir geyik, bir keçi, bir geyik, vb.

+5 Kesinlikle katılıyorum.

Hala Yezhev ve Shumsky arasında geziniyorsunuz. Belki ispatla ilgili fikirler ortaya çıkar.

Daireler içeren mavi çizgi, eğitilmemiş verilerdeki ortalama tahmin hatasıdır. Doğru şekilde?

Doğru şekilde.

1. Alttaki ince mavi çizgi, alttaki ince kırmızı çizgiyle eşleşiyor mu? Başka bir deyişle, örneklem dışı tahminin doğruluğu, en küçük öğrenme hatasıyla istatistiksel deneyler için gelişiyor mu?

Kaynak yoğunluğu göz önüne alındığında, tam zamanlı bir deney yapmadım. Ama bunun gerekli olduğunu kabul ediyorum ve kendimi bunu yapmaya zorlayacağım.

PS gpwr , 5 yıl önce, TEK çıkış nöronlu iki katmanlı doğrusal olmayan bir NN için varlığını kanıtlayabilen ve değiştirilmiş bir ORO algoritması uygulayabilen iki Amerikalının çalışmasına bir bağlantıyla internette tanıştım. Bu nedenle, etkinleştirme işlevinin özel bir biçimiyle (ve ağın bilgi işlem gücü, belirli türüne bağlı değildir), yeni algoritmanın öğrenme oranı iki büyüklük mertebesinden fazladır! klasik ORO'yu aşıyor. Böyle bir şeye rastladın mı?

 
Neutron >> :

+5 Kesinlikle katılıyorum.

Hala Yezhev ve Shumsky arasında geziniyorsunuz. Belki ispatla ilgili fikirler ortaya çıkar.

Doğru şekilde.

Kaynak yoğunluğu göz önüne alındığında, tam zamanlı bir deney yapmadım. Ama bunun gerekli olduğunu kabul ediyorum ve kendimi bunu yapmaya zorlayacağım.

PS gpwr , 5 yıl önce, TEK çıkış nöronlu iki katmanlı doğrusal olmayan bir NN için varlığını kanıtlayabilen ve değiştirilmiş bir ORO algoritması uygulayabilen iki Amerikalının çalışmasına bir bağlantıyla internette tanıştım. Bu nedenle, etkinleştirme işlevinin özel bir biçimiyle (ve ağın bilgi işlem gücü, belirli türüne bağlı değildir), yeni algoritmanın öğrenme oranı iki büyüklük mertebesinden fazladır! klasik ORO'yu aşıyor. Böyle bir şeye rastladın mı?

ORO'nun birkaç çeşidiyle karşılaştım:

QuickProp - 1988, daha hızlı yakınsama için ikinci dereceden türev eklendi

RProp - Resilient back-Propagation - 1993, Riedmiller, Almanca, algoritmanın özü degradeyi işaretiyle değiştirmektir.

iRProp - Geliştirilmiş RProp - 2000, Igel, Almanca, aynı RProp, ancak geçmiş dönemde eğitim hatası artmışsa ağ bir adım geri adım atıyor

SARProp - Simüle Edilmiş Tavlama geri Yayılımı - 1998, Treadgold, Avustralya, küresel yakınsama için önceki çağdaki hata arttığında belirli koşullar altında rastgele adım boyutu ekledi

JRProp - Jacobi RProp, 2005, Anastasiadis, İngiltere'den Yunanca, aynı iRProp, ancak artan hata ile biraz farklı dönüş yöntemi

GRProp, GJRProp - Global RProp/JRProp - 2005, Anastasiadis, her çağda en küçük ağırlık adımı seçilir ve garip bir formülle değiştirilir

hepsini denedim. RProp, iRProp, JRProp hemen hemen aynı şekilde çalışır. SARProp ve GRProp global yöntemleri çalışmıyor. Bu algoritmalarla ilgili makaleleri kolayca bulabilirsiniz.

buraya bak Rusça içinde

http://masters.donntu.edu.ua/2005/kita/tkachenko/library/article01/index.htm

www.iis.nsk.su/preprints/pdf/063.pdf

 

Teşekkür ederim. Kesinlikle bir göz atacağım.

Bu iki Amerikalı, yalnızca tek çıkışlı bir NN için kendi hızlı algoritmalarını geliştirdiler, yani. Son derece uzmanlaşmış bir şey hakkında.

 

Kendime 2001i Pro aldım

Dün yayınladığım dağıtım çizelgelerini kısaca yorumlayabilir misiniz?

 

Tabii ki.

Onlar doğru. Birinci ve üçüncü şekil. ikincisine ilişkin küçük istatistikler ve birincisine ilişkin küçük H'ye ilişkin olarak hiçbir ilgileri yoktur. Ve işte ikinci resim. temsilci:

Kagi dağılımı için (soldaki şekil), bölme adımı H'den daha küçük boyutta kol uzunluklarının olmadığı not edilebilir ( paralocus , olağandışı veri temsilleri açısından kesinlikle büyük bir orijinalsiniz, örneğin, ölçün bölme adımı noktalarda değil, yayılmalarda... ) ve kolların uzunluklarının görünme sıklığında, uzunluklarında bir artışla üstel bir azalma. Bir dizi işlem için, +/-H edatlarında uzunlukların oluşma sıklığının neredeyse rafa benzer bir dağılımı ve ayrıca H'den daha büyük uzunluklara hareket edildiğinde üstel bir azalma not edilebilir. Olarak Şekil l'de görülebilir. sağda. NN ( H olarak normalize edilmiş) için giriş verilerinin böyle bir temsilinin neredeyse ideal olduğunu düşünüyorum, çünkü "kurnaz" normalleştirme ve merkezleme prosedürleri gerektirmez (MO aynı şekilde sıfıra eşittir). Doğru, Kagi temsilinin optimalliği sorusu açık kalıyor. Sonuçta burada sorunun kapsamlı bir şekilde çözülmesi gerekiyor ve birlikte ikinci önemli blok MM. Yeniden yatırım yapılmayan TS için, Kagi dökümü gerçekten de optimaldir.

 
Teşekkür ederim. MM benim için hala gizli. Birkaç kez bir lot tarafından biriken parayı yeniden yatırmaya çalıştım ve önemli bir kayıp aldım. Bu konunun başında omuz ile bağlantılı olarak MM hakkında yazmıştınız. Ancak kaldıraç, tüccar tarafından düzenleniyor mu? Bence kaldıraç = 100 ve bu kadar. Riski azaltmak için yalnızca çiftleri seçebilirsiniz. AUDUSD'yi tercih ederim - Ben de gönderilerinizi gözetledim. Genel olarak, bunun hakkında (benim için) konuşmanın zamanı henüz gelmedi. Şimdi iki kat yapacağım. Bugün kodlayacağım, yarın ne olduğunu göstereceğim.
 
Alım satım kaldıracı, lot değerinin sermaye miktarına oranı ile orantılıdır. Bu nedenle, işlem gören lotun boyutunu artırarak veya azaltarak, esasen kaldıraç boyutunu değiştirmiş olursunuz. Analizde, kaldıraç kullanımı lot boyutundan daha kolaydır. bu miktar boyutsuzdur. Bu yüzden formüllerimde kullandım.
 

Aslında, MT test cihazı, sayılabilir sayıda ayarlanabilir parametreye (MA'lar periyotları, optimal genlikler, vb.) ve tüm bunları karıştırmak için "kurnaz" bir algoritmaya sahip çeşitli girişlere (MA'lar, stokastikler ve diğer TA göstergeleri) sahip bir kara kutudur. kendi içinde. Çıkışta bir Sat/Al veya Durdur ticaret emrimiz var. Aracın karını maksimize etme koşulundan, geçmiş veriler üzerinde en uygun parametreleri seçmenize izin veren bir optimizasyon prosedürü vardır. Sana bir şey hatırlatmıyor mu? İşte bu, TA göstergelerinin, işlemeleri için kurnaz (doğrusal olmayan) bir algoritma ile birlikte, esasen çok katmanlı bir algılayıcının aktivasyonunun doğrusal olmayan bir işlevi olduğunu düşünürsek, o zaman hepimiz buradayız, uzun yıllardır, aynı şeyi yapıyorduk - kendi sinir ağlarımızı inşa etmek ve eğitmek! Ancak bu gerçek açık değildir ve bu nedenle strateji test cihazıyla çalışırken çok fazla sorun vardır (uyum, bulunan optimumun kararsızlığı vb.). Forumda, birçok saygın kişi Ulusal Meclis hakkında şüphelerini sıklıkla dile getiriyor, ancak aslında boş zamanlarında aynı şeyi yapıyorlar ve başka bir şey yok gibi görünüyor! Düşünmek.

Bu doğruysa, açıkçası AI terimlerinin diline geçmeniz gerekir. Bunca yıldır bize eziyet eden şeylerden çok şey anlaşılacaktır. Örneğin, bir test cihazını geçmişe uydurmak, basitçe onun yetersiz uzunluğudur (TS olaylarında ölçülür, yani çubuk sayısında değil, işlemlerde ölçülür) veya aynı şey, aşırı sayıda ayarlanabilir parametredir. Yetersiz karlılık - doğrusal fiyat dönüşümüne sahip göstergeler kullanılır (piyasa olayları arasındaki doğrusal olmayan korelasyonlardan yararlanılmaz), vb. Önemsiz olmayan bir başka an - NS teorisinde, ağın hesaplama gücünün belirli bir doğrusal olmayanlık türüne bağlı olmadığı kanıtlanmıştır. Bundan, fiyat serilerini TS'ye işlemek için kurnaz ve önemsiz olmayan göstergeleri ve algoritmaları doldurmanın çok az mantıklı olduğu sonucu çıkar, bu TS'nin tahmin özelliklerini belirgin şekilde etkileyemez. Öte yandan, genelleme hatasını (NN açısından) en aza indirmek çok önemlidir ve bunun için tarihsel verilerin optimal uzunluğunu ve gösterge sayısını doğru seçmek yeterlidir!

Kısacası, ister istemez hepimiz aynı şeye bağlıyız ve strateji test cihazını cilalamamızın veya kendi ağımızı yazmamızın bir önemi yok. Tam olarak ne yaptığımızı ve nedenini anlamamız önemlidir.

Not: Sentetikler üzerinde biraz yalnız perceptronchik kullandım.

Öğrenme sürecinde, nöronun küresel minimuma (soldaki kırmızı şekil) güvenle nasıl yuvarlandığı açıkça görülmektedir, bu, farklı değerlere sahip deneyler için öğrenme sürecini karakterize eden sıfıra (ince çizgiler) varyans ile kanıtlanmıştır. ağırlıkların ilk başlatılması. Öte yandan, genelleme hatası (tahmin yeteneğinin karşılığı) belirli bir öğrenme anından başlayarak tekrar büyümeye başlar, bu da nöronun yeniden eğitilmesi sürecini gösterir, bilgiyi genelleme yeteneğini kaybeder. Şek. aynı veriler sağda, ancak hata eksenlerinde gösterilir. Eğitim için optimum iyi işaretlenmiştir.

 

"Test cihazını cilalamak" ile meşgul olduğumda benzer duyumlar geldi, ancak konu anlaşılmadı ... - :)

Ancak şimdi, görünüşte basit, ancak daha fazla çalışma fikri sular altında kaldı. Dün söylediğim bir şey:

Оптимальным каги-разбиением тикового ВР с порогом Н, следует считать такое разбиение, при котором имеется минимальное количество следующих друг за другом одноцветных плеч ряда транзакций. При этом средняя длина плеча равна величине средней взятки.


Onlar. Aslında, ne hakkında yazdığın ortaya çıktı - alma, durmaya eşittir! Burada ince bir nokta var:

Alınan işlem serisinin dağılımı, birbirini izleyen omuzların %50'sinden fazlasının farklı bir renge sahip olduğu şekildeyse, o zaman neden NS?


PS Bir yazım hatası düzeltildi