Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Genel olarak, zaman serilerinin, özellikle de finansal olanların kesintiye uğraması önerilmez - bilgi kaybolur.....
Sigmoid işlevinin kendisi dağılımı düzleştirmiyor mu... Benim düşüncem, ön işleme yaparken veri durağanlığı sorununu çözmenin daha önemli olduğudur.
Bu arada verdiğiniz formül, W=420, d=14, sl-ama P> 50400 alıyorum - size biraz daha büyük bir örneklem elde edilmiş gibi gelmiyor mu?
Hayır, ne tekdüzelik, ne hiperbolik, ne de başka herhangi bir işlev dağılımı düzleştirmez. Fonksiyonu uygulamadan önce ve sonra dağılımı çizerek bunu doğrulamak kolaydır. Burada özel yöntemler uygulamanız gerekiyor.
Numunenin "genişliğine" gelince, burada bir uzlaşma mümkündür. Örneğin, daha kısa bir mevcut geçmiş veri uzunluğuyla, öğrenmenin erken durdurulmasını önermek mümkündür, bu yeniden eğitimin etkisinden kaçınacaktır, ancak sinir ağının bu eğitim yöntemiyle sınıflandırma yetenekleri her durumda olacaktır. Yeterince geniş bir geçmiş üzerine eğitilmiş sinir ağından daha aşağıdır.
Tecrübelerime (küçük) ve makalelerime göre, örnekteki örneklerin sayısı nasıl önerdiğinize bağlı değil ...
Ve deneyimlerime göre - çelişki yok - her şey teoriye göre.
Genel olarak, zaman serilerinin, özellikle de finansal olanların kesintiye uğraması önerilmez - bilgi kaybolur.....
Sinir ağlarının eğitiminin karmaşıklığı nedeniyle, her zaman mimari karmaşıklık ile bilgi işlem gücü arasında bir uzlaşma bulmaya zorlanıyoruz. Kullandığımız mimarinin maksimum karmaşıklığının varlığı ile, elbette, NN girişinin maksimum boyutunda bir sınırımız var, sonuç olarak, belirli bir uzunluktan (yüz veya daha fazla) daha uzun olmayan bir vektör uygulayabiliriz. maksimum) girişe ve veri kaybı ile geçmiş kapsamı arasında seçim yapmalıyız. Bazen, daha fazlasını kapsamak ve neyin kapsandığını makul bir sürede (AI açısından) anlamak önemlidir.
Sinir ağı mimarisinin karmaşıklığının peşinden koşmanın bir anlamı yok, çünkü 10-15 nöron 1500-2000 bardan, hatta daha fazlasından tarihi kolayca ve doğal olarak öğrenecek. Ancak tarihi ne kadar iyi öğrenirlerse, gelecekte o kadar kötü çalışacaklar - aşırı eğitimin etkisi ortaya çıkıyor. Aracın hareketi hakkında sinir ağına doğru bilgiyi verecek "doğru" girdileri seçmek çok daha verimli ve üretkendir.
Leonid , evet, Ulusal Meclisi yeniden eğitmekle ilgili bir sorun yok - bu, güzel bir isim ve içinde üç çivi bulunan bu kutunun içinde neler olup bittiğinin özünün yanlış anlaşılmasından kaynaklanıyor. Minimumdan daha kısa bir eğitim örneği almayın ve rastgele yöntemle karar vermek zorunda kalmayacaksınız - hangisi daha iyi, hangisi daha kötü!
"Doğru" girdilere gelince, size %100 katılıyorum, bu başarının anahtarıdır - NS-ku için çözülebilecek her şey - kendi başınıza karar vermeniz gerekir. Ayrılması gerekiyor, kararın sahip olmadığı veya haksız yere zor. Örneğin, girdi olarak bir Zig-Zag uygulamak mantıklı değildir. Bu durumda Ulusal Meclisin davranışı açıktır - yüzeyde ne olduğunu öğrenecektir - ZZ'nin kollarının işaret değişimi ve bu tür girdi verilerinden sıfır anlam vardır.
Leonid , evet, Ulusal Meclisi yeniden eğitmekle ilgili bir sorun yok - bu, güzel bir isim ve içinde üç çivi bulunan bu kutunun içinde neler olup bittiğinin özünün yanlış anlaşılmasından kaynaklanıyor. Minimumdan daha kısa bir eğitim örneği almayın ve neyin daha iyi neyin daha kötü olduğuna rastgele yöntemle karar vermek zorunda kalmayacaksınız!
Örneklemeyle ilgili bazı sorunlar da vardır - Forex'te zamanla değişen belirli hareket yasalarının olduğu açıktır. Bu nedenle, çok büyük bir örnek verirseniz - ağ bu hareket yasalarını bulmayacaktır, çünkü bunlardan çok fazla olacaktır ve çok farklı, çok küçük olacaktır - hızla yeniden öğrenecektir. Ve burada tam formülü bulmak mümkün değil - bu nedenle, burada da NN mimarisinin karmaşıklığına değil, tüccara çok şey bağlı.
Her şey doğru. Boğa gözü!
Gerçekte, sorunu baştan çözersek, optimal örnek uzunluğunun şu şekilde olduğu ortaya çıkar:
P=(4-8)*(W^2)/d . Bahsettiğin şey bu.
Bunun gibi bir şey olur: dönüştürmeden önce, sonra, Resimler aynı seçimden değil, yine de birçok kez yaptı, efekt aynı ...
düz olduğunu görüyorum.
Ancak, giriş sinyaline sigmoid ve / veya buna benzer bir işlevle aptalca davranırsanız bu olamaz. Büyük olasılıkla, alt grafikteki ekseni, histogramın son çubuğundan bir buçuk kat daha fazla bir mesafeyle sağa ve sola uzatırsanız (sadece görebilmeniz için), tüm mucize kaybolacak ve biz zili görecek.
Şey, ya da başka bir şey, analizde bir delinme.
düz olduğunu görüyorum.
Ama bu olamaz. Büyük olasılıkla, alt grafikteki ekseni, histogramın son çubuğundan bir buçuk kat daha fazla bir mesafeyle sağa ve sola uzatırsanız (sadece görebilmeniz için), tüm mucize kaybolacak ve biz zili görecek.
Şey, ya da başka bir şey, analizde bir delinme.
Rakamlar normalleştirilmemiş verileri gösteriyor ve ayrıca farklı verilerden yaptığımın bir örneğini verdim (sonuç olarak nasıl görünüyor)
Ve işte komut dosyası, onu kullanabilir ve çıktıda ne olduğunu görebilirsiniz (sadece girdi verilerine sazan atmayın, bu komut dosyası sadece bir örnek için yaptı ...)
//Tip 0 - doğrusal normalleştirme, 1 - doğrusal olmayan