Sinir tüccarları, geçmeyin :) tavsiyeye ihtiyacım var - sayfa 9

 
Figar0 :

Burada, nokta nokta:

Teşekkürler Sergey, tamam.

2) Girdilerin ön işlenmesi (soru çok basit ve oldukça açık görünüyor, bu durumda neyin ve nasıl yapıldığı biliniyorsa tartışılabilir)

Olağanüstü bir şey yok. Her biri Hodrick-Prescott filtresi tarafından göz atılmadan ayrı ayrı işlenen birkaç seviye vardır.

3) Millet Meclisi Matematiği.

Bir dizi deney, belirli sınırlar içindeki ağ parametrelerinin sonuç üzerinde çok az etkisi olduğunu göstermiştir. Çok azı aşırı uyumla, çok fazlası aşırı doygunlukla sonuçlanır.

Yankı ağları konusunda konuşmaya hazır. Kodu henüz yayınlamayacağım, belirli planlar var.

4) Millet Meclisinin çalışmalarının "Örgütsel" konuları.

Nasıl/ne zaman eğitilmeli/yeniden eğitilmeli

bu arada, değiştirmeye çalışmadım

, dönemler/aralıklar

ciddi bir araştırma yapılmadı. Bir etkisi olacağını düşünüyorum, belki enstrümana göre farklı dönemler de olabilir.

, ağ egzoz tercümanının çalışma mantığı

Henüz ciddi bir çalışma da yapılmadı, ancak değiştirdiğim kadarıyla önemli bir etkisi olmayacağını düşünüyorum, ancak ... tekrar kontrol etmek gerekli olacak.

, AA

Bunu mahvetmekte bir anlam görmüyorum. EF tarafından potansiyel karlılığın değerlendirilmesi kolaydır.

- neden hala "yankı"? İçinde yemek pişiriyorsun, bize artılarını ve eksilerini anlat.

İlk olarak, ağ parametreleriyle daha az pareva. Örneğin, gizli katman girişten daha azsa, bunun zaten veri sıkıştırma olduğunu ve ağın çalışmama olasılığının yüksek olduğunu düşünmeyin. Diğer ağlarda bulunan bir sürü küçük şeyi hesaba katmaya gerek yok.

Kısacası, şimdi ağla böyle çalışıyorum - aptalca atılan nöronlar, bağlantılar (belirli bir sayı, belirli türler).

Uyarlanmış. Kullanırım. İçeride ne olduğuyla pek ilgilenmiyorum, yani. Aslında kullanışlı bir kara kutu alıyorum.

MLP tarafından çözülen hemen hemen her problem bir yankı ağı tarafından çözülür.


İkincisi - her zaman en uygun (topolojiye ve girdi ve çıktıların oranına göre) çözümü elde ederim

Üçüncüsü, ağın adaptasyon süresi ("eğitim" kelimesinden kasten kaçınıyorum) büyük bir doğrulukla tahmin edilir, çünkü Bunun için LSM kullanılır, yakınsama vs. yoktur.


Şimdiye kadar sadece bir eksi gördüm - uygunluk fonksiyonunda bir sınırlama. Onlar. teorik olarak, yalnızca FF ve benzerlerinin en küçük ortalama kare hatasına sahip bir çözüm aramayı kullanabilirim. Tabii ki, bu genetik öğrenmenin yardımıyla aşılabilir, ancak daha sonra ağ yankısının tüm güzelliği kaybolur.

Hayır olmasına rağmen, bir tane daha var - emin değilim, ama bence (yanılıyor olabilirim) eğitim süresi kübik olarak artıyor (türev matrisinin oluşumu kadar eğitim değil), bu nedenle bir ağı bir sayı ile eğitmek nöron sayısı, diyelim ki 1000, önemli miktarda zaman alacaktır.


Nasıl kazdın?

Aynı foruma teşekkürler :) yoldaş gpwr'den , bunun için ona çok teşekkürler :)

2. tip TS genellikle kurnaz IMHO'dandır.

IMHO, 2. tip ile çalışmak ve sonuçları analiz etmek çok daha kolaydır. Örneğin, tartışılan projenin TS'si başlangıçta 2. tipe tam olarak uyar.

a) Girdilerin/çıktıların iyileştirilemeyeceğinden gerçekten emin misiniz?

Tabii ki değil

b) Ön işleme: Sizin için nasıl görünüyor? Örneğin, girdi değerlerinin dağılımının bir analizi var mıydı?

Normalleştirme bir şekilde mevcuttur, ancak veri dağılımının ciddi bir analizi yoktur.

 
renegate :

Ve şebeke girişine beslediğiniz hindiler için devoltilizasyon (makalelerde mevcut) yapmadınız mı?

Tanıdık - ilginç. Kullanım deneyiminizi paylaşır mısınız? Sonuçlar, iyileştirmeler, özellikler, tuzaklar nelerdir?

Hindileri çaresiz yapmayı da deneyebilirsiniz.

Hımm, burada şüpheler var ama yine de kısa bir açıklama duymak isterim.
 

Analiz edilen veri alanını (desen) mavi bir dikdörtgenle ve tahmin edilen veri alanını kırmızı bir dikdörtgenle koşullu olarak temsil edelim. Mevcut uygulamada, kırmızı alanın dikey boyutu, bir ölçek faktörü aracılığıyla mavi alanın boyutuna bağlıdır (ve alanın boyutuna değil, mavi alandaki verilerin içeriğine bağlı olmalıdır). Anlaşmazlık gördüğümüz iki örnek:

ve

Kırmızı dikdörtgenin boyutunun ilk ekranda daha küçük, ikinci ekranda mavi olandan daha büyük olduğunu görüyoruz.

Sinyal, dikey boyutlara göre normalleştirilir.

Öyleyse, aynı şekilde, örneğin boyutuna göre değil, tüm eğitim örneğinin boyutuna göre normalleştirmek gerekiyor gibi görünüyor. Görünüşe göre bu nedenle, şebekenin tahmin yeteneği azalır.

Bununla ilgili bir rahatsızlık var (bu yüzden böyle bir normalleştirme yöntemi seçildi), ancak bundan kaçış yok gibi görünüyor - maksimum ve minimum değerleri ölçmek için ek olarak eğitim örneği üzerinde bir kez çalıştırmanız gerekiyor.

Mevcut uygulamada modelden gelen sinyallerin dağılımının, her bir modelin 1 ve -1 değerine sahip olması nedeniyle, minimum ve maksimum değerler alanında aşırı derecede önyargılı (ki bu kötü) olduğu açıktır.

Bence, bu değişikliklerle başlamamız gerekiyor.

 
Bana farklı bir şekilde anlatmışsın :) . Şimdi, sanırım katılıyorum.
 
TheXpert :
Bana farklı bir şekilde anlatmışsın :) . Şimdi, sanırım katılıyorum.

Hayır, hayır, başka türlü değil. Kendini kelimelerle ifade etmek zor, resimlerle daha kolay diyorum. Hem konuşmacı hem de dinleyici. ;)

PS Ve kâr amaçlı eğitim için öngörücü alan pahasına - bu yürürlükte kalır, ben yapıyorum.

 

Fiyatı aşağıdaki algoritmaya göre denedim:

1) Close'dan bir dizi birinci fark (RDD) elde ederiz.

2) RPR modülünden taşınmayı hesaplayın (25 periyot aldım)

3) RPR'yi hareketli ortalamaya bölün

Daha durağan olan RPR'yi alıyoruz. Kümülatif toplamı kullanarak sözde fiyat serisine dönebilirsiniz.


Görüyorum ki RPR kullanmıyorsun. Fiyat serisi için detrending kullanıyor musunuz? Yoksa fiyat aralığını belirli bir aralığa göre normalleştiriyor musunuz?

 

renegate :

Fiyat serisi için detrend kullanıyor musunuz?

Burada da daha fazla ayrıntıya inebilirsiniz.

Yoksa fiyat aralığını belirli bir aralığa göre normalleştiriyor musunuz?

Artık model açıklaması içinde normalleştirme gerçekleşir.

Şimdi tüm kalıp seti için normalleştirme yapacağım. Bu teoride zor olmamalı.

Devolatilizasyonu eklemeye çalışmak isterdim, ama burada daha zor olacak. Düşüneceğim.

 

Bunu yapmak için, fiyat serisinin trend, döngüsel, gürültü bileşenlerinden oluştuğu aksiyomunu kabul etmeniz gerekir.

Trend bileşenini fiyat aralığından çıkarın. 3 yol:

1) Temel bileşenlerin bir analizini yapıyoruz (burjuva için AGK veya PCA) ve ilk ana bileşeni sıfırlıyoruz

2) Hareketli ortalamayı fiyat aralığından çıkarın. Periyodunu gözle veya optimizasyonla veya spektral analiz yoluyla seçiyoruz.

3) Tüm fiyat serisinin doğrusal bir regresyonunu bulun ve fiyattan çıkarın.

Bundan sonra, sadece döngüsel ve gürültü bileşenlerinin olduğu bir dizi elde ederiz. Bunları belirli bir aralığa normalleştirmek uygundur.

 
Yani aslında bu ana bileşene ihtiyacım var :)
 
renegate :

Fiyatı aşağıdaki algoritmaya göre denedim:

1) Close'dan bir dizi birinci fark (RDD) elde ederiz.

Hile sorusu yok, neden bu adım?