Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 20

 
Neutron >> :

Giriş sinyallerinin korelasyonuyla ne tür bir sorununuz olduğunu ima ediyorsunuz. Girdi olarak ne gönderiyorsunuz ve neden sorunun var olduğuna karar verdiniz. Sonuçta, çözmektense, var olmadığından emin olmak daha kolaydır :-)

Bu bir problem değil, ben matematik cehaletimim.

PV'yi saydığımı mı düşünüyorsun? İnanmayacaksın! -/+1 aralığını önceden 0.02'lik eşit aralıklara böldükten sonra, döngüde tüm VR boyunca koştu ve bu çubuktaki VR değeri -0.98 : +1 aralığına düşerse, bir "chatl" = 0.01'i attı. bu "cep". Sonra bu yüz cebin içeriğini son 100 barda gösterdi. Ve PV'yi normalleştirmek için, çalışılan VR'yi K > 1 katsayısı ile çarptım.

İşte kodum:

for(int i = limit; i >= 0; i--)
{
if(first)
for(int k = 200; k >0; k--)
Ind2[k] = 0.0; // Инициализация нулем
first = false;
//---------------------------------------------------
res = th(kf*(Close[i] - Close[i+1])/Close[i+1]); // Входной ВР
Ind1[i] = res;
//-------------------------------------------------------

pos = -1.0;
for(int j=200; j>0; j--)
{
if((res > pos) && (res < (pos+step))) // расчет МО
{
if( i > 2 )
{Ind2[j] = Ind2[j] + chatl;}
break;
}
else
{pos = pos + step;}
}

}


Yani, bir hindi kullanarak bu katsayıyı "manuel" seçiyorum ve sonra onu NS koduna sabit olarak ekliyorum. Bu işe yarar, ancak yalnızca NN'nin girişinde BP artışlarının eşit zaman aralıklarında - örneğin, her bir çubukta veya eşit n çubuklarda - alındığı durumda çalışır. Ancak girişte eşit olmayan zaman aralıkları için alınan artışlar - örneğin, Fibonacci serisi boyunca - 2,3,5,8 ... ise, bu tür her sayım için MO normalleştirme katsayısı farklı olmalıdır! Ve genel olarak, etkili olsa da, akıllıca olmasa da nasıl yaparım - :)

 

Apaçık.

Peki, Millet Meclisi'nin girdileri arasındaki korelasyonla ne alakası var?

 
Neutron >> :

Apaçık.

Peki, Millet Meclisi'nin girdileri arasındaki korelasyonla ne alakası var?

Görünüşe göre önemsiz veya yok. Grafiğin altındaki türkiye'ye bakın. Her mavi çizgi girdilerden biridir.



Şaşırtıcı olan - NS son derece iyi çalışıyor! "Keskinleştirmeden" iki ay sonra çok kabul edilebilir (% 27) bir düşüşle büyüyor

 

Ben de sormak istedim:

FA'siz ızgaranın çıkış nöronu , çünkü Planlanan işlemin başarı olasılığının bir ölçüsü olarak kullandığımız genliği ondan alıyoruz, ancak aynı zamanda normalleştirilmedi.

Çıkış normalizasyonu gerekli mi? Değilse, elde edilen olasılık nasıl değerlendirilir, çünkü genel olarak +/-1'in ötesine geçer

 
paralocus писал(а) >>

Görünüşe göre önemsiz veya yok. Grafiğin altındaki türkiye'ye bakın. Her mavi çizgi girdilerden biridir.

Şaşırtıcı olan - NS son derece iyi çalışıyor! "Keskinleştirmeden" iki ay sonra çok kabul edilebilir (% 27) bir düşüşle büyüyor

Yani, hiçbir şeyi ağartmanıza gerek yok!

Genel olarak, seçilen iki BP için çift korelasyon katsayısının sayısal bir tahminini elde etmek iyi olacaktır. Evrensel bir çift korelasyon ölçer şöyle görünür:

MQL'ye aktarırsınız, aynı uzunluktaki iki VR'yi (X,Y) içine sürersiniz - n, ve girişte +/-1 aralığında bir sayı alırsınız. Yani, hazırlıksız olarak, hindiler için korelasyon katsayınız +0,6'ya ulaşır.

Çıktı nöronuna gelince, bir olayın olasılığını tahmin etmek için çıktısının kullanılması durumunda, girdide doğrusal olmayan bir FA olması gerekir. Herhangi bir şey yapacak (bu kesinlikle kanıtlanmıştır), bu yüzden th.

 
Neutron >> :


...

Anlamadım ama n'nin değerini nasıl belirliyorsunuz ??????

 

Bence daha basit ve net :o):



Bu durumda döngü oluşturmanın pek bir anlamı yoktur, toplama operatörü zamanla benzer bir işi yapacaktır.

Not Ayrıca, hiç "FAK" değil, anlamı biraz farklı.

 
Neutron >> :

Çıktı nöronuna gelince, bir olayın olasılığını tahmin etmek için çıktısının kullanılması durumunda, girdide doğrusal olmayan bir FA olması gerekir. Herhangi bir şey yapacak (bu kesinlikle kanıtlanmıştır), bu yüzden th.

Yaparım. th() -:) punto ile her şeye sahibim, ancak ...

Her şeyi açıkladığınız gibi yapıyorum:

1. Tüm nöronların tek bir girişi (+1) vardır (bu, elbette, veri içeren diğer girişlere ek olarak)

2. Son çıkış, doğrusal olmayan FA hariç tüm nöronların çıkışında - th (x) kullanıyorum

Şimdi, çıktıda bir olasılık elde etmek istiyorsam, bu çıktının +/-1 (anladığım kadarıyla) içinde olması gerekir. Şimdi bu son çıktının nasıl oluştuğunu görelim.

Ve şu şekilde oluşturulur: OUT1*W1 + OUT2*W2 + OUT3*W3 + W4 OUT1 - OUT3'ün bir önceki katmanın nöronlarının çıktılarının hipertanjantları olduğunu ve aralıktan değerler aldığını dikkate alırsak - /+1 ve W1 - W4 - ağırlıkları, -/+1 aralığından değerler alır, ardından çıkış nöronunun genliği -/+ 4 aralığındadır. Yani sorun değil, ancak ağırlıkların oldukça geniş bir aralıkta değişebileceğini hesaba katarsanız - dediğiniz gibi +/-20 normdur, o zaman şebekenin çıkış sinyalinin genliğindeki değişimin sınırları ötesinde kaybolur. Ufuk.

Sorular:

1. Bu koşullar altında bir işlemin olasılığı nasıl değerlendirilir?

2. Çıkış sinyalini normalleştirmek gerekli mi ve eğer öyleyse neyle?


MatLab'dan yapılan hesaplamalara gelince - ne yazık ki benim için bu karanlık bir orman ... MatLab'ın kendisi gibi.

Daha önce birkaç gönderiden alıntı yaptığınız hesaplamada, dürüstçe bir buçuk saat boyunca şalgamları "yüzdürmeme" rağmen neredeyse hiçbir şey anlamadım.

Ve, münasebetsizliğimi bağışlayın ama ORO algoritmasına göre, hala cevaplardan çok sorularım var.

Beyazlatma ile net görünüyor - her şey çalışıyor.

Mimari anlaşılır.

Dönemler ve optimal örnekleme ile neredeyse açıktır:

Burada "güzel planınız" için en uygun örnek boyutunu hesaplamaya çalışıyordum, şunu anladım:

giriş sayısı - 4

sinaps sayısı - 4*6 + 3*3 + 4 = 37

katsayı - 4

P = k*w*w/d = 4*37*37/4 = 1369 .... ama 1500 olmalı.

Soru: Tek girdilerin sinapslarını saymanız gerekiyor mu? Düşündüm.

 
grasn писал(а) >>

Anlamadım ama n'nin değerini nasıl belirliyorsunuz ??????

Dışarıdan.

Merhaba Seryoga!

Beş bağımsız döngün var ve benim sadece bir tane var! Hangisi daha iyi - zarif görünmek mi yoksa her zaman böyle olmak mı?

paralocus yazdı >>

Sorular:

1. Bu koşullar altında bir işlemin olasılığı nasıl değerlendirilir?

2. Çıkış sinyalini normalleştirmek gerekli mi ve eğer öyleyse neyle?

Böylece son nöronun çıktısına th() koyarsınız - tüm problemler ortadan kalkar! Bu durumda, şebekeyi eğitmek daha zor olmayacak.

Burada "güzel planınız" için en uygun örnek boyutunu hesaplamaya çalışıyordum, şunu anladım:

giriş sayısı - 4

sinaps sayısı - 4*6 + 3*3 + 4 = 37

katsayı - 4

P = k*w*w/d = 4*37*37/4 = 1369 .... ama 1500 olmalı.

Soru: Tek girdilerin sinapslarını saymanız gerekiyor mu? Düşündüm.

Komitenin her üyesi için eğitim vektörünün optimal uzunluğunu hesaplıyoruz. Tüm üyelerimiz aynı mimariye sahip olduğundan, birini buluruz:

1. Giriş sayısı d=3+1=4.

2. Sinaps sayısı w=2*4+3+1=12

3. Eğitim vektörünün optimal uzunluğu Р=4*w*w/d=4*12*12/4=144

Bu nedenle, bu ağ komitesini eğitmek için, her biri 144 örnek uzunluğunda üç eğitim vektörüne (komite üye sayısına göre) ihtiyacımız var. Bu değer size küçük geliyorsa, paralocus , gizli katmandaki nöron sayısını ikiden 4 veya 8'e çıkarın ve bir kerede 500 veya 2000 sayı elde edeceksiniz! Tüm bu ekonomiyi her okumada eğitmenin arzu edildiğini unutmayın - yeterli görünmeyecektir.

 
Neutron писал(а) >>

Dışarıdan.

Merhaba Seryoga!

Beş bağımsız döngün var ve benim sadece bir tane var! Hangisi daha iyi - zarif görünmek mi yoksa her zaman böyle olmak mı?

tahmin ettim :o)

Ben yaratırken, bir sanatçı gibi görünmeliyim! Ama kodladığımda ... :o)))

Not : Seryoga, özellikle MathCAD'de pratik olarak tek uçludur, ancak C++/FORTRAN'da ... farklı olacaktır, ancak MathCAD'de - hafifçe söylemek gerekirse, değil (bu özel durum için). Ve ortalama kullanırsanız, hesaplama daha da hızlı olacaktır ve örneğin, corr kullanırsanız, o zaman "hızlı" algoritmanız bir hata olacaktır :o) Nasıl yaptıklarını bilmiyorum, ama gelince "toplama" operatörü, çok daha hızlı bir döngüdür. Bunu yapmazsanız, en son sürümü yükleyin.