Piligrimus bir sinir ağı göstergesidir. - sayfa 2

 
Piligrimm >> :

Her durumda, iyileştirme için büyük bir potansiyele sahiptir, düzgünlüğü önemli ölçüde artırmak, ek sinyaller vermek mümkündür.

pürüzsüzlük - teknik dilde, yüksek frekanslı bileşenlerin kesilmesi

Mevcut versiyonda, faydalı sinyalin maksimum frekansından, diyelim ki bir oktav daha yüksek bir frekansa kadar bir mesafede kaç desibel zayıflama elde edilebilir?

 
EvgeTrofi писал(а) >>

Lütfen bana bir Butterout alçak geçiren filtresini nereden bulabileceğimi söyler misiniz?

Evet lütfen!

K, filtrenin sırasıdır. 2'den fazla ayarlamamak daha iyidir - FZ büyük ölçüde artar.

Dosyalar:
baterlout.mq4  2 kb
 

zfs писал(а) >>
В чем смысл вашего индикатора, товарищ... он напоминает обычную среднюю.

Ve gerçekten ne anlamı var!? Bir örnekle açıklayın,....göstergeniz normal bir ortalamaya benzediğinden,..........

Sinir ağları, bir insan beyni nöronunun çalışma prensibini modelleyen unsurlar üzerine inşa edilmiş kendi kendine öğrenen sistemlerdir.

McCulloch-Pitts nöronunun modeli, uçları diğer nöronların gövdelerine bağlanan bir gövde (soma) ve süreçlerden (aksonlar) oluşur. Kavşağa sinaps denir. Sinaps, w sinaptik bağlantının gücü ile karakterize edilir. Eğer i nöronu wi1, ..., win bağlantı kuvvetlerine sahip sinapslara sahipse, bu nöronlardan diğer nöronlardan (Sj) gelen impulslar burada toplanır ve çıktıyı verir:



Nöron modeli.


Sinir ağlarının aktivasyon fonksiyonu (geçiş fonksiyonu) f() genellikle seçilir: basit bir adım fonksiyonu, simetrik veya asimetrik S-şekilli fonksiyon veya doğrusal adım fonksiyonu (bkz. Şekil).


Pirinç. Basit adım, asimetrik ve simetrik S-şekilli aktivasyon fonksiyonları.


j-th nöronunun i-th üzerindeki bağlantı gücü olan wij'yi belirtirsek, o zaman n nörondan oluşan sinir ağı tamamen sinaptik bağlantı matrisi ile karakterize edilecektir:



Genellikle, katmanlı sinir ağları olarak adlandırılan en basit sinir ağları kullanılır. Her katmanın nöronlarının girdileri, yalnızca bir öncekinin nöronlarının çıktılarına bağlanır. İlk katman girdi olarak adlandırılır, son katman çıktıdır ve geri kalanı gizli (iç) katmanlardır. Böyle bir sinir ağının atanmasına bir örnek: 4 - 8 - 5 - 3. Bu, sinir ağının 4 katmandan oluştuğu anlamına gelir: giriş katmanında 4, çıktı katmanında 8 ve içinde 8 ve 5 nöron vardır. iki gizli katman
Sinir ağının yönetimi (eğitimi), matris W'deki sinaptik bağlantıların güçleri değiştirilerek gerçekleştirilir. Sinir ağı, kendi kendine öğrenme sistemi olarak kullanılabilir veya özel olarak seçilmiş örnekler üzerinde önceden yapılandırılabilir - örnekler (ile eğitim). öğretmen). Bir sinir ağını belirli bir giriş sinyali seti için ayarlarken, ağ, numunelerle karşılaştırılan çıkış sinyalleri üretir, bunlardan sapmalar özel olarak seçilmiş bir kayıp fonksiyonu kullanılarak tahmin edilir (örneğin, standart sapmaya eşittir). Daha sonra, kayıp fonksiyonunu en aza indirmek için sinaptik bağlantıların matrisi değiştirilir (genellikle gradyan iniş yöntemi ile). Bu nedenle sinir ağı, toplamsal, doğrusal olmayan ve parametrik olmayan regresyon modellerine atfedilebilir.


Pirinç. Basit adım, asimetrik ve simetrik S-şekilli aktivasyon fonksiyonları.



Bir sinir ağının verimliliği, onun üç özelliğinin ağırlıklı bir değerlendirmesidir:
yakınsama derecesi - modelin verilen girdi değerlerine uyarlanma doğruluğu;
genelleme derecesi (genelleme) - modelin kendisine sunulanların ötesine geçen girdi kümeleri üzerinde çalıştığı doğruluk;
kararlılık - tahminlerinin doğruluğunda bir dağılım (sapma) ölçüsü.
Yukarıda listelenen sinir ağının özellikleri aşağıdaki prosedürlerden etkilenebilir:
uygun bir etkinleştirme işlevi seçme
uygun bir kayıp fonksiyonu seçme
ağ mimarisi seçimi (yapı)
gradyan inişi için parametre seçimi
eğitimin zamanlaması Teknik analizde nöroteknoloji kullanımına bir örnek Nöral eğitimin temel amacı, gözlemlenen oluşumlar arasında bağlantılar (birlikler) oluşturmaktır. Sinir ağları, çeşitli teknik göstergelerden gelen sinyaller üzerinde karar verme aşamasında faydalıdır. Farklı teknik göstergeler farklı piyasa koşullarında etkilidir. Söylediğimiz gibi, trend izleyen göstergeler bir trend olduğunda etkilidir, osilatörler ise piyasa değişken olduğunda faydalıdır.

Bu durumda bir sinir ağının nasıl kullanılabileceğini göstermek için basit bir örnek (A.-P. Refenes, A.Zaidi) kullanalım. Görev şu şekilde olsun: her biri iki basit göstergeden gelen sinyallere dayanan iki stratejinin kombinasyonuna dayalı karma bir strateji bulmak: hareketli ortalama (MA) ve ortalama değerden sapma (MV).

MA, farklı ortalama periyotlarına sahip iki hareketli ortalamayı karşılaştıran ve hızlı bir MA aşağıdan yavaş olanı geçtiğinde bir alış sinyali ve yukarıdan geçtiğinde bir satış sinyali veren basit bir göstergedir.

MV, fiyat ortalama değerinden daha yüksek olduğunda bir satış sinyali, aksi takdirde bir satın alma sinyali veren basit bir göstergedir.

Sistemin yapısı Şekil de gösterilmektedir. 91.

Sistem, gösterge sinyallerini (0 - kısa pozisyon, 1 - uzun pozisyon) ve göstergelerin son 2 gündeki etkinliği (kar veya zarar) ile ilgili bilgileri ve ayrıca mevcut piyasa bilgilerini alır.
Çıkış üç sinyaldir:

MA: MA göstergesinin tavsiyesine uyun

MV: MV göstergesinin tavsiyesine uyun

NP: hiçbir şey yapma

Her çıktı 0 ile 1 arasında değerler alır.


Pirinç. İki göstergenin analizi için bir sinir ağı diyagramı.


Hem MA hem de MV sinyalleri AÇIK ise (0,5'ten büyük değerler), en yüksek değere sahip sinyalin önerileri seçilir, NP AÇIK ise hiçbir şey yapılmaz.

Bu sinir ağı kullanma örneğinde, kullanımına dair bir örnek var, ..... ve sizin için ne ifade ediyor?

 
Neutron писал(а) >> LPF Butterout 2. sipariş (

Bu Butterworth değil mi?

 
Neutron писал(а) >>

Gerçekten de, 2. sıradaki Butterout LPF (kırmızı çizgi), sinir ağı filtrenize kıyasla biraz daha kötü bir sonuç gösteriyor. Bu arada, koddaki NS nerede ve çocuğunuz neden yeniden çiziyor? Bu retorik bir soru. Yeniden çizerken, tarihte gördüğümüz gerçekle örtüşmediğinden, asıl soru ortaya çıkıyor: neden bize gerçekten orada olmayan bir şeyi gösteriyorsunuz?

Bütün formül, farklı parametrelerle eğitilmiş ve birbirlerine göre ağırlık katsayıları ile tek bir polinoma indirgenmiş birkaç ağın birleşimidir.

Tüm polinomun yeniden hesaplanması her tikte gerçekleşir, çünkü tarih değişmez ve yalnızca sıfır çubuğunun tırnak işaretleri değişir, sonra bunlar değiştiğinde sıfır çubuğundaki yeniden hesaplama sonuçları da değişir, kalan çubuklardaki hesaplama sonuçları değişmeden kalır. Yeniden çizim yok.

 
sab1uk писал(а) >>

pürüzsüzlük - teknik dilde, yüksek frekanslı bileşenlerin kesilmesi

Mevcut versiyonda, faydalı sinyalin maksimum frekansından, diyelim ki bir oktav daha yüksek bir frekansa kadar bir mesafede kaç desibel zayıflama elde edilebilir?

Bunu test etmedim.

 
Infinity писал(а) >>

Bu sinir ağı kullanma örneğinde, kullanımına dair bir örnek var, ..... ve sizin için ne ifade ediyor?

Ben bir sinir ağını filtre olarak kullanıyorum, bu tarif ettiğinizden biraz farklı bir görev.

 
Piligrimm >> :

Bunu test etmedim.

her zaman böyle.. göz göre göre

 
Piligrimm писал(а) >>

Ben bir sinir ağını filtre olarak kullanıyorum, bu tarif ettiğinizden biraz farklı bir görev.

Dijital filtreniz için bazı katsayılarınız var. Aslında bu, herhangi bir dijital filtre gibi gülünç katsayılara sahip bir MA'dır. Ondan tam olarak ne istedin? Neyi filtrelemek istiyorsunuz ve değişikliklere ne kadar hızlı tepki vermek istiyorsunuz?
Ve nasıl optimize edilir?

Sonsuzluk , Açıklama için teşekkürler. Çok basit, anlaşılır ve mantıklı.

 

Bir sinir ağının ne olduğunu anlıyorum ve örnekte bu göstergeden daha mantıklı görüyorum.

Girişte, bir sürü belirsiz katsayı. Çıktı ortalama. Yani exp için bile bir anlam ifade etmiyor.