"New Neural", MetaTrader 5 platformu için bir sinir ağı motorunun Açık Kaynak projesidir. - sayfa 36

 
TheXpert :

EMNIP, cognitron benzer bir şeydir.

Devamını sabırsızlıkla bekliyorum :)

Fukishima'nın cognitron'u ile aynı. HMAX ve cognitron, görsel korteksin farklı katmanlarının işlevselliğini oldukça yakından tanımlar.
 
TheXpert :

hakkında bilgi gerekiyor

- Eşlenik gradyan inişi

-BFGS

Bir zamanlar, doğrudan yayılma ağlarının neredeyse tüm eğitim yöntemlerini ayrıntılı olarak inceledi. Gradyan inişlerinden Levenberg-Marquardt yönteminin en iyisi olduğundan eminim ( https://en.wikipedia.org/wiki/Levenberg%E2%80%93Marquardt_algorithm ). Her zaman herhangi bir BACKPROP ve RPROP'tan daha iyi bir minimum ve hatta daha hızlı bulur. BPNN'de (bazı RPROP'larda) yayınladığım şey, LM'ye kıyasla çocuk oyuncağı. BFGS daha fazla zaman alır ve sonuç LM'den daha iyi değildir.
Levenberg–Marquardt algorithm - Wikipedia, the free encyclopedia
Levenberg–Marquardt algorithm - Wikipedia, the free encyclopedia
  • en.wikipedia.org
The LMA interpolates between the Gauss–Newton algorithm (GNA) and the method of gradient descent. The LMA is more robust than the GNA, which means that in many cases it finds a solution even if it starts very far off the final minimum. For well-behaved functions and reasonable starting parameters, the LMA tends to be a bit slower than the GNA...
 

Şimdi fiyat kalıplarını analiz etmek için sinir ağları kurma fikrimi sunmaya çalışacağım. 2. ve 3. derslerimi okuyanlar hemen anlayacaktır. Buradaki nokta, fiyat modellerini Al, Sat veya Tut olarak sınıflandırmaktır. Belirli bir süre için fiyat (diyelim ki 100 bar) basit bir S1 nöron katmanı tarafından filtrelenir. Bu nöronların girdi ağırlıkları, filtrelerin dürtü yanıtlarını tanımlar. Görsel korteks örneğinde, bu ağırlıklar, iki boyutlu görüntü uzayında değişen eğim ve uzunluktaki düz çizgi parçalarını tanımladı. Alıntılarda ayrıca iki boyutlu bir alanımız var: zaman ve fiyat. Bizim durumumuzda filtrelerin S1 ağırlıklarının da iki olası eğimin zaman-fiyat uzayında düz segmentleri tanımladığı varsayılabilir: yukarı ve aşağı. Eğim açısı, her filtrenin uzunluğuna bağlıdır. Bu uzunluklar önceden seçilebilir, örneğin 4, 8, 16, 32 bar. Her filtre, tüm değerlerin toplamı sıfır ve karelerin toplamı 1 (veya başka bir normalleştirme) olacak şekilde normalize edilmiş düz bir çizgidir. Bir sonraki katmanda, buna S2 diyelim, S1 katmanının segmentlerinden daha karmaşık desenler oluşturulur ve bu böyle devam eder. Bu çok katmanlı teklif dönüşümünün çıktısında, mevcut kalıbı açıklayan bir dijital kodumuz var ve birbirine benzer, ancak zaman ve fiyat olarak farklı şekilde gerilmiş kalıpların kodları aynıdır. Bu kodlar, geçmiş modellerde Satın Alma, Satış veya Tutma koşullarını belirlemek için önceden eğitilmiş olan Destek Vektör Makinesinin (SVM) girişlerine beslenir. Buradaki problem, S1, S2 vb. katmanlardaki filtrelerin şeklini belirlemektir. Basitlik için düz çizgi parçalarını ve bunların kombinasyonlarını seçtim. Bu arada, HMAX görsel korteks modelinde, biyolojik deneylere dayalı olarak tüm uzaysal filtre biçimleri önceden seçilmiştir. Bu filtreleri otomatik olarak tespit etmek için bir algoritma bulmamız gerekiyor. Bu tür algoritmalar zaten görsel katman V1 için geliştirilmiştir (von der Malsburg, Linsker, Miller, LISSOM, Olshausen). Onları fiyat modeli sınıflandırma problemimiz için ödünç alabiliriz.

 
gpwr :
Bir zamanlar, doğrudan yayılma ağlarının neredeyse tüm eğitim yöntemlerini ayrıntılı olarak inceledi. Gradyan inişlerinden Levenberg-Marquardt yönteminin en iyisi olduğundan eminim ( https://en.wikipedia.org/wiki/Levenberg%E2%80%93Marquardt_algorithm ). Her zaman herhangi bir BACKPROP ve RPROP'tan daha iyi bir minimum ve hatta daha hızlı bulur. BPNN'de (bazı RPROP'larda) yayınladığım şey, LM'ye kıyasla çocuk oyuncağı. BFGS daha fazla zaman alır ve sonuç LM'den daha iyi değildir.

Kabul ediyorum! Örneğin, NeuroSolutions'da, Levenberg-Marcadt yöntemi, diğer yöntemlerin yerel minimumda olduğu yerde yakınsar,

ancak, LM hesaplama açısından yoğundur. Bir geçiş daha zamanı

 
gpwr :

...

Her filtre, tüm değerlerin toplamı sıfır ve karelerin toplamı 1 (veya başka bir normalleştirme) olacak şekilde normalize edilmiş düz bir çizgidir.

...

Şu anda hiçbir kanıtım yok ama sezgilerim bana bu ikili koşulun çelişkili olduğunu söylüyor.

toplam 0 ve karelerin toplamı 1

çok dar sayıda seçenek için yürütülecektir. Eğer yanılıyorsam yudum.

 
Ukrayna :

Şu anda hiçbir kanıtım yok ama sezgilerim bana bu ikili koşulun çelişkili olduğunu söylüyor.

toplam 0 ve karelerin toplamı 1

çok dar sayıda seçenek için yürütülecektir. Eğer yanılıyorsam yudum.

Hayır, çelişkili değil. Örneğin, -0.707 ve +0.707 değerlerine sahip 2 çubuklu bir filtre, normalizasyon koşullarını karşılar. İlk koşulun avantajı (değerlerin toplamı sıfıra eşittir), ortalamayı tırnaklardan çıkarmanıza gerek olmamasıdır. İkinci koşul (karelerin toplamı sıfıra eşittir), fiyat1*filtre1+fiyat2*filtre2 toplamını (bu, filtremizin çıktısıdır) belirli bir aralıkta sınırlamamızı sağlar. Şimdi sorun, N keyfi uzunluğundaki filtre değerlerini (filter1,filter2,...,filterN) tanımlamaktır. -filterMAX ve +filterMAX arasında uzanan düz bir çizgi seçilebilir, ancak bu bir basitleştirme olacaktır. Daha fazla doğrulukla filtre, alıntıların ana bileşenine (PCA) benzer olacaktır. Ama verimli olmayacak. Filtrelerin biçimini, bu tür bileşenlerin minimum sayısı koşulunu (seyreklik koşulu) dayatan bağımsız alıntı bileşenleri (ICA) olarak ararsanız daha umut vericidir. Daha sonra her şeyi açıklayacağım 4. dersi yayınlayacağım.
 
TheXpert :

Açık. Ama NN'ye bağlı. Daha çok bağlanacak.

Korkarım "AWVREMGVTW NN " gibi bir şey yürümeyecek :), asıl mesele özü iletmek, nüanslar o kadar önemli değil.

Meta Nöro Çözüm?
 
Meta Nöro Motor (MEB)
 
gpwr :
Meta Nöro Motor (MEB)

Meta EngiNeuro (ERKEK) (c)

Mühendisleri kastettik :)

 
Güzel. Beğendim.