"New Neural", MetaTrader 5 platformu için bir sinir ağı motorunun Açık Kaynak projesidir. - sayfa 22

 
SLTM ile kim ilgilendi?
Long short term memory - Wikipedia, the free encyclopedia
Long short term memory - Wikipedia, the free encyclopedia
  • en.wikipedia.org
Long short term memory (LSTM) is a recurrent neural network (RNN) architecture (an artificial neural network) published1 in 1997 by Sepp Hochreiter and Jürgen Schmidhuber. Like most RNNs, an LSTM network is universal in the sense that given enough network units it can compute anything a conventional computer can compute, provided it has the...
 
gpwr :

Referanslarla bir arada. Ve seni tam olarak anlamıyorum. Veya kısaltmalar olmadan :) .

Ve IMHO, herhangi bir modelleme ağı bir sınıflandırıcı olabilir.

 
TheXpert :
SLTM ile kim ilgilendi?

Ben sadece tüm nöronların aşağıdaki gibi bir iş akışı yapısına sahip olup olmadığı sorusunu sormak istedim:

in*wg
  +
 ...

Şimdi görüyorum ki her şey değil, bunu hesaba katmak ve sadece aktivatör tipine göre değil aynı zamanda nöron tipine göre de çeşitli algoritmalar yapmak gerekiyor.

 
yanlış :
Önce bir uzmanın gereksinimleri hakkında genel veya neredeyse genel bir fikir oluşturmaya çalışıyorsunuz.
Hayır hayır. Bu alacakaranlığın ikinci seviyesi bile değil, üçüncü.
 
yanlış :
Önce bir uzmanın gereksinimleri hakkında genel veya neredeyse genel bir fikir oluşturmaya çalışıyorsunuz.

Şahsen, Vladimir gpwr bana uyuyor, belki birkaç adamı daha yetişir, bu yüzden henüz davetlilere gerek yok.

Başka bir şey de, insanların işlerin saatlik döngülerle hareket etmesi gerektiği gerçeğine alışması, ancak bu OpenSource, bu tür projeler çok daha uzun sürebilir, çünkü insanlar zaman olduğunda çalışır.

 
TheXpert :
SLTM ile kim ilgilendi?
Onun seni ilgilendiren tarafı ne?
 
Ukrayna :
Onun seni ilgilendiren tarafı ne?
Genel olarak ilkeye yabancı. Tek o değil, daha fazla soru atabilirim :)
 
TheXpert :

Referanslarla bir arada. Ve seni tam olarak anlamıyorum. Veya kısaltmalar olmadan :) .

Ve IMHO, herhangi bir modelleme ağı bir sınıflandırıcı olabilir.

SVM = Destek Vektör Makinesi

RBN = Radyal Tabanlı Ağ

İşte bazı bağlantılar:

T. Serre, "Korteks Benzeri Mekanizmalarla Sağlam Nesne Tanıma", MODEL ANALİZİ VE MAKİNE ZEKA ÜZERİNE IEEE İŞLEMLERİ

Bell, AJ, Sejnowski, TJ (1997).
Doğal sahnelerin bağımsız bileşenleri kenar filtreleridir.
vis. Araş., 37, 3327-3338.

Olshausen, BA, Saha, DJ (1996).
Doğal görüntüler için seyrek bir kod öğrenerek basit hücre alıcı alan özelliklerinin ortaya çıkışı.
Doğa, 381(6583), 607-609.

http://www.gatsby.ucl.ac.uk/~ahrens/tnii/lewicki2002.pdf

 
TheXpert : SLTM
Genel olarak ilkeye yabancı. Tek o değil, daha fazla soru atabilirim :)

Wiki, olağan şemaya ek olarak yazıyor

in*wg
  +
 ...

nöron hala girdilerin çarpımını kullanır ve geri dönüş sinyali (görünüşe göre gecikmeden), hata geri bildirimlerde döngüye girdiğinde ana BackProp yönteminin sıklıkla takılıp kaldığına yemin eder, bu nedenle GA ile hibrit öğrenme yapılması önerilir. Aktivatörler sadece ilk katmandadır, her şey lineerdir, ilk nöron (veya komite gerçekten anlamadı) girdileri dönüştürür, geri kalanı filtre rolünü oynar (sinyali iletme veya geçirmeme).

Buna hem sinir bloğu hem de karmaşık geçiş işlevine sahip tek bir nöron diyebilirsiniz, ağın bu tür bloklardan oluşturulup oluşturulmadığı nasıl anlaşılır.

 
TheXpert :
Genel olarak ilkeye yabancı. Tek o değil, daha fazla soru atabilirim :)
Üzerine atın, azar azar tırmıklayalım.