"New Neural", MetaTrader 5 platformu için bir sinir ağı motorunun Açık Kaynak projesidir. - sayfa 79

 
TheXpert :

Öyleyse neden maskeniz çıktıya bağlı ve tekrar nöronlara bağlı değil)

Ve etkinleştirme işlevini GPU'ya nasıl zorlamak istersiniz?

IMHO, geçen seferki gibi önemsiz olanı iteceksin. Ama bu IMHO, bu yüzden güvenle uzanabilirsiniz.

İş dışında artık seni rahatsız etmeyeceğim.

Ah, cognitron. Başka ne - hopfield ağı - bir girdi var bir çıktı. Bir de seyrek...

aşağıdan yukarıya cevap veriyorum

girdiler ve çıktılar var

Tüm işlemler paralel olduğu için GPU kolayca uygulanır.

Aktivasyon değişikliği veya dinamik dizeler tarafından başka hangi işlemin tanımlanabileceği, MetaDriver'ın deneyimi vardır.

maske, ağırlıklar, çıktılar, geçici verilerin tümü hücre hücre bağlıdır, ancak maskeden oluşturulabilecek bir dizi indeksi çözebilirsiniz.

Genel olarak maske topolojiyi oluşturur ve ağırlıklarla birlikte saklanır.


Proje şuna benziyor:

  • XML ağ depolama standardı (yükle / kaydet), ancak ikili depolamaya yöneliyorum (ancak temelde değil, insanlar netlik için XML istiyor)
  • Yeni bir ağ oluşturmak için grafik arayüz (oluştur/kaydet)
  • Ağ Oluşturma API'si (Oluştur/Yükle)
  • Evrensel ağ modeli (temel)
  • Ağ modelinin temel yeteneklerini genişleten sınıflar
  • Eğitim Kabuğu (Genişletilebilir)

Son iki nokta açık kaynağın insafına kalmıştır.

 

Seyrek matrislere gelince, matris seyrekse, modelin çok etkili olmadığını doğru bir şekilde not ettim, ancak burada bir dizi endeks uygulayabilirsiniz, doğrudan uygulamadan biraz daha yavaş çalışacaktır, ancak yine de seviye ve GPU için, tamamen bağlı seyreklerin sinek eklemek için aynı olup olmadığı arasında bir fark yoktur.

Hopfield ağı genellikle sorunsuzdur, bunun nasıl uygulanacağı açık değildir, sorun (aksi takdirde bu kadar basit bir örneğin nasıl zorluklara neden olduğunu anlamıyorum).

ZY hiçbir şeyi kaçırmadı mı?

ZZY genel olarak oldukça uzun bir süre düşündü ve X bu uygulamanın ne olduğunu biliyor, bu modelle bunun gerçekleştirilemeyeceğini kafasından geçirip aklına gelmeyince yardım istemeye karar verdi. salon.

 
Ukrayna :

Aktivasyon değişikliği veya dinamik dizeler tarafından başka hangi işlemin tanımlanabileceği, MetaDriver'ın deneyimi vardır.

Onaylıyorum: Bu, belirtilenlerin en az sorunudur.

Seyreklik hakkında.

Anladığım kadarıyla, ağ açıklaması düzeyinde bu normal ve hatta çok uygun.

Sadece bir sıkıştırıcıya ihtiyacınız var: kompakt bir açıklamaya bir "paketleyici", bu da daha sonra mql ve / veya OpenCL'de bir kaynak koduna derleme için zaten "gıda".

// Ya da dinamik "evrensel ızgara" yapılandırıcısı için, eğer hala destekçileri varsa...

 

Seyreklikle ilgili olarak (yukarıda yazılmıştır), maskeye bağlı olarak, her nöron için, saydıktan sonra çıktıların nereye yerleştirileceğini gösterecek olan bir indeks dizisi oluşturabilirsiniz. Ve genel olarak, genel tartışma ile tercih edebilirsiniz. Şimdi asıl mesele, referans modelini bir bütün olarak kabul etmektir.

Bu modelin anlaşılması kolaydır, bu yüzden onun için öğrenme algoritmaları yazmak kolay olacaktır.

GPU için orijinal model hala daha iyi (IMHO).

 
TheXpert :

Öyleyse neden maskeniz çıktıya bağlı ve tekrar nöronlara bağlı değil)

Ve etkinleştirme işlevini GPU'ya nasıl zorlamak istersiniz?

IMHO, geçen seferki gibi önemsiz olanı iteceksin. Ama bu IMHO, bu yüzden güvenle uzanabilirsiniz.

İş dışında artık seni rahatsız etmeyeceğim.

Ah, cognitron. Başka ne - hopfield ağı - bir girdi var bir çıktı. Ayrıca seyrek ...

Seyrek kodlama harika! Yarım yıl önce, piyasada kalıp bulma konusunda onunla uğraştım. Aramalar Ve genelleme yapıyor gibi görünüyor. Ancak deneylerimden ortaya çıktığı gibi, geçmişteki fiyat kalıpları gelecekte tekrarlanmıyor. Görüntülerdeki ve seslerdeki kalıpları bulmak için bu yöntemi kullandım. Oldukça iyi çalıştı. Spike nöronları kullanarak 3 yıldır aynı şeyi yapmaya çalışan meslektaşlarıma bir rapor hazırladım. Herkes büyülenmişti. İki doktora adayı danışmanı olmamı istedi (ve tabii ki sonuçlarımı tezlerinde kullanmama izin verdi). Biri bir dergi için makale yazmayı önerdi. Kodu yazmam, farklı veriler üzerinde çalıştırmam ve raporu yazmam sadece birkaç haftamı aldı. Kısacası, seyrek kodlama büyük bir potansiyele sahiptir, ancak muhtemelen piyasada değil, bir tür yapının olduğu yerlerde.

Bu arada, yukarıda açıklanan evrensel NN modeliyle ilgili olarak, hala söyleyecek çok şeyim yok, çünkü nöronların nasıl katmanlara bölündüğünü, bunlara girdi işleme işlevinin nasıl atandığını ve bağlantıların nasıl kurulduğunu anlamıyorum.

 
gpwr :

Seyrek kodlama harika! Yarım yıl önce burada pazarda kalıp bulma konusunda onunla uğraşıyordum. Aramalar Ve genelleme yapıyor gibi görünüyor. Ancak deneylerimden ortaya çıktığı gibi, geçmişteki fiyat kalıpları gelecekte tekrarlanmıyor. Görüntülerdeki ve seslerdeki kalıpları bulmak için bu yöntemi kullandım. Oldukça iyi çalıştı. Spike nöronları kullanarak 3 yıldır aynı şeyi yapmaya çalışan meslektaşlarıma bir rapor hazırladım. Herkes büyülenmişti. İki doktora adayı danışmanı olmamı istedi (ve tabii ki sonuçlarımı tezlerinde kullanmama izin verdi). Biri bir dergi için makale yazmayı önerdi. Kodu yazmam, farklı veriler üzerinde çalıştırmam ve raporu yazmam sadece birkaç haftamı aldı. Kısacası, seyrek kodlama büyük bir potansiyele sahiptir, ancak muhtemelen piyasada değil, bir tür yapının olduğu yerlerde.

Bu arada, yukarıda açıklanan evrensel NN modeliyle ilgili olarak, hala söyleyecek çok şeyim yok, çünkü nöronların nasıl katmanlara bölündüğünü, onlara girdileri işleme işlevinin nasıl atandığını ve bağlantıların nasıl kurulduğunu anlamıyorum.

Önerilen modelde, nöronlar hiçbir şekilde katmanlarla sınırlı değildir, bu nedenle önceki herhangi bir nöron teorik olarak bir sonrakine sinyal verebilir.

Ancak bir kısıtlama getirebilirsiniz !!!, ağın katmanlamasını ayarlayabilir ve bu katmanlama kurallarıyla bağlantılı olarak maskeyi kontrol edebilirsiniz (algoritmayı etkilemezler, ancak yükleme sırasında ek bir kontrol görünecektir).

Bu arada, GPU'ya tek tek nöronlar değil, katman olarak tanımlanan nöron demetleri beslenebilir. Ancak yine, modelin kendisi katmanlarla sınırlı değildir ve katmanlama konusu, belki veya değil, ek bir kısıtlayıcı kuraldır (istek üzerine durdurma gibi).

ZY Katmansız bir yapı ile, maskenin üst üçgeni (girişlerin arkasında) sıfıra ayarlanır, bu da ana matriste geri besleme olmadığını açıklar, katmanlar göründüğünde, köşegenden aşağı inilerek sıfırlama eklenir. Aslında bu maskenin testidir.

 
Ukrayna :
Önerilen modelde, nöronlar hiçbir şekilde katmanlarla sınırlı değildir, bu nedenle önceki herhangi bir nöron teorik olarak bir sonrakine sinyal verebilir.

Ancak bir kısıtlama getirebilirsiniz !!!, ağın katmanlamasını ayarlayabilir ve bu katmanlama kurallarıyla bağlantılı olarak maskeyi kontrol edebilirsiniz (algoritmayı etkilemezler, ancak yükleme sırasında ek bir kontrol görünecektir).

Daha sonra, bu arada, GPU tek tek nöronları değil, katman olarak tanımlanan nöron demetlerini besleyebilir. Ancak yine, modelin kendisi katmanlarla sınırlı değildir ve katmanlama konusu, belki veya değil, ek bir kısıtlayıcı kuraldır (istek üzerine durdurma gibi).

ZY Katmansız bir yapı ile, maskenin üst üçgeni (girişlerin arkasında) sıfıra ayarlanır, bu da ana matriste geri besleme olmadığını açıklar, katmanlar göründüğünde, köşegenden aşağı inilerek sıfırlama eklenir. Aslında, bu maskenin testidir.

Katmanlara ihtiyaç vardır çünkü bazı ağlarda farklı katmanlar farklı girdi işlemeye ve katman içinde birbirine farklı nöron bağlantılarına sahiptir. Aslında evrensel bir ağ kurma hedefinin pratikliğini anlamıyorum. Nüansları ile birçok ağ vardır (farklı katmanlardaki nöronların işlevleri, bağlantıları, ağırlık çalışması vb.). Hepsini tek bir modelle anlatmak bana imkansız veya verimsiz geliyor. Neden farklı ağlardan oluşan bir kitaplık oluşturmuyorsunuz?
 
gpwr :
Neden farklı ağlardan oluşan bir kitaplık oluşturmuyorsunuz?
İçinde. Belirli bir ağ için GPU daha da hızlı olacaktır.
 
TheXpert :
İçinde. Belirli bir ağ için GPU daha da hızlı olacaktır.
Ancak. Böyle bir yaklaşım, topolojilerin genetik geçişine yönelik girişimler için mikrop bile içermez.
 
MetaSürücü :
Ancak. Böyle bir yaklaşım, topolojilerin genetik olarak çaprazlanması girişimlerinin tohumunu bile içermez.

Ama şimdi yanılıyorsun. Öncelikle şebekenin çıktıları başka bir şebekenin girişlerine uygulanamıyorsa bu nasıl bir şebekedir?

İkinci olarak, çoğunlukla, tüm topolojiler, farklı ağlar için işlevselliğe sahip katmanlar uygulanarak yapılabilir.

Katmanları ağırlıklarla birleştirerek (maske ve ağırlıkların kendileri), istediğiniz topoloji karışımını elde edersiniz. Dönüşüm nöron tarafından yapılır, sinaps sadece sinyali iletir.

Ana şey, bu karışımın mantıklı olmasıdır.

Genetik için tek gerekli ve yeterli koşul, bir çıktı ve bir ayar bulutu elde etme olasılığıdır. Hepsini o zamanlar düşündüm.