"New Neural", MetaTrader 5 platformu için bir sinir ağı motorunun Açık Kaynak projesidir. - sayfa 79
Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Öyleyse neden maskeniz çıktıya bağlı ve tekrar nöronlara bağlı değil)
Ve etkinleştirme işlevini GPU'ya nasıl zorlamak istersiniz?
IMHO, geçen seferki gibi önemsiz olanı iteceksin. Ama bu IMHO, bu yüzden güvenle uzanabilirsiniz.
İş dışında artık seni rahatsız etmeyeceğim.
Ah, cognitron. Başka ne - hopfield ağı - bir girdi var bir çıktı. Bir de seyrek...
aşağıdan yukarıya cevap veriyorum
girdiler ve çıktılar var
Tüm işlemler paralel olduğu için GPU kolayca uygulanır.
Aktivasyon değişikliği veya dinamik dizeler tarafından başka hangi işlemin tanımlanabileceği, MetaDriver'ın deneyimi vardır.
maske, ağırlıklar, çıktılar, geçici verilerin tümü hücre hücre bağlıdır, ancak maskeden oluşturulabilecek bir dizi indeksi çözebilirsiniz.
Genel olarak maske topolojiyi oluşturur ve ağırlıklarla birlikte saklanır.
Proje şuna benziyor:
Son iki nokta açık kaynağın insafına kalmıştır.
Seyrek matrislere gelince, matris seyrekse, modelin çok etkili olmadığını doğru bir şekilde not ettim, ancak burada bir dizi endeks uygulayabilirsiniz, doğrudan uygulamadan biraz daha yavaş çalışacaktır, ancak yine de seviye ve GPU için, tamamen bağlı seyreklerin sinek eklemek için aynı olup olmadığı arasında bir fark yoktur.
Hopfield ağı genellikle sorunsuzdur, bunun nasıl uygulanacağı açık değildir, sorun (aksi takdirde bu kadar basit bir örneğin nasıl zorluklara neden olduğunu anlamıyorum).
ZY hiçbir şeyi kaçırmadı mı?
ZZY genel olarak oldukça uzun bir süre düşündü ve X bu uygulamanın ne olduğunu biliyor, bu modelle bunun gerçekleştirilemeyeceğini kafasından geçirip aklına gelmeyince yardım istemeye karar verdi. salon.
Aktivasyon değişikliği veya dinamik dizeler tarafından başka hangi işlemin tanımlanabileceği, MetaDriver'ın deneyimi vardır.
Onaylıyorum: Bu, belirtilenlerin en az sorunudur.
Seyreklik hakkında.
Anladığım kadarıyla, ağ açıklaması düzeyinde bu normal ve hatta çok uygun.
Sadece bir sıkıştırıcıya ihtiyacınız var: kompakt bir açıklamaya bir "paketleyici", bu da daha sonra mql ve / veya OpenCL'de bir kaynak koduna derleme için zaten "gıda".
// Ya da dinamik "evrensel ızgara" yapılandırıcısı için, eğer hala destekçileri varsa...
Seyreklikle ilgili olarak (yukarıda yazılmıştır), maskeye bağlı olarak, her nöron için, saydıktan sonra çıktıların nereye yerleştirileceğini gösterecek olan bir indeks dizisi oluşturabilirsiniz. Ve genel olarak, genel tartışma ile tercih edebilirsiniz. Şimdi asıl mesele, referans modelini bir bütün olarak kabul etmektir.
Bu modelin anlaşılması kolaydır, bu yüzden onun için öğrenme algoritmaları yazmak kolay olacaktır.
GPU için orijinal model hala daha iyi (IMHO).
Öyleyse neden maskeniz çıktıya bağlı ve tekrar nöronlara bağlı değil)
Ve etkinleştirme işlevini GPU'ya nasıl zorlamak istersiniz?
IMHO, geçen seferki gibi önemsiz olanı iteceksin. Ama bu IMHO, bu yüzden güvenle uzanabilirsiniz.
İş dışında artık seni rahatsız etmeyeceğim.
Ah, cognitron. Başka ne - hopfield ağı - bir girdi var bir çıktı. Ayrıca seyrek ...
Seyrek kodlama harika! Yarım yıl önce, piyasada kalıp bulma konusunda onunla uğraştım. Aramalar Ve genelleme yapıyor gibi görünüyor. Ancak deneylerimden ortaya çıktığı gibi, geçmişteki fiyat kalıpları gelecekte tekrarlanmıyor. Görüntülerdeki ve seslerdeki kalıpları bulmak için bu yöntemi kullandım. Oldukça iyi çalıştı. Spike nöronları kullanarak 3 yıldır aynı şeyi yapmaya çalışan meslektaşlarıma bir rapor hazırladım. Herkes büyülenmişti. İki doktora adayı danışmanı olmamı istedi (ve tabii ki sonuçlarımı tezlerinde kullanmama izin verdi). Biri bir dergi için makale yazmayı önerdi. Kodu yazmam, farklı veriler üzerinde çalıştırmam ve raporu yazmam sadece birkaç haftamı aldı. Kısacası, seyrek kodlama büyük bir potansiyele sahiptir, ancak muhtemelen piyasada değil, bir tür yapının olduğu yerlerde.
Bu arada, yukarıda açıklanan evrensel NN modeliyle ilgili olarak, hala söyleyecek çok şeyim yok, çünkü nöronların nasıl katmanlara bölündüğünü, bunlara girdi işleme işlevinin nasıl atandığını ve bağlantıların nasıl kurulduğunu anlamıyorum.
Seyrek kodlama harika! Yarım yıl önce burada pazarda kalıp bulma konusunda onunla uğraşıyordum. Aramalar Ve genelleme yapıyor gibi görünüyor. Ancak deneylerimden ortaya çıktığı gibi, geçmişteki fiyat kalıpları gelecekte tekrarlanmıyor. Görüntülerdeki ve seslerdeki kalıpları bulmak için bu yöntemi kullandım. Oldukça iyi çalıştı. Spike nöronları kullanarak 3 yıldır aynı şeyi yapmaya çalışan meslektaşlarıma bir rapor hazırladım. Herkes büyülenmişti. İki doktora adayı danışmanı olmamı istedi (ve tabii ki sonuçlarımı tezlerinde kullanmama izin verdi). Biri bir dergi için makale yazmayı önerdi. Kodu yazmam, farklı veriler üzerinde çalıştırmam ve raporu yazmam sadece birkaç haftamı aldı. Kısacası, seyrek kodlama büyük bir potansiyele sahiptir, ancak muhtemelen piyasada değil, bir tür yapının olduğu yerlerde.
Bu arada, yukarıda açıklanan evrensel NN modeliyle ilgili olarak, hala söyleyecek çok şeyim yok, çünkü nöronların nasıl katmanlara bölündüğünü, onlara girdileri işleme işlevinin nasıl atandığını ve bağlantıların nasıl kurulduğunu anlamıyorum.
Ancak bir kısıtlama getirebilirsiniz !!!, ağın katmanlamasını ayarlayabilir ve bu katmanlama kurallarıyla bağlantılı olarak maskeyi kontrol edebilirsiniz (algoritmayı etkilemezler, ancak yükleme sırasında ek bir kontrol görünecektir).
Bu arada, GPU'ya tek tek nöronlar değil, katman olarak tanımlanan nöron demetleri beslenebilir. Ancak yine, modelin kendisi katmanlarla sınırlı değildir ve katmanlama konusu, belki veya değil, ek bir kısıtlayıcı kuraldır (istek üzerine durdurma gibi).
ZY Katmansız bir yapı ile, maskenin üst üçgeni (girişlerin arkasında) sıfıra ayarlanır, bu da ana matriste geri besleme olmadığını açıklar, katmanlar göründüğünde, köşegenden aşağı inilerek sıfırlama eklenir. Aslında bu maskenin testidir.
Önerilen modelde, nöronlar hiçbir şekilde katmanlarla sınırlı değildir, bu nedenle önceki herhangi bir nöron teorik olarak bir sonrakine sinyal verebilir.
Ancak bir kısıtlama getirebilirsiniz !!!, ağın katmanlamasını ayarlayabilir ve bu katmanlama kurallarıyla bağlantılı olarak maskeyi kontrol edebilirsiniz (algoritmayı etkilemezler, ancak yükleme sırasında ek bir kontrol görünecektir).
Daha sonra, bu arada, GPU tek tek nöronları değil, katman olarak tanımlanan nöron demetlerini besleyebilir. Ancak yine, modelin kendisi katmanlarla sınırlı değildir ve katmanlama konusu, belki veya değil, ek bir kısıtlayıcı kuraldır (istek üzerine durdurma gibi).
ZY Katmansız bir yapı ile, maskenin üst üçgeni (girişlerin arkasında) sıfıra ayarlanır, bu da ana matriste geri besleme olmadığını açıklar, katmanlar göründüğünde, köşegenden aşağı inilerek sıfırlama eklenir. Aslında, bu maskenin testidir.
Neden farklı ağlardan oluşan bir kitaplık oluşturmuyorsunuz?
İçinde. Belirli bir ağ için GPU daha da hızlı olacaktır.
Ancak. Böyle bir yaklaşım, topolojilerin genetik olarak çaprazlanması girişimlerinin tohumunu bile içermez.
Ama şimdi yanılıyorsun. Öncelikle şebekenin çıktıları başka bir şebekenin girişlerine uygulanamıyorsa bu nasıl bir şebekedir?
İkinci olarak, çoğunlukla, tüm topolojiler, farklı ağlar için işlevselliğe sahip katmanlar uygulanarak yapılabilir.
Katmanları ağırlıklarla birleştirerek (maske ve ağırlıkların kendileri), istediğiniz topoloji karışımını elde edersiniz. Dönüşüm nöron tarafından yapılır, sinaps sadece sinyali iletir.
Ana şey, bu karışımın mantıklı olmasıdır.
Genetik için tek gerekli ve yeterli koşul, bir çıktı ve bir ayar bulutu elde etme olasılığıdır. Hepsini o zamanlar düşündüm.