"New Neural", MetaTrader 5 platformu için bir sinir ağı motorunun Açık Kaynak projesidir. - sayfa 69
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Teşekkürler :) son dürtme.
Bir uygulamayı alıp mükemmelliğe getirmeye çalışmayı tercih ederim.
Ölçek açısından, genetikle (açıkça belirlenmiş bir amaç işlevi olmayan görev sınıfları) rekabet edemeyebilirim, ancak kullanım ve eğitim verimliliği açısından ...
Çok doğru bir karar, burada bir proje ortaya çıkarken zaten bir çok geliştirme yapmış olursunuz ve eğer proje çıkmazsa sonucu vermiş olursunuz.
Bu yaklaşıma sahip olanlar, projenin durmaması daha olasıdır.
Sadece ortadan kaybolma, çalışmanı gönder, soru sor, başka kimlerin tokalaşacağını gör.
Sadece ortadan kaybolmayın, çalışmanızı yayınlayın, sorular sorun, başka kimlerin tokalaşacağını görün.
Evet, ne gelişmeler. Biter bitmez yayınlayacağım.
Bir C++ uygulamasına sahibim. Tek ihtiyacınız olan birkaç şeyi değiştirmek ve yükseltmek.
Kahretsin, en azından tükürürlerdi ve tamamen görmezden gelmek bile hakarettir. Tavsiye için EVET veya HAYIR istendi.
(EVET) ise akıllı kitap okumaya gideceğim;
yoksa başka bir tane kullan ve verilen yöne tekme at;
İyi günler, konuyla pek ilgili değil. Tavsiyeye ihtiyacım var.
Bana görevi kendisi verdi. Geçerli anın uyarlanabilir bir zaman penceresini seçmek ve parametrelerde, örneğin 10 bar'a ayarlamamak gerekir. Ardından, seçilen pencerenin hangi kümeye ait olduğunu belirlemek için geçmişi derinlemesine inceleyin. Sinir ağları bununla başa çıkabilecek mi? veya daha basit bir şey. Yazık değilse, lütfen sadece sosis seviyesinde ızgaralara bir kitap atın.
Sosis düzeyinde nasıl dedikleri gibi zengin olduğunu bilmiyorum.
Yalnızca kümeleme ve sınıflandırma, ağların en iyi çözdüğü görevlerdir.
Yaklaşım daha kötüdür, ancak aynı zamanda normaldir, ancak ekstrapolasyon genellikle sıkıdır. Her şey uygulamaya bağlı olmasına rağmen.
Sosis düzeyinde nasıl dedikleri gibi zengin olduğunu bilmiyorum.
Yalnızca kümeleme ve sınıflandırma, ağların en iyi çözdüğü görevlerdir.
Yaklaşım daha kötüdür, ancak aynı zamanda normaldir, ancak ekstrapolasyon genellikle sıkıdır. Her şey uygulamaya bağlı olmasına rağmen.
...
Öğrenme, ağın kendisinin dışındaki bir süreçtir.
...
Daha sonra, tam olması için, öğrenmenin yalnızca harici bir süreç olmadığını, aynı zamanda özünde içeriden bir süreç olduğunu da ekleyeceğim, çünkü genellikle yalnızca ağırlıklara değil, aynı zamanda ara hesaplama verilerine ve ayrıca topoloji özelliklerine de erişime sahiptir.
Ve tam olarak öğrenme sürecinin bu özelliği nedeniyle, genellikle ağın iç süreçlerine atfedilir.
Ağın genel olarak çevreden saklarken, öğrenme süreci için kendi iç bilgilerini ortaya çıkarması gerektiği sonucuna varmışlardır.
Böyle bir durumda yapılacak mantıklı hareket, gerekirse ağın kendisini bir eğitim kabuğuna sarmak,
bu nedenle, yöntemleri olan harici bir ağ nesnemiz var:
İş akışı yöntemi olduğu gibi bir ağ ile sağlanır, eğitim yöntemi bir eğitim kabuğuna sarılmış bir ağ ile sağlanır, kapsüllemenin mantıksal bir devamı, iki iş akışı ve eğitim yöntemi yerine seçim bayrağıyla bir net yöntem vermek olacaktır.
bu nedenle, yöntemleri olan harici bir ağ nesnemiz var:
İş akışı yöntemi olduğu gibi bir ağ ile sağlanır, eğitim yöntemi bir eğitim kabuğuna sarılmış bir ağ ile sağlanır, kapsüllemenin mantıksal bir devamı, iki iş akışı ve eğitim yöntemi yerine seçim bayrağıyla bir net yöntem vermek olacaktır.
En genel durumda, ağda bir run() yöntemi olmalıdır - iş akışı
Çıkış nöronlarının hesaplamasını gerçekleştirir ve girdilerin zaten başlatıldığını varsayar.
"Öğretmen", eğitim parametreleriyle başlatılan ve kontrolde eğitilebilir bir nesne alan ayrı bir nesnedir.
İyi bir şekilde, bu nesnenin bu yöntemle eğitilip eğitilemeyeceğini kontrol edecek bir doğrulayıcıya da ihtiyacımız var.
Ancak tüm bunların genel durumda resmileştirilmesi zordur.
Bu nedenle, son kullanıcı için Ağ + Uygunluk İşlevi + Öğretmen biçiminde standart katı yapılar oluşturmak ve katmandaki nöronların sayısı gibi yalnızca bazı parametreleri yapılandırmanıza izin vermek mümkündür.
ağ, öğrenme süreci için kendi iç bilgilerini çevreden saklarken açığa çıkarmalıdır.
Kabul ediyorum. Eğitim yöntemlerinin tümü olmasa da bazıları, ağın iç kısımlarına neredeyse tam erişim gerektirir.
yu-sha :
...
Eğitim yöntemlerinin tümü olmasa da bazıları, ağın iç kısımlarına neredeyse tam erişim gerektirir.
İşin püf noktası bu, bazı yöntemler ağın yalnızca kendilerine ifşa edilmesini değil, aynı zamanda yöntem için doğru şekilde yapılandırılmasını da gerektirir.
Başka bir deyişle, yöntemin kendisi özel olarak belirli bir ağ için yazılmıştır. Peki, evrensel bir motor çerçevesinde bu yöntemleri uygulamanın amacı nedir?
Andrey'in tüm bunları kodlamasına izin vermek daha iyi. Evrensel bir motor için evrensel bir eğitim yöntemi görüyorum - GA.
Geriye kalan: herhangi bir topoloji için evrensel bir motor fikri, herhangi bir topoloji için evrensel bir başlatma yöntemi fikri ve tüm bunlar için evrensel bir öğretici olarak GA.
Profesyoneller, standart ancak henüz tanımlanmamış veya standart olmayan yeni nöron türlerinin uygulanmasının kolaylığı.
Eksilerde sadece bir eğitim yöntemi vardır.
Birisi, diğer öğretim yöntemlerinin nasıl dahil edileceği konusunu bitirirse, harika olacak, ama şimdilik öyle olacak.
Geriye kalan: herhangi bir topoloji için evrensel bir motor fikri, herhangi bir topoloji için evrensel bir başlatma yöntemi fikri ve tüm bunlar için evrensel bir öğretici olarak GA.
Profesyoneller, standart ancak henüz tanımlanmamış veya standart olmayan yeni nöron türlerinin uygulanmasının kolaylığı.
Eksilerde sadece bir eğitim yöntemi vardır.
Aynı şekilde düşünerek aynı sonuca vardım.
GA, ana öğrenme algoritması haline geldiğinden, paralel hesaplamaya acil bir ihtiyaç vardır.
GPU'ların girdiği yer burasıdır.
Aynı şekilde düşünerek aynı sonuca vardım.
GA, ana öğrenme algoritması haline geldiğinden, paralel hesaplamaya acil bir ihtiyaç vardır.
GPU'ların girdiği yer burasıdır.
Aslında modelimdeki GPU, sinir ağını hesaplama aşamasında ortaya çıktı, daha önce yazdıklarımı dikkatlice okursam, evrensel ağ modelimde, nöronların değilken işlemenin kendisinin katmanlara ayrıldığını fark ettim. biçimsel olarak katmanlar halinde birleştirilir (aidiyete göre), ama aslında (katmanın hafızası vardır, ancak nöronun yoktur, nöron yalnızca katmana nereden ve neden bilgi sağlayan bilgisel bir varlık olarak kalır). Dolayısıyla paralellik, motorun yapısı tarafından belirlenir (katmanın içindeki bilgilerin kendisi paralel olarak işlenir). Zaten eğitimli bir GA NN yaptım ve en büyük performans artışı NN hesaplamasındaydı (özellikle büyük ağlarda). Bir reklam olarak, joo tarafından önerilen UGA için NS'yi öğrenmenin önemsiz bir mesele olduğunu söyleyebilirim.
Ancak, FF'nin hesaplamalarını da paralelleştirdiği ortaya çıkarsa (ve GA için NS, FF'nin bir parçasıdır), o zaman ben buna varım. Bunun kolay bir iş olacağını düşünmesem de katmanlarda basit işlemler yapılıyor ve FF'nin hesaplanması oldukça karmaşık bir diziyi kapsayabilir.