Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
4) ağırlık başlatma parametreleri - değerlerin dağılım şekli ve dağılımları.
Bulundu. Terazilerin başlatma parametrelerini ayarlamak mümkündür.
Varsayılanları kullandım gibi görünüyor.
Kısa süreli ileri eğitim kursları "Yapay sinir ağları
ve genetik algoritmalar"
Kısa süreli kurslar için başvurular kapandı
"Yapay sinir ağları ve genetik algoritmalar" yeterliliği,
Moskova Ek Eğitim Fakültesi tarafından yürütülen
Devlet Üniversitesi. Nükleer Araştırma Enstitüsü temelinde M.V. Lomonosov
Moskova Devlet Üniversitesi fiziği. Moskova Devlet Üniversitesi derslerinden mezun olanlara devlet sertifikası verilir.
ileri eğitim için örnek.
Dersler haftada iki kez akşam 19-00 arasında yapılacaktır.
25 Şubat 2011 Derslerin Başlangıcı
Daha fazla bilgi için kurs programını görüntüleyin ve
Kurslara şu adresten başvurabilirsiniz:
http://www.neuroproject.ru/kpk.php
Bulundu. Terazilerin başlatma parametrelerini ayarlamak mümkündür.
Varsayılanları kullandım gibi görünüyor.
Pekala, burada neler olduğu açık görünüyor.
Görevinize dayanarak (anladığım kadarıyla, iki sınıfa ayırmak istediğiniz tek boyutlu verileriniz var), o zaman özü, girdi değerleri kümesinde (sadece bir tane!), En uygun şekilde bir nokta bulmaktır. belirtilen bölümü üretir. Diyelim ki bunun için ağı 1-7-1 aldınız. Bu ağda, ağırlık sayısı 21'dir (gizli katman için yedi giriş, onun için yedi önyargı ve çıkış nöronu için yedi giriş). 21 değişken seçerken bir nokta bulmaya çalıştığımız ortaya çıktı. Yirmi bire bir gibi bir fazlalık ile, ağ okumalarının böyle dans etmesi şaşırtıcı değildir - ilk ağırlıklardaki en küçük bir fark, eğitimden sonra çıktıların önemli bir şekilde yayılmasına yol açar. Kabaca, görevin ağ için çok basit olduğu ortaya çıkıyor, ancak bunu bilmediği için orada olmayan bir şeyi arıyor. Resmi olarak, bu belki de yeniden eğitim olarak adlandırılabilir, ancak aslında - serçelere bir top ateşlemek.
Açıkça söylemek gerekirse, tek boyutlu verileri iki sınıfa ayırma görevi, bir girdi ağırlığı ve bir önyargı ile tek bir nöron tarafından başarıyla gerçekleştirilir.
Ve ilerisi. Gerçek ağ çıktılarının aralığının "darlığı" beni endişelendiriyor. Açıklamama izin ver:
-- MLP ağı 1-7-1
-- sinir ağının girişlerine verilen değerler [0;1] aralığında düzgün bir şekilde dağıtılır, eğitim örneklerinde çıktılar 1 ve -1 değerleri ile temsil edilir.
Eğitimden sonra, tüm giriş değerleri aralığı ağ üzerinden çalıştırılırsa, ağ çıkışlarının çok dar bir aralıkta olduğunu göreceğiz. Örneğin:
opt_max_act= -0.50401336 opt_min_act= -0.50973881 adım=0.0000286272901034
ya da öyle
opt_max_real= -0.99997914 opt_min_real= -0.99999908 adım=0.00000010
................................................
Bu doğru mu, değil mi?
Doğruluğunu söylemek zor ... duruma göre değişir
Örneğinize göre:
Bu durum, ilk ağın tüm girdilerde "bilmiyorum" dediği ve ikincisinin aynı girdilerde "sınıf -1" dediği anlamına gelir. Veriler aynıysa ve farklılıklar yalnızca ağırlıkların başlatılmasındaysa, büyük olasılıkla sorun sınıfların güçlü bir şekilde karıştırılmasındadır, bu nedenle ızgaralar öğrenme modelini mantıklı bir şekilde ayrıştıramaz ve sonuç olarak, "rastgele" hareket et. Bunun nasıl olabileceğinden bahsetmişken, ağda önyargılı nöronlar kullanılıyorsa (muhtemelen durum budur), o zaman ızgaranın tüm bilgi girişlerinin ağırlıklarını sıfırladığını ve analiz için yalnızca önyargı bıraktığını varsayıyorum. "Analiz", elbette, sadece nominal olduğu ortaya çıkıyor, ağ bir devekuşu prensibi üzerinde çalışıyor - sadece girdileri görmüyor. Bunu doğrulamak veya çürütmek için eğitilmiş ağın matrislerini görmeniz gerekir.
"İstatistikler" tarafından oluşturulan MLP NS kodu:
Doğruluğunu söylemek zor ... duruma göre değişir
Örneğinize göre:
Bu durum, ilk ağın tüm girdilerde "bilmiyorum" dediği ve ikincisinin aynı girdilerde "sınıf -1" dediği anlamına gelir. Veriler aynıysa ve farklılıklar yalnızca ağırlıkların başlatılmasındaysa, büyük olasılıkla sorun sınıfların güçlü bir şekilde karıştırılmasındadır, bu nedenle ızgaralar öğrenme modelini mantıklı bir şekilde ayrıştıramaz ve sonuç olarak, "rastgele" hareket et. Bunun nasıl olabileceğinden bahsetmişken, ağda önyargılı nöronlar kullanılıyorsa (muhtemelen durum budur), o zaman ızgaranın tüm bilgi girişlerinin ağırlıklarını sıfırladığını ve analiz için yalnızca önyargı bıraktığını varsayıyorum. "Analiz", elbette, sadece nominal olduğu ortaya çıkıyor, ağ bir devekuşu prensibi üzerinde çalışıyor - sadece girdileri görmüyor. Bunu doğrulamak veya çürütmek için eğitilmiş ağın matrislerini görmeniz gerekir.
Ve bir şey daha: FANN'de, gelen katman hariç her katmana gerçekten bir önyargı ofseti uygulanır ...
Ancak "Statistics 6" programının NN paketinin açıklamasında önyargıya benzer bir şey bulamadım.
Ulusal Meclis'te yeni başlayanlar için, tüm bu farklılıklar gerçekten beyni alıyor ...
Evet, dediğime çok benziyor, tam tersi. Ağ veriler arasında kayboldu. Dikkat edin - ağın mimarisinden, ilk katmanın tüm ağırlıklarının giriş verilerine göre eşit olarak eşdeğer olduğu ve teorik olarak sıfır civarında eşit olarak dağıtılması gerektiği sonucuna varılır - ancak resimde gördüğünüz gibi, bunlar gizli katmanın nöronlarının doygunluğa girmesi nedeniyle yukarı doğru sürüldü ( lojistik bir aktivasyon fonksiyonunuz var). Aktivasyon eşikleri kaydedilmedi, çünkü. sadece sıfır bölgesinde kaldılar, tıpkı beklendiği gibi, ilkinin söylediğinden hiçbir şey anlamayan çıkış nöronu gibi - ama biz ona ne olduğunu çoktan anladık.
Efsanevi!!
Bir diyagram şeklinde ağırlık ve eşik değerleri.
Ve tamamen farklı bir görünüm. Teşekkür ederim.
"İstatistikler" tarafından oluşturulan MLP NS kodu:
Tünaydın!
Kısaca anlatabilir misiniz , bir programcı yardımıyla Statistica tarafından oluşturulan bir sinir ağı ile bir C dosyasından bir dll dosyasının nasıl derleneceğini öğrenmek mümkün müdür? Demek istediğim, prosedürü bir kez açıklıyorlar, böylece daha sonra şemaya göre kendim yapabilirim. Bu sadece okuldaki Basic'teki programlama seviyesi ve forex için çalışmak için HC modelidir, ancak ağı düzenli olarak güncellemeniz gerekir - oluşturmak için yeni bir dll okuyun. MQL kodunda, her seferinde düzeltmek bir şekilde zordur.
Tünaydın!
Statistica tarafından oluşturulan bir sinir ağı ile bir C dosyasından bir dll dosyasının nasıl derleneceğini öğrenmek bir programcının yardımıyla mümkün müdür?
İyi geceler!
Bence değil, istisna sadece bu programcı "İstatistik" şirketinin kendisinde çalışmıyorsa))
MQL kodunda, her seferinde düzeltmek bir şekilde zordur.
İstatistikte ne tür NS kullanıyorsunuz?
Bir şeyi elinizle düzeltirseniz, bir algoritma vardır, bu yüzden onu otomatikleştirmeniz gerekir ....
................................................
Yukarıda, GA kullanmam önerildi ve tam bugün, joo kütüphanesinin ( UGALib ) yardımıyla, istenen ve kararlı sonucu almayı başardım.
Şimdi bu davayı 4-ku'ya sürükleyeceğim...
Andrey (yazar) alçak yay. Çok umut verici ve esnek bir yön.
...................
Belki bu yönde kazmaya değer?