Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 14

 
Neutron >> :

Bu en büyük hatadır. Piyasa küstahlığınız için sizi cezalandıracak!

Sadece Market ile ve onun kurallarına göre oynayabilirsiniz. Ve eğer oyunu severse, seni ödüllendirecek.

Büyük harfle de olsa piyasaya kişisel nitelikler mi atıyorsunuz? :)

Piyasa vahşi bir unsur, okyanusla benzerlik bana oldukça başarılı görünüyor.

 

Şaka yapıyordum:-)

Piyasanın rastgele ve bir yerde yarı-durağan bir süreç olduğunu biliyorum. Ve TS'nin görevi, en azından bir tür durağanlığın aranması ve çalıştırılmasına indirgenmiştir.

sealdo писал(а) >>

Örneğin, "günlerin", "haftaların" oynaklığından veya başka bir şekilde, piyasada sorunsuz bir şekilde değişebilmeleri için hedefleri (TP, SL) hesaplamanın bir yolu olup olmadığını merak ediyorum.

Bu değerler piyasayı karakterize eder ve sadece geçmiş üzerinde TS çalıştırılarak değerlendirilebilir.
 
Neutron >> :

Şaka yapıyordum:-)


Evet, bir sürü ciddi amca var! Şaka...-:)

Neutron, ORO hakkında sorularım var. Bir nöronun girişine bir hata değeri beslendiğinde, bu hatayı girdilerinin tüm ağırlıkları arasında, bu ağırlıkların toplamındaki paylarına karşılık gelen bölüştürdüğünü doğru anlıyor muyum?

Yani, +/- Er hata değerini alırız, sonra gelen sinapsların tüm ağırlıklarını toplarız Sw1 = SUM(w1+w2+w3+... wn) ve her birinin payını (toplam ağırlıkta) hesaplarız.

Dw1 = w1/(Sw1/100) sonra +/-Er'i tüm ağırlıklar arasında toplam ağırlıktaki paylarına göre dağıtırız: wi = wi +/- Dwi *Er öyle mi? Eğer öyleyse böyle bir dağılımı lineer değil de üstel diyelim yapmak mümkün müdür? Sonuçta, canlı sistemlerde "bonuslar" ve "yüze tokatlar", yani. hatalar ve ikramiyeler "ilk" arasında dağıtılır ve "son" hiç lineer değildir.

İkinci soru:

Hata değeri nereden geliyor? Bu değerin işareti nedir? Bir önceki işlemde alınan zararın değeri "hata değeri" olabilir mi?

 
paralocus >> :

Bir nöronun girişine bir hata değeri beslendiğinde, bu hatayı girdilerinin tüm ağırlıkları arasında, bu ağırlıkların toplamındaki paylarına karşılık gelen bölüştürdüğünü doğru anlıyor muyum?

Hayır, bölmez, yayılır. Ve birileri öyle düşündüğü için değil, amaç fonksiyonunu minimize etmenin bir sonucu olarak bu şekilde çıkıyor.

Bunun ışığında --

Eğer öyleyse böyle bir dağılımı lineer değil de üstel diyelim yapmak mümkün müdür? Sonuçta, canlı sistemlerde "bonuslar" ve "yüze tokatlar", yani. hatalar ve ikramiyeler "ilk" arasında dağıtılır ve "son" hiç lineer değildir.

Bu varsayımın yavaş öğrenmeye veya toplam hatanın farklılaşmasına yol açması muhtemeldir.

 
TheXpert >> :

Hayır, bölmez, yayılır. Ve birileri öyle düşündüğü için değil, amaç fonksiyonunu minimize etmenin bir sonucu olarak bu şekilde çıkıyor.

Bunun ışığında --

Bu varsayımın yavaş öğrenmeye veya toplam hatanın farklılaşmasına yol açması muhtemeldir.

Öngörülebilirlik artacak mı?

 
paralocus писал(а) >>

Neutron , ORO hakkında sorularım var. Bir nöronun girişine bir hata değeri beslendiğinde, bu hatayı girdilerinin tüm ağırlıkları arasında, bu ağırlıkların toplamındaki paylarına karşılık gelen bölüştürdüğünü doğru anlıyor muyum?

Yani, +/- Er hata değerini alırız, sonra gelen sinapsların tüm ağırlıklarını toplarız Sw1 = SUM(w1+w2+w3+... wn) ve her birinin payını (toplam ağırlıkta) hesaplarız.

Dw1 = w1/(Sw1/100) sonra +/- Er'i tüm ağırlıklara toplam ağırlıktaki paylarına göre dağıtırız: w i = w i +/- Dw i *Er doğru mu? Eğer öyleyse böyle bir dağılımı lineer değil de üstel diyelim yapmak mümkün müdür? Sonuçta, canlı sistemlerde "bonuslar" ve "yüze tokatlar", yani. hatalar ve ikramiyeler "ilk" arasında dağıtılır ve "son" hiç lineer değildir.

İkinci soru:

Hata değeri nereden geliyor? Bu değerin işareti nedir? Bir önceki işlemde alınan zararın değeri "hata değeri" olabilir mi?

Hayır, öyle değil.

Sizinki gibi bir ağlar komitesi değil, sıradan iki katmanlı bir ızgara düşünün. O zaman genelleme yapmak mümkün olacaktır.

n numune uzunluğunda bir giriş sinyali vektörünüz (tek boyutlu olsun) var ve n + 1 numunenin Ağın eğitim kalitesi için bir test olmasına izin verin. Bu vektörü ( n örnek) girişe, tüm ağırlıkları +/-1 aralığında rastgele değerlere eşitledikten sonra, olasılık yoğunluğunun tek tip bir dağılımına bakın ve ızgaranın neyi doğurduğuna bakın. çıktıda. Diyelim ki +5.1 verdi ve testiniz n +1 saydınız (eğitilmiş ızgaranın bu eğitim vektörü üzerinde çalışması gereken değer) +1.1 Ardından, alınan değer ile istenen +4 arasındaki farkı alıp bu değeri ekleyin. çıkış nöronunun her ağırlığı için işaretini koruyarak (bu FA'siz ise) veya bu değerden FA türevinin değerini bulup son nöronun girişindeki ağırlıklara ekleyin (varsa) FA'dır). Vb.

Bu parçayı sindirirseniz, hatayı ilk (giriş) katmanın girdi ağırlıklarına nasıl daha fazla iteceğinizi anlatacağım.

 
Neutron >> :

Hayır, öyle değil.

Belki formüllerde daha iyi? Buradaki matematik kolaydır.

paralokus >> :

Öngörülebilirlik artacak mı?

Olası olmayan.

 
TheXpert >> :

Hayır, bölmez, yayılır. Ve birileri öyle düşündüğü için değil, amaç fonksiyonunu minimize etmenin bir sonucu olarak bu şekilde çıkıyor.

Bunun ışığında --

Bu varsayımın yavaş öğrenmeye veya toplam hatanın farklılaşmasına yol açması muhtemeldir.

Ve Er = e(w1*x) + e(w2*x) + ... e(wn*x) ise toplam hatada neden bir tutarsızlık olsun? Hayır, toplam hata giriş hatasına eşit olacaktır.

 
TheXpert писал(а) >>

Belki formüllerde daha iyi? Buradaki matematik kolaydır.

İnternetin uçsuz bucaksızlığıyla dolu literatürde formüllere kendiniz de bakabilirsiniz.

Acele etmeyelim. Ve "doğrusal olmayan öğrenme" vb. gibi her türlü zil ve ıslıklarla hayatınızı karmaşıklaştırmaya çalışmayın. bu kötü olandan. Sadelik ve uyum içinde güzellik ve güvenilirlik!

 
Neutron >> :

Bu parçayı sindirirseniz, hatayı ilk (giriş) katmanın girdi ağırlıklarına nasıl daha fazla iteceğinizi anlatacağım.

yemek yapmaya gitti...