Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 58

 
gpwr >> :

Sanırım beni yine yanlış anladın.

Hatanın global minimumunu (yani eğitim) bulmak için bu polinomun katsayıları üzerinde nasıl hareket edeceğinizi gerçekten anlamıyorum. Size eğitilmiş nöronun ölçeklerini göstereceğim:


Bir vektör üzerinde üç deney. En çok dua edilen deneyim en başarılı olandı. Onlar. Hazır bir topolojiye sahip olmanın (teorik olarak) bu katsayıları seçmenin zor olmadığını anlıyorum. Bu polinom, bu topolojiyi oldukça güzel bir şekilde düzleştirecek, ancak bana bu topolojiyi (zaten eğitilmiş ağ) henüz eğitilmemiş için nasıl hesaplayacağınızı açıklayın? Başka bir deyişle, öğrenme hatası fonksiyonunda bir azalmaya yol açan kf.'yi etkileyen algoritma nedir? O senin tarafından biliniyor mu?

 
Neutron >> :

Özellikle sizin için tasarlandı:

FZ'nin her zaman yer aldığı ve kotirin keskin hareketlerinde görsel olarak açıkça görüldüğü açıkça görülmektedir.

Seryoga, önemsizliği ve tamamen kendiliğinden olmaması nedeniyle bu konuyu artık seninle tartışmayacağım. Malzemeyi öğrenin ve bir dahaki sefere aklınıza başka bir Süper-Duper Brilliant Fikir geldiğinde, uygulanması için size göründüğü gibi, bir veya iki araştırma enstitüsüne ve bir RS kümesine ihtiyacınız var, bir dakika düşünün - belki bir şeyi bilmiyorsun ya da anlamıyorsun. Ne de olsa, bu, her şeyin önünüzde çiğnendiği bir alanda "çağ açan bir keşiften" daha olasıdır.


Peki, faz gecikmesinin (bu terim) iki durum için var olduğunu düşünün.



Açıkçası senden bıktım :o)

 
HideYourRichess >> :

Aynı %80'i gösteren bir algoritma gördüğüme şaşırdım. Bir hata arıyorum. Her şeyi yapmak çok kolay. Bu olmaz.

Merak etme, matematik değil, ben yaptım, bu yüzden profesyoneller hakkında konuşun! :hakkında)))

 

nötron için


Yüksek/Düşük ve Kapanış arasında faz gecikmesi var mı? :o))) Görsel yönteminize göre olduğu ortaya çıktı:




Nereden gelebilirdi?


Düzeltmeler ve eklemeler : Kimse görmese de ben küçük düzeltmeler yapacağım. Aceleyle küçük bir hata yaptım, yukarıdaki resimde Aç ve Kapat. Bir sinyal diğerine göre geciktirilir, ancak bu özel durumda bu bir faz kayması değildir.


Faz gecikmesi yoktur. Kaymaya neden olacak hiçbir matematiksel operatör yürütülmedi . Maviden başka bir faz kayması yoktur. Bunun yerine, bir süreç seçimi var, böyle ve böyle değerleri aldığımız ve söylediğimiz kural - bu bir süreç.


Eğer "shift", Open'ın önce geldiği ve Close'un ikinci olduğu açısından düşünülürse, o zaman evet - bir "shift" vardır (buna karşı çıkmayacağım). Ancak bu özel durumda hangi matematiksel yöntemlerin kaymayı "bulacağını" bile bilmiyorum. Bu sinyaller birbirinin alternatifidir. tamamen aynı alternatif (H + L).2 ve Yüksek, kesinlikle kaydırılmamış.




Pekala, tahmin için Kapat'ı seçmek için doğruluk açısından inanılmaz bir sisteme sahip olmak gerekiyor. Ve bu arada, basit fikrim için, çok "robot" gecikme yok (H + L) / 2 kesinlikle etkilemeyecek.


Not : Efendim, Seryoga Seryoga, bu süreçler kesinlikle tek taraflıdır. Şimdilik bu kadar. İyi şanlar

 

nötron için

Yeni Matkad'ı beklerken geçmişi tekrar ediyorum, yani planladığım gibi. Tek bir katmanla uğraşıyorum. Hata vektörünün uzunluğunu göstermek istediniz, işte olanlar:


X istatistiğine göre, L uzunluğuna göre (eğer her şeyi doğru anladıysam)

şöyle düşündüm:


Burada i istatistiğe göre bir döngüdür X bir girdi vektörüdür (mevcut eğitim vektörünün tüm uzunluğu boyunca toplanır). Karesi alınmış hata, eğitim vektörünün karesel dağılımı ile birlikte tüm dönem boyunca birikir:


Ve dönemin sonunda şu şekilde kabul edilir:


Burada n , çağlar boyunca bir döngüdür

Her şey doğru mu yapılıyor?

 

Şekle bakılırsa, bir yerde bir hata var - çağdan çağa geçerken ağın kademeli olarak öğrenildiğini (hata vektörünün uzunluğundaki azalma) görmeliyiz. Bu görünmez. Sebepler, her zaman olduğu gibi, bir vagon ve küçük bir araba olabilir. Örneğin, grafikte, çağdan gelen hata vektörünün değeri yerine, bu değer zaten eğitilmiş ağ (son epoch) için bağımsız bir deney sayısının bir fonksiyonu olarak sunulmaktadır... - " X istatistiklerine göre.. " - hangi istatistikler? Görünüşe göre buraya yazmıyoruz. Ve işte burada - "... L uzunluğuna göre ", - L veri vektörünün uzunluğuna normalleştirildi ve 1'e yakın olması gerekiyor, değerlendirmenin sonuna doğru giderek azalıyor... Farklı bir şey görüyoruz.

İşte nasıl görünebileceği:

Burada, eğitim örneğindeki hata vektörünün uzunluğu mavi ile gösterilir (ızgaranın nasıl öğrendiğine bakıyoruz, nasıl tahmin ettiğine değil). Bu özel durumda, ağın tamamen eğitildiğini (hata sıfırdır) ve sadece eğitim örneğini ezberlediğini göstermek için toplamda 200 eğitim dönemi kullanıldı ve netlik için k = 1 kullanıldı.Tam olarak aynı sonuç eğitim olmadan da elde edilebilir ağ , ancak ağırlıklar için Lineer Cebirsel Denklemler Sistemini çözerek. Daha da hızlı. Sorun şu ki, bu tür ağırlıklara sahip bir test örneğinde, toplayıcımız Afrika'daki hava durumunu gösterecek, yani. genelleme yapma yeteneğinden tamamen yoksundur. Şek. kırmızı çizgiler bir dizi deney (n=50) üzerindeki varyansı (dağılım) gösterir ve mavi çizgi ortalamayı gösterir (hala istatistik topluyorum, ancak sizden farklı ve daha sonraları).

Son iki ifadeniz neredeyse doğru, ancak istatistikte bir indeks olmaması gerektiği (yalnızca BİR deney yapıyorsunuz ve bir dizi istatistik olmadan yeni bir koda ihtiyacınız var) ve ilk denklemi anlamadım. Nerede? Bloğum şöyle görünüyor:

j , eğitim vektörü üzerindeki döngüdür. x kare için gözle görülür şekilde daha az indeksim olduğunu unutmayın!

PS Bu arada, ağırlıklar için sıkıştırma işlevini kullanmayı reddettim, önce tek katman için, sonra iki katman için. Onsuz, sonuçlar daha kötü değil ve güçlük daha az.

 
grasn >> :

Merak etme, matematik değil, ben yaptım, bu yüzden profesyoneller hakkında konuşun! :hakkında)))


Anladım. Yaptığım şey, AR'nin ilkel bir versiyonu olarak kabul edilebilir veya tam tersi, AR, yaptığımın geliştirilmiş bir versiyonu olarak kabul edilebilir.

 
Neutron >> :

Son iki ifadeniz neredeyse doğru, ancak istatistikte bir indeks olmaması gerektiği (yalnızca BİR deney yapıyorsunuz ve bir dizi istatistik olmadan yeni bir koda ihtiyacınız var) ve ilk denklemi anlamadım. Nerede? Bloğum şöyle görünüyor:

j, eğitim vektörü üzerindeki döngüdür. x kare için gözle görülür şekilde daha az indeksim olduğunu unutmayın!

PS Bu arada, ağırlıklar için sıkıştırma işlevini kullanmayı reddettim, önce tek katman için, sonra iki katman için. Onsuz, sonuçlar daha kötü değil ve güçlük daha az.

İlk denklem, hata vektörünün uzunluğunu hesaplamak ve onu veri vektörünün uzunluğuna normalleştirmektir (yani, şu anda anladığım kadarıyla).Nedeni, büyük olasılıkla, bir dizi olmadan yeni bir koda gerçekten ihtiyaç duyulmasıdır. İstatistik. Şimdi yapacağım.

Küçültme işlevine gelince, bir şekilde benim için hemen işe yaramadı (yani uygulamanın sonucu belli değildi), bu yüzden kullanmadım.

 
paralocus писал(а) >>

İlk denklem, hata vektörünün uzunluğunu hesaplamak ve onu veri vektörünün uzunluğuna normalleştirmektir (yani, şu anda anladığım kadarıyla)

O halde son iki ifadeyi temsil eden nedir?

İkincinin vektörlerin uzunluklarının karelerini bulmak olduğunu ve üçüncünün normalleştirilmiş uzunluk olduğunu düşündüm. Eğer öyleyse, neden ilk ifade?

 
HideYourRichess >> :

Anladım. Yaptığım şey, AR'nin ilkel bir versiyonu olarak kabul edilebilir veya tam tersi, AR, yaptığımın geliştirilmiş bir versiyonu olarak kabul edilebilir.

Model tanımlamasını dahil etmedim, yani. numune uzunluğunun ve model sırasının optimal belirlenmesi. Onlarla, bence,% 90'a kadar getirebilirsiniz. Daha kötü ve daha iyi sonuçlar alacağınızdan kesinlikle şüphem yok. ;)