Ticarette sinir ağlarının kullanılması. - sayfa 4

 
StatBars >> :

Bence yazınızdan, normalleşmenin, görünümdeki bir görevden çok verilere bağlı olduğunu da takip ediyor.

İkinci kısma gelince: Bir MA artışı ve bir seri artışı düşünüyor musunuz?

Peki, genel anlamda, eğitimli ağın giriş verilerine (her bir girişe) duyarsız olması gerektiğini mi kastediyorsunuz? Yoksa sadece girdi verilerini başka bir şeye mi değiştiriyorsunuz ve ağın hala tahmin etmeye devam etmesi mi gerekiyor?

Evet, veri dağıtımına bağımlılık eğitimin hızını ve kalitesini etkiler. Yani normalleştirme esasen sırasıyla hızı ve kaliteyi etkiler. İkinci kısım pahasına, hayır, elbette, bazı veriler üzerinde eğitimli bir sinir ağına tamamen farklı olanları sokmak imkansızdır, ancak aynı şekilde, dağılımı oldukça doğru bir şekilde tanımlar. Dağıtım, veri türü her zaman aynı kalmalıdır. Ancak, bir ağı tam olarak süreci karakterize eden bir veri türü ile eğitirseniz ve aynı zamanda bu süreci aynı derecede doğru bir şekilde karakterize eden yeni eğitilmiş ağda diğer verileri kullanırken çok farklı sonuçlar alırsanız, bu sırasıyla şu anlama gelir: bu, büyük olasılıkla, yanlış soruyu sinir ağının önüne koydunuz. Veriler, öncelikle süreci tam olarak tanımlamalı ve ikinci olarak, yüksek kaliteli genelleme ağından gereksinim açısından yeterli olacak böyle bir genelleme hatasını azaltmak gerekir. Bütün bunlar kelimenin tam anlamıyla sezgisel bir düzeyde gerçekleşir. İşlem tam olarak açıklanmışsa veri türünü seçmek işe yaramaz, ancak sorulacak doğru ağ sorusu çok değerlidir.

 

Ön işleme hakkında birkaç kelime.

İlk örnek: Çıktı girdi ile ilişkilidir (En Önemli Korelasyon). düzeltme = 0.64.

Grafikte: X koordinatı - veri girişi. Y - Gerekli çıktı

Lineer bağımlılığı ortadan kaldırıyoruz. Doğrusal bir ilişki bulmak için ağa ihtiyaç yoktur ve ayrıca sinir ağının sonuçlarını daha da kötüleştirecektir.

İlişkisiz veriler böyle görünür.

Veri noktalarının yoğunluğunun merkezde yoğunlaştığı ve kenarlar boyunca seyrek olduğu ilk grafikten de belliydi.

O. merkezde yoğunlaşan noktalar ağ eğitimi için ana uyarıcıyı verecek, daha doğrusu hatalarının önemi, kenarlarda bulunan verilerin hatasının önemini aşacaktır. Ağ, önce tam merkezde bulunan örneğin beklentisini bulacak ve daha sonra minimum hata koşulu gözlemlenerek etrafına dağıtılacaktır.

Bu nedenle, frekans dağıtım fonksiyonu eşittir, bu hatanın önemini eşitleyen şeydir ve ağ, hem dağıtımın merkezinde hem de veri dağıtımının kenarlarında en küçük hatayı elde etmek için iyi tanımlanmış bir teşvike sahiptir.

Veri dağıtım fonksiyonu, sigmoid fonksiyonu ile dönüştürüldükten sonra, giriş verileri ve çıkış verileri neredeyse eşit olarak dağıtılır.

Dönüştürülen veriler böyle görünür. Ağın eğitilmesi bu veriler üzerindedir.

Böylece, veri bulutu eşit olarak dağıtılır. Yine de, bu tür bir ön işlemeyi ağ için optimal olarak adlandırmamıza izin vermeyen bazı nüanslar olduğunu belirtmekte fayda var.

Ayrıca, tüm dönüşümlerin tersine çevrilebilir olduğunu ve kendi hatalarını getirmediğini belirtmekte fayda var.

bu daldaki tüm yöntemler (prensipte) öngörülmüştür.

 
StatBars писал(а) >>

Veri dağıtım fonksiyonu, sigmoid fonksiyonu ile dönüştürüldükten sonra, giriş verileri ve çıkış verileri neredeyse eşit olarak dağıtılır.

StatBars, bu prosedür sizin için otomatik mi yoksa sigmoid fonksiyonunun katsayılarını seçmek için zaman zaman manuel olarak mı yapmanız gerekiyor?

 
Neutron писал(а) >>

StatBars, bu prosedür sizin için otomatik mi yoksa sigmoid fonksiyonunun katsayılarını seçmek için zaman zaman manuel olarak mı yapmanız gerekiyor?

Şimdilik katsayıların seçilmesi gerekiyor... Ama otomatikleştirmeyi planlıyorum... Teoride, dağılıma yaklaşan fonksiyonun doğru seçimi ile genel olarak bir dikdörtgen olacaktır.

Yalnızca dağıtım işlevi alanını kullanarak otomatik hizalama, ancak o kadar çok "kaygan" an var ki onu terk etmek zorunda kaldım...

 

Vay - bende de aynı şey var.

Prival -a'ya analitik bir biçimde keyfi olandan istenen dağılımın (dikdörtgen) nasıl alınacağını sormak gerekir.

Ve neden hiperbolik tanjantı değil de FA olarak sigmoidi kullanıyorsunuz? Faydaları yüzeyde...

 
Neutron писал(а) >>

Ve neden hiperbolik tanjantı değil de FA olarak sigmoidi kullanıyorsunuz? Faydaları yüzeyde...

Ve faydaları hakkında daha fazla bilgi edinebilirsiniz.

 
Evet, simetrik bir fonksiyon tarafından aktive edilen bir nöron iki kat daha hızlı öğrenir. Ayrıca öğrenme sürecinde ağırlıkların bir kısmı sıfıra yakın değerler alır ve bu da onları işten kapatır yani. sigmoid FA'li bir nöronda etkin "çalışan" sinaps sayısı her zaman hiperbolik olandan daha azdır. Bu iyi değil, çünkü hala "ölü" sinapsları ileri geri taşımak zorundasın.
 
Neutron писал(а) >>
Evet, simetrik bir fonksiyon tarafından aktive edilen bir nöron iki kat daha hızlı öğrenir. Ayrıca öğrenme sürecinde ağırlıkların bir kısmı sıfıra yakın değerler alır ve bu da onları işten kapatır yani. sigmoid FA'li bir nöronda etkin "çalışan" sinaps sayısı her zaman hiperbolik olandan daha azdır. Bu iyi değil, çünkü hala "ölü" sinapsları ileri geri taşımak zorundasın.

Sadece basit bir dönüşüm sigmoid için -1'den 1'e kadar bir değer elde etmenizi sağlar.Karmaşık bir şey yoktur.

 

Evet, buna kim itiraz edebilir?

Sadece bu zaten "pantolonların özellikleri" kategorisinden.

 
Neutron писал(а) >>

Vay - bende de aynı şey var.

Prival -a'ya analitik bir biçimde keyfi olandan istenen dağılımın (dikdörtgen) nasıl alınacağını sormak gerekir.

Ve neden hiperbolik tanjantı değil de FA olarak sigmoidi kullanıyorsunuz? Faydaları yüzeyde...

Ben sadece hiptan kullanıyorum.