Sinir ağları, bunlara nasıl hakim olunur, nereden başlamalı? - sayfa 7

 
Neutron >> :
Pekala, bu kadar sert olma. Sonunda, ağ bazen yeniden eğitilir (ve bunu analiz edilen VR'nin her hesabında yaparım) ve ortalama olarak, yöntem bir minimum bulur. Boyut azaltımına gelince, fiyat tipi BP'ler için bu, ne yazık ki gönderdiğiniz ölçüde çalışmıyor.

Hangi zaman dilimini kullanıyorsunuz? Yapacağınız amaca bağlı olarak, boyutu düşürmeye gelince. Bu banal bir ön işleme ise, bazı önsel değerlendirmeler olmadan, yani zaten yeterli veriye sahip olduğunuzda ve yalnızca sonucu iyileştirdiğinizde, istenen etkiyi vermeyecektir. Boyut azaltmayı başka bir şey için kullanıyorsanız, her şey olabilir. ;)

 
registred писал(а) >>

Hangi zaman dilimini kullanıyorsunuz?

Herhangi bir TF kullanmıyorum.

Bunun nedeni, şamdanların tüm zaman dilimlerinde herkes tarafından kullanılmasıdır, bu nedenle, açılış (veya kapanış) fiyatlarına dayanan VR, diğer şekillerde orijinalden oluşturulan VR'den (örneğin, enstrümantal zamana geçerek vb.).

 

Teşekkürler gpwr , arnautov !

Шаг 1: Выбираем входные данные. Например,


x1 = WPR Per1

x2 = WPR Per2

x3 = WPR Per3

Girdi verilerinin, katsayıların karşılaştırılacağı danışmanın dış parametrelerine yerleştirilen değişkenler olarak anlaşıldığını doğru anlıyor muyum?

Konuya daha yakın mısınız? Sorun yok! Bir nöron yazarak başlamanız ve ardından bunları bir ağda birleştirmeniz gerekir. Ve süslü programlar daha sonra. Diğer tüm tavsiyeler saçmalık.

Ve bir nöron yazmak, aşamalara ayrılabilir mi?


İyi? Örnek olarak anlamak istediğini konuya kim yazmış, başlayalım mı?

İlk adımlar bize gösterildi, danışman beşinci sayfada...

 
Neutron >> :

İki teoremin çok uzun zaman önce kanıtlanmadığını biliyorum.

linkler olursa sevinirim

Birincisine göre, üç katmanlı bir doğrusal olmayan sinir ağı (her biri için doğrusal olmayan bir çıktıya sahip üç nöron katmanından oluşan bir ağ) evrensel bir tahmin edicidir.

Eh, uzun zamandır kanıtlanmıştır. 3 katmanlı bir algılayıcının herhangi bir fonksiyona keyfi olarak küçük bir doğrulukla yaklaşabilmesi gerçeği.

ve katman sayısındaki daha fazla artış ağ kapasitesini artırmaz.

İkinci teoreme göre, ağın bilgi işlem gücü, nöronlarının çıktılarındaki spesifik doğrusal olmayanlık tipine bağlı değildir. Prensipte (doğrusal olmama) olması önemlidir ve sigmoidin veya ark tanjantının tam olarak ne olduğu önemli değildir.

Söylediklerim pratik deneylerin sonucudur. Doğrusal olmamaya gelince ... ancak, önce bu teoremlere aşina olmalısınız.

Ek olarak, eğitim örneğinin tarihsel veriler üzerindeki optimal uzunluğu, sinir ağının girdi boyutu ve toplam sinaps sayısı arasında, alınmayan verilerdeki tahmin hatasını en aza indirme anlamında açık bir ilişki vardır. ağ eğitiminde yer aldığı kanıtlanmıştır. Bu, bu optimumu manuel olarak seçerek Leninizm'e girmemenizi sağlar. PC'nin mevcut kapasiteleri ile bu, zamandan ve emekten önemli ölçüde tasarruf sağlar.

Ayarlanabilir parametre sayısı mı demek istediniz? Eşikler de dahildir. Bu arada, belgesel kanıtlar da zarar vermez. Ve sinir ağlarıyla uğraşmaya başlayanlar için bu materyali tanımaktan zarar gelmez.

 
Andrey4-min >> :

Ve bir nöron yazmak, aşamalara ayrılabilir mi?

Nesne yönelimli bir dilde yazmak daha iyidir.


Nöron, NN yazarken çok küçük bir kavramdır.

Katman, özdeş nöronların bir birleşimidir, bu nedenle bir nöronu ayrı ayrı düşünmek mantıklı değildir.


Kütüphanemde sadece 2 tür soyutlama kullandım - katman ve ağırlık.


Ağırlıklar, 2 katmanı birbirine bağlayan bir sinaps bloğudur.

Katmanın bir girdi, çıktı ve hata arabelleğinin yanı sıra bir etkinleştirme işlevi vardır. Sinapslar iki boyutlu bir dizidir ve bir katmanın çıktı arabelleğini bir sonrakinin girişi ile birleştirir.

Ağ, katmanlar ve bunlar arasındaki bağlantılardan oluşan bir koleksiyondur. Hata arabelleğinde sıfır olmayan sinyallere sahip herhangi bir katman çıktı olarak kabul edilebilir.

 
TheXpert писал(а) >>

Eh, uzun zamandır kanıtlanmıştır. 3 katmanlı bir algılayıcının herhangi bir fonksiyona keyfi olarak küçük bir doğrulukla yaklaşabilmesi gerçeği.

Hata, doğruluk değil.

Bu açıksa, neden bu zorluklar:

TheXpert yazdı >>

Birçok görevde, 4 katmanlı algılayıcı çok daha iyi sonuçlar ve yakınsama gösterir.

Ve bazı yerlerde 5 kat kullanılmıştır. Algılayıcıya dayalı karmaşık ağlar (birkaç çıktı katmanı ve karmaşık bağlantılarla) hakkında şimdilik sessiz kalacağım.

Ayarlanabilir parametre sayısı mı demek istediniz? Eşikler de dahildir. Bu arada, belgesel kanıtlar da zarar vermez. Ve sinir ağlarıyla uğraşmaya başlayanlar için bu materyali tanımaktan zarar gelmez.

Evet, NN'deki ağırlıkların sayısını, bunların girdi sayısıyla ilişkisini ve eğitim örneğinin optimal uzunluğunu kastettik. Bağımlılığın çıktısı, 64-65. sayfalarda Ek'e eklenen makalede verilmiştir. Kısacası, NN'nin ağırlık sayısı w , girdi sayısı d ve eğitim örneğinin uzunluğu Р ise, optimumda şu koşul yerine getirilmelidir: P = (w^2)/d

Teoremlere daha sonra bağlantılar vereceğim - bulunmaları gerekiyor.

Dosyalar:
yvtwslxtn.zip  1592 kb
 
Neutron >> :

Hata, doğruluk değil.

Evet.

Bu açıksa, neden bu zorluklar:

Basittir, bir katman eklemek veya mimariyi değiştirmek birkaç fare tıklaması veya birkaç satır kod ile yapıldığında, bu karmaşıklıklar ilginç ek özelliklere dönüşür.

Evet, NN'deki ağırlıkların sayısını, bunların girdi sayısıyla ilişkisini ve eğitim setinin optimal uzunluğunu kastettik. Bağımlılığın çıktısı, 64-65. sayfalarda Ek'e eklenen makalede verilmiştir.

Teşekkür ederim. Teorem ispatına ne dersiniz? Ya da en azından tam ifade?

 

Nöronların herhangi bir doğrusal olmayan fonksiyonunun uygunluğuna ilişkin teorem, eski Sovyet tarafından ve 1980'lerin sonlarından itibaren Amerikalı matematikçi Vladik Kreinovich [1] tarafından kanıtlandı ve önde gelen Batı sinir ağı dergilerinden birinde yayınlandı.

1. Kreinovich VY Keyfi doğrusal olmama, tüm fonksiyonları sinir ağları ile temsil etmek için yeterlidir: A teoremi / Sinir Ağları, 1991, Cilt.4, No.3. - s.381-383.

PS 3 katmanın yeterliliği hakkında - daha sonra.

 

Gorban A.N.'nin makalesinde 3 katmanın yeterliliğinin kesin bir kanıtını gördüm. "..." - Onu bulamıyorum.

Yeterlilik olgusunun bir ifadesi, 39. sayfada aşağıda ekli makalede mevcuttur.

Dosyalar:
esibfjnus.zip  967 kb
 
Görünüşe göre Kolmogorov tarafından kanıtlanan teoremle, herhangi bir sayıda değişkenli herhangi bir fonksiyonun iki değişkenli fonksiyonlar cinsinden tam olarak ifade edilebileceği teoremiyle bir bağlantı var gibi görünüyor. Belki yanlış ifade ettim ama Millet Meclisi ile ilgili yazılarda sık sık bahsediliyor.