Sinir ağları, bunlara nasıl hakim olunur, nereden başlamalı? - sayfa 12

 
Neutron >> :

Millet Meclisi nasıl bükülmez, ona girdi vermezsiniz, ancak elbette mucizeler olmaz!

Öyleyse ne olur: Bir yandan, NN'nin katmanlaması ne kadar büyük olursa, tahmin gücü o kadar yüksek olur, ancak üç katmandan fazlasını artırmak anlamsızdır - üç katmanlı bir ağ zaten evrensel bir tahmin edicidir.

Genel olarak, hayır, tartışmayacağım - yoruldum.

NN ne kadar katmanlıysa, eğitim sırasında eğitim örneğinin kullanılması o kadar büyük olacaktır. Eğitimin karmaşıklığı sadece P ^ 3 olarak büyümekle kalmaz, aynı zamanda yeterli veri olmayabilir!


Bu dereceyi ikinci kez görüyorum. Hadi sayalım.


Örneğin bir m - n - k ağını ele alalım - harfler sırasıyla giriş, gizli ve çıkış katmanlarındaki nöronların sayısını gösterir.

Sinyal yayılımının karmaşıklığı O(m*n + n*k)'dir, bu tamamen bağlı sinapslarla olur.

Geri yayılımın karmaşıklığı benzerdir.

Şimdi aynı boyutta ek bir gizli katman tanıtalım.

Karmaşıklık O(m*n + n*n + n*k)'dir.

İlişkiyi alın -- (m + n + k)/(m + k) çıkıyor.


Ek olarak, 2. gizli katmanın tanıtılması, 1. katmanın boyutunu özel olarak azaltmanıza olanak tanır.

Bunu yapmak için Mathcad ortamına 1,2 ve 3 katmanlı üç ızgara ekledim ve bir sayım ilerideki kota artışının işaretini tahmin etmenin sonuçlarını karşılaştırdım (istatistikler 100 bağımsız deneyden toplandı). Sonuçlar aşağıdaki gibidir:

1 - p=doğru tahmin edilen işaretlerin %10'u (olasılık=1/2+p).

2 - 15-16%

%3 - 12

Burada gerçekten özgür parametreler var: girdinin boyutu ve katmandaki/katmanlardaki nöronların sayısı. İlk parametre tüm mimariler için aynıydı, ikincisi kişisel olarak seçildi. 3 katmanlı NN'nin her derde deva olmadığı ve belki de tüccarlar olarak bizim için MTS analitik bloğu için en iyi seçeneğin iki katmanlı bir ızgara olduğu görülebilir - maksimum tahmin doğruluğu ve minimum öğrenme gereksinimleri açısından karmaşıklık (RS gücü, kullanılabilirlik harika geçmişi ve eskimemesi).

Kesirli sayıda katmana sahip fraktal NN'leri düşünmenin zamanı geldi :)) . 2.5 doğru olacaktır.

 

NS teknolojisine hakim olmanın varsayımsal yolu
Aşama 1.

NS'de bir alım/satım çıktısı ile NS inşa edin, besleyin Kapat[x] grafiğe bakın, görüyoruz - ağ gürültülü!
Adım 2.

Konunun orijinal alıntıdan daha yumuşak olduğunu besliyoruz, bu NS yine de ses çıkarıyor.
Neyden? Evet, çünkü öğretmen dengesiz. Elle pişirmek için çok tembel. (burada bir yüksek lisans öğrencisine ihtiyaç vardır))
Aşama 3.

Reshetov'un makalesini okuyoruz, NS gönderiyoruz, test cihazını eğitiyoruz ve herhangi bir açık hata işlevi olmadan bildirimde bulunuyoruz.
Böylece Strateji Test Cihazı mırıldanır, geliştirici mırıldanır, Reshetov ne kadar akıllıdır, her şeyi hesaba kattı, gerçek bir Öğretmen icat etti.
Ancak, şimdi Yu. Reshetov tanımı gereği akıllı, ama işte MT-4 için pek iyi yapmayan bir bilgisayar, ama MT-5 nerede?
Evet ve 4 girişte bu "NS" yine gürültülü. Şimdi geçmiş verilerin dengesiz olduğu ortaya çıkıyor - farklı türde pazarlar içeriyorlar ve hangileri olduğunu bilmiyoruz)
....bir döngüde 1-3 arasındaki adımları tekrarlayın.
4. adım

döngülere sıkışıp kaldığımızı anlıyoruz - ağı büyütemiyoruz, MQL yavaş ve nöropaket eğitimi ticaretten uzak görünüyor.
Adım 5.

Yol ayrımındaki düşünceler - şimdi NN ile çalışmaya başladık, biliyoruz ki NN o kadar da matematik değildir. ne kadar teknoloji
belki NS Trader sizi kurtarır, test cihazı daha iyidir.
İyi...
neden tüm bunlar?
6. adım

bir ağ icat eder ve onu eğitirsek, bu süreçte gerçekten neye ihtiyacımız olduğu giderek daha açık hale gelir ve bu gerçek NN olmadan yürütülür,
tamamen NS olmadan.
ortaya çıkıyor
Ulusal Meclis'e sadece, ona bir şey açıklarken aptallık yaparken, bunun açıklandığını kendin anlayabilmen için gereklidir)))

 
TheXpert писал(а) >>

Hadi sayalım.

Konunun 7. sayfasında bir makale ile bir arşiv yayınladım, öğrenmenin karmaşıklığına dair bir tahmin var (s. 65-66): С=P*w^2=d*P^2=(w^ 4)/d, biraz yalan söylediğim (biraz hamile kaldığım) ve karmaşıklığın d*P^2 ile veya sinaps sayısıyla orantılı olduğu sonucuna varmamızı sağlar: (w^4)/d

Ek olarak, 2. gizli katmanın tanıtılması, 1. katmanın boyutunu özel olarak azaltmanıza olanak tanır.

Bu nereden geliyor?
 
Neutron >> :
Bu nereden geliyor?

Kesin olarak değilse, dolaylı olarak ayarlanabilir parametre sayısından. Kesinlikle niasil. Kanıt konusunda iyi değil.

Ve kendi düşüncemi de katacak olursam, bir süredir hızın doğrusal olmayan yakınsaması açısından en havalı olan algılayıcı yapısının bir Noel ağacı olduğunu düşünüyorum, ancak henüz kontrol etmedim. .

Eller uzanacak, ben çizeceğim.


Bazı Yeni Yıl düşünceleri :)) .

 
Korey писал(а) >>
Ulusal Meclis'e sadece, ona bir şey açıklarken aptallık yaparken, bunun açıklandığını kendin anlayabilmen için gereklidir)))

Kutsamak istemediğiniz önemli bir nokta var - Ulusal Meclis'i bir kez açıklamanız gerekecek (aynı zamanda, doğru bir şekilde belirttiğiniz gibi, kendinizi anlayacaksınız) ve sonra, bir torna tezgahı gibi, değişimi işleyecektir. world (kotir), ne demek istediğini tam olarak anlamanız için gerçekten umursamıyor!

TheXpert yazdı >>

algılayıcı yapısı -- balıksırtı

Ne içiyoruz?

Anlıyorum! Kesinlikle bir ağaca benziyor. Ben de sezgisel düzeyde aynı şeye sahibim.

 
Neutron >> :

...

Bu nereden geliyor?

haikin'i okuyun -------> madde 4.15. Ağ Basitleştirme Teknikleri

 

Eğitim için aldığınız algoritmanın hiçbir farkı yoktur. Sonuç yine aynı :) Sinir ağını kazmanıza gerek yok, girdileri aramanız gerekiyor.

 
PraVedNiK писал(а) >>

haikin'i okuyun -------> madde 4.15. Ağ Basitleştirme Teknikleri

Sorun yok. Onur duyalım!

 

Balıksırtı! Sezginin bununla hiçbir ilgisi yok, NS piramidal bir kodlayıcıdır, + FFT'ye benzer.
Örneğin, piramidal kodlayıcı modeline dayalı olarak, minimum nöron sayısı basitçe hesaplanır.

onlar. piramidal kodlayıcı, tasarlanan sinir ağının minimum kapsama alanıdır.

 
Neutron >> :

Ne içiyoruz?

düştü :)

Anlıyorum! Kesinlikle bir ağaca benziyor. Ben de sezgisel düzeyde aynı şeye sahibim.