Sinir ağının girişine ne beslenmeli? Fikirleriniz... - sayfa 58
Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Genelleme daha çok eksik öğrenme gibidir. Yani hatırlıyorlar ama tam olarak doğru değil (komşuları da işin içine katmışlar...). Neredeyse "C" almış bir okul çocuğu gibi))
Ancak bir kanunla tanımlanan bir şeyi (örneğin Ohm kanunu) ezberlersek, aşırı öğrenme olmayacaktır, az sayıda örnek ve sonsuz sayıda örnek varsa eksik öğrenme elde etmek daha kolaydır.
Örüntülerin neredeyse hiç olmadığı ve gürültülü olduğu ticaret için, gürültü ile birlikte kesinlikle doğru ezberleme bir kayıpla sonuçlanacaktır.Bazı nedenlerden dolayı buna aşırı öğrenme adı verilmiştir. Örüntü öğrenmede olduğu gibi, doğru ezberleme kendi başına zararlı değildir. Öte yandan gürültü/çöp ezberlemek faydalı değildir.
Öğrenmenin olağan tanımının - model parametrelerine belirli değerler atamanın - nesi yanlış?
Model parametrelerine belirli değerlerin atanması olarak alışılagelmiş öğrenme tanımı çeşitli nedenlerden dolayı yetersiz olabilir:
Süreç tanımının eksik olması: Model eğitimi sadece parametrelere değer atanmasını değil, aynı zamanda bu parametrelerin verilere dayalı olarak optimize edilmesi sürecini de içerir. Bu süreç, bir optimizasyon algoritmasının seçilmesini, hiperparametrelerin ayarlanmasını, bir kayıp fonksiyonunun seçilmesini ve basit değer atamasının kapsamadığı diğer hususları içerebilir.
Öğrenme dinamiklerinin göz ardı edilmesi: Modeleğitimi, birçok iterasyon ve adım içerebilen dinamik bir süreçtir. Basit değer ataması, hatayı en aza indirmek için parametrelerin kademeli olarak ayarlandığı bu iteratif doğayı yakalayamaz.
Veri bağlamı eksikliği: Model eğitimiveri odaklıdır ve eğitim süreci bu verilerin analiz edilmesini ve yorumlanmasını içerir. Basitçe değer atamak, verilerin modeli eğitmek için nasıl kullanıldığını ve nihai parametreleri nasıl etkilediğini dikkate almaz.
Genellemenin hesaba katılmaması: Model eğitiminin amacı sadece eğitim verilerindeki hatayı en aza indirmek değil, aynı zamanda modelin bilgisini yeni, görülmemiş verilere genelleme yeteneğidir. Sadece değer atamak genellemenin bu yönünü yakalayamaz.
Doğrulama ve testin göz ardı edilmesi: Eğitim süreci, performansını değerlendirmek ve aşırı eğitimden kaçınmak için modelindoğrulanmasını ve testedilmesini de içerir. Sadece değer atamak bu önemli adımları hesaba katmaz.
Bu nedenle, model öğrenmenin daha eksiksiz bir tanımı, öğrenme dinamiklerini, veri bağlamını, genelleme yeteneğini ve doğrulama ve test adımlarını dikkate alan veri odaklı bir parametre optimizasyon sürecini içermelidir.
Eğitim hakkında...
Birkaç yıl önce yaygın (teknik olmayan) bir sitede şu ifadeyle karşılaştım: sinir ağlarına dayalı veritabanları. Genel olarak bu terimi kendim için kabul ettim.
Kendim ağaçlarla uğraşıyorum - ağaç tabanlı bir veritabanı da uygulanabilir. Bir ağaçta 1 yaprak = bir veritabanında 1 satır. Farklılıklar:
Ağaçların veri tabanlarına göre avantajları: genelleme ve gerekli yaprak için hızlı arama - bir milyon satırdan geçmeye gerek yoktur, yaprağa birkaç bölme ile ulaşılabilir.
Kümeleme de genelleşir. Kmeans - örneklerin kümenin merkezine yakınlığına göre, diğer yöntemler farklıdır.
Sonuç: ağaç öğrenimi = tıpkı bir veri tabanı gibi örnekleri ezberlemek/kaydetmektir. Mümkün olan en doğru ezberlemeden önce bölmeyi/öğrenmeyi durdurursanız,genelleme ile ezberlersiniz.Ayrıca maksimum küme sayısı = örnek sayısına bölebilirsiniz ve genelleme olmadan bir veri tabanı / yaprak benzeri elde edersiniz. Sinir ağlarının anlaşılması ve kavranması daha zordur, ancak yapraklar ve kümeler kadar açık olmasa da özünde bir veri tabanıdır.
Andrew elbette öğrenmenin optimizasyon olduğu konusunu gündeme getirmek istiyor. Hayır - bu bir ezberdir. Ancak optimizasyon da mevcuttur. Öğrenme derinliği, bölünmüş yöntemler vb. ile varyasyonlar üzerinde optimizasyon yapabilirsiniz. Optimizasyonun her adımı farklı bir modeli eğitecektir. Ancak öğrenme optimizasyon değildir. Ezberlemektir.
Eğitim hakkında...
Birkaç yıl önce yaygın (teknik olmayan) bir sitede bu ifadeyle karşılaştım: sinir ağlarına dayalı veritabanları. Genel olarak bu terimi kendim için kabul ettim.
Kendim ağaçlarla uğraşıyorum - ağaç tabanlı bir veritabanı da uygulanabilir. Bir ağaçta 1 yaprak = bir veritabanında 1 satır. Farklılıklar:
Ağaçların veri tabanlarına göre avantajları: genelleme ve gerekli yaprak için hızlı arama - bir milyon satırdan geçmeye gerek yoktur, yaprağa birkaç bölme ile ulaşılabilir.
Kümeleme de genelleşir. Kmeans - örneklerin kümenin merkezine yakınlığına göre, diğer yöntemler farklıdır.
Sonuç: ağaç öğrenimi = tıpkı bir veri tabanı gibi örnekleri ezberlemek/kaydetmektir. Mümkün olan en doğru ezberlemeden önce bölmeyi/öğrenmeyi durdurursanız,genelleme ile ezberlersiniz.Ayrıca maksimum küme sayısı = örnek sayısına bölebilirsiniz ve genelleme olmadan bir veri tabanı / yaprak benzeri elde edersiniz. Sinir ağlarının anlaşılması ve kavranması daha zordur, ancak yapraklar ve kümeler kadar açık olmasa da özünde bir veri tabanıdır.
Andrew elbette öğrenmenin optimizasyon olduğu konusunu gündeme getirmek istiyor. Hayır - bu bir ezberdir. Ancak optimizasyon da mevcuttur. Öğrenme derinliği, bölünmüş yöntemler vb. ile varyasyonlar üzerinde optimizasyon yapabilirsiniz. Optimizasyonun her adımı farklı bir modeli eğitecektir. Ancak öğrenme optimizasyon değildir. Ezberlemektir.
Maksimum öğrenme kalitesi, kesinlikle doğru ezberleme ile, yani veritabanındaki tüm verilerin eksiksiz bir kaydı ile veya bir ağacı mümkün olan en son bölünmeye kadar eğiterek veya küme sayısı = örnek sayısı ile kümeleme ile olacaktır.
Bölmeyi daha erken durduran ağaçlar veya daha az kümeyle kümeleme - yapraklardaki/kümelerdeki verileri genelleştirecek ve birleştirecektir. Bunlar az eğitimli modeller olacaktır, ancak gürültü varlığında tam geri çağırmalı modellerden daha başarılı olabilirler.
MO dalının başında bir iskeleye çarpım tablosunun öğretilmesiyle ilgili bir örnek vardı. Eğitim için sonsuz sayıda olası seçenekle beslenmediğinden, orman bazen kesin cevaplar, ancak çoğunlukla yaklaşık cevaplar üretir. Açıkçası, yetersiz eğitilmiştir. Ancak genelleme yapabiliyor - bireysel ağaçların doğru cevaplarına en yakın olanları bulup ortalamasını alıyor.
Gürültü içinde öğrenirken kaliteyi değerlendirmek zordur. Özellikle de ticarette olduğu gibi gürültü örüntülerden çok daha güçlüyse.
Bu amaçla, doğrulama ve test örnekleri üzerinde değerlendirme, çapraz doğrulama, öne çekme vb. icat edilmiştir.Maksimum eğitim kalitesi, tamamen doğru ezberlemede, yani tüm veriler veritabanına tamamen kaydedildiğinde veya bir ağacı mümkün olan en son bölünmeye veya küme sayısı = örnek sayısı ile kümelemeye kadar eğitirken olacaktır.
Bölünmeyi daha erken durduran ağaçlar veya daha az kümeyle kümeleme - yapraklardaki/kümelerdeki verileri genelleştirecek ve birleştirecektir. Bunlar az eğitimli modeller olacaktır, ancak gürültü varlığında tam geri çağırmalı modellerden daha başarılı olabilirler.
MO dalının başında bir iskeleye çarpım tablosunun öğretilmesiyle ilgili bir örnek vardı. Eğitim için sonsuz sayıda olası seçenekle beslenmediğinden, orman bazen kesin cevaplar, ancak çoğunlukla yaklaşık cevaplar üretir. Açıkçası, yetersiz eğitilmiştir. Ancak genelleme yapabilmektedir - bireysel ağaçların doğru cevaplarına en yakın olanları bulmakta ve ortalamasını almaktadır.
Gürültü içinde öğrenme ile değerlendirme yapmak zordur. Özellikle de ticarette olduğu gibi gürültü kalıplardan çok daha güçlüyse.
Öğrenmenin olağan tanımının - model parametrelerine belirli değerler atamanın - nesi yanlış?
Özü yakalayamıyor.
Her türlü anlamsızlığı ve saçmalığı atayabilirsiniz. Tersinden başlarsak (ezberleme/hatırlama), o zaman öğrenme, yeni bilgi yaratabileceğiniz veya tanımlayabileceğiniz belirli kalıpların tanımlanmasıdır. Örnek olarak: Chat rastgele bir konu üzerine şiirler yazar.
Kararınızı verin.