Sinir ağının girişine ne beslenmeli? Fikirleriniz... - sayfa 58

 
Forester #:

Genelleme daha çok eksik öğrenme gibidir. Yani hatırlıyorlar ama tam olarak doğru değil (komşuları da işin içine katmışlar...). Neredeyse "C" almış bir okul çocuğu gibi))

Ancak bir kanunla tanımlanan bir şeyi (örneğin Ohm kanunu) ezberlersek, aşırı öğrenme olmayacaktır, az sayıda örnek ve sonsuz sayıda örnek varsa eksik öğrenme elde etmek daha kolaydır.

Örüntülerin neredeyse hiç olmadığı ve gürültülü olduğu ticaret için, gürültü ile birlikte kesinlikle doğru ezberleme bir kayıpla sonuçlanacaktır.
Bazı nedenlerden dolayı buna aşırı öğrenme adı verilmiştir. Örüntü öğrenmede olduğu gibi, doğru ezberleme kendi başına zararlı değildir. Öte yandan gürültü/çöp ezberlemek faydalı değildir.
Genelleme az ve çok arasında bir dengedir :) Hayattan kaba bir örnek: Maxwell'in formülünü iyi öğrendi, ancak pratikte gerçekte uygulayamadı, bu aşırı öğrenmedir. Maxwell'in formülünün var olduğunu biliyordu, ancak nasıl yazıldığını hatırlamıyordu, ancak pratikte bunu hatırladı, tekrar okudu ve uyguladı. Bu genellemedir (öğrenme) ve üniversitede boşa harcanan yıllar değildir.
 
Öğrenmenin olağan tanımının - model parametrelerine belirli değerler atamanın - nesi yanlış?
 
Aleksey Nikolayev #:
Öğrenmenin olağan tanımının - model parametrelerine belirli değerler atamanın - nesi yanlış?
Modelin kendisine sorabilirsiniz :)

Model parametrelerine belirli değerlerin atanması olarak alışılagelmiş öğrenme tanımı çeşitli nedenlerden dolayı yetersiz olabilir:

  1. Süreç tanımının eksik olması: Model eğitimi sadece parametrelere değer atanmasını değil, aynı zamanda bu parametrelerin verilere dayalı olarak optimize edilmesi sürecini de içerir. Bu süreç, bir optimizasyon algoritmasının seçilmesini, hiperparametrelerin ayarlanmasını, bir kayıp fonksiyonunun seçilmesini ve basit değer atamasının kapsamadığı diğer hususları içerebilir.

  2. Öğrenme dinamiklerinin göz ardı edilmesi: Modeleğitimi, birçok iterasyon ve adım içerebilen dinamik bir süreçtir. Basit değer ataması, hatayı en aza indirmek için parametrelerin kademeli olarak ayarlandığı bu iteratif doğayı yakalayamaz.

  3. Veri bağlamı eksikliği: Model eğitimiveri odaklıdır ve eğitim süreci bu verilerin analiz edilmesini ve yorumlanmasını içerir. Basitçe değer atamak, verilerin modeli eğitmek için nasıl kullanıldığını ve nihai parametreleri nasıl etkilediğini dikkate almaz.

  4. Genellemenin hesaba katılmaması: Model eğitiminin amacı sadece eğitim verilerindeki hatayı en aza indirmek değil, aynı zamanda modelin bilgisini yeni, görülmemiş verilere genelleme yeteneğidir. Sadece değer atamak genellemenin bu yönünü yakalayamaz.

  5. Doğrulama ve testin göz ardı edilmesi: Eğitim süreci, performansını değerlendirmek ve aşırı eğitimden kaçınmak için modelindoğrulanmasını ve testedilmesini de içerir. Sadece değer atamak bu önemli adımları hesaba katmaz.

Bu nedenle, model öğrenmenin daha eksiksiz bir tanımı, öğrenme dinamiklerini, veri bağlamını, genelleme yeteneğini ve doğrulama ve test adımlarını dikkate alan veri odaklı bir parametre optimizasyon sürecini içermelidir.

 
Genel olarak, değerli uzmanların neden karmaşık ve ilginç bir konuyu yönlendirilmeden tartışmaya başladıklarını merak ediyorum :)
 
Forester #:

Eğitim hakkında...


Birkaç yıl önce yaygın (teknik olmayan) bir sitede şu ifadeyle karşılaştım: sinir ağlarına dayalı veritabanları. Genel olarak bu terimi kendim için kabul ettim.



Kendim ağaçlarla uğraşıyorum - ağaç tabanlı bir veritabanı da uygulanabilir. Bir ağaçta 1 yaprak = bir veritabanında 1 satır. Farklılıklar:



Veritabanındaki 1 satır, veritabanında depolanan verilerden yalnızca 1 örnek içerir. 1 yaprak şunları içerir:



1) 1 örnek ve tümüyle aynı örnekler (ağacı son farka kadar mümkün olduğunca bölerken) veya

2) 1 örnek ve tam olarak aynı örnekler + bölünme daha önce durursa en benzer örnekler.
Buna örneklerin genelleştirilmesi denir. Benzer örnekler, ağaç bölünmelerini seçerken farklı algoritmalar tarafından farklı şekilde tanımlanır.

Ağaçların veri tabanlarına göre avantajları: genelleme ve gerekli yaprak için hızlı arama - bir milyon satırdan geçmeye gerek yoktur, yaprağa birkaç bölme ile ulaşılabilir.

Kümeleme de genelleşir. Kmeans - örneklerin kümenin merkezine yakınlığına göre, diğer yöntemler farklıdır.

Ayrıca maksimum küme sayısı = örnek sayısına bölebilirsiniz ve genelleme olmadan bir veri tabanı / yaprak benzeri elde edersiniz. Sinir ağlarının anlaşılması ve kavranması daha zordur, ancak yapraklar ve kümeler kadar açık olmasa da özünde bir veri tabanıdır.

Sonuç: ağaç öğrenimi = tıpkı bir veri tabanı gibi örnekleri ezberlemek/kaydetmektir. Mümkün olan en doğru ezberlemeden önce bölmeyi/öğrenmeyi durdurursanız,genelleme ile ezberlersiniz.

Andrew elbette öğrenmenin optimizasyon olduğu konusunu gündeme getirmek istiyor. Hayır - bu bir ezberdir. Ancak optimizasyon da mevcuttur. Öğrenme derinliği, bölünmüş yöntemler vb. ile varyasyonlar üzerinde optimizasyon yapabilirsiniz. Optimizasyonun her adımı farklı bir modeli eğitecektir. Ancak öğrenme optimizasyon değildir. Ezberlemektir.
Zeki bir bakışla ne kadar saçmaladığınızı bir bilseniz.

Ama bunu açıklayacak ne zamanım ne de isteğim var.
 
Forester #:

Eğitim hakkında...


Birkaç yıl önce yaygın (teknik olmayan) bir sitede bu ifadeyle karşılaştım: sinir ağlarına dayalı veritabanları. Genel olarak bu terimi kendim için kabul ettim.



Kendim ağaçlarla uğraşıyorum - ağaç tabanlı bir veritabanı da uygulanabilir. Bir ağaçta 1 yaprak = bir veritabanında 1 satır. Farklılıklar:



Veritabanındaki 1 satır, veritabanında depolanan verilerden sadece 1 örnek içerir. 1 yaprak şunları içerir:



1) 1 örnek ve tümüyle aynı örnekler (ağacı son farka kadar mümkün olduğunca bölerken) veya

2) 1 örnek ve tam olarak aynı örnekler + bölünme daha önce durursa en benzer örnekler.
Buna örneklerin genelleştirilmesi denir. Benzer örnekler, ağaç bölünmelerini seçerken farklı algoritmalar tarafından farklı şekilde tanımlanır.

Ağaçların veri tabanlarına göre avantajları: genelleme ve gerekli yaprak için hızlı arama - bir milyon satırdan geçmeye gerek yoktur, yaprağa birkaç bölme ile ulaşılabilir.

Kümeleme de genelleşir. Kmeans - örneklerin kümenin merkezine yakınlığına göre, diğer yöntemler farklıdır.

Ayrıca maksimum küme sayısı = örnek sayısına bölebilirsiniz ve genelleme olmadan bir veri tabanı / yaprak benzeri elde edersiniz. Sinir ağlarının anlaşılması ve kavranması daha zordur, ancak yapraklar ve kümeler kadar açık olmasa da özünde bir veri tabanıdır.

Sonuç: ağaç öğrenimi = tıpkı bir veri tabanı gibi örnekleri ezberlemek/kaydetmektir. Mümkün olan en doğru ezberlemeden önce bölmeyi/öğrenmeyi durdurursanız,genelleme ile ezberlersiniz.

Andrew elbette öğrenmenin optimizasyon olduğu konusunu gündeme getirmek istiyor. Hayır - bu bir ezberdir. Ancak optimizasyon da mevcuttur. Öğrenme derinliği, bölünmüş yöntemler vb. ile varyasyonlar üzerinde optimizasyon yapabilirsiniz. Optimizasyonun her adımı farklı bir modeli eğitecektir. Ancak öğrenme optimizasyon değildir. Ezberlemektir.

ve öğrenmenin kalitesi nasıl belirlenir?
 
Andrey Dik #:

ve eğitimin kalitesi nasıl belirleniyor?

Maksimum öğrenme kalitesi, kesinlikle doğru ezberleme ile, yani veritabanındaki tüm verilerin eksiksiz bir kaydı ile veya bir ağacı mümkün olan en son bölünmeye kadar eğiterek veya küme sayısı = örnek sayısı ile kümeleme ile olacaktır.

Bölmeyi daha erken durduran ağaçlar veya daha az kümeyle kümeleme - yapraklardaki/kümelerdeki verileri genelleştirecek ve birleştirecektir. Bunlar az eğitimli modeller olacaktır, ancak gürültü varlığında tam geri çağırmalı modellerden daha başarılı olabilirler.

MO dalının başında bir iskeleye çarpım tablosunun öğretilmesiyle ilgili bir örnek vardı. Eğitim için sonsuz sayıda olası seçenekle beslenmediğinden, orman bazen kesin cevaplar, ancak çoğunlukla yaklaşık cevaplar üretir. Açıkçası, yetersiz eğitilmiştir. Ancak genelleme yapabiliyor - bireysel ağaçların doğru cevaplarına en yakın olanları bulup ortalamasını alıyor.

Gürültü içinde öğrenirken kaliteyi değerlendirmek zordur. Özellikle de ticarette olduğu gibi gürültü örüntülerden çok daha güçlüyse.

Bu amaçla, doğrulama ve test örnekleri üzerinde değerlendirme, çapraz doğrulama, öne çekme vb. icat edilmiştir.
 
Forester #:

Maksimum eğitim kalitesi, tamamen doğru ezberlemede, yani tüm veriler veritabanına tamamen kaydedildiğinde veya bir ağacı mümkün olan en son bölünmeye veya küme sayısı = örnek sayısı ile kümelemeye kadar eğitirken olacaktır.

Bölünmeyi daha erken durduran ağaçlar veya daha az kümeyle kümeleme - yapraklardaki/kümelerdeki verileri genelleştirecek ve birleştirecektir. Bunlar az eğitimli modeller olacaktır, ancak gürültü varlığında tam geri çağırmalı modellerden daha başarılı olabilirler.

MO dalının başında bir iskeleye çarpım tablosunun öğretilmesiyle ilgili bir örnek vardı. Eğitim için sonsuz sayıda olası seçenekle beslenmediğinden, orman bazen kesin cevaplar, ancak çoğunlukla yaklaşık cevaplar üretir. Açıkçası, yetersiz eğitilmiştir. Ancak genelleme yapabilmektedir - bireysel ağaçların doğru cevaplarına en yakın olanları bulmakta ve ortalamasını almaktadır.

Gürültü içinde öğrenme ile değerlendirme yapmak zordur. Özellikle de ticarette olduğu gibi gürültü kalıplardan çok daha güçlüyse.

Eğitim kalitesinin en üst düzeye çıkarılması, yeni veriler üzerindeki tahminlerin kalitesinin en üst düzeye çıkarılmasıdır. Hiç kimse eğitim örneği üzerindeki tahminlerle ilgilenmez, çünkü bunlar zaten bilinmektedir. Bu artık öğrenme değil, yaklaştırmadır. Yaklaşıma öğrenme demezsiniz.

Örneğin, iki katmanlı bir MLP, herhangi bir keyfi fonksiyonu herhangi bir doğrulukta yaklaştırabilen evrensel bir yaklaştırıcıdır. Bu, maksimum kalitede eğitilmiş olduğu anlamına mı gelir - elbette hayır. Aksi takdirde, belirli görevler için uydurma değil, tam olarak öğrenme konusunda daha iyi olan başka sinir ağı mimarileri icat etmezlerdi.

Zayıf, ancak uzun süredir konu üzerinde çalışıyor gibi görünüyorsunuz.
 
Aleksey Nikolayev #:
Öğrenmenin olağan tanımının - model parametrelerine belirli değerler atamanın - nesi yanlış?

Özü yakalayamıyor.



Her türlü anlamsızlığı ve saçmalığı atayabilirsiniz. Tersinden başlarsak (ezberleme/hatırlama), o zaman öğrenme, yeni bilgi yaratabileceğiniz veya tanımlayabileceğiniz belirli kalıpların tanımlanmasıdır. Örnek olarak: Chat rastgele bir konu üzerine şiirler yazar.

 
mytarmailS #:
Kararınızı verin.

Yaklaştırma öğrenme değildir, ama nöronik bir yaklaştırıcıdır...

Nöronik eğitilebilir değil mi?


Biri DB'yi sınıflandırıcı sanıyor, diğeri yaklaştırma ile karıştırıyor....

Siz ne uzmanısınız? 😀
Öğrenme, optimizasyon ve yaklaşımdan daha geniş bir kavramdır. Neden bu kadar zor? Çünkü scoof'lar birlikte hareket ediyorlar mı?