Sinir ağının girişine ne beslenmeli? Fikirleriniz... - sayfa 57

 
😁
 
Ivan Butko #:

Neden bu kadar hassas davranıyorsun?



Ben tahmin edilebilir derdim.
Uyuyan birinin üzerine su dökmek gibi bir şey bu.... altına işeyecektir.
 
İyi.
Eğer öğrenme, belirli bir konudaki bazı sistemleri öğrenmeyi amaçlayan bir süreçse, o zaman sonuç ne olmalıdır? Sonucu, ne kadar iyi olduğunu bir şekilde değerlendirmek gerekir.
 

Hem biri hem de diğeri konuyla ilgili özel literatür okumak yerine, gpt sohbetini kullanıyor ve çalışmaya yaklaşımlarını derin olarak görüyor :-O

Lanet olası Pepsi Kuşağı ))))

 
mytarmailS #:

Hem biri hem de diğeri konuyla ilgili özel literatür okumak yerine, gpt sohbetini kullanın ve derinlemesine çalışmak için yaklaşımlarını düşünün :-O

Pepsi lanet nesil ))))

Pepsi'nin tadı koladan daha iyi, bunu sorun etmiyorum.

Gerçi gözlerim kapalıyken test edildiğimde birini diğerinden ayırt edemedim

O zaman bana iki kola verdiklerine eminim.
 
Bu büyüleyici sohbete devam edersek, su dökenler yine altına sıçacak, bu zaten bir gelenek 😁 Ne de olsa birileri onlara bunu öğretti, yoksa nereden bilsinler.

Buna aşırı optimizasyon denir - hüsnükuruntu. Bir şeyi öğrenmiş gibi göründüğünüzde, ama sonra yine de işe yaramadığında :)

Öğrenmek yerine ezbere öğrenirsiniz. Çünkü öğrenme süreci pratik yapmayı içerir.
 
Andrey Dik #:

Eğlenceli. Varsayılan BB'yi değiştirmenin amacı değerleri daha erken elde etmek mi?

Standart olanı değiştirmenin amacı sinir ağının kalitesini kontrol etmek değildi ve amaç = düzlüğün başlangıcını ve sonunu önceden bilmekti.

 

Eğitim hakkında...


Birkaç yıl önce yaygın (teknik olmayan) bir sitede bu ifadeyle karşılaştım: sinir ağlarına dayalı veritabanları. Genel olarak bu terimi kendim için kabul ettim.



Kendim ağaçlarla uğraşıyorum - ağaç tabanlı bir veritabanı da uygulanabilir. Bir ağaçta 1 yaprak = bir veritabanında 1 satır. Farklılıklar:



Veritabanındaki 1 satır, veritabanında depolanan verilerden sadece 1 örnek içerir. 1 yaprak şunları içerir:



1) 1 örnek ve tümüyle aynı örnekler (ağacı son farka kadar mümkün olduğunca bölerken) veya

2) 1 örnek ve tam olarak aynı örnekler + bölünme daha önce durursa en benzer örnekler.
Buna örneklerin genelleştirilmesi denir. Benzer örnekler, ağaç bölünmelerini seçerken farklı algoritmalar tarafından farklı şekilde tanımlanır.

Ağaçların veri tabanlarına göre avantajları: genelleme ve gerekli yaprak için hızlı arama - bir milyon satırdan geçmeye gerek yoktur, yaprağa birkaç bölme ile ulaşılabilir.

Kümeleme de genelleşir. Kmeans - örneklerin kümenin merkezine yakınlığına göre, diğer yöntemler farklıdır.

Ayrıca maksimum küme sayısı = örnek sayısına bölebilirsiniz ve genelleme olmadan bir veri tabanı / yaprak benzeri elde edersiniz. Sinir ağlarının anlaşılması ve kavranması daha zordur, ancak yapraklar ve kümeler kadar açık olmasa da özünde bir veri tabanıdır.

Sonuç: ağaç öğrenimi = tıpkı bir veri tabanı gibi örnekleri ezberlemek/kaydetmektir. Mümkün olan en doğru ezberlemeden önce bölmeyi/öğrenmeyi durdurursanız,genelleme ile ezberlersiniz.

Andrew elbette öğrenmenin optimizasyon olduğu konusunu gündeme getirmek istiyor. Hayır - bu bir ezberdir. Ancak optimizasyon da mevcuttur. Öğrenme derinliği, bölünmüş yöntemler vb. ile varyasyonlar üzerinde optimizasyon yapabilirsiniz. Optimizasyonun her adımı farklı bir modeli eğitecektir. Ancak öğrenme optimizasyon değildir. Ezberlemektir.
 
Forester #:

Eğitim hakkında...


Birkaç yıl önce yaygın (teknik olmayan) bir sitede şu ifadeyle karşılaştım: sinir ağlarına dayalı veritabanları. Genel olarak bu terimi kendim için kabul ettim.



Kendim ağaçlarla uğraşıyorum - ağaç tabanlı bir veritabanı da uygulanabilir. Bir ağaçta 1 yaprak = bir veritabanında 1 satır. Farklılıklar:



Veritabanındaki 1 satır, veritabanında depolanan verilerden sadece 1 örnek içerir. 1 yaprak şunları içerir:

1) 1 örnek ve tümüyle aynı örnekler (ağacı son farka kadar mümkün olduğunca bölerken)

2) 1 örnek ve tam olarak aynı örnekler + bölünme daha önce durursa en benzer örnekler.
Buna örneklerin genelleştirilmesi denir. Benzer örnekler, ağaç bölünmelerini seçerken farklı algoritmalar tarafından farklı şekilde tanımlanır.

Ağaçların veri tabanlarına göre avantajları: genelleme ve gerekli yaprak için hızlı arama - bir milyon satırdan geçmeye gerek yoktur, yaprağa birkaç bölme ile ulaşılabilir.

Kümeleme de genelleşir. Kmeans - örneklerin kümenin merkezine yakınlığına göre, diğer yöntemler farklıdır.

Ayrıca maksimum küme sayısı = örnek sayısına bölebilirsiniz ve genelleme olmadan bir veri tabanı / yaprak benzeri elde edersiniz. Sinir ağlarının anlaşılması ve kavranması daha zordur, ancak yapraklar ve kümeler kadar açık olmasa da özünde bir veri tabanıdır.

Sonuç: ağaç öğrenimi = tıpkı bir veri tabanı gibi örnekleri ezberlemek/kaydetmektir. Mümkün olan en doğru ezberlemeden önce bölmeyi/öğrenmeyi durdurursanız,genelleme ile ezberlersiniz.

Andrew elbette öğrenmenin optimizasyon olduğu konusunu gündeme getirmek istiyor. Hayır - bu bir ezberdir. Ancak optimizasyon da mevcuttur. Öğrenme derinliği, bölünmüş yöntemler vb. ile varyasyonlar üzerinde optimizasyon yapabilirsiniz. Optimizasyonun her adımı farklı bir modeli eğitecektir. Ancak öğrenme optimizasyon değildir. Ezberlemektir.
Yeniden eğitim ezberlemedir. Ezberleme ve genelleme öğrenmeye daha yakındır :)
 
Maxim Dmitrievsky #:
Aşırı öğrenme ezberlemektir. Ezberleme ve genelleme - öğrenmeye daha yakın :)

Genelleme daha çok eksik öğrenmeye benzer. Yani ezberlediniz ama tam olarak doğru değil (komşularınızı da buna dahil ettiniz...). Neredeyse C notu almış bir okul çocuğu gibi)))

Ancak bir kanunla tanımlanan bir şeyi (örneğin Ohm kanunu) ezberlersek, aşırı öğrenme olmayacaktır, az sayıda örnek ve sonsuz sayıda örnek varsa eksik öğrenme elde etmek daha kolaydır.

Örüntülerin neredeyse hiç olmadığı ve gürültülü olduğu ticaret için, gürültü ile birlikte kesinlikle doğru ezberleme bir kayıpla sonuçlanacaktır.
Bazı nedenlerden dolayı buna aşırı öğrenme adı verilmiştir. Örüntü öğrenmede olduğu gibi, doğru ezberleme kendi başına zararlı değildir. Ancak gürültü/çöp ezberlemek faydalı değildir.