Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2829
Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Genel olarak nöronlar için olmayan ve büyük bir sakalı olan gradyan iniş algoritmalarını kullanıyoruz. Google'da araştırıyoruz ve gradyan inişinin farklı yerel ekstremum tuzaklarının üstesinden nasıl geldiğini öğrendikten sonra çocukça sorular sormuyoruz. Bu, insanların yıllardır özellikle yaptığı bir şeydir.
Sizden birkaç temsili fonksiyon üzerinde öğrenmeyi/optimizasyonu test etmeniz istendi, bu iyi bir uygulamadır
Sinir ağlarının bunu mükemmel bir şekilde yaptığını düşünüyorsanız, muhtemelen yanılıyorsunuz
Öğrenmeyi/optimizasyonu birkaç temsili fonksiyon üzerinde test etmeniz önerildi, bu iyi bir uygulamadır
Sinir ağlarının bunu mükemmel bir şekilde yaptığını düşünüyorsanız, muhtemelen yanılıyorsunuz
evet... açıkçası, herkesin basit gerçekleri yeterince algılayamamasına şaşırıyorum - her şey test edilmelidir ve birileri tarafından dile getirilen dogmalara inanmak durgunluk ve bozulma anlamına gelir.
ve gradient descent ve bekprop o kadar eski ve sefil yöntemler ki, hala bazı insanlar tarafından ciddiye alınabilmeleri garip.
bu arada, genetik günümüzün en sağlam algoritması değil. tabloya şunun için dahil edilmeli... sadece her zaman gelişime açık olduğunu belirtmek için.
Evet... açıkçası, herkesin yeterince basit gerçekleri algılayamamasına şaşırdım - her şey kontrol edilmeli ve birileri tarafından dile getirilen dogmalara inanmak durgunluk ve bozulma anlamına gelir.
gradyan inişi ve bekprop o kadar eski ve sefil yöntemlerdir ki, hala herhangi biri tarafından ciddiye alınabilmeleri gariptir.
Buradaki algı, kargo-kült ve medeniyetin armağanlarını getiren ilahi R'ye inanç düzeyinde spesifiktir.
Bir yandan öğrenme, optimizasyonun özel bir durumudur, ancak diğer yandan bazı özellikleri vardır.
1) MO'da optimizasyon genellikle doğası gereği sonsuz boyutlu bir fonksiyon uzayında optimizasyon anlamına gelir. Bu, açık bir biçimde ortaya çıkar( örneğingradyan bousting), ancak örtük de olabilir. Bu durum modellerde inanılmaz bir esneklik sağlar, ancak sonlu boyutlu optimizasyonda bulunan netlik ve basitlik kaybolur. Örneğin, sonlu boyutlu bir alt uzaydaki herhangi bir ekstremum, daha yüksek boyutlu bir alt uzayda (istediğiniz kadar yüksek olabilir) bir eyer noktası olabilir.
2) İyi davranan kayıp fonksiyonlarının sonlu bir kümesi kullanılır. Bu, ilk noktadan kaynaklanan sorunları önler. Ancak kayıp fonksiyonu özelleştirilmek istenirse, bu ya imkansız ya da çok zor olacaktır.
Bir yandan, öğrenme...
Bu korkunç.
Dehşet verici olan, bir kişinin optimizasyonla ilgili makalelere gelmesi ve konuyu %20 bile bilmemesi, bu nedenle ortak bilgiyi tanımaması ve buna şaşırmasıdır....
Korkunç olan, daha da az kalifikasyona sahip insanların, guruların bilgisi olarak düşünerek kafalarına irin akıtmasıdır, çıktı bir entelektüel sakatlar sürüsüdür ...
Ve guru olmayan her türden insan da bunu memnuniyetle kabul ediyor, çünkü onlar zaten sakat ve egolarına makale diyerek kendileri irin akıtıyorlar....
işte asıl dehşet bu!!!
Korkunç olan şu ki.... bir kişi optimizasyonla ilgili makalelere geliyor ve konuyu %20 bile bilmiyor.... bu nedenle ortak bilgiyi tanımıyor ve buna şaşırıyor.
Korkunç olan, daha az niteliklere sahip insanların kafalarına irin akıtması, bunu gurulardan gelen bilgi olarak görmeleri, çıktı bir entelektüel sakatlar sürüsüdür....