Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 428
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Açıkça görülüyor ki, pratikte burada kimsenin karşılaştırma yapmadığını düşünüyorum :) Sonunda diplerning'in ormanlara göre avantaj sağlamadığı ortaya çıkarsa boşuna uğraşmamak için bilgi arayacağım. Ve bileşen MLP olduğu için, vermeyebilir ..
Bu arada 2'den fazla katmanı olan her şeye diplerning, 2 gizli katmana sahip MLP'ye de diplerning denir. Vladimir'in yukarıdaki bağlantıdaki makalede anlattığı derin ağları kastettim.
KESİNLİKLE YANLIŞ. Bu bilgiyi nereden alıyorsun?
Tahmin edicilerin en önemli olduğunu yazmalarına rağmen, modeller yaklaşık olarak aynı çalıştığı için .. ancak bu bir teori, pratikte bir model seçiminin de çok önemli olduğu ortaya çıkıyor, örneğin hız ve arasında bir uzlaşma. kalite, çünkü NN genellikle uzundur . ..
DNN Çok hızlı, doğrulandı
Eh, liba aracılığıyla bir grup P - MT5, pratikte hız ve rahatlık açısından kusurlu , sol yazılım olmadan bir yerele veya MT5'ten P sunucusuna doğrudan bir bağlantıya ihtiyacınız var, ancak bir yerel daha iyidir. µl başına gerekli olan sinir ağını c ++ 'dan yeniden yazmak için 1 kez ve bu kadar.
Neyi kontrol ettiler? sineklerim var
Oh, IMHO'yu eklemeyi unuttum
Uygulamaya dayalı IMHO
İyi şanlar
Derin öğrenme (ayrıca derin yapılandırılmış öğrenme veya hiyerarşik öğrenme olarak da bilinir), birden fazla gizli katman içeren yapay sinir ağlarının (YSA) öğrenme görevlerine uygulanmasıdır. Derin öğrenme, göreve özel algoritmaların aksine, öğrenme veri temsillerine dayanan daha geniş bir makine öğrenimi yöntemleri ailesinin parçasıdır. Öğrenme denetimli , kısmen denetimli veya denetimsiz olabilir.
Otomatik kodlayıcılarla diplerning gelince, evet, hızlı, ancak henüz onlara ulaşmadım, bu yüzden mantıklı bir soru vardı - RF'ye göre herhangi bir avantajı var mı?
ps optimize edici de uçar mı? ya buluttaysa?
https://en.wikipedia.org/wiki/Deep_learning
Derin öğrenme (ayrıca derin yapılandırılmış öğrenme veya hiyerarşik öğrenme olarak da bilinir), birden fazla gizli katman içeren yapay sinir ağlarının (YSA) öğrenme görevlerine uygulanmasıdır. Derin öğrenme, göreve özel algoritmaların aksine, öğrenme veri temsillerine dayanan daha geniş bir makine öğrenimi yöntemleri ailesinin parçasıdır. Öğrenme denetimli , kısmen denetimli veya denetimsiz olabilir.
Otomatik kodlayıcılarla diplerning gelince, evet, hızlı, ancak henüz onlara ulaşmadım, bu yüzden mantıklı bir soru vardı - RF'ye göre herhangi bir avantajı var mı?
ps optimize edici de uçar mı? ya buluttaysa?
https://en.wikipedia.org/wiki/Deep_learning
1. Bu tanımı nereden buldunuz? Ciddi misin? Zaman geçtikçe ciddi kaynaklara bağlantılar bulacağım.
2. DNN'nin ön eğitim ile ana avantajı transfer öğrenmesidir. Çok daha hızlı, daha doğru ve... Darch paketini kullanın
3. Herhangi bir optimizasyon R'de yapılmalıdır. Daha hızlı, daha şeffaf ve daha esnek.
İyi şanlar
1. Bu tanımı nereden buldunuz? Ciddi misin? Zaman geçtikçe ciddi kaynaklara bağlantılar bulacağım.
2. DNN'nin ön eğitim ile ana avantajı transfer öğrenmesidir. Çok daha hızlı, daha doğru ve... Darch paketini kullanın
3. Herhangi bir optimizasyon R'de yapılmalıdır. Daha hızlı, daha şeffaf ve daha esnek.
İyi şanlar
"Derin öğrenme" terimi daha geniş anlamda anlaşılabilmesine rağmen, çoğu durumda (yapay) sinir ağları alanında uygulanmaktadır.
https://habrahabr.ru/company/wunderfund/blog/314242/
ve bu yüzden
Belki de hepsi yalandır bilmiyorum)
tabii ki IMHO
Tahminciler ne cehennemde? Zaman serisi tahmin edicidir͵
(c) koymayı unutmuşum :))
(ler) koymayı unuttum :))
Ve kimden alıntı yaptın?
“Derin öğrenme” terimi daha geniş anlamda anlaşılabilmesine rağmen, çoğu durumda (yapay) sinir ağları alanında uygulanmaktadır.
https://habrahabr.ru/company/wunderfund/blog/314242/
ve bu yüzden
Belki de hepsi yalandır bilmiyorum)
tabii ki IMHO
Hayır, yalan söylemezler. Aşağıda bir açıklama var (hiçbir şekilde bitirmeyeceğim bir makaleden :(
Tanıtım
Araştırma ve uygulamanın ana yönleri
Şu anda, derin sinir ağlarının incelenmesi ve uygulanmasında (sadece çok katmanlı tam bağlantılı sinir ağlarından - MLP'den bahsediyoruz), gizli katmanlarda nöron ağırlıklarının ilk başlatılmasına yaklaşımda farklılık gösteren iki ana akış oluşmuştur.
Birincisi : Sinir ağlarının, özellikle gizli katmanların sayısı 3'ten fazla arttığında, nöronların gizli katmanlarda başlangıçta başlatılma şekline son derece duyarlı olduğu iyi bilinmektedir. Bu sorunu çözmek için ilk itici güç Profesör G. Hynton tarafından önerildi. Önerinin özü, sinir ağının gizli katmanlarındaki nöronların ağırlıklarını, RBM (sınırlı Boltzmann makinesi) veya AE'den (otomatik kodlayıcı) oluşan otomatik ilişkisel ağların denetimsiz öğrenmesi sırasında elde edilen ağırlıklarla başlatmaktı. Bu Yığılmış RBM (SRBM) ve Yığılmış AE (SAE), çok sayıda etiketlenmemiş veri üzerinde belirli bir şekilde eğitilir. Bu tür bir eğitimin amacı, verilerdeki gizli yapıları (temsiller, görüntüler) ve bağımlılıkları ortaya çıkarmaktır. MLP nöronlarının eğitim öncesi ağırlıklarla başlatılması, MLP'yi optimuma en yakın çözüm uzayına yerleştirir. Bu, MLP'nin sonraki ince ayarının (eğitiminin), daha az eğitim dönemiyle daha az miktarda etiketli veri kullanmasını mümkün kılar. Birçok uygulama için (özellikle "büyük veri"nin işlenmesinde) bunlar kritik avantajlardır.
İkincisi: Bir grup bilim insanı (Bengio ve diğerleri), gizli nöronların ilk başlatılması için özel yöntemlerin, özel aktivasyon fonksiyonlarının, stabilizasyon ve öğrenme yöntemlerinin geliştirilmesi ve araştırılmasına odaklandı. Bu yöndeki ilerlemeler, esas olarak, görüntü tanıma, metin analizi ve sınıflandırmada ve bir dilden diğerine canlı konuşma çevirisinde şaşırtıcı sonuçlar gösteren derin evrişimli ve tekrarlayan sinir ağlarının (DCNN, RNN) hızlı gelişimi ile ilişkilidir. Bu sinir ağları için geliştirilen fikirler ve yöntemler, daha az başarı ile MLP'ye uygulanmaya başlandı.
Günümüzde pratikte her iki yön de aktif olarak kullanılmaktadır. Bu iki yaklaşımın karşılaştırmalı deneyleri [ ], bir yaklaşımın diğerine göre önemli avantajlarını ortaya çıkarmadı, ancak yine de bir tane var. Önceden eğitilmiş sinir ağları, neredeyse eşit sonuçlara sahip eğitim ve hesaplama kaynakları için çok daha az örnek gerektirir. Bazı alanlar için bu çok önemli bir avantajdır.
İyi şanlar
Bugün, pratikte her iki yön de aktif olarak kullanılmaktadır. Bu iki yaklaşımın karşılaştırmalı deneyleri [ ], bir yaklaşımın diğerine göre önemli avantajlarını ortaya çıkarmadı, ancak yine de bir tane var. Önceden eğitilmiş sinir ağları, neredeyse eşit sonuçlarla eğitim ve hesaplama kaynakları için çok daha az örnek gerektirir. Bazı alanlar için bu çok önemli bir avantajdır.
İyi şanlar
Son zamanlarda, daha önce aşina olduğum GARCH'a geri döndüm. Yıllarca süren makine öğreniminden sonra beni en çok şaşırtan şey, GARCH'ı para birimleri de dahil olmak üzere finansal zaman serilerine uygulama konusunda çok sayıda yayın oldu.
Derin ağlar için benzer bir şey var mı?