Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 448
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
sınıflandırıcınızdaki amaç fonksiyonu nedir?
Genel olarak, MLP'nin korkunç bir canavar olduğu, ticaret için çirkin bir engelleyici ve taviz vermeyen, özellikle de gerçek nöronların çalışma mekanizmasını çok ilkel bir şekilde kopyaladığı için ve aslında beyinde olduğu gibi olmadığı sonucuna vardım :) sadece normal çalışan ve umut verici olan NN, herhangi bir görüntüyü tanımak için evrişimsel ns'dir, ancak nasıl tahmin edileceğini hiç bilmiyorlar ve eğer öyleyse, basit ve hızlı sınıflandırıcılar topluluğu yeterlidir.
Bayes sınıflandırıcısı daha da iyidir, ancak RF'den daha kötüdür.
İlginç bir şekilde, "çirkin canavarlar" hakkında doğrudan zıt sonuca vardım.))
RF için, önemsiz olmayan bir görev olan tahmin edicileri, en azından doğrusal bağımsızlıklarının gerekliliğini hesaba katarak seçmek gerekir. MLP Sadece bir zaman serisini atlıyorum ve gereksinimler zayıf. bağımsızlığa, seyrek zaman serileriyle beslenen (birkaç TF'ye benzer) birkaç NS komitesi tarafından karar verilir. Gerçek ticaret için Ulusal Meclis'in zaman gecikmelerinin önemsiz olduğuna inanıyorum.
Henüz gerçek TS'ye ne olacağını bilmiyorum, ancak NS oldukça eğitilebilir görünüyor. Eğitilmiş NN çıktı grafiğinin bir parçasına bakın. Şimdiye kadar ne kadar doğru öğrendiğini söyleyemem.) Ama öğreniyor.))
"Çirkin canavarlar" hakkında doğrudan zıt sonuca varmam ilginç.))
RF için, önemsiz olmayan bir görev olan tahmin edicileri, en azından doğrusal bağımsızlıklarının gerekliliğini hesaba katarak seçmek gerekir. MLP, ben sadece zaman serisinden vazgeçtim ve gereksinimler lin. bağımsızlığa, seyrek zaman serileriyle beslenen (birkaç TF'ye benzer) birkaç NS komitesi tarafından karar verilir. Gerçek ticaret için Ulusal Meclis'in zaman gecikmelerinin önemsiz olduğuna inanıyorum.
Henüz gerçek TS'ye ne olacağını bilmiyorum, ancak NS oldukça eğitilebilir görünüyor. Eğitilmiş NN çıktı grafiğinin bir parçasına bakın.
Evet, neden, sadece çizelgeye osilatörler şeklinde tahmin ediciler atın ve orada lineer bağımlı mı yoksa lineer olmayan mı olduklarını gözle görebilirsiniz) Sayıya gerek yok. NN ayrıca yeniden eğitilebilir, başlangıçta orada değilse veya çelişkiliyse, hiçbir şeyden süper doğrusal olmayan ilişkiler ortaya çıkaramaz.
Yoksa polinomlarla girdilerin boyutunu artıran ve daha sonra SVM ve başka bir oyun aracılığıyla en bilgilendirici olanları bırakan Jpredictor'da olduğu gibi NS'nin önünde bir nükleer makine kullanmak mı gerekiyor? Bu polinomların nasıl yeniden eğitileceği zor olabilir.
Evet, neden, sadece çizelgeye osilatörler şeklinde tahmin ediciler atın ve orada lineer bağımlı mı yoksa lineer olmayan mı olduklarını gözle görebilirsiniz) Sayıya gerek yok. NN ayrıca yeniden eğitilebilir, başlangıçta orada değilse veya çelişkiliyse, hiçbir şeyden süper doğrusal olmayan ilişkiler ortaya çıkaramaz.
Her şey göründüğü kadar basit değil. SanSanych bir yıldır tahmin edicilerle uğraşıyor ve bir ormandan diğerine (paketten pakete) atlıyor.
Yoksa girdilerin boyutunu polinomlar ve daha sonra SVM ve başka bir oyun aracılığıyla artıran Jpredictor'da olduğu gibi NS'nin önünde bir nükleer makine kullanmak gerekli midir?
Evet, neden, sadece çizelgede osilatörler şeklinde tahmin ediciler atın ve orada lineer bağımlı mı yoksa lineer olmayan mı olduklarını gözle görebilirsiniz)
PS Bu arada, MLP, tek katmanlı P.'nin aksine, doğası gereği doğrusal değildir ve doğrusal olmayan özellikleri genelleştirme konusunda oldukça yeteneklidir.
belki yapabilirler, RF de, ama daha az yeniden eğitilmezler
Hedef yok, toplamdaki tüm tahmin ediciler için ortalamadan ne kadar uzak olursa, bu ortalamaya o kadar hızlı yaklaşmaları gerektiği ilkesine göre çalışır, yani. Bayes sınıflandırıcı ilkesine göre çalışır, öyle ağırlıklar bulur ki, toplamda, tahmin ediciler her bir özel durumda ortalamadan en büyük sapmayı verir ve sonunda geri yakınsamaları gerekir. Pekala, tahmin edicileri durağan bir biçimde aldığımız için, ortalamanın 0 olduğu açıktır. Çıktı >0 ise satarız, < ise alırız.
Öğretmenli mi yoksa öğretmensiz mi eğitimin olduğu tam olarak belli değil mi? bir öğretmen varsa, sınıflandırıcı için satın alma sinyali nedir?
Genel olarak, sinir ağlarının RF'ye göre hiçbir avantajı yoktur, uzun süre kabul edilirler, hata daha büyüktür.. hızlı bir şekilde eğitmek istiyorsanız, o zaman kesinlikle RF + optimizer
NS'nin hızıyla ilgili olarak.
Özellikle bunun için hız üzerine bir deney yaptım. Bunun için katman yapısına sahip bir MLT alındı [15, 15, 15, 8, 2]. Eğitim örnek boyutu: girdi - 15 x 10378, çıktı - 2 x 10378.
Bu veriler üzerinde 10 dönemlik MLP eğitimi yaklaşık 10 dakikadır.
Verilerle doğrudan çalışma - 15 x 10378 giriş sinyali 3 saniyeden daha kısa sürede hesaplanır. Onlar. ~0,0003 sn/örnek.
Bir TS oluşturmak için fazlasıyla yeterli.)
NS'nin hızıyla ilgili olarak.
Özellikle bunun için hız konusunda bir deney yaptım. Bunun için katman yapısına sahip bir MLT alındı [15,15.15,8,2]. Eğitim örnek boyutu: girdi - 15 x 10378, çıktı - 2 x 10378.
Bu veriler üzerinde 10 dönemlik MLP eğitimi yaklaşık 10 dakikadır.
Verilerle doğrudan çalışma - 15 x 10378 giriş sinyali 3 saniyeden daha kısa sürede hesaplanır. Onlar. ~0,0003 sn/örnek.
Bir TS oluşturmak için fazlasıyla yeterli.)
Bir şey çok hızlı, bu hangi L-BFGS algoritmasına göre saatte mb olarak eğitilmelidir - birkaç saat? Ayrıca 15 giriş yaptım, ancak sadece bir gizli nöron 15-20 katmanı, Alglib NN'yi eğittim ... kısacası, beklemedim ve giriş vektörlerinin boyutunu küçülttüm) 10k vektörlü 3 giriş için eğitildi Bir gizli katman ile 5-10 dakika. Ve bu yavaş bir geri yayılım değil, 1-3 dönemli hızlı bir geri yayılımdır. yüzde i5
Ve 10 dakika ile bile, hazır bir stratejiniz olmadığını ve bir strateji bulmak için optimize edicide N'inci sayıdaki tahmin edicileri, vektör uzunluklarını, gizli katmanların sayısını vb. sıralamanız gerektiğini hayal edin. . . .