Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1547
Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
bu yüzden bilmiyorum, her zaman farklıdır
Hmm, düşünebilirsiniz, nasıl öğrenebilirim?
Bu arada, yöntemlerin etkinliğini karşılaştırmakla ilgilendiğim için verilerinize göre R'de bir model oluşturabilirim.Hmm, düşünebilirsiniz, nasıl öğrenebilirim?
Bu arada, yöntemlerin etkinliğini karşılaştırmakla ilgilendiğim için verilerinize göre R'de bir model oluşturabilirim.orada daha iyisini yapmak imkansız, model mükemmel ve kotirin rastgele doğasını doğruluyor
daha fazla iyileştirme, yalnızca yukarıda yazdığım rastgele süreçlerle çalışmanın farklı yöntemlerinden kaynaklanabilir.
orada daha iyisini yapmak imkansız, model mükemmel ve kotirin rastgele doğasını doğruluyor
daha fazla iyileştirme, yalnızca yukarıda yazdığım rastgele süreçlerle çalışmanın farklı yöntemlerinden kaynaklanabilir.
Rastgele süreçler için rastgele çözümler - benim için ideolojisi açısından çok riskli bir yöntem...
ZY uzun zamandır yapmak istediklerime dönüş - MO + stoch
http://www.turingfinance.com/random-walks-down-wall-street-stochastic-processes-in-python/
Konu ilginç - özellikle atlamalı Merton modeli veya bazı varyasyonları.Sıradan difüzyondan farklı olarak, (zamanda ayrıklaştırma yoluyla) otoregresyona indirgenmediği veya bir şekilde önemsiz olmayan bir şekilde yapıldığı görülüyor. Portföy için kayan penceredeki hesaplamaların oldukça dayanılmaz olması mümkündür.
Rastgele orman, ayarlama imkanı olmadan tarihe uyum sağlar. Bir yıl önce, tüm seçenekleri SL'den çıkardım.
Doğrusal regresyonun kâr verme olasılığı çok daha yüksektir. Eğitim verirken, gerçek fiyatları değil, göreceli olanları beslemek gerekir.
Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0
Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0
Ne tür bir ağ yapılandırmasını seviyorsunuz? bir kurucu var
Yapıcı harika!
Örneğin, pek çoğu, gerekmediğinde bile "etkinleştirme işlevlerini" akılsızca kullanır. "Etkinleştirme işlevleri" = kısmi veya tam bilgi kaybıyla verileri belirli bir değer aralığına dönüştürmek - bir dosya için karma işlevi gibidir.
Girdi zaten normalleştirilmiş veriyse, katmanlar arasında "etkinleştirme işlevleri" gerekli değildir. Aynı Alglib'de "aktivasyon işlevinden" kurtulamazsınız.
Seçenekleri yinelemek ve sonuçları depolamak için Jenkins + MLFlow biçiminde tam bir değişiklik kontrol sistemim var.
Şimdi yapılandırma:
Tabii ki, veri aktarımındaki gecikmeler nedeniyle ağı bir video kartında nasıl eğiteceğimi hemen anlamadım. Artık kodum optimize edildi ve video kartına indirilen veri sayısını azaltarak orijinal sürümden 100 kat daha hızlı öğreniyor.
Yapıcı harika!
Örneğin, pek çoğu, gerekmediğinde bile "etkinleştirme işlevlerini" akılsızca kullanır. "Etkinleştirme işlevleri" = kısmi veya tam bilgi kaybıyla verileri belirli bir değer aralığına dönüştürmek - bir dosya için karma işlevi gibidir.
Girdi zaten normalleştirilmiş veriyse, katmanlar arasında "etkinleştirme işlevleri" gerekli değildir. Aynı Alglib'de "aktivasyon işlevinden" kurtulamazsınız.
Seçenekleri yinelemek ve sonuçları depolamak için Jenkins + MLFlow biçiminde tam bir değişiklik kontrol sistemim var.
Şimdi yapılandırma:
Tabii ki, veri aktarımındaki gecikmeler nedeniyle ağı bir video kartında nasıl eğiteceğimi hemen anlamadım. Artık kodum optimize edildi ve video kartına indirilen veri sayısını azaltarak orijinal sürümden 100 kat daha hızlı öğreniyor.
Peki ya yinelenen katman? lstm veya gru
Yapıcı harika!
Örneğin, pek çoğu, gerekmediğinde bile "etkinleştirme işlevlerini" akılsızca kullanır. "Etkinleştirme işlevleri" = kısmi veya tam bilgi kaybıyla verileri belirli bir değer aralığına dönüştürmek - bir dosya için karma işlevi gibidir.
Girdi zaten normalleştirilmiş veriyse, katmanlar arasında "etkinleştirme işlevleri" gerekli değildir. Aynı Alglib'de "aktivasyon işlevinden" kurtulamazsınız.
Seçenekleri yinelemek ve sonuçları depolamak için Jenkins + MLFlow biçiminde tam bir değişiklik kontrol sistemim var.
Şimdi yapılandırma:
Tabii ki, veri aktarımındaki gecikmeler nedeniyle ağı bir video kartında nasıl eğiteceğimi hemen anlamadım. Artık kodum optimize edildi ve video kartına indirilen veri sayısını azaltarak orijinal sürümden 100 kat daha hızlı öğreniyor.
NA'nız ileriyi başarılı bir şekilde tahmin ediyor mu? Evet ise, sinyali veya en azından test cihazının sonuçlarını ileriye dönük olarak görmek ilginçtir.
Peki ya yinelenen katman? lstm veya gru
Belki eklerim ama şimdi versiyonumu tamamen test etmek istiyorum. Ağın yapısını değiştirmek için koda 1 satır eklemem yeterli. Bizde metnin tercümesi yok, tarihi bir olayın tanınması var.
https://pytorch.org/docs/stable/nn.html - istediğiniz katmanı seçin ve tek satıra ekleyin.