Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1547

 
Maksim Dmitrievski :

bu yüzden bilmiyorum, her zaman farklıdır

Hmm, düşünebilirsiniz, nasıl öğrenebilirim?

Bu arada, yöntemlerin etkinliğini karşılaştırmakla ilgilendiğim için verilerinize göre R'de bir model oluşturabilirim.
 
Alexey Vyazmikin :

Hmm, düşünebilirsiniz, nasıl öğrenebilirim?

Bu arada, yöntemlerin etkinliğini karşılaştırmakla ilgilendiğim için verilerinize göre R'de bir model oluşturabilirim.

orada daha iyisini yapmak imkansız, model mükemmel ve kotirin rastgele doğasını doğruluyor

daha fazla iyileştirme, yalnızca yukarıda yazdığım rastgele süreçlerle çalışmanın farklı yöntemlerinden kaynaklanabilir.

 
Maksim Dmitrievski :

orada daha iyisini yapmak imkansız, model mükemmel ve kotirin rastgele doğasını doğruluyor

daha fazla iyileştirme, yalnızca yukarıda yazdığım rastgele süreçlerle çalışmanın farklı yöntemlerinden kaynaklanabilir.

Rastgele süreçler için rastgele çözümler - benim için ideolojisi açısından çok riskli bir yöntem...

 
Maksim Dmitrievski :

ZY uzun zamandır yapmak istediklerime dönüş - MO + stoch

http://www.turingfinance.com/random-walks-down-wall-street-stochastic-processes-in-python/

Konu ilginç - özellikle atlamalı Merton modeli veya bazı varyasyonları.Sıradan difüzyondan farklı olarak, (zamanda ayrıklaştırma yoluyla) otoregresyona indirgenmediği veya bir şekilde önemsiz olmayan bir şekilde yapıldığı görülüyor. Portföy için kayan penceredeki hesaplamaların oldukça dayanılmaz olması mümkündür.

 

Rastgele orman, ayarlama imkanı olmadan tarihe uyum sağlar. Bir yıl önce, tüm seçenekleri SL'den çıkardım.

Doğrusal regresyonun kâr verme olasılığı çok daha yüksektir. Eğitim verirken, gerçek fiyatları değil, göreceli olanları beslemek gerekir.

Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0

 
Roffield :

Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0

Ne tür bir ağ yapılandırmasını seviyorsunuz? bir kurucu var

 

Yapıcı harika!

Örneğin, pek çoğu, gerekmediğinde bile "etkinleştirme işlevlerini" akılsızca kullanır. "Etkinleştirme işlevleri" = kısmi veya tam bilgi kaybıyla verileri belirli bir değer aralığına dönüştürmek - bir dosya için karma işlevi gibidir.

Girdi zaten normalleştirilmiş veriyse, katmanlar arasında "etkinleştirme işlevleri" gerekli değildir. Aynı Alglib'de "aktivasyon işlevinden" kurtulamazsınız.

Seçenekleri yinelemek ve sonuçları depolamak için Jenkins + MLFlow biçiminde tam bir değişiklik kontrol sistemim var.

Şimdi yapılandırma:

Sequential(
  ( input ): Linear(in_features= 2836 , out_features= 1000 , bias=True)
  (hidden1): Linear(in_features= 1000 , out_features= 100 , bias=True)
  (hidden2): Linear(in_features= 100 , out_features= 2 , bias=True)
  (output_activ): Softmax()
)

Tabii ki, veri aktarımındaki gecikmeler nedeniyle ağı bir video kartında nasıl eğiteceğimi hemen anlamadım. Artık kodum optimize edildi ve video kartına indirilen veri sayısını azaltarak orijinal sürümden 100 kat daha hızlı öğreniyor.

 
Roffield :

Yapıcı harika!

Örneğin, pek çoğu, gerekmediğinde bile "etkinleştirme işlevlerini" akılsızca kullanır. "Etkinleştirme işlevleri" = kısmi veya tam bilgi kaybıyla verileri belirli bir değer aralığına dönüştürmek - bir dosya için karma işlevi gibidir.

Girdi zaten normalleştirilmiş veriyse, katmanlar arasında "etkinleştirme işlevleri" gerekli değildir. Aynı Alglib'de "aktivasyon işlevinden" kurtulamazsınız.

Seçenekleri yinelemek ve sonuçları depolamak için Jenkins + MLFlow biçiminde tam bir değişiklik kontrol sistemim var.

Şimdi yapılandırma:

Tabii ki, veri aktarımındaki gecikmeler nedeniyle ağı bir video kartında nasıl eğiteceğimi hemen anlamadım. Artık kodum optimize edildi ve video kartına indirilen veri sayısını azaltarak orijinal sürümden 100 kat daha hızlı öğreniyor.

Peki ya yinelenen katman? lstm veya gru

 
Roffield :

Yapıcı harika!

Örneğin, pek çoğu, gerekmediğinde bile "etkinleştirme işlevlerini" akılsızca kullanır. "Etkinleştirme işlevleri" = kısmi veya tam bilgi kaybıyla verileri belirli bir değer aralığına dönüştürmek - bir dosya için karma işlevi gibidir.

Girdi zaten normalleştirilmiş veriyse, katmanlar arasında "etkinleştirme işlevleri" gerekli değildir. Aynı Alglib'de "aktivasyon işlevinden" kurtulamazsınız.

Seçenekleri yinelemek ve sonuçları depolamak için Jenkins + MLFlow biçiminde tam bir değişiklik kontrol sistemim var.

Şimdi yapılandırma:

Tabii ki, veri aktarımındaki gecikmeler nedeniyle ağı bir video kartında nasıl eğiteceğimi hemen anlamadım. Artık kodum optimize edildi ve video kartına indirilen veri sayısını azaltarak orijinal sürümden 100 kat daha hızlı öğreniyor.

Hız harika, ancak ikincil.
NA'nız ileriyi başarılı bir şekilde tahmin ediyor mu? Evet ise, sinyali veya en azından test cihazının sonuçlarını ileriye dönük olarak görmek ilginçtir.
 
Maksim Dmitrievski :

Peki ya yinelenen katman? lstm veya gru

Belki eklerim ama şimdi versiyonumu tamamen test etmek istiyorum. Ağın yapısını değiştirmek için koda 1 satır eklemem yeterli. Bizde metnin tercümesi yok, tarihi bir olayın tanınması var.

https://pytorch.org/docs/stable/nn.html - istediğiniz katmanı seçin ve tek satıra ekleyin.

torch.nn¶
  • pytorch.org
class ¶ A kind of Tensor that is to be considered a module parameter. Parameters are subclasses, that have a very special property when used with s - when they’re assigned as Module attributes they are automatically added to the list of its parameters, and will appear e.g. in iterator. Assigning a Tensor doesn’t have such effect. This is...