Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3304

 

İşte sitenin kendisinden desteklenenlerin bir listesi

https://onnx.ai/sklearn-onnx/supported.html

Makaledeki hazır örnekler için teşekkürler.

Supported scikit-learn Models#
  • onnx.ai
, # This version of the operator has been available since version 13. Absolute takes one input data (Tensor ) and produces one output data (Tensor ) where absolute value, y = abs(x), is applied to the tensor elementwise. T tensor(uint8), tensor(uint16), tensor(uint32), tensor(uint64), tensor(int8), tensor(int16), tensor(int32), tensor(int64...
 
Petros Shatakhtsyan #:


O zamanlar brokerlar henüz tik değerlerini toplamıyordu. Bunu kendim yaptım. Gerçek tik değerleri topladım ve bunları yaklaşık 6 ay boyunca porsiyonlar halinde dosyalarda sakladım. Bunları test cihazına uyguladım ve tamamen farklı bir resim elde ettim.


Bir zamanlar mantıklı bir iş yapmaya karar verdiğiniz için şanslısınız... artık brokerler kene kotasyonlarını toplamıyor, ancak bunları bir yerden alıyor / tedarik ediyor; MT sunucu güncellemeleriyle bağlantılı olabilir.

Bazen çıplak gözle görebilirsiniz - işte taze keneler ve işte genel bir saçmalık. Ve dakikalarla bile

aslında, gerçek kenelerin arşivleri olduğu gibi, belirli bir DC'den geldi - çok pahalı bir emtia. (altı çizili olsa bile)

 
Petros Shatakhtsyan #:

Şaşırmana şaşırdım.

Bunu açıklayamam, bu daha doğru. Oluşturulanlar için bir kene scalper yazmak, bir kase yapmak bir şeydir. Bir diğeri, önceden ayarlanmış olan SL üzerinden kapanış ile hiç bir scalper değildir. Oluşturulan kenelerde SL negatif kayma ile yürütülür. Ama yine de bir kase.
 
Maxim Kuznetsov #:

bir zamanlar mantıklı bir iş yapmaya karar verdiğiniz için şanslısınız... artık brokerler kene kotasyonlarını toplamıyor, başka bir yerden alıyor / tedarik ediyor; MT sunucu güncellemeleriyle bağlantılı olabilir.

Bazen çıplak gözle görebilirsiniz - işte taze keneler ve işte genel bir saçmalık. Ve dakikalarla bile

aslında, gerçek kenelerin arşivleri olduğu gibi, belirli bir DC'den geldi - çok pahalı bir emtia. (altı çizili olsa bile)

Yanılıyorsunuz. Her komisyoncunun kendisi gerçek keneler toplar ve ertesi günün test cihazında önceki günün gerçek kenelerini alabilirsiniz.

Ve filtrelemeden sonra komisyoncu tarafından MT5'e gönderilen tam olarak bu keneler. "Gerçek tiklere dayalı her tik" modunda kontrol edebilir veya kopyalayabilirsiniz.

 

Sinir ağları için BP gösteriminin nasıl düzgün bir şekilde yapılacağına dair iyi bir makale. Elbette FFT'lerden kurtulunabilir. Ve farklı modellerin daha fazla karşılaştırılması.

Temel fark, ön işlemenin ağ mimarisinin içine yerleştirilmiş olmasıdır. Ancak ayrı olarak da yapılabilir.

LSTM, dönemler arası değişimleri dikkate almadığı için arka planda kalmaktadır.

Bousting de testlerine göre sıralamanın en altına yakın bir yerdedir.
 
Maxim Dmitrievsky #:

Sinir ağları için BP gösteriminin nasıl düzgün bir şekilde yapılacağına dair iyi bir makale. Elbette FFT'lerden kurtulunabilir. Ve farklı modellerin daha fazla karşılaştırılması.

Temel fark, ön işlemenin ağ mimarisine dahil edilmiş olmasıdır. Ancak ayrı olarak da yapılabilir.

LSTM, dönemler arası değişimleri dikkate almadığı için arka planda kalmaktadır.

Bousting de testlerine göre sıralamanın en altına yakın bir yerde.
Metnin seviyesi oldukça yüksek, ancak bilimlerini çok dönemli serilere uyguluyorlar ve bunlar açıkça fiyat değil. Tabii ki, yerel radyo amatörleri tartışacaktır)
 
Çok uzun zaman önce forumda birisi bu etkinin adını vermişti (henüz bulamadım), çünkü SB'ye yakın serilerin bir periyodu varmış gibi görünüyor. Bu etki, Fourier aracılığıyla süreçlerde periyodikliği "bulduğunda" bilimde birçok utanç verici anla ilişkilendirilir ve radyo amatörleri bu nedenle forumda asla yaşamayacaktır).
 
Birisi bana çoklu test sorununu açıklayabilir mi?
Optimizasyon sırasında neden daha fazla iterasyon olursa, aşırı eğitim olasılığı daha fazla artar?


Hayır, anladığım kadarıyla ne kadar çok arama yaparsanız (yineleme) rastgele olmayan bir şeye benzeyen rastgele bir şey bulma olasılığınız o kadar artar.....

Ancak bir fikir bulduysak ve parametreleri 10000 yerine 10 iterasyonda eşleştirdiysek, bu eğitimsiz bir model olarak kabul edilebilir mi?

Sonuçta,"biz bulduk" ifadesi de bir tür düşünce sürecini (yinelemeleri) ima etmektedir.


Nihai model, beyin mi yoksa bilgisayar iterasyonları mı olduğunu ve ikisi arasında bir fark olup olmadığını nasıl biliyor?


Bu soru Prado'nun makalesini okuduktan sonra ortaya çıktı

Pseudo-Mathematics and Financial Charlatanism: The Effects of Backtest Overfitting on Out-of-Sample Performance
  • papers.ssrn.com
We prove that high simulated performance is easily achievable after backtesting a relatively small number of alternative strategy configurations, a practice we
 
Aleksey Nikolayev #:
Çok uzun zaman önce forumda birisi bu etkinin adını vermişti (henüz bulamadım), çünkü SB'ye yakın serilerin bir periyodu varmış gibi görünüyor. Bu etki, Fourier aracılığıyla süreçlerde periyodiklik "bulunduğunda" bilimde pek çok utanç verici anla ilişkilendirilir ve forumda bu nedenle radyo amatörleri asla hayatta kalamaz).

Bunun tersi nasıl kanıtlanır?

Benim görüşüme göre, zamana bağlı olaylar var - aynı haberler. Bence bunları üç alt örneğe ayırırsak - beklenen, daha kötü, daha iyi ve bağlamı dikkate alırsak, piyasa katılımcılarının benzer davranışlarını fark edeceğiz.

Bir başka seçenek de malların mevsimselliği.

 
mytarmailS parametreleri 10000 yerine 10 iterasyonda eşleştirdiysek, bu eğitimsiz bir model olarak kabul edilebilir mi?

Sonuçta,"biz bulduk" ifadesi de bir tür düşünce sürecini (yinelemeleri) ima etmektedir.


Nihai model, beyin mi yoksa bilgisayar iterasyonları mı olduğunu ve ikisi arasında bir fark olup olmadığını nasıl biliyor?


Bu soru Prado'nun makalesini okuduktan sonra ortaya çıktı

Aşırı öğrenme, nadir görülen olayların ezberlenmesinden kaynaklanır. Bu olgular, neden ve sonucu açıklayan bir model olmadığı için tamamen istatistiksel olarak izole edilir.

Bununla birlikte, bir kayıp her zaman modelin aşırı eğitildiği anlamına gelmez.