Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 472

 
Maksim Dmitrievski :


yani, başka bir deyişle, MT5'teki her şey henüz test edilmedi :)

Anlamadım bunu. (Neden hiç denemeyin, zaten MT'de ne var?

Bir TS konsepti varsa, araçları seçiyoruz. MT'de var ve sistemin geri kalanıyla iyi etkileşime giriyor - onu kullanıyoruz. Kötü etkileşim - harici yazılım kullanıyoruz.

Bilgiyi sadece MT'nin mevcut işlevselliğini kullanmak için ileri geri sürmek hiç de mantıklı değil.

 
Yuri Asaulenko :

Anlamadım bunu. (Neden hiç denemeyin, zaten MT'de ne var?

Bir TS konsepti varsa, araçları seçiyoruz. MT'de var ve sistemin geri kalanıyla iyi etkileşime giriyor - onu kullanıyoruz. Zayıf etkileşim - harici yazılım kullanın.

Bilgiyi sadece MT'nin mevcut işlevselliğini kullanmak için ileri geri sürmek hiç de mantıklı değil.

Yani en başından beri hiçbir zaman hazır bir konsept yoktur, her şey bir hevestir, ne kadar çok alet o kadar iyi
 
Maksim Dmitrievski :
Yani en başından beri hiçbir zaman hazır bir konsept yoktur, her şey bir hevestir, ne kadar çok alet o kadar iyi

Bir konseptle başlıyorum, bazı yazılımlarda üzerinde çalışıyorum (Excel, SciLab, MatLab, R - bazen hep birlikte). Orada da test cihazımla test ediyorum (gerçek hayatla önemli bir fark görmedim). Sonra bir kısmını terminale aktarıyorum, geri kalanı harici kütüphanelerin bağlantısı ile C++ / C#.

İlk sistemler (2008'den beri) VBA-Excel'de yapıldı ve terminal ile mükemmel bir şekilde etkileşime girdi. VBA'nın yavaşlığı göz önüne alındığında bile performans sorunu yok. Ve genel olarak - 1m TF içinde çalışmak için bile 50 ms gecikme zamanı değil.

 
Mantıklı bir sinyale abone olmak daha kolaydır, ancak buna kimin ihtiyacı var ??? Genel olarak....!!!!
 
Maksim Dmitrievski :

Bu arada, arka arkaya birkaç sinyali saymayı önerdiğiniz diziyle ilgili makalenizde hatırlıyor musunuz, orada çevirme .. sinyallerin süperpozisyonu

Bulanık mantıkla benzer bir şeyi uygulamak için ilginç bir çözüm buldum ve öğrenme sürecine gömdüm .. sonra bir şeyler atacağım :)


Evet, evet, bu sadece bu yazıdan ..... Sadece orada net bir şekilde anlatılmamış olabilir, ancak ayrılık kavramı gerçeğini kimse iptal etmedi.

İyi ve kötü ayrımının nasıl devam ettiğini açıkça görmelisiniz, eğer model sürekli boşalıyor veya dökülüyorsa, bu zaten bir göstergedir, asıl şey doğruluk değil, bölünmenin kararlılığıdır .....

 
Understanding overfitting: an inaccurate meme in Machine Learning
  • www.kdnuggets.com
This post was inspired by a recent post by Andrew Gelman, who defined ‘overfitting’ as follows: Overfitting is when you have a complicated model that gives worse predictions, on average, than a simpler model. Preamble There is a lot of confusion among practitioners regarding the concept of overfitting. It seems like, a kind of an urban legend...
 
Vladimir Perervenko :

San Sanych.

"Aşırı takma" hakkındaki ilginç tartışmaya bakın.

İyi şanlar


Burada yazdığım ve pratiğimde kullandığım tek şey, burada aşırı uyum, yeniden eğitim olarak adlandırılan temel biliş sorununun etkisini bir şekilde azaltmak için bazı püf noktaları.


Modeli yeniden eğitme sorunu prensipte çözülmez, teorik olarak çözülmez ve bu çok uzun zamandır bilinmektedir. Bir model her zaman dış dünyanın bir yaklaşıklığı, gerçekliğin biraz kabalaştırılmasıdır. Bu nedenle, model HER ZAMAN nesneyi bazı hatalarla yansıtır. Bu, herhangi bir modelin gücü ve zayıflığıdır. Modellenen nesnenin kapsamlı bir incelemesi olmadan bir model oluşturmanın imkansız olduğu sonucu çıkar.


Alıntı yaparsanız.

NEYİ modelliyoruz?

Rastgele bir ormansa, kalıp aramayı otomatikleştiririz.

GARCH ise, teklifin istatistiksel özelliklerini modelliyoruz.

Bu HER ZAMAN bir hata olacaktır. Ve burada, bu hatanın zaman serisinin ardışık parçalarında DEĞİŞMEMESİ gereken bir tür buluşsal yöntem önerdim. Model bir sonraki bölümde tam anlamıyla farklı bir hata veriyorsa, yeniden eğitilir (fazla takılır) ve prensipte kullanılamaz.

Rastgele ormanlar için, anlayışımdaki NOISE tahmincilerini kaldırırsam, eğitilmiş modelin aynı hatayı gürültü tahmincilerinden çok daha uzun süre verdiğini buldum. Ama her zaman için bir model oluşturacak çözümlerin farkında değilim ve bu gerekli değil. Modeli hafta sonları en son verilerle yeniden eğitmekten oldukça memnunum. Ancak eğitim, gürültü tahmin edicilerini kontrol ederek başlamalıdır - zamanla setleri değişir. Yani, yalnızca modelin kendisi değil, aynı zamanda girdi verileri kümesi de değişir. Zaman serileri boyunca pencere çalışmaları yaptım, bu nedenle 25 tahmincimden sürekli 10-15 tahminci seçimi var ve bu grubun bileşimi değişiyor, yani bir şey gürültüye dönüşüyor ve sonra geri dönüyor. Hata çok kararlı ve %23 ile %27 arasında değişiyor = her zaman %30'dan az. Tahmincilerimde hata %20'den az ise böyle bir model kullanmıyorum ve bekliyorum.


not.

Anlatılanlardan diğer modellerle ilgilenmememin sebebi ortada.

 
San Sanych Fomenko :

Burada yazdığım ve pratiğimde kullandığım tek şey, burada aşırı uyum, yeniden eğitim olarak adlandırılan temel biliş sorununun etkisini bir şekilde azaltmak için bazı püf noktaları.


Konum açık.

İyi şanlar.

 
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
  • www.frontiersin.org
Clearly, this is a daunting question. The human brain is estimated to have approximately 86 billion neurons (Herculano-Houzel, 2009), and each neuron has tens of thousands of synapses (Andersen, 1990), leading to over one hundred trillion synaptic connections. On top of this astronomical complexity, one needs to map each connection or neuron to...
 
Teori ne kadar ilginç. Ama pratik olarak nasıl kullanılır? Belki bir yerde programlar şeklinde?