Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2723
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Daha fazla rastgelelik var, bu yüzden işe yaraması için uğraşmanız gerekiyor.
Seriyi bileşenlerine ayırabilir, rastlantısallığı bulabilir, deterministik kısmı bulabilirsiniz. Rastlantısal olanı atın, gerisini bırakın... BP işleme için standart bir durum ...
Ama hayır, bu da işe yaramıyor.
Yeni verilerde bir noktada rastgele deterministik hale gelecek ve deterministik rastgele olacak....
Yani ayrıca HİÇBİRİ)
seriyi bileşenlerine ayırabilir (ayrıştırma), rastgele olanı bulabilir, deterministik kısmı bulabilirsiniz. Rastgele olanı atın, gerisini bırakın... BP işleme için standart bir durum ...
Ama hayır, o da işe yaramıyor.
Yeni veriler üzerinde bir noktada rastgele deterministik hale gelecek ve deterministik de rastgele.... hale gelecektir.
Yani o da değil).
Bu senin fantezin, gerçek değil.
Şu ana kadar gördüğüm şu:
veri var, diyelim ki 100 bin gözlem, ben buna "X.big" diyeceğim.
1) ilgilendiğimiz şeyi seçiyoruz (örüntü, kural, olay, TS'den sinyal), ben buna "başlangıç kuralı" diyorum (Alexey Funtz aktivasyonu. İsim son derece talihsiz ama...).
2) veriden "ilk kuralı" seçiyoruz ve şimdi 100 bin değil 100-1000 gözlemimiz var, arama uzayını "X.small" küçülttük.
3) "X.small" içinde tam ölçekli bir özellik aramaya başlıyoruz, özellikleri sıralı kurallar şeklinde görüyorum, kurallar genetik programlama yoluyla otomatik olarak üretiliyor, tam ölçekli bir arama istiyorum, ancak bunu yapıp yapamayacağımdan emin değilim
4) oluşturulan özniteliklerin bir dizisi modele beslenir, örneğin bir seferde 1000 adet.
5) model (bazı AMO) özellikleri önemine göre seçer ve iyi özellikleri kaydeder, yeni bir dizi alır, vb....
6) arama sonucunda belirli bir " başlangıç kuralına " göre birkaç bin çalışan nitelik elde edeceğiz.
Dolayısıyla, tüm bunları bir model olarak adlandırırsak, modelin kendisi milyarlarca özellik bulur ve gerekli olanı seçer.
Bu senin fantezin, gerçek değil
Şimdiye kadar gördüğüm bu:
Bir veri var, diyelim ki 100 bin gözlem, buna "X.big" diyeceğim.
1) ilgilendiğimiz şeyi tanımlarız (örüntü, kural, olay, TS'den gelen sinyal), ben buna "başlangıç kuralı" diyorum (Alexey Funtz. aktivasyon. isim son derece talihsiz ama...).
2) Verilerden "başlangıç kuralını" seçiyoruz ve artık 100 bin değil 100-1000 gözlemimiz var, çünkü "X.small" arama uzayını azalttık.
3) "X.small" da özelliklerin tam ölçekli bir aramasını başlatıyoruz, özellikleri sıralı kurallar şeklinde görüyorum, kurallar genetik programlama yoluyla otomatik olarak oluşturuluyor, tam ölçekli bir arama istiyorum, ancak çalışıp çalışmayacağından emin değilim.
4) Oluşturulan özelliklerin bir dizisi modele beslenir, örneğin bir seferde 1000 adet.
5) model özellikleri önem sırasına göre seçer ve iyi özellikleri kaydeder, yeni bir dizi elde eder, vb....
6) arama sonucunda belirli bir " başlangıç kuralına " göre birkaç bin çalışma niteliği elde ederiz.
Dolayısıyla, tüm bunlara bir model dersek, modelin kendisi milyarlarca özellik bulur ve gerekli olanı seçer.
Yine 25... Bu, anlam bakımından 3 sınıflı bir sınıflandırmadan farklı değildir.
Tekrar 25. Anlam olarak 3 sınıflı bir sınıflandırmadan farklı değildir
Bir veri kümesi oluşturayım ve kimin algoritmasının daha iyi olduğunu göreyim.
"Çalmak" - öyle mi dedin? Utanmazsın, bunu söyleyebilirim.
Ticaret, otomatik ticaret sistemleri ve ticaret stratejilerinin test edilmesi üzerine forum.
Ticarette makine öğrenimi: teori, uygulama, ticaret ve daha fazlası
Aleksey Vyazmikin, 2020.12.03 19:11
Yani fikir, modeli değerlendirmek ve model aslında kafa karıştırıcı hedefleri çözüyor ve bu durumda başarısını değerlendirebiliriz, sadece her şeyin ne kadar kafa karıştırıcı olduğunu görmek için değil.
Basamaklı öğrenme yöntemini denemeyi düşünüyorum (kendi bulduğum bir terim - farklı bir şey olabilir). Grafikler, eğitimin başarılı olduğu alanlar olduğunu gösteriyor - bu alanı terk edin ve bu alanın ötesine geçenleri, daha önce sol alanın dağılımına giren örneklerden çıkardıktan sonra tekrar eğitmek için. Bunu zaten elle yapmayı denedim - etki iyiydi, şimdi otomatikleştirmeyi düşünüyorum, ancak ikinci gün hala şans yok - etkinin kazara olmasından korkuyorum - üzülmek istemiyorum. Sizin bu konudaki fikriniz nedir? Python'da bunu yapmanın kolay olduğunu düşünüyorum.
Alıntı yapıyorum:
"
Kendi hatalarını analiz edip düzeltebilecek ve sonuçlarını yinelemeli olarak iyileştirebilecek bir algoritma yazmak istiyoruz. Bunu yapmak için, iki sınıflandırıcıdan oluşan bir grup almayı ve bunları aşağıdaki diyagramda önerildiği gibi sırayla eğitmeyi öneriyoruz.
"
"
Bu yaklaşımın sezgisi, karışıklık matrisi terminolojisinde, kaybedilen işlemlerin temel model için birinci türden sınıflandırma hataları olduğudur. Yani, yanlış pozitif olarak sınıflandırdığı durumlardır. Metamodel bu tür vakaları filtreler ve gerçek pozitifler için 1, diğer her şey için 0 puan verir. Temel modeli eğitmek için metamodel veri kümesini filtreleyerek Hassasiyetini, yani doğru alım ve satım tetikleyicilerinin sayısını artırırız. Aynı zamanda, metamodel mümkün olduğunca çok sayıda farklı sonucu sınıflandırarak Recall (tamlık) değerini artırır.
"
Fikirler aynı, ancak siz uygulamayı yaptınız ve ayrıntıları çözdünüz - ben sadece konsepti söyledim ve deneylerimi ve uygulama kodumu yayınladığımdan emin değilim.
Bunu size şu anda ne hakkında olduğunu anlamayabileceğiniz ve daha sonra anladığınızda kullanabileceğiniz bir bağlamda hatırlattım. Ve anlamamak, yetersiz davranmak ve insanların kişilikleri ve mantıkları hakkında değer yargılarınızı ifade etmek için bir neden değildir.
Bir veri kümesi oluşturayım ve kimin algoritmasının daha iyi olduğunu göreyim.
Veri kümesi nelerden oluşacak? Girdi olarak sadece alıntılar alıyorum.
"Çaldı" mı dedin sen? Utanmaz biri, bunu söyleyebilirim.
Alıntı:
"
Kendi hatalarını analiz edip düzeltebilecek ve sonuçlarını yinelemeli olarak iyileştirebilecek bir algoritma yazmak istiyoruz. Bunu yapmak için, iki sınıflandırıcıdan oluşan bir grup almayı ve bunları aşağıdaki diyagramda önerildiği gibi sırayla eğitmeyi öneriyoruz.
"
"
Bu yaklaşımın sezgisi, karışıklık matrisi terminolojisinde, kaybedilen işlemlerin temel model için birinci türden sınıflandırma hataları olduğudur. Yani, yanlış pozitif olarak sınıflandırdığı durumlardır. Metamodel bu tür vakaları filtreler ve gerçek pozitifler için 1, diğer her şey için 0 puan verir. Temel modeli eğitmek için metamodel veri kümesini filtreleyerek Hassasiyetini, yani doğru alım ve satım tetikleyicilerinin sayısını artırırız. Aynı zamanda, metamodel mümkün olduğunca çok sayıda farklı sonucu sınıflandırarak Recall (tamlık) değerini artırır.
"
Fikirler aynı, ancak siz uygulamayı yapmış ve ayrıntıları çözmüşsünüz - ben sadece konsepti söyledim ve deneylerimi ve uygulama kodumu yayınladığımdan emin değilim.
Bunu, ne hakkında konuştuğumuzu şimdi anlamayabileceğiniz ve daha sonra, anlayış geldiğinde kullanabileceğiniz bir çerçevede hatırlattım. Ve anlamamanın yetersiz davranmak ve insanların kişilikleri ve mantıkları hakkında değer yargılarınızı ifade etmek için bir neden olmadığını.
Öyleyse makaledeki kodu alalım ve kontrol edelim. Henüz bir şey yoksa neden neden bahsettiğimizi anlamalıyım.
Bu tür uygulamaların birçok varyantına sahibim, yeniden eğitmek yerine yeniden eğitmek, taban çizgilerine göre yeniden eğitmek ve benzerleri dahil.
Özellikle bunu yapmaya başladığınızda, sonuç başlangıçta planlanan fanteziden farklıdır
Veri kümesi nelerden oluşacak? Girdi olarak sadece alıntılar alıyorum
Son 200 parça ve bir işaretleyici için OHLS fiyatları, zaman ekleyebilirsiniz.
OHLS fiyatları son 200pc ve bir etiket, zaman eklenebilir.
200 parça mı? Ne kadar az. Bende etiket yok, otomatik bölümleme var.
Yeniden yazmam gerekecek.