Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2606

 
Maksim Dmitrievski # :

Şöyle bir soru var:

2 model kullanılmaktadır. Biri alıp satmayı, diğeri ticaret yapmayı ya da yapmamayı öngörüyor.

Önce birincisi eğitilir, sonra nerede kötü tahmin yaptığına bakarız, bu örnekleri “ticaret yapmıyor” olarak işaretliyoruz, gerisi “ticaret” olarak iyi, ikinci modeli bunun için eğitiyoruz.

İlk model sadece eğitim sitesinde değil, ekinde de test edilir ve ikincisi her iki sitede de eğitilir.

Her iki modeli de aynı veri kümesinde yeniden eğiterek bunu birkaç kez tekrarlıyoruz. Sonuçlar, numuneler üzerinde kademeli olarak iyileşir. Ancak her zaman kontrol örneğinde değil.

Buna paralel olarak, tüm geçişlerde bir kötü ticaret günlüğü kümülatif tutulur, ikinci modeli eğitmek için "ticaret yapma" için tüm "kötü" ticaretler toplanır ve daha fazla kopya gibi bazı ilkelere göre filtrelenir. tüm paslar için kötü takaslar, onları "takas yapma" olarak işaretleme şansı artar

Örneğin, tüm eğitim yinelemeleri için her tarih için, bu sayı eşiği (ortalama, ortalama) aştığında belirli sayıda kötü işlem birikmiştir, bu işlemler "işlem yapmıyor" olarak etiketlenir. Geri kalanlar atlanır, aksi takdirde çok sayıda eğitim yinelemesi varsa tüm işlemleri hariç tutmak mümkün olacaktır.

katsayı, çıkıştaki işlem sayısını ayarlamanıza izin verir, ne kadar düşükse, o kadar fazla işlem filtrelenir

... bu noktada zaten yazmaktan bıktım ...

Böyle bir model kombinasyonu, yeni bir bağımsız sitede sonuçlarını iyileştirecek şekilde nasıl geliştirilebilir?
Bunun neden işe yarayabileceğine dair herhangi bir felsefe var mı? Modellerin her yeniden eğitim turunda doğal olarak birbirlerini iyileştirmeleri (hatalar düşer) dışında, ancak uyumdan nasıl kurtulur?

İlginç konsept!

1. Uyumdan nasıl kurtulurum. Yinelemelerden pek anlamıyorum. Neden filtreleme (ikinci) modelini bir kez eğitmiyorsunuz ve birincisinin çalışmasını iyileştirip iyileştirmediğini değerlendiremiyorsunuz. Bu durumda, sinyalleri 1'e 2 filtreleyebilir veya çıkış 2'yi giriş 1'e besleyebilirsiniz.

2. Nasıl geliştirilir.
2.1. İşaretlemeyi işlem işaretlemesinden kümelenmiş hale getirmeyi deneyebilirsiniz. Elbette, kötü sinyaller birikiyor. Ve iyiler. Kümeleri işaretliyoruz. İşlemsel olarak (girişlere / mumlara dayalı özellikler), hedef olarak öğrenebilirsiniz - iyi veya kötü bir kümedeyiz. Ve kümeler bağlamında (kümeler bağlamındaki özellikler, eğitim örneğinin bir nesnesi bir kümedir), hedef - veya aynı şekilde (iyi veya kötü bir kümedeki bir sonraki mum) veya bunun gibi eğitim yapabilirsiniz: sonraki küme iyi veya kötüdür (peki, aslında aynıdır, belki).
2.2. Bu modeller için özellik açıklamaları muhtemelen farklı olmalı, aksi halde ikinci modelin marjinal faydası düşük olacak gibi geliyor bana.


3. Kavramın arkasındaki felsefe. Ama kimin ihtiyacı var, modelin etkinliği, kâr - ölçü bu. Deneyler kuraldır, felsefe değil.)

 
Replicant_mih # :

İlginç konsept!

1. Uyumdan nasıl kurtulurum. Yinelemelerden pek anlamıyorum. Neden filtreleme (ikinci) modelini bir kez eğitmiyorsunuz ve birincisinin çalışmasını iyileştirip iyileştirmediğini değerlendiremiyorsunuz. Bu durumda, sinyalleri 1'e 2 filtreleyebilir veya çıkış 2'yi giriş 1'e besleyebilirsiniz.

2. Nasıl geliştirilir.
2.1. İşlemsel işaretlemeden küme başına işaretleme yapmayı deneyebilirsiniz. Elbette, kötü sinyaller birikiyor. Ve iyiler. Kümeleri işaretliyoruz. İşlemsel olarak (girişlere / mumlara dayalı özellikler), hedef olarak öğrenebilirsiniz - iyi veya kötü bir kümedeyiz. Ve kümeler bağlamında (kümeler bağlamındaki özellikler, eğitim örneğinin bir nesnesi bir kümedir), hedef - veya aynı şekilde (iyi veya kötü bir kümedeki bir sonraki mum) veya bunun gibi eğitim yapabilirsiniz: sonraki küme iyi veya kötüdür (peki, aslında aynıdır, belki).
2.2. Bu modeller için özellik açıklamaları muhtemelen farklı olmalı, aksi halde ikinci modelin marjinal faydası düşük olacak gibi geliyor bana.


3. Kavramın arkasındaki felsefe. Ama kimin ihtiyacı var, modelin etkinliği, kâr - ölçü bu. Deneyler kuraldır, felsefe değil.)

İlk modelin (ve ikincisinin de) genelleme yeteneğini geliştirmek istiyorum. Sinyallerini ikinci modele göre basitçe filtrelersek, ilkinin sınıflandırma hatası dahili olarak azalmayacaktır. Bu nedenle, veri setinde iki eğitilmiş model çalıştırıyoruz ve hatanın daha düşük olması için ilki için eğitimden kötü örnekleri atıyoruz. Ve ikinci hata da düşer. Ve böylece birkaç kez tekrarlıyoruz. Her seferinde daha iyi olmalı. Ama her seferinde muayene örneğinde daha iyi olmasını istiyorum ama büyük bir dağılım var.

Oraya başka ne vidalayacağımı düşünüyorum, belki sadece bazı düşünceler de işe yarar :)

 
Maksim Dmitrievski # :

İlk modelin (ve ikincisinin de) genelleme yeteneğini geliştirmek istiyorum. Sinyallerini ikinci modele göre basitçe filtrelersek, ilkinin sınıflandırma hatası dahili olarak azalmayacaktır. Bu nedenle, veri setinde iki eğitilmiş model çalıştırıyoruz ve hatanın daha düşük olması için ilki için eğitimden kötü örnekleri atıyoruz. Ve ikinci hata da düşer. Ve böylece birkaç kez tekrarlıyoruz. Her seferinde daha iyi olmalı. Ama her seferinde muayene örneğinde daha iyi olmasını istiyorum ama büyük bir dağılım var.

Orada başka ne vidalayacağımı düşünüyorum, belki sadece bazı düşünceler de işe yarar :)

2 modele ihtiyacınız olduğuna ve bunların OOS'ta sonucu iyileştireceğine emin misiniz?
Sınırı ilk modelden 0,5'e değil, 0,3 ve 0,7 veya hatta 0,1 ve 0,9'a kadar alabilirsiniz - bu şekilde düşük olasılıkla işlemler ortadan kaldırılacak ve bunlardan daha azı olacak ve model sadece 1 olacaktır.
 
Alexey Nikolaev # :

Beni yanlış anlama... Bu nedenle, doğrulanabilir ifadelere dayanmayı tercih ediyorum.

Beni yanlış anlamayın. Mantıksal yapınızın yanlışlığını yeni fark ettim: "piyasada uzun süredir devam eden algoritmalar yok, aksi takdirde er ya da geç sadece piyasada kalacaklardı." Tam olarak hangi niş içinde olduklarını gösterdiler. Neden orada ayrı ayrı varlar ve tüm pazarı ele geçirmiyorlar. Ve doğrulanmış bir örnek verdi.

Об авторе | QuantAlgos
  • www.quantalgos.ru
Приветствую вас в моем блоге. Меня зовут Виталий, занимаюсь написанием биржевых роботов c 2008 года. В 2009 и 2010 гг. участвовал в конкурсе ЛЧИ (лучший частный инвестор) под ником robot_uralpro, проводимом биржей РТС  (сейчас Московская биржа). Использовались HFT роботы, написанные на C#.  Результаты были следующие: В настоящее время продолжаю...
 
elibrarius # :
2 modele ihtiyacınız olduğuna ve bunların OOS'ta sonucu iyileştireceğine emin misiniz?
Sınırı ilk modelden 0,5'e değil, 0,3 ve 0,7 veya hatta 0,1 ve 0,9'a kadar alabilirsiniz - bu şekilde düşük olasılıkla işlemler ortadan kaldırılacak ve bunlardan daha azı olacak ve model sadece 1 olacaktır.

2 esneklik daha ile bu olasılıklar şöyle... Sadece işlem sayısı azalır, istikrar olmaz

 
Maksim Dmitrievski # :

2 esneklik daha ile bu olasılıklar şöyle... Sadece işlem sayısı azalır, istikrar olmaz

Ayrıca 2 ile istikrarınız yok ...
 
Doktor # :

Beni yanlış anlamayın. Mantıksal yapınızın yanlışlığını yeni fark ettim: "piyasada uzun süredir devam eden algoritmalar yok, aksi takdirde er ya da geç sadece piyasada kalacaklardı." Tam olarak hangi niş içinde olduklarını gösterdiler. Neden ayrı ayrı varlar ve tüm pazarı ele geçirmiyorlar. Ve doğrulanmış bir örnek verdi.

Belirli bir ifadenin fiili varlığının doğrulanması, içeriğinin doğrulanması anlamına gelmez.

Birinin yıldan yıla istikrarlı bir şekilde kazandığının kanıtlandığını (bununla ilgili sık sık sorunlar olsa da) kabul etsek bile, bunun aynı algoritma tarafından yapıldığının kanıtının nasıl göründüğü tamamen anlaşılmaz. "Bir söz söyle" ve " Sana bunu söylüyorum"dan daha anlamlı seçenekler görmek isterim.

 
Maxim Dmitrievsky # :

2 esneklik daha ile bu olasılıklar şöyle... Sadece işlem sayısı azalır, istikrar olmaz

üç kişi için daha iyi

;)

 
elibrarius # :
Ayrıca 2 ile istikrarınız yok ...

birçok seçenek, karşılaştırması zor

 
Maxim Dmitrievsky # :

birçok seçenek, karşılaştırması zor

Halihazırda 2 modelden oluşan bir çalışma grubu örneğiniz var. 1. modele sahip varyant (0,1-0,9 veya 0,2-0,8 arasında bir kesme ile) onlardan yapmak ve çevre korumaya karşı dirençlerini karşılaştırmak kolaydır.