Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3163

 
Ivan Butko #:

Acentelere oyun oynamayı öğreterek forex öğretmeye çalışmakla ilgili görüş.

Herhangi bir balık var mı, belki böyle bir şey denedi, herhangi bir deneyim.
Bu tipik bir RL veya deepRL veya optimizasyon problemi
Aslında hepsi aynı şey ama farklı)
 
Forester #:

Başka bir sorun buldum.
M5'in 5000 satırında (3,5 hafta) haftada bir eğitim ile iyi bir varyant buldum. Ve tüm verileri 300 satıra kaydırmaya karar verdim - Cumartesi günleri değil, Salı günleri eğitim gibi. Sonuç olarak, kârlı olan OOS modeli kârsız hale geldi.
Bu yeni 300 satır (toplamın yaklaşık %8'i), biraz değişen veriler için daha iyi hale gelen diğer çipleri ve diğer bölünmeleri ortaya çıkardı.
Kaydırmayı 50000 satır için 300 oranında tekrarladım. Yeni satırların yalnızca %0,8'i gibi görünüyor. Ancak 5000 satırdaki kadar güçlü olmasa da OOS üzerindeki değişiklikler de önemlidir.

Genel olarak sadece pencerenin boyutuna değil, aynı zamanda pencerenin başlangıcına da bir uyum vardır. Küçük ofsetler sonuçta büyük bir fark yaratmaktadır. Güçlü özellikler yoktur, her şey 50/50 ± %1-2 sınırındadır.

Bu, ağaçlar için ortak bir sorun gibi görünüyor - sağlamlık eksikliği.

Daha ayrıntılı (matstat açısından) bölme kurallarına geçerek bazı iyileştirmelerin mümkün olabileceğine dair zayıf bir umut var. Bu, geçenlerde hakkında bir makaleye bağlantı verdiğim "fark ağaçları" gibi bir şey. Ya da CHAID ki-kare istatistiği gibi bir şey.

Elbette bu her derde deva bir çözüm değildir ve bu belirli bölünmüş kural örneklerinin bizim için işe yarayacağı da bir gerçek değildir. Ancak bölünmüş kuralların yaratıcı bir şekilde ele alınabileceğine ve alınması gerektiğine dair bir örnektir.

Matstat'tan çıkarılacak ana fikir, bazı solcu nedenlerle değil, kritik bir p değerine ulaşıldığında ağacın büyümesini durdurmaktır.
 
Forester #:

Başka bir sorun buldum.
M5'in 5000 satırında (3,5 hafta) haftada bir eğitim ile iyi bir varyant buldum. Ve tüm verileri 300 satıra kaydırmaya karar verdim - Cumartesi günleri değil, Salı günleri eğitim gibi. Sonuç olarak, kârlı olan OOS modeli kârsız hale geldi.
Bu yeni 300 satır (toplamın yaklaşık %8'i), biraz değişen veriler için daha iyi hale gelen diğer çipleri ve diğer bölünmeleri ortaya çıkardı.
Kaydırmayı 50000 satır için 300 olarak tekrarladım. Yeni satırların yalnızca %0,8'i gibi görünüyor. Ancak 5000 satırdaki kadar güçlü olmasa da OOS üzerindeki değişiklikler de önemlidir.

Genel olarak sadece pencerenin boyutuna değil, aynı zamanda pencerenin başlangıcına da bir uyum vardır. Küçük ofsetler sonuçta büyük bir fark yaratmaktadır. Güçlü özellikler yoktur, her şey 50/50 ± 1-2% sınırındadır.

Hangi model?

 
СанСаныч Фоменко #:

Hangi model?

ahşap
 
Forester #:
ahşap
Örüntüye sahip bir çekirdek kümesi bulmanız ve yalnızca onun üzerinde eğitim yapmanız gerekir. Grafiğin herhangi bir parçası üzerinde olabilir, aşma yoluyla bulunabilir. Aksi takdirde, gürültü modelin konsantre olmasına izin vermez. Şu anki trend çekirdek kümeler - küçük temsili alt örnekler. Oldukça basittir ve sonuç verir.
 

Ağaçlar ve takviyeli öğrenme hakkında ilginç bir makale.....

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/

============================

ANA FİKİR

2.2 Motivasyon

Kısacası, önerilen takviyeli öğrenme ağacı (RLT) modeli, özel bir ayırma değişkenleri seçimi ve gürültü değişkenlerinin bastırılması türüne sahip geleneksel bir rastgele orman modelidir. Bu özellikler, her bir iç düğümde takviyeli öğrenme mekanizması uygulanarak kullanılabilir hale getirilir. Öncelikle takviyeli öğrenmenin etkisini gösteren bir dama tahtası örneğini ele alalım : X ~ uni f [ 0, 1 ] p ve E ( Y | X ) = I { I ( X (1) 0 .5) = I ( X (2) >0 .5)} Bu yapının olağan rastgele ormanlar kullanılarak tahmin edilmesindeki zorluk , iki güçlü değişkenden hiçbirinin önemsiz etkiler göstermemesidir. Bu iki değişkene bölümlemeden elde edilen anlık ödül, yani tahmin hatalarındaki azalma, gürültü değişkenlerinden herhangi birine bölümlemeden elde edilen ödülle asimptotik olarak aynıdır. Dolayısıyla , p nispeten büyük olduğunda , X (1) ya da X (2) ' nin ayırma değişkeni olarak seçilmesi pek olası değildir. Bununla birlikte , X ( 1 ) veya X (2 )' ye bölünmenin daha sonraki bölünmeler için gelecekte önemli faydalar sağlayacağını önceden biliyorsak, anlık ödüllerden bağımsız olarak herhangi bir değişkene bölünmeyi güvenle zorlayabiliriz.

=========================

Peki, ve R'de buna uygun paket

https://cran.r-project.org/web/packages/RLT/RLT.pdf

Reinforcement Learning Trees
Reinforcement Learning Trees
  • www.ncbi.nlm.nih.gov
In this paper, we introduce a new type of tree-based method, reinforcement learning trees (RLT), which exhibits significantly improved performance over traditional methods such as random forests (Breiman, 2001) under high-dimensional settings. The innovations are three-fold. First, the new method implements reinforcement learning at each...
 
Forester #:
ahşap

Tam adı ne? Yoksa ev yapımı mı?

Uzun yıllardır farklı "ahşap" modeller kullanıyorum ve hiç böyle bir şey görmedim.

 
mytarmailS #: Bununla birlikte, X (1) veya X (2) üzerinde bölünmenin daha sonraki bölünmeler için gelecekte önemli faydalar sağlayacağını önceden biliyorsak, anlık ödüllerden bağımsız olarak herhangi bir değişken üzerinde bölünmeyi güvenle zorlayabiliriz.

Bunu zorlayabilirim, ancak X1, X2 veya X157'den hangisini seçmem gerektiğini bilmiyorum.

 
СанСаныч Фоменко #:

Tam adı ne? Yoksa ev yapımı mı?

Uzun yıllardır farklı "ahşap" modeller kullanıyorum ve hiç böyle bir şey görmedim.

Ev yapımı. Deney olanakları sınırlı değildir....
 
Maxim Dmitrievsky #:
Bir örüntüye sahip bir çekirdek kümesi bulmanız ve yalnızca bunun üzerinde eğitmeniz gerekir. Grafiğin herhangi bir parçası üzerinde olabilir, numaralandırma yoluyla aranır. Aksi takdirde, gürültü modelin konsantre olmasına izin vermez. Şu anki trend çekirdek kümeler - küçük temsili alt örnekler. Oldukça basittir ve sonuç verir.

Nasıl arama yapılır? Tüm parçaları (örneğin 100'e 5000 pp) gözden geçirin ve bu modeldeki diğer 500.000 satırın diğer 500.000 satırı ne kadar başarılı bir şekilde tahmin ettiğine bakın?