Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1605

 
mytarmailS :

GMDH (grup argüman yöntemi) açısından yaptığınız şeye ( "üçüncü" örnek üzerinde test edin ) "tahmin yeteneği kriteri" denir.

İyi bir uzman olduğunu görüyorum. Matematik bilmeyenler için MGUA'nın özünü birkaç cümleyle ifade edebilir misiniz?

 
sır :

İyi bir uzman olduğunu görüyorum. Matematik bilmeyenler için MGUA'nın özünü birkaç cümleyle ifade edebilir misiniz?

farklı çekirdekler tarafından dönüştürülen özelliklerin numaralandırılmasıyla regresyon modeli (polinom, spline, önemli değil). En küçük hataya sahip en basit model tercih edilir. Piyasada yeniden eğitimden kurtarmaz.

kabaca konuşursak, bu, dış kriterlere göre en basitinin seçildiği kaba bir model kuvvetidir.

makine öğreniminin temelleri gibi)

 
mytarmailS :

Örneğin, MGUA regresyonu sadece modern rastgele orman algoritmasının regresyonu ve oradaki her türlü boost ile alay etmektir..

Boost her şeyde daha iyidir, MGUA gibi özellikler hazırlarsanız daha iyi olur

ve genel olarak ne öğreteceğinizi bilmiyorsanız umrumda değil

 
sır :

İyi bir uzman olduğunu görüyorum. Matematik bilmeyenler için MGUA'nın özünü birkaç cümleyle ifade edebilir misiniz?

Ben hiçbir şekilde uzman değilim, ne yazık ki...

Çok basit, kaba ve yanlışsa, MGUA'nın kendi kendine örgütlenme ilkesi ...


Örneğin, bir dizi özelliğimiz var.

x1, x2, x3..... x20...

bu özelliklerden bir dizi aday model oluşturulur.

m1,m2,m3.....m10...

bu modellerden en iyileri seçilir ve en iyilerinden yeni modeller oluşturulur, yine seçim .... vb ... vb. yeni verilerdeki (önceden algoritma tarafından bilinmeyen) hata azalıncaya kadar devam eder.

O algoritmalar kendini değiştirir, karmaşıklaştırır, kendi kendine organize eder... Genetik algoritmaya benzer bir şey

 
Maksim Dmitrievski :

farklı çekirdekler tarafından dönüştürülen özelliklerin numaralandırılmasıyla regresyon modeli (polinom, spline, önemli değil). En küçük hataya sahip en basit model tercih edilir. Piyasada yeniden eğitimden kurtarmaz.

kabaca konuşursak, bu, dış kriterlere göre en basitinin seçildiği kaba bir model kuvvetidir.

O zaman bu teknikte yeni ve orijinal bir şey görmüyorum.

 
mytarmailS :

bu modellerden en iyileri seçilir ve en iyilerinden yeni modeller oluşturulur, yine seçim .... vb ... vb. yeni verilerdeki (önceden algoritma tarafından bilinmeyen) hata azalıncaya kadar devam eder.

O algoritmalar kendini değiştirir, karmaşıklaştırır, kendi kendine organize eder... Genetik algoritmaya benzer bir şey

O zaman burada matematiği görmüyorum, bu daha çok beynin işi, yani kodlama. GA önemsiz bir şeydir.

Öyleyse neden herkes bu MGUA ile uğraşıyor, tezler yazıyor, bu yüzden içinde anaokulundan beri bir tür ilkel, sezgisel olarak anlaşılabilirse onları anlamak imkansız?

 
Maksim Dmitrievski :

Boost her şeyde daha iyidir, MGUA gibi özellikler hazırlarsanız daha iyi olur

ve genel olarak, ne öğreteceğinizi bilmiyorsanız umrumda değil

Aynı fikirde olmamak...

Küçük bir test yapalım, hızlıca, gözle)


her biri 1000 elemanlı dört değişken (genel rasgele) oluşturun

z1 <- norm(1000)

z2 <- norm(1000)

z3 <- norm(1000)

z4 <- norm(1000)

dördünün toplamı olarak hedef değişken y'yi oluşturun

y <- z1+z2+z3+z4


Güçlendirmeyi ve mgua'yı öğreteceğiz ve tahmin için bile öğretmeyeceğiz, sadece açıklamalarını sağlayacağız.

Numuneyi üç parçaya böldüm, bir eğitimde iki test için


yeşil MGUA

kırmızı artırma (Genelleştirilmiş Yükseltilmiş Regresyon Modellemesi (GBM))

grileştirilmiş orijinal veriler

Hedefin tüm tahmin edicilerin temel toplamı olduğunu hatırlatmama izin verin.

http://prntscr.com/rawx14

gördüğünüz gibi, her iki algoritma da mükemmel bir iş çıkardı


Şimdi işleri biraz daha zorlaştıralım

verilere kümülatif bir toplam veya eğilim ekleyin

z1 <- toplam ( rnorm (1000))

z2 <- toplam ( rnorm (1000))

z3 <- norm(1000)

z4 <- norm(1000)

ve ayrıca hedefi forma değiştirin

y <- z1 + z2 + z3

trend ve bir sıradan olan iki öngörücü eklediğimiz ortaya çıktı ve z4 hedefe hiç katılmadığı için gürültü alıyoruz

ve bu sonucu alıyoruz

http://prntscr.com/rax81b

Boostumuz nafig'e düştü, ancak MGUA ne kadar değil


MGUA'yı sadece böyle vahşi bir hedefle "öldürmeyi" başardım

y <- ((z1*z2)/3)+((z3*2)/z4)

ve o zaman bile tamamen değil, peki ya güçlendirme? )))

http://prntscr.com/raxdnz


oyun kodu

set.seed( 123 )
z1 <- cumsum(rnorm( 1000 ))
z2 <- cumsum(rnorm( 1000 ))
z3 <- rnorm( 1000 )
z4 <- rnorm( 1000 )

y <- ((z1*z2)/ 3 )+((z3* 2 )/z4)

x <- cbind.data.frame(z1,z2,z3,z4) ; colnames(x) <- paste0( "z" , 1 :ncol(x))

tr <- 1 : 500
ts <- 501 : 800
ts2<- 801 : 1000

library (gbm)
rf <- gbm(y[tr] ~ ., data = x[tr,],
          distribution = "gaussian" , n.trees = 1000 ,
           cv.folds = 5 )
best.iter.max <- gbm.perf(rf, method = "cv" )
prg <- predict(rf,x[c(tr,ts,ts2),],n.trees = best.iter.max)

library (GMDHreg)
gmd <- gmdh.gia(X = as .matrix(x[tr,]),y = y[tr],prune = 5 ,
                    criteria = "PRESS" )
prh <- predict(gmd, as .matrix(x[c(tr,ts,ts2),]))

par(mfrow=c( 1 , 3 ))
plot(head(y[tr], 30 ),t= "l" ,col= 8 ,lwd= 10 ,main = "train " )
lines(head(prg[tr], 30 ),col= 2 ,lwd= 2 )
lines(head(prh[tr], 30 ),col= 3 ,lwd= 2 )
plot(head(y[ts], 30 ),t= "l" ,col= 8 ,lwd= 10 ,main = "test " )
lines(head(prg[ts], 30 ),col= 2 ,lwd= 2 )
lines(head(prh[ts], 30 ),col= 3 ,lwd= 2 )
plot(head(y[ts2], 30 ),t= "l" ,col= 8 ,lwd= 10 ,main = "test2 " )
lines(head(prg[ts2], 30 ),col= 2 ,lwd= 2 )
lines(head(prh[ts2], 30 ),col= 3 ,lwd= 2 )


Скриншот
Скриншот
  • prnt.sc
Снято с помощью Lightshot
 
sır :

O zaman burada matematiği görmüyorum, bu daha çok beynin işi, yani kodlama. GA önemsiz bir şeydir.

Öyleyse neden herkes bu MGUA ile uğraşıyor, tezler yazıyor, bu yüzden içinde anaokulundan beri bir tür ilkel, sezgisel olarak anlaşılabilirse onları anlamak imkansız?

Bilmiyorum ama verileri çok daha iyi açıklıyor, yazıyı yazdım, kodu gönderdim

 
mytarmailS :

Aynı fikirde olmamak...

Küçük bir test yapalım, hızlıca, gözle)

R'de kurcalama arzusu yoktur (bir python kullanıyorum), belki de nedeni MGUA'nın peri regresörleri yaratmasıdır, bu nedenle yukarı çıkar. Yükseltme için aynı seçimi yaparsanız, hiçbir fark olmayacaktır.

burada orman için MGUA'da bir arama yaptım

https://www.mql5.com/ru/code/22915

RL algorithms
RL algorithms
  • www.mql5.com
Данная библиотека имеет расширенный функционал, позволяющий создавать неограниченное количество "Агентов". Использование библиотеки: Пример заполнения входных значений нормированными ценами закрытия: Обучение происходит в тестере...
 
Maksim Dmitrievski :

R'de kurcalama arzusu yoktur (bir python kullanıyorum), belki de nedeni MGUA'nın peri regresörleri yaratmasıdır, bu nedenle yukarı çıkar. Yükseltme için aynı seçimi yaparsanız, hiçbir fark olmayacaktır.

burada orman için MGUA'da bir arama yaptım

https://www.mql5.com/en/code/22915

her şeyden önce, başka hangi başarısız regresyonlar? saçmalık için sho, neden o zaman, görev daha karmaşık hale geldiğinde, MGUA da dışarı çıkıyor ??

ikincisi, benim örneğimde, MGUA ve boost için aynı verilere sahibim

üçüncüsü, herhangi bir yere dürtmenize gerek yok, neden python'da dört rastgele değer içeren bir matris oluşturmuyor ve ardından kümülatif toplamlarını yapmıyorsunuz? Güçlendirmeyi evde kontrol etmek için mi?

2 satır kod))


Orada ne cehennem olduğunu merak ediyorum