Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1854

 
nasıl yani, borsada OI arşivi yok ya da ne? bazı ücretli hizmetler var, belki satıyorlar
 
Maksim Dmitrievski :
nasıl yani, borsada OI arşivi yok ya da ne? bazı ücretli hizmetler var, belki satıyorlar
Arşivin olmadığı tek nokta bu. Geliştiricilere, geçmişten alınabilmeleri için OI'yi kopyaya dahil etmeleri uzun zamandır önerilmiştir. Ama bazı sınırlamalar var gibi görünüyor. Bir seçenek olarak, bana danışmanı yapan arkadaşa sorabilirim. Her zaman yazıyor, ama tüm enstrümanlarda değil. Sadece göstergenin eğrisi nedeniyle yazmayı bıraktım :-(
 

Farklı hata algılama yöntemlerinin davranışında garip bir özellik buldum. Regresyon modeli. Denetimli öğrenme y = 0 veya 1 . Titanik veriler.

   oob  RMSEr     AvgEr     AvgRelEr    Train RMSEr     AvgEr     AvgRelEr

        0.409762  0.333394  0.431368          0.406325  0.330199  0.430042
        0.384805  0.293965  0.377680          0.380747  0.289936  0.377605
        0.383891  0.286546  0.356373          0.370912  0.275152  0.358349
        0.370671  0.261466  0.321370          0.353781  0.250322  0.326013
        0.380332  0.259588  0.299060          0.337633  0.227993  0.296931
        0.388428  0.248587  0.245976          0.309293  0.191325  0.249176
        0.401764  0.237416  0.195562          0.273932  0.150077  0.195456

Train'e göre, her şey olması gerektiği gibi, ne kadar çok öğrenirsek, tüm yöntemler için o kadar az hata olur.

OOB'ye göre, RMSE hatası 0.370671'e ulaşır ve ardından yeniden eğitimin başladığını gösteren büyümeye başlar. Ancak AvgEr ve AvgRelEr daha da düşmeye devam ediyor. Bana tüm hataların eşzamanlı olarak davranması gerektiği gibi geldi, yani. RMSE ile birlikte büyümeye başlamalıydı.
Hesaplama formülleri:

 for (r= 0 ;r<rows;r++){
  RMSEr += Sqr (pred[r] - y[r]);
  AvgEr += fabs (pred[r] - y[r]);
}
//После суммирования:
RMSEr= sqrt (RMSEr / rows);
AvgEr = AvgEr / rows;

Hesaplamalar çok benzer (kare alma (Sqr) ve mutlak değer (fabs) işareti kaldırır), ancak eğrilerin davranışı farklıdır...
Sınıflandırma modeliyle eğitimi tekrarladım, RMSE'nin 0.370671'e ulaştığı noktada da bir minimumu var.
Bu tür bir hata davranışıyla karşılaşan var mı? Bu nasıl açıklanabilir?

 
elibrarius :

Farklı hata algılama yöntemlerinin davranışında garip bir özellik buldum. Regresyon modeli. Denetimli öğrenme y = 0 veya 1 . Titanik veriler.

Train'e göre, her şey olması gerektiği gibi, ne kadar çok öğrenirsek, tüm yöntemler için o kadar az hata olur.

OOB'ye göre, RMSE hatası 0.370671'e ulaşır ve ardından yeniden eğitimin başladığını gösteren büyümeye başlar. Ancak AvgEr ve AvgRelEr daha da düşmeye devam ediyor. Bana tüm hataların eşzamanlı olarak davranması gerektiği gibi geldi, yani. RMSE ile birlikte büyümeye başlamalıydı.
Hesaplama formülleri:

Hesaplamalar çok benzer (kare alma (Sqr) ve mutlak değer (fabs) işareti kaldırır), ancak eğrilerin davranışı farklıdır...
Sınıflandırma modeliyle eğitimi tekrarladım, RMSE'nin 0.370671'e ulaştığı noktada da bir minimumu var.
Bu tür bir hata davranışıyla karşılaşan var mı? Bu nasıl açıklanabilir?

Ancak bu aslında, optimizasyon sırasında hatanın önce azaldığı ve dolayısıyla büyümeye başladığı bir konudur. Tamamen teoride, yeniden eğitimin hata büyümesinin başlamasıyla başladığını varsayarsak, o zaman aslında eğitimin hata büyümeye başladığı anda veya ondan hemen önce durdurulması gerekir. Tanımın kendisiyle ilgili. Bunu hangi değerlendirme yöntemlerinin uygulayacağı başka bir sorudur, ancak yeniden eğitimin başladığının bir işareti olarak hatanın büyümeye başlaması dahicedir. Ayakta alkışlıyorum... Alay etmeden :-) Şimdi bunu hayata geçirmeme neyin izin vereceğini düşüneceğim...
 
Michael Marchukajtes :
Ancak bu aslında, optimizasyon sırasında hatanın önce azaldığı ve dolayısıyla büyümeye başladığı bir konudur. Tamamen teoride, yeniden eğitimin hata büyümesinin başlamasıyla başladığını varsayarsak, o zaman aslında eğitimin hata büyümeye başladığı anda veya ondan hemen önce durdurulması gerekir. Tanımın kendisiyle ilgili. Bunu hangi değerlendirme yöntemlerinin uygulayacağı başka bir sorudur, ancak yeniden eğitimin başladığının bir işareti olarak hatanın büyümeye başlaması dahicedir . Ayakta alkışlıyorum... Alay etmeden :-) Şimdi bunu hayata geçirmeme neyin izin vereceğini düşüneceğim...

Bu, aşırı antrenmanı belirlemek için iyi bilinen bir yöntem, sanırım yaklaşık 50 yıl, yani. sinir ağlarının ve ağaçların ortaya çıkışının en başından beri. Örneğin, V. Perervenko'nun makalelerine bakın.
Bu durumda hataların farklı davranışları bana açık değil. Yeniden eğitimin başlangıcı RMSE tarafından belirlenebilir, ancak başkaları tarafından belirlenemez.

 
elibrarius :

Bu, aşırı antrenmanı belirlemek için iyi bilinen bir yöntem, sanırım yaklaşık 50 yıl, yani. sinir ağlarının ve ağaçların ortaya çıkışının en başından beri. Örneğin, V. Perervenko'nun makalelerine bakın.
Bu durumda hataların farklı davranışları bana açık değil. Yeniden eğitimin başlangıcı RMSE tarafından belirlenebilir, ancak başkaları tarafından belirlenemez.

Mdya??? İşte ben bir losharayım :-)
 
elibrarius :

Farklı hata algılama yöntemlerinin davranışında garip bir özellik buldum. Regresyon modeli. Denetimli öğrenme y = 0 veya 1 . Titanik veriler.

Train'e göre, her şey olması gerektiği gibi, ne kadar çok öğrenirsek, tüm yöntemler için o kadar az hata olur.

OOB'ye göre, RMSE hatası 0.370671'e ulaşır ve ardından yeniden eğitimin başladığını gösteren büyümeye başlar. Ancak AvgEr ve AvgRelEr daha da düşmeye devam ediyor. Bana tüm hataların eşzamanlı olarak davranması gerektiği gibi geldi, yani. RMSE ile birlikte büyümeye başlamalıydı.
Hesaplama formülleri:

Hesaplamalar çok benzer (kare alma (Sqr) ve mutlak değer (fabs) işareti kaldırır), ancak eğrilerin davranışı farklıdır...
Sınıflandırma modeliyle eğitimi tekrarladım, RMSE'nin 0.370671'e ulaştığı noktada da bir minimumu var.
Bu tür bir hata davranışıyla karşılaşan var mı? Bu nasıl açıklanabilir?

SMA ve EMA gibi, AvrEr daha geç - anladığım kadarıyla - bir sayı oyunu.

 
Keras'lı herhangi biri LSTM için nasıl veri hazırlanacağını anladı mı?
 
Michael Marchukajtes :
Arşivin olmadığı tek nokta bu. Geliştiricilere, geçmişten alınabilmeleri için OI'yi kopyaya dahil etmeleri uzun zamandır önerilmiştir. Ama bazı sınırlamalar var gibi görünüyor. Bir seçenek olarak, bana danışmanı yapan arkadaşa sorabilirim. Her zaman yazıyor, ama tüm enstrümanlarda değil. Sadece göstergenin eğrisi nedeniyle yazmayı bıraktım :-(

Misha senin için video kaydettim birazdan yükleyeceğim

 
Maksim Dmitrievski :

Misha senin için video kaydettim birazdan yükleyeceğim

Haydi. Bakalım nasıl bir hayvan :-)