Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3124

 
Renat Akhtyamov #:

Wha

şiir ve kitap yazmak için

içine gir.

Bu sizin işiniz ve muhtemelen daha karlı

O kadar aptalsan YouTube'a girebilirsin.
 
Maxim Dmitrievsky #:
Model önyargılıdır. Bu yüzden onu böyle bir yanlılık olmadan öğrenmeye zorlamamız gerekiyor. Ama önce yanlılık katsayılarını bulmamız gerekiyor, diyelim ki regresyonda olduğu gibi bir eğim veya serbest bir terim (intercept). Bu terimin traine ve OOS'a göre değişmeyeceği şekilde eğitmesini sağlarsak ne olur. Temel olarak kozulu kitaplardan alıntı.

Catbusta ve diğer modellerde, eğitim sırasında etiketlere ağırlık atayabilirsiniz. Örneğin, ofset çıktısı alınır, daha sonra ağırlıklara dönüştürülür ve model zaten traine üzerinde bulunan düzeltme faktörleri ile eğitilir. Bu yollardan biridir.

Diyelim ki 3 aydır yukarı doğru bir küresel trend var. Fiyat% 7 oranında arttı. Aynı zamanda bir gün içinde her iki yönde de %2'ye varan değişiklikler oluyor.
1. barın H1, 2. barın ..... retournamentlerine ne kadar ağırlık verilmelidir? 100 bar? Ve fişlerin geri kalanı. Bilimsel olarak (veya en azından deneysel olarak) gerekçelendirilmiş herhangi bir formül olduğundan şüpheliyim.
Yüzlerce ağırlık vermek, uygun bir model arayışını daha da zorlaştıracaktır. Zaten çok sayıda hiperparametre var.

 
Forester #:

Diyelim ki 3 aydır küresel olarak bir yükseliş trendi var. Fiyat %7 oranında arttı. Aynı zamanda günde her iki yönde de %2'ye varan değişiklikler oluyor.
1. barın H1, 2. barın .... getirilerine ne kadar ağırlık verilmelidir? 100 bar? Ve fişlerin geri kalanı. Bilimsel olarak (veya en azından deneysel olarak) gerekçelendirilmiş formüller olduğundan şüpheliyim.
Yüzlerce ağırlık vermek, uygun bir model arayışını daha da zorlaştıracaktır. Zaten bir hiperparametreler denizi var.

Sebep ve sonuç konusunda net bir kesinlik olmadığında, sadece rastgele deneyler yoluyla. Çok güvenilir değil ama başka yolu da yok.

Bilimsel olarak geçerli bir Frisch-Wu-Lovell formülü var. Anlaşılan o kitabı okumamışsınız.

Elbette şöyle devam edebilirsiniz: bu seviyeden sıçradı, bu eğrinin altına atladı ve haberlerde her şey tekrar yıkıldı... ama kimse böyle bir formülün kullanışlılığını kanıtlamadı. Eğer rastlantısallıkla oynuyorsak, o zaman zevkle oynamalıyız.
 
Maxim Dmitrievsky #:
Sebep ve sonuç konusunda net bir kesinlik olmadığında,

Birkaç tik zaten fiyatın gelecekteki yönünü tahmin ediyor.

Elbette bunu saatlik veya günlük çubukta göremezsiniz.

İşte size bir öneri.

Ve prensip olarak görmemelisiniz.

 
Uladzimir Izerski #:

Ve prensip olarak, yapmamalısınız.

+
 
Forester #:
Küresel (sadece 1-1,5 yıllık) trend yükseldiğinde satış modeli sarkmaya başlar. İşlemden kazanmak için bir fırsat bulur, ancak OOS'de düşüşe geçer.
Belki de bir model tarafından al|sat seçimi ile ilk varyant daha iyi olacaktır. Ancak küresel eğilime uyum sağlarsa, eğilim değişikliği anlarında boşalacaktır. Ve muhtemelen yıllarca tek yönlü işlem yapacaktır.

Modelin aşırı eğitiminin ana işareti, TRAIN ve OOS üzerindeki bir sapmadır. Böyle bir tutarsızlık varsa, o zaman her şey atılmalıdır, her şey boştur, tüm yolculuk yanlıştır.

 
СанСаныч Фоменко #:

Model aşırı eğitiminin ana işareti, traine ve OOS üzerindeki bir sapmadır. Böyle bir tutarsızlık varsa, o zaman her şey atılmalıdır, her şey boştur, tüm yürüyüş yanlıştır.

Eski bilgiler.

Mahalanobis ile ne yaptığınızı daha iyi anlatın, biz de dönelim.
 
Maxim Dmitrievsky #:

eski bilgiler.

Bana mahalanobis ile ne yaptığınızı söyleyin, bir tur atalım.

Eski bilgiler (Model yeniden eğitiminin ana işareti,traine ve OOS üzerindeki bir sapmadır).

Elbette modası geçmiş. Uygulanırsa, yaptığınız her şeyin tüm p-kare'lerinizi efsanevi dengeye atmak zorunda kalacağından şüpheleniyorum.


Mahalanobis ile ne yaptığınızı bana daha iyi anlatın, biz de bir deneyelim.

Bilmiyorum.

R'de fastmatrix::Mahalanobis(x, centre, cov, inverted = FALSE) paketi vektörler arasındaki Öklid mesafesini sayar.

Buna neden ihtiyacımız var?

Tahmin edicinin tahmin gücüne, yani farklı sınıfları ve gelecekte tahmin etme yeteneğine ihtiyacımız var, böylece tahmin gücündeki dalgalanmalar minimum, en azından% 10 içinde. Bu yüzden farklı bir yaklaşım kullanıyorum, hesaplamaların sonuçlarını bir kez yayınladım.

 
СанСаныч Фоменко #:

eski bilgiler (Modelin yeniden eğitilmesinin ana işareti,traine ve OOS üzerindeki bir tutarsızlıktır).

Elbette modası geçmiş. Uygulandığında, tek yapmanız gerekenin efsanevi denge için tüm p-karelerinizi atmak olduğundan şüpheleniyorum.


Bize mahalanobis ile ne yaptığınızı söyleyin, biz de bir deneyelim.

Bilmiyorum.

R paketinde fastmatrix::Mahalanobis(x, centre, cov, inverted = FALSE) vektörler arasındaki Öklid mesafesini sayar.

Buna neden ihtiyacımız var?

Tahmin edicinin tahmin gücüne, yani farklı sınıfları ve gelecekte tahmin etme kabiliyetine ihtiyacımız var, böylece tahmin gücündeki dalgalanmalar minimum, yani en azından %10 içinde olacak. Bu yüzden farklı bir yaklaşım kullanıyorum, hesaplamaların sonuçlarını bir kez yayınladım.

Peki sizin bilinmeyenlerinize neden ihtiyacımız var, onlar hakkında yazmanın ne anlamı var?
 
Maxim Dmitrievsky #:
mahalanobis

Mahalanobis hakkında soru sordunuz, cevapladım ve sadece cevaplamakla kalmadım, neden kullanmadığımı da yazdım.